Редит, или како што се нарекува „насловната на интернетот“, е полн со банални теми и коментари. Меѓу нив една привлече внимание, но не заради својата содржина. „Најдов начин да испржам белки од јајце без тавче“, гласи нишката, после што следат неколку коментари, меѓу кои такви кои изразуваат сомнеж дека е тоа можно, но и други кои велат дека ќе се потрудат да го направат, па дури и нудат научна литература од областа на историјата на подготвување јајца.
Но овие текстови не се генерирани од луѓе, туку од ботови. И такви, на разни навидум блесави теми, на Редит има секојдневно - од геополитика на Западна Сахара, до глуперлаци од типот птици со раце.
Ова е само дел од големиот број „разговори“ креирани од ботови, тренирани така за да го имитираат стилот на човечките. Ова со белките е креирано од корисник на Редит со алатка наречена GPT-2, генератор базиран на јазичко учење кој беше промовиран во февруари од ОпенАИ, една од водечките лаборатории за вештачка интелигенција.
Една од главните грижи на оваа лабораторија е - разбирливо - начинот на кој оваа алатка може да биде користена за ширење лажни информации, ама лажни на сите начини, и во смисла на автор и во смисла на содржина. Исто така текстот може потенцијално да ги имитира луѓето кои имаат произведено многу онлајн текст (односно имаат произведено доволно содржина за машината да може да ги „научи“ нивните стилови), како и едноставно да генерира тролање на социјалните мрежи.
GTP-2 е пример на техника која се нарекува „јазично моделирање“ и вклучува обука на алгоритам кој предвидува следен најверојатен збор во реченица. Тој е „нахранет“ со 8 милиони онлајн статии, и претставува најобемен алгоритам до сега. Генерално функционира како опцијата на Гугл за авто-комплетирање или предвидување текст за пишување пораки. Но наместо да нуди сугестии од еден збор, врз основа на пример од само една реченица тој може да генерира цели пасуси. На пример, ако на системот му понудите стих од Шекспир, тој ќе продолжи да генерира одговори во шекспировски стил. Ако му дадете наслов од вести, тој ќе генерира текст кој изгледа како статија.
Креаторите на овој алгоритам велат дека го направиле за на компјутерите да им овозможат подобро совладување на природните јазици, што пак може да го подобри препознавањето на говор (како во случаите со Сири и Алекса), како и машинскиот превод (како во Гугл транслејт).
Но како што тој се шири онлајн и почнува да се користи и од луѓе-аматери кои со него прават кратки приказни, песни па дури и рецензии на ресторани, тимот на ОпенАИ е се позагрижен дека нивната моќна алатка наскоро ќе ја уништи довербата во што и да е што го читаме онлајн. Тие за ова беа свесни уште при лансирањето на програмата, во февруари, кога паралелно објавија и блог пост во кој се вели дека не ја објавуваат целосната верзија заради „загриженост околу можни малициозни злоупотреби“. Па сепак, од тогаш објавија пообемна верзија на моделот, токму оној кој сега се користи за лажни Редит нишки.
Некои велат дека компанијата намерно претерува кога ги нагласува можните опасности за да генерира возбуда околу нивното истражување. За нив заканата кога станува збор за моделирање јазик е на дното на листата. Но самиот термин „неврални лажни вести“ звучи морничаво, а и ако се знае дека секој синтетички текст релативно лесно се открива заради тоа што содржи „статистички потпис“, речиси како отпечаток од прст, ова за „обичниот“ читател не прави голема разлика. Плус луѓето и самите се доволно добри во генерирање лажни информации, без помош од машините, така што овие можат само да ја зголемат опасноста од нивното помасовно производство и ширење.
Кога коментаторот на Гардијан го прашал ботот на ГПТ-2 во врска со неговиот капацитет за ширење дезинформации, машината одговорила - „Фактот што не можеме да го пронајдеме името на оној кој всушност ја постирал статијата е доволно добар знак. Сепак, ова лице се уште ги користи социјалните мрежи за постирање на лажни вести, со јасна цел“.
Тину-нину...