
Истражувачи од Универзитетот во Цирих активирале модели со ВИ со посебно програмирани идентитети за да се расправаат со реални корисници во групата r/changemyview на редит, во која се дебатира и за важни општествени прашања и за тривијални теми и се доделуваат поени за објави што промениле нечиј став.
Во текот на четири месеци тајно биле објавени повеќе од 1.000 коментари генерирани од ВИ за најразлични дебати: на пример дали агресивноста на питбулите е вина на расата или на сопственикот, дали живеењето со родителите е решение за кризата за домување или дали програмите за ДЕИ (диверзитет, правичност, инклузија) биле осудени на пропаст уште од почетокот. Се претставувале како „советник за трауми“, дури и како „жртва на силување“.
Успеале да разубедат изненадувачки голем број корисници. Генерираните коментари просечно добиле повисоки оценки во системот во споредба со оние од луѓето (кои исто така можеле да користат алатки со вештачка интелигенција).
Кога членовите на популарната група дознале дека во заедницата им биле инфилтрирани провокатори и дека биле злоупотребени како лабораториски глувци, реагирале огорчено и го нарекле експериментот „неетички, срамен и крајно вознемирувачки“.
Модераторите побарале да не се објавува истражувањето, бидејќи било направено тајно и спротивно на правилата. Редит пред неколку години го ребрендираше слоганот во „срцето на интернетот“ за да го апострофира својот „органскиот карактер“ во време кога на социјалните медиуми доминираат алгоритми.
Истражувачите, пак, се оправдуваат дека експериментот морало да биде спроведен тајно за да се соберат квалитетни податоци. Тие добиле дозвола од етичкиот комитет на Универзитетот во Цирих. На Редит и на пошироката заедница на интернет ѝ порачуваат дека резултатите нудат вредни сознанија за способностите на јазичните модели со ВИ да променат став на луѓе за да се спречи да бидат злоупотребени за опасни цели, како ширење говор на омраза или манипулација со јавното мислење пред избори.