Испитувањата на јавното мислење ќе мора да се прифаќаат со голема доза на претпазливост, додека не се воведе ефикасен механизам што ќе открива дали резултатите се корумпирани од ботови програмирани да се претставуваат како граѓани, се предупредува во ново истражување од Универзитетот Дартмут.
За да се испита ранливоста на онлајн анкетите била создадена едноставна алатка со ВИ, која оперира со прашања од најмногу 500 зборови. При 43.000 тестирања, алатката незабележано поминала 99,8% од проверките, не направила грешка во логистичките задачи и дејствувала како човек.
Одговорите биле прилагодени врз основа на случајно доделени демографски податоци. Кога се претставувала како лице со понизок степен на образование давала поедноставни одговори.
Ова не се груби ботови. Тие размислуваат на секој одговор и се однесуваат како вистински, внимателни луѓе. Податоците изгледаат сосема легитимно, вели авторот на студијата Шон Вествуд, вонреден професор во Дартмут.
Тој укажува дека злоупотребата може да предизвика големи последици. Алатката може да овозможи надворешно мешање во избори. Без оглед на јазикот со кој се обучувале, ботовите давале беспрекорни одговори на англиски јазик. Важи и обратното.
При истражувањето биле користени податоци од изборите во САД лани. Со програмирано фаворизирање на демократите или републиканците можело да се оперира со рејтинзи во ранг од 1 до 97%.
Тие претставуваат закана и за манипулирање со научни истражувања – на илјадници анкети за менталното здравје, на кои се базираат студии за психологија или за следење на економски показатели.
Намерно корумпирани податоци од анкети може да го отрујат целиот научен систем, предупредува Вествуд.