Вештачката интелигенција е закана за Википедија?

Меѓу големиот број последици од (барем за нас, лаиците) неочекувано брзиот подем на генеративната вештачка интелигенција, е дилемата околу корисноста или ризикот да се работи со големи јазични модели за генерирање содржини. На пример на најкористениот извор на информации, отворената енциклопедија - Википедија.

Кога излезе ЧетГПТ многумина беа љубопитни а потоа и задоволни што овие алатки можат да генерираат прилично артикулиран текст. Други се загрижија дека напредокот во оваа област ќе ги укине работните места на новинарите и другите пишувачи на онлајн (а кој знае, можеби и на не-онлајн) содржини. 

Википедија, како отворена енциклопедија, и до сега не се сметаше за нешто што треба да се цитира со 100%-тен степен на доверба, туку како првичен извор, кој одговорниот корисник би требало да го спореди со други. Но сега, доколку се отиде чекор понатаму, со машински генерирана содржина, можноста за погрешни информации, дури и цитирање извори и академски статии кои не постојат (каков што покажа демо проектот Галактика за генерирање научни содржини на ФБ од минатата година), се зголемуваат. А најлошо е што ваквите текстови изгледаат прилично коректни. Човечките волонтери со тоа би имале уште покомплицирана работа. 

Еми Брукман е професор по интерактивни компјутерски науки на Институтот за технологија во Џорџија и авторка на „Треба ли да ѝ верувате на Википедија?“. Како и луѓето кои конструираат знаење, и големите јазички модели според неа се исто онолку добри во остварувањето на оваа задача колку и нивната способност за одделување факти од фикција. Критичарите на Отворената вештачка интелигенција имаат дури и кажано дека моделот „халуцинира“ кога измислува факти - термин кој од друга страна може се форсира за да послужи како алиби, односно да ги ослободи компаниите од одговорност што нивните алатки шират дезинформации.

Ризикот конкретно за Википедија е што луѓето може да почнат да го намалуваат нејзиниот квалитет со тоа што ќе качуваат материјали кои ги немаат проверено. Затоа Фондацијата Викимедија, непрофитната организација зад сајтот, се обидува да конструира алатки кои би им олесниле на волонтерите да идентификуваат содржини креирани од бот. Во меѓувреме, Википедија работи на политика која ги дефинира ограничувањата на тоа како волонтерите можат да користат големи јазички модели за креирање содржини.

Моменталната скица на овој документ вели дека секој кому не му се до крај познати ризиците од ваквите модели треба да ги одбегнува за создавање Википедија содржини, затоа што Фондацијата на тој начин може да дојде во ситуација да биде тужена и за клевети, и за нарушување на авторски права. Овие големи јазички модели често содржат и имплицитни предрасуди, кои резултираат со содржина која е негативно настроена кон маргинализирани групи. 

Заедницата е исто така поделена околу тоа дали на јазичките модели треба да им биде дозволено да се обучуваат врз содржини од Википедија. Иако отворениот пристап е темел на принципите на оваа енциклопедија, постои загриженост дека неограниченото преземање на интернет податоците им овозможува на компаниите како OpenAI да ги експлоатираат ваквите бесплатни и отворени содржини за да создадат комерцијални датасетови за нивните модели. Ова е особено проблем ако содржината на Википедија самата по себе стане генерирана од ВИ, што создава „јамка“, циклично повторување на потенцијално погрешни информации, доколку истите не бидат проверени. 

извор

4 мај 2023 - 09:51