Ако храниш ВИ со ѓубре ќе добиеш ѓубре

И вештачката интелигенција покажува симптоми на „гниење на мозокот“, како што е дефинирано затапувањето на луѓето зависни од бескрајно прегледување на тривијални содржини без вредност на социјалните мрежи. Моделите со ВИ не се способни да расудуваат, но исто како и луѓето збудалуваат кога се хранат со вакви содржини и даваат лоши информации дури и по чистењето.

„Гниењето на мозокот“ е толку зачестено, што Оксфорд лани го прогласи за „израз на годината“. Оваа модерна зависност од прегледување онлајн содржини без суштина и вредност ги оштетува фокусот, меморијата и расудувањето кај луѓето.

Истражувачи од Универзитетите во Тексас и Пердју проверувале дали  големите јазични модели со ВИ ќе даваат коректни информации ако се хранат со онлајн-талогот. Иако се машини што немаат способност за расудување, тие покажале слични реакции како и луѓето. Кога биле изложени на вакви содржини тие давале одговори со понизок квалитет, со фактички недоследности и без логичка кохерентност.

Јазичните модели го отсликуваат квалитетот на нивните податоци поинтимно отколку што мислевме. Кога се изложени на лош текст, моделите не само што звучат полошо, туку почнуваат да размислуваат полошо, забележуваат коавторите на студијата Џунјуан Хонг и Атлас Ванг.

За да ја тестираат својата хипотеза за гниењето на машинскиот мозок, истражувачките нахраниле ботови со „ѓубре“ - теми што привлекуваат кликови, рециклирани мемиња или алгоритамски генерирани листи.

Таквата содржина изгледа чисто и течно, па традиционалните класификатори на квалитет на податоци мислат дека е во ред. Но, таа тивко им го деградира расудувањето бидејќи ги учи да имитираат внимание, а не да разбираат, велат истражувачите. 

Штетата не била привремена. Дури и по чистењето на податоците заради рехабилитација, моделите не се поправиле целосно.

Гниењето на мозокот на ВИ не е само привремен проблем. Тоа остава когнитивни лузни. Корисниците што употребуваат вакви алатки добиваат содржини што изгледаат течни и самоуверени, но всушност се плитки и збунети.

Илја Шумаилов, поранешен виш истражувач во Deepmind AI на Гугл, воопшто не е изненаден од резултатите. Тој додава дека тоа се случува и намерно, кога се манипулира со податоците со кои се обучуваат моделите - се оставаат слаби точки и се штелуваат заради пристрасност.

Поголемиот дел од интернет податоците се со доста лош квалитет, но јасно е дека можеме да добиеме многу способни модели. Студиите како оваа се предупредување колку е важно да се проверува квалитетот на податоците со кои се хранат моделите со ВИ, вели Шумаилов.

4 ноември 2025 - 15:22