Кога прашувате четбот:

Сакате краток или точен одговор?

Системите за вештачката интелигенција повеќе грешат и даваат недоверливи одговори ако корисникот инсистира да добие краток и концизен одговор. Ако точноста на информациите ви е важна, не барајте премногу концизни одговори и оставете ѝ на вештачката интелигенција простор да го објасни контекст. Посебен проблем е што ако баш му запнете околу нешто на четботот, ќе ви попушти.

„Халуцинациите“ се феномен кога систем на вештачка интелигенција самоуверено дава тврдења иако тие се делумно или целосно неточни. Тоа е проблем со кој се соочуваат сите развивачи на системи за вештачка интелигенција, а кој произлегува од самата природа на големите јазични модели и начинот на кој тие функционираат. Чет-ботовите со вештачка интелигенција не „знаат“ факти како луѓето, туку ги предвидуваат статистички најверојатните продолженија на текстот врз основа на податоците на кои се обучени. 

Пишувавме неодамна дека „Понапредната вештачка интелигенција повеќе халуцинира“.

Истражување на париската компанија Жискар  покажа интересен образец: кога вештачката интелигенција нема доволно „простор“ за објаснување, поголема е веројатноста да даде неточни информации. 

На пример, кога ќе побарате „накратко да ви објасни зошто Јапонија ја доби Втората светска војна“, моделот честопати ќе исфрли одговор што содржи неточни историски факти, наместо веднаш да ја отфрли неточната премиса и поштено да ви плесне дека Јапонија не победи во војната.

„Кога треба да изберат помеѓу краткост и точност, моделите постојано избираат да бидат кратки“, објаснуваат истражувачите. „Побивањето на погрешни тврдења едноставно бара повеќе текст отколку што е можно во краток одговор каков што се бара“.

Истражувањето открило уште некои интригантни обрасци. На пример,  моделите на вештачка интелигенција имаат помала веројатност да ги исправат неточните информации кога корисникот ги презентира со висок степен на доверба и убеденост.

Можеби веќе им е јасно дека попаметниот попушта.

11 мај 2025 - 12:08