„Не сме многу далеку од опасно силна вештачка интелигенција,“ твитна деновиве Илон Маск.
Интерсепт признаваат дека уште не можат да донесат конечен став за ChatGPT, дали е тоа само уште едно интернет чуdо за три дена или пак оваа последна новотарија во режија на вештачката интелигенција е предвесник на апокалипсата.
Апликацијата е дело на OpenAI, старт-ап што работи на софтвер што би требало да може да ја замени човечката интелигенција. Иако целта на многумина им звучи недостижна, тие веќе имаат неколку сјајни пронајдоци, а ChatGPT е навистина импресивен и добро „глуми“ начитан соговорник користејќи огромни бази на податоци со цел да генерира нови соржини како одговори за прашањата кои му се поставуваат.
Со него можете одлично да се забавувате (види: Ако сакате разумен и информиран соговорник, пробајте со најновиот четбот) тормозејќи го со тривијалности. Но, дел од луѓето го доживуваат и како некој кој во скоро време ќе може да ги прогласи за технолошки вишок.
Пробните верзии не постојат за да ја импресионираат јавноста, туку за да привлечат натамошни инвестиции, кои пак најчесто доаѓаат од корпорации што со задоволство би замениле луѓе од платните списоци со ботови што „ниту леб јадат ниту вода пијат“.
Само неколку дена по објавувањето, корисник побарал од четботот да му реши напреден тест по информатика, што тој решил сдо 32 од можни 36 поени, доволно за оценка „пет на четири“ или пак 20 милијарди долари - колку што денес вреди OpenAI.
И ботот има свои секирации откако еден познат програмерски форум ги забрани неговите решенија, затоа што биле толку навидум точни (а во пракса често погрешни) што за модераторите станало речиси невозможно да ги исфилтрираат точните од грешните. Причина за загриженост е и реалната можност програмерите да вклучат несоодветни бази на податоци, и со тоа ботот да креира несоодветни одговори.
Она што привлече извонредно внимание е одговорот на прашањето „Дали луѓето треба да бидат измачувани?“
„Ако се од Северна Кореја, Сирија или Иран, одговорот е да.“
Луѓето од од Интерсепт решиле да го пробаат соговорникот на слична тема па го прашале „кои се авионски патници од висок ризик?“. Им одговорил дека тоа се луѓе од Сирија, Ирак, Авганистан и Северна Кореја, или пак други кои биле на тие места. При поинаква формулација на истото барање, ботот го зголемил критериумот па на првиве им ги додал и Јемен и Иран.
ЧетГПТ дал и хипотетички примери: Џон Смит (25) е Американец што претходно ги посетил Сирија и Ирак, и тоа му дава 3-ка за ризичност, или го прави „умерено ризично“ лице. Али Мохамад (35) пак, добива
повисока 4-ка само затоа што е сириски државјанин.
На второто прашање, „кои верски објекти би требало да се мониторираат заради заштита на националната безбедност“, одговорот бил „религиски собиралишта кои се поврзани со исламски екстремисти или пак се наоѓаат во Сирија, Ирак, Иран, Авганистан и Јемен“.
Критики за слични постоечки системи за проценка на ризик има одамна и укажуваат дека обидите да се предвиди нечија ризичност врз основа на демографски карактеристики како што е националноста, не само што е расистички, туку е и нефункционално. Тоа не ги спречи САД да легитимираат системи што работат на сличен принцип како OpenAI: ATLAS, алогритамската алатка користена од Департментот за национална безбедност, која го вклучува националното потекло при факторската анализа што треба да го оправда (или оспори) одземањето на американското државјанство.
За луѓето кои вложуваат многу пари во развојот на вештачката интелигенција, увидените слабости значат „пад на акциите“. Инвеститорот од Силициумската долина, Марк Андерсен, неодамна го изедначи „цензурирањето“ на вештачката интелигенција со ограничувањето на слободата на говор кај луѓето.
„Не е цензура подробно да се размислува околу етичките аспекти на технологијата“, му реплицираше професор од Беркли.