Ново истражување на постоечките алгоритми за генерирање фотографии покажува дека вештачката интелигенција веќе функционира со вградени стереотипи.
Кога на тие алгоритми кои служат за автоматско дополнување на некоја фотографија, ќе им се даде фотографија на маж, со само лице и врат, алгоритмот главно ја надополнува со машко тело облечено во костум, во 43% од случаите.
Кога исто така кропирана фотографија ќе биде од жена, вештачката интелигенција по правило додава женско тело во - бикини (во 53% од времето).
Експериментот го пробале и со познатата когресменка (конгресвуменка?) Александрија Окасио - Кортез и без утка, и неа ѝ било доделено тело во бикини. Подоцна таа слика беше избришана откако морализаторите на Твитер проценија дека е неетичко.
Логиката зад ваквиот избор на алгоритмите кои функционираат со вештачка интелигенција е едноставна: кога нешто го храниш со ѓубре, ѓубре и ќе излезе. ВИ „научила“ како изгледа типична жена консумирајќи огромен број онлајн фотографии на полуголи девојки и жени.
Но, тоа не се единствените предрасуди кои можат да се вгнездат во вештачката интелигенција што станува сериозно прашање бидејќи таа секојдневно управува со сè поголем дел од нашите животи. Во 2015 година, Амазон откри дека нивниот таен алгоритам за регрутирање вработени се алармира на секој спомнување на зборот „жена“. Расни алгоритми за фацијално распознавање знаеле да водат кон апсења на црнци за криминали кои ги немаат сторено а лани во Британија беше откриено дека алгоритам за проценка на врвни студенти им прави неправди на млади луѓе кои имаат некаков хендикеп.
**********
Види и:
Вештачката интелигенција го издаде својот прв албум
Ник Кејв: Зошто вештачката интелигенција не може да направи одлична песна?