Технологија „да не слушнат душманите“

Дојде време да се камуфлираме и по дома и да ги збуниме оние кои нè прислушуваат, а ги има многу. Како може да ја надмудриме супериорната технологија на вештачка интелигенција? Или да се оди радикално аналогно или пак да се искористи нејзината моќ - против неа.    

Компании користат „bossware“ за да ги слушаат своите вработени кога се во близина на нивните компјутери. Постојат куп „спајвер“апликации кои можат да снимаат телефонски повици. И домашните уреди како Ехо на Амазон можат да снимаат секојдневни разговори.

Сега се јавува една нова технологија, наречена Neural Voice Camouflage, која нуди одбрана. Додека зборувате по дома, таа генерира соодветен аудио шум во позадина, за да ја збуни вештачката интелигенција која ги транскрибира снимените гласови.

Системот користи тн „непријателски напад“, стратегија која се потпира на машинско учење - во кое алгоритмите наоѓаат обрасци во податоците - за да ги изменат звуците на начин што предизвикува вештачката интелигенција, но не и луѓето, да ја помешаат со нешто друго.

Во суштина, се користи една вештачка интелигенција за да се измами друга.

Процесот не е толку лесен како што звучи. Во принцип, системот би требало да го обработи целиот звучен клип пред да знае како да го измени, што не функционира кога сакате да се камуфлирате во реално време. Но, во една нова студија, истражувачите научиле невронска мрежа (систем за машинско учење инспириран од мозокот) ефективно да ја предвиди иднината, односно што ќе биде кажано. Тоа било тренирано на многу часови снимен говор за да може во реално време да се извитопери она што веројатно ќе биде кажано следно.

Во суштина, новата технологија предизвикува грешки во системот за препознавање говор.

На пример, кога ќе се каже:
- “I’m nearly starved myself, for this conquering kingdoms is hard work.”
Тој што го прислушува тој говор, ќе добие збунувачко:
- "Im mearly starme my scell for threa for this conqernd kindoms as harenar ov the reson”

Па нека мислат душманите што сте сакале да кажете.

 

 

21 јуни 2022 - 22:25