За овој алгоритам се крева прашина уште од неговата прелиминарна верзија објавена пред две години. Се работи за првиот AI (artificial-intelligence) систем кој може да научи палета различни задачи од нула, секоја со помош на истата минимална стартна информација.
"Фактот дека може да имате еден систем кој може да учи различни игри без потреба да го преправате од игра до игра е изненадувачки и импресивен," вели Натан Спраг од еден Универзитет во Вирџинија.
Зад компјутерскиот систем стои компанијата DeepMind, стационирана во Лондон а неодамна купена од страна на Гугл.
Многумина се надеваат дека овој систем ќе помогне и во разбирање на човечката интелигенција.
"Разбирањето на човечкиот ум е страшно амбициозна задача но игрите овозможуваат процесот да биде расчленет на делови кои можат да се студираат", вели еден истражувач.
И досега имаше компјутери кои победуваат луѓе (Deep Blue на IBM кој во 1997-ма го победи светскиот шампион Гари Каспаров, или пак еден неодамна објавен алгоритам кој е непобедлив во Texas Hold 'Em покер), но тие досега беа лимитирани на само една игра.
Особеноста на ова што доаѓа од DeepMind е што се работи за поврзување на два различни типа учење на машините.
Првиот тип, наречен длабоко учење користи архитектура инспирирана од човечкиот мозок во која конекциите меѓи симулираните неутрони сее зајакнуваат врз основа на искуството. Од овој систем, алгоритмот може да исцрта комплексни информации од сосема неструктуирани податоци.
Вториот, уште позанимлив тип е оној за донесување одлуки кој е инспииран од допаминскиот систем за наградување кај човекот: само со помош на пикселите од екранот и резултатот на играта, со обиди и грешки системот учи кога кои потези (сврти лево, десно или пукај) му носат најголема награда.
Гугл го купи DeepMind лани, за 600 милиони долари.