Најпознатиот физичар на светот го предупредува човештвото на ризиците кои ги носи развивањето на вештачката супер-интелигенција и вели дека тоа е најважната работа која ќе се случи во целата наша историја, но, може да биде и последна.
"Ако гледаме напред, не постојат суштински лимити што сè може да биде направено. Не постои физички закон кој ќе ги спречи елементите да се конфигурираат супериорно во однос на конфигурацијата на човечкиот мозок," пишува Хокинг.
Во таков случај лесно е да се замисли како таквата технологија ќе ги надигра финансиските пазари или човечките истражувања, како ќе ги надмудри човечките лидери или ќе создаде оружја кои нема да ги разбереме.
Неизвесноста на таква иднина му личи на замислена ситуација да добиеме порака од некоја супериорна вонземна цивилизација во која се вели: "Подгответе се, ќе ви дојдеме за некоја деценија". Ниту можеш да седиш со скрестени раце ниту пак ефикасно да се подготвиш бидејќи не знаеш како и со кој цел ќе дојдат.
На краток рок, влијанието на вештачката интелигенција зависи од тоа кој ја контролира, но на подолг рок, зависи од тоа дали таа воопшто може да биде контролирана.
Целата статија тука