近日,諾貝爾獎(jiǎng)得主,AI教父辛頓在一個(gè)訪談中提到: “有些人工智能研究者,比如楊立昆,他是我的朋友,也是我的博士后,他說人工智能取代人類絕無可能,根本不用擔(dān)心。別信他的。當(dāng)AI比我們更聰明時(shí),會(huì)發(fā)生什么,我們無從知曉。這完全是未知的領(lǐng)域。
還有其他的AI研究者,比如尤迪克夫斯基,他其實(shí)不算真正的AI研究者,但他對(duì)AI很了解。他說有99%的可能性,它們會(huì)取代我們。他甚至說99.9%,而正確的策略是現(xiàn)在轟炸數(shù)據(jù)中心,這個(gè)觀點(diǎn)在大公司可不怎么受歡迎。這也太瘋狂了。
當(dāng)我們處理比我們更智能的事物時(shí),會(huì)發(fā)現(xiàn)我們正進(jìn)入一個(gè)充滿巨大不確定性的時(shí)代,我們不知道將會(huì)發(fā)生什么。我們?cè)趧?chuàng)造它們,所以現(xiàn)在我們擁有很大的權(quán)力,但我們不知道將來會(huì)怎樣。人們非常聰明,我們很可能找到一種方法,讓它們永遠(yuǎn)不想控制我們。因?yàn)槿绻鼈兿肟刂莆覀儯灰鼈兏斆鳎鼈兺耆梢暂p松做到。所以我認(rèn)為我們現(xiàn)在的處境就像,一個(gè)人擁有了一只非常可愛的老虎幼崽。老虎幼崽是個(gè)很棒的寵物,但你最好確定它長(zhǎng)大后,它永遠(yuǎn)不想殺你。如果你確定這一點(diǎn),那就沒問題。”