可以預(yù)見的風(fēng)險
人工智能帶給人類巨大威脅
美國“臉書”?CEO馬克·扎克伯格曾放言:“人類當(dāng)下面臨的最大威脅是什么?無疑是人工智能!”但就當(dāng)前來講,人工智能的“威脅”還不存在,因?yàn)樗粚W⒂谕瓿赡硞€特別設(shè)定的任務(wù),比如下圍棋就僅僅會下圍棋。而未來超過人類智慧的超人工智能具備知識遷移能力,可以充分利用已掌握的技能解決新問題,這就有可能給人類造成巨大威脅。
實(shí)現(xiàn)高度自主并可能“失控”。未來超人工智能開始具備自主思維意識,能夠像人類一樣獨(dú)立思考,并自我決定如何行動。因此,自主智能機(jī)器系統(tǒng)雖然由人類設(shè)計制造,但它們的行為卻不受人類的直接指令控制,而是可以基于在不同情境中對其所獲得的信息進(jìn)行分析、判斷和決策,形成不需要人類介入或干預(yù)的“感知—思考—行動”模式,并最終超出創(chuàng)造者預(yù)料或事先控制的范圍而失控。
這種高度智能化的系統(tǒng)還能夠通過學(xué)習(xí)進(jìn)行機(jī)器再造,可以快速復(fù)制或再生其他新的人工智能體。據(jù)專家推算,一個失去控制的正在自我復(fù)制的納米機(jī)器人,完成130個復(fù)制周期只需要3個半小時,考慮到納米機(jī)器人向外移動擴(kuò)張等因素,最多只需數(shù)周就可以“摧毀”地球上的一切生物。這也就是為什么霍金多次“告誡”人們:人工智能一旦脫離束縛,就會以不斷加速的狀態(tài)重新設(shè)計自身。而人類由于受到漫長生物進(jìn)化的限制,無法與之競爭,最終或?qū)⒈蝗〈?/p>
遭遇非法入侵可能被“黑化”。人工智能作為一種新興的技術(shù)領(lǐng)域,一般來說,沒有安全漏洞是不可能的。而如果有人利用這種漏洞控制智能系統(tǒng)或機(jī)器人去實(shí)施破壞活動,這樣的后果是極其可怕的。而且,隨著人工智能的發(fā)展,其他工具包括人工智能的技術(shù)開發(fā)和復(fù)制也變得越來越容易。也就是說,未來任何人都可以使用該系統(tǒng)去實(shí)現(xiàn)自我復(fù)制或繁殖其他人工智能系統(tǒng)。因此,超人工智能系統(tǒng)一旦被非法獲取或操縱,將產(chǎn)生巨大的破壞力量。
爆發(fā)機(jī)器戰(zhàn)爭造成武力“濫用”。未來大量智能化無人系統(tǒng)將運(yùn)用于戰(zhàn)場,“死傷”的主要是沒有生命并可以大量再造的“智能機(jī)器”,使戰(zhàn)爭成本大大降低,并能夠?qū)崿F(xiàn)作戰(zhàn)人員的“零傷亡”。戰(zhàn)爭的政治、外交風(fēng)險明顯降低,這就可能會因戰(zhàn)爭顧慮和壓力減少而降低戰(zhàn)爭決策的門檻,導(dǎo)致軍事強(qiáng)國在武力使用上更加隨意,從而使戰(zhàn)爭的爆發(fā)更加頻繁,戰(zhàn)爭從“最后的選擇”轉(zhuǎn)變?yōu)椤笆紫鹊氖侄巍薄榇?,許多科學(xué)家呼吁禁止“致命性自主式武器”的研發(fā)和使用,并警告這將引發(fā)全球性人工智能“軍備競賽”,人類社會將可能深陷戰(zhàn)爭泥潭。