進(jìn)入文明時(shí)代以來,人類就一直擔(dān)心有朝一日會(huì)遭遇“滅頂之災(zāi)”,比如說變異的病毒、小行星撞擊地球,以及核災(zāi)難等。隨著機(jī)器人技術(shù)的不斷演進(jìn),人類的“噩夢(mèng)清單”上恐怕又多了一項(xiàng):人工智能有可能發(fā)展出自己的思想,進(jìn)而引發(fā)人類的“身份危機(jī)”。
近來發(fā)出類似警告的是兩位頂尖科學(xué)家。一位是理論物理學(xué)家斯蒂芬·霍金,他甚至認(rèn)為,當(dāng)人工智能發(fā)展完全,就是人類的末日;另一位是電動(dòng)汽車品牌特斯拉的掌門人馬斯克,他曾公開表示:“我們要十分小心人工智能,它可能比核武器更危險(xiǎn)。”
對(duì)人工智能的研究始于上世紀(jì)50年代。近幾年,科學(xué)界和產(chǎn)業(yè)界對(duì)它的興趣超越了以往。最近一年半來,谷歌收購(gòu)了十幾家機(jī)器人公司,并正在開發(fā)人工智能的一個(gè)圖騰——無人駕駛汽車;去年,社交媒體臉譜成立了新的人工智能實(shí)驗(yàn)室……數(shù)據(jù)顯示,2009年以來,人工智能吸引了超過170億美元的投資,僅去年就有20多億美元投向擁有類人工智能技術(shù)的322家公司。
在并行計(jì)算、數(shù)字化神經(jīng)網(wǎng)絡(luò)、云技術(shù)、大數(shù)據(jù)以及深度學(xué)習(xí)算法等技術(shù)的推動(dòng)下,人工智能的形態(tài)正逐漸顯現(xiàn):它既不是擁有與人類相似意識(shí)的機(jī)器人,也不是奇點(diǎn)論(人工智能與人腦智慧兼容的時(shí)刻)者宣稱的超智能,而是應(yīng)用在狹窄的專業(yè)領(lǐng)域,如醫(yī)學(xué)、教育、法律、太空等高度專一的“行家”。隨著人工智能的發(fā)展,人類終有一天將被其取代的恐慌感也應(yīng)運(yùn)而生。美國(guó)奇點(diǎn)大學(xué)人工智能項(xiàng)目負(fù)責(zé)人尼爾·杰卡布斯坦早就說過:“要應(yīng)對(duì)即將到來的人工智能革命,我們需要在數(shù)學(xué)素養(yǎng)、生態(tài)素養(yǎng)尤其是道德素養(yǎng)上不斷自我提升!
科學(xué)的發(fā)展總是出乎我們的預(yù)料。在一項(xiàng)技術(shù)推廣前,審慎的評(píng)估和良好的風(fēng)險(xiǎn)控制是必要的,克隆技術(shù)、大數(shù)據(jù)、基因測(cè)序無不如此。杰卡布斯坦認(rèn)為,假設(shè)人類成功構(gòu)建了超級(jí)計(jì)算機(jī),而它想的跟我們不一樣,我們就得加以控制,就像對(duì)待孩子一樣。走在前沿的人和公司,已經(jīng)采取了一些行動(dòng)阻止可能出現(xiàn)的混亂。谷歌在年初收購(gòu)了以神經(jīng)系統(tǒng)科學(xué)為基礎(chǔ)的人工智能公司迪普曼德,隨后即成立了“人工智能安全倫理委員會(huì)”,以確保技術(shù)安全發(fā)展。
我們有充分理由樂觀看待人工智能研究。為了遙遠(yuǎn)未來可能發(fā)生的危險(xiǎn)而遏制技術(shù)的發(fā)展是愚蠢的。但在過去60年中,隨著人工智能每一次成功地“復(fù)制”只有人類才有的行為和能力,人類便不得不對(duì)人工智能進(jìn)行重新定義,也不得不重新定義“人類”的含義。人工智能——這個(gè)除了人以外最像人的東西,其實(shí)是我們心理投射中一個(gè)再好不過的客體。在人工智能高度發(fā)展的未來,人類或許將面對(duì)一場(chǎng)“身份危機(jī)”:人類到底是偉大還是渺小,自我存在的意義是什么……這或許將成為人類的困擾。