在科學(xué)和技術(shù)創(chuàng)新領(lǐng)域經(jīng)常有兩個基本問題:“我們能不能做”和“我們應(yīng)不應(yīng)該做”。前者是客觀的,關(guān)系到科學(xué)發(fā)展和技術(shù)水平;而后者是主觀的,和人性、倫理道德緊密相關(guān)。前兩周我很敬仰的兩位思想家,山姆·哈里斯(Sam Harris)和凱文·凱利(Kevin Kelly)就人工智能(AI)領(lǐng)域“我們應(yīng)不應(yīng)該做”這個話題展開了討論。我覺得他們的討論非常精彩,故此將討論的主要內(nèi)容介紹給各位。
山姆·哈里斯是一位哲學(xué)家和神經(jīng)科學(xué)家,擁有斯坦福大學(xué)的哲學(xué)學(xué)士學(xué)位和加州大學(xué)洛杉磯分校的神經(jīng)認(rèn)知學(xué)博士學(xué)位,在人性和科學(xué)技術(shù)的關(guān)系上有深刻見解。他是我最欣賞的知識分子之一,冷靜、思想有嚴(yán)密的邏輯性和強(qiáng)大的思辨能力。而中國企業(yè)家對凱文·凱利已經(jīng)非常熟悉。他對新興科技領(lǐng)域十分了解,不僅是科技方面最流行的雜志之一——《連線》的創(chuàng)世主編,在科技和社會方面也有多本著作。鑒于在國內(nèi)針對人工智能的人性和道德層面的討論相對較少,我決定把山姆和凱文的討論內(nèi)容分享給讀者,希望可以引發(fā)讀者的思考。
人工智能的目標(biāo)
人工智能一個很大的風(fēng)險是他們和人類目標(biāo)不同。一方面,壞人可以使用人工智能做壞事,造成無法預(yù)料的后果。另一方面,哪怕是有最好動機(jī)的好人,也可能使用科技造成最壞的結(jié)果。雖然人類創(chuàng)造人工智能并賦予它目的,人工智能沒有情感也不會憎恨人類。但他們?nèi)绻^勝任工作,他們的強(qiáng)大能力可能會帶來災(zāi)難。曾有漫畫描述人類創(chuàng)造出一種人工智能機(jī)器人,想要最大化生產(chǎn)曲別針。機(jī)器人十分強(qiáng)大又非常智慧,決定全宇宙所有原子都應(yīng)該變成曲別針,甚至包括人體內(nèi)的原子,因此導(dǎo)致人類的毀滅。
產(chǎn)生這樣的結(jié)果原因在于這些機(jī)器和人不同,不具有常識,只理解我們輸入給他們的常識。這也引發(fā)我們對智能的定義。我們的定義往往有偏差,以為智能包括我們熟知的常識,但智能其實(shí)更多的只是完成任務(wù)的能力和效率。因此哪怕非常有能力的人工智能,如果不具備和人相同的常識,也會做出讓我們覺得荒唐的事情,甚至造成危險。
“智能”的定義和對人工智能的啟示
人們對智能的理解有偏差。例如大家對智商(IQ)的理解可能都有誤區(qū),認(rèn)為只是區(qū)分笨蛋和聰明人的單一維度。這是十分錯誤的,因?yàn)槿祟惖闹腔凼歉鞣N維度的組合,包括思考、認(rèn)知、推理、象征、演繹、歸納、長短期記憶、情緒感知等等。這種復(fù)雜度在體現(xiàn)在每個人身上各不相同,每個物種也不一樣。有的動物可能比人類在某些方面聰明,如大猩猩對屏幕上出現(xiàn)的數(shù)字的短期記憶十分驚人。智慧是十分復(fù)雜的。
人工智能中的“智能”可以參考人和其他生物的智慧對比。一種觀點(diǎn)是,進(jìn)化是從共同的祖先向外輻射,每個物種都是同等進(jìn)化,在自然界都有著自己獨(dú)特的位置,所以不能說人類比其他物種更先進(jìn)或者更復(fù)雜。人工智能的開發(fā)也是這樣,不會有一種智能涵蓋所有維度,人工智能的開發(fā)總會被資源和時間所限制,需要犧牲某些功能。因此并不可能造出一個機(jī)器人,在各個方面都比我們強(qiáng)。
另一種觀點(diǎn)是認(rèn)為人身處進(jìn)化階梯的頂端,比身處我們之下的生物高級。雖然智慧有很多維度,而且有些我們現(xiàn)在可能還并不了解,但我們擅長的維度肯定比其他物種多。比如雞也有自己擅長的領(lǐng)域,但他們擅長的領(lǐng)域不能帶給他們?nèi)蚧拿鳌⒖茖W(xué)、數(shù)學(xué)。而人工智能會征服一個又一個領(lǐng)域,如象棋,人工智能將永遠(yuǎn)在象棋領(lǐng)域統(tǒng)治人類,哪怕人類的象棋技術(shù)也會一點(diǎn)點(diǎn)提高。而在其他領(lǐng)域如情緒感知,人工智能也將逐漸統(tǒng)治人類。這是一個逐漸的過程,途中花費(fèi)的資源不會成為阻礙。未來即使最強(qiáng)的人腦也將無法和一個超智能人工智能相提并論。
人工智能的倫理討論
人工智能在不斷進(jìn)步,已經(jīng)有人開始使疼痛編程進(jìn)入人工智能,防止其受傷,也幫助他們理解人類。在未來,人工智能和人類的界限可能越發(fā)模糊,而兩者的關(guān)系也會成為疑問。我們可以拔掉人工智能的電線,那我們會是他們的奴隸主嗎?人工智能會產(chǎn)生自由的概念嗎?在最近的美劇西部世界(West World)中描述了這樣一個世界,里面有大量和真人無異的機(jī)器人,人類可以對他們做任何事情而不會受到懲罰。在這個世界中瘋子可以虐待、屠殺機(jī)器人,這給他們帶來樂趣。一位失去妻子的丈夫?yàn)榧彝砹嗣利惖呐詸C(jī)器人,在夜晚和她發(fā)生性關(guān)系,卻被其他家庭成員認(rèn)為是恐怖的強(qiáng)奸。如果看到人類踢一只機(jī)器狗,我們是否知道狗被編入了疼痛的程序?如果他們感受到疼痛,我們是不是也會感同身受?
意識是有趣也是可怕的。想象一個通過圖靈測試的機(jī)器人,外表和人無異,可以通過云端的數(shù)據(jù)分析你的各個方面并和你對話。她知道你的所有喜好,你看的書,你說的話,以及你的所有想法。她可能比你妻子更能接收你的情緒變動。在我們的情感和社交角度來看,她是有意識的,然而她并不是真人。
人工智能的發(fā)展會引起人類對自己倫理道德的思考。倫理道德并不是一成不變的,對不同人而言也不一樣。我們也許會在向人工智能傳輸倫理道德時,加深我們的認(rèn)識,這些都將幫助我們重新定義我們是什么。人工智能可以是一面鏡子,讓我們重新檢視自身。
人工智能會帶來就業(yè)問題嗎?
一種普遍的看法是,人工智能很快就會引發(fā)失業(yè)問題。無人駕駛會讓一千萬美國人失業(yè),也會有別的工作被機(jī)器永久取代。歷史上來看,從農(nóng)業(yè)到工業(yè)時代,從汽車取代馬車,都會看到大量失業(yè)。在未來,危險的工作都將會交給機(jī)器。
然而,哪怕會有大量工作從人轉(zhuǎn)移到機(jī)器,這個速度可能不像人們想的那么快,比如一夜間所有司機(jī)失業(yè)。無人駕駛的到來會比人們想的慢,因?yàn)榇笠?guī)模運(yùn)作需要時間。的確未來跟生產(chǎn)力、效率相關(guān)的工作都可以被機(jī)器人取代,大多數(shù)工作都會被人工智能改變;但這個過程需要時間,我們的發(fā)明創(chuàng)造在一開始可能效果并不好,需要時間改進(jìn)??傆幸惶煳覀儠闄C(jī)器人開發(fā)新的工作,而那時我們的工作就是開發(fā)新的工作。同時也會有新的崗位,比如無人駕駛汽車修理員。
也有一些工作是機(jī)器人無法取代人類的,像是創(chuàng)造力。哪怕我們通過編程賦予人工智能創(chuàng)造力,比如讓他們講笑話,但他們不具備人類的常識,他們的笑話對我們而言可能并不好笑。讓人工智能講真正好笑的笑話會需要很久。如果有一天世界上最幽默的人是個機(jī)器人,可能人類也就完蛋了。
人工智能的出現(xiàn)將會為人類歷史開啟新的篇章?,F(xiàn)有的經(jīng)濟(jì)學(xué)、社會學(xué)等理論可能在瞬間失去價值,關(guān)于自我,人性,意識的概念也會受到挑戰(zhàn)。對我們而言,我們需要看到更多的山姆和凱文這樣的討論,這是我們作為造物者、新型科學(xué)和技術(shù)的引領(lǐng)者,為了保障人類的生存、安全和和諧所肩負(fù)的責(zé)任。