即便是業內諸多科技大佬、企業家等不斷重申人工智能并不會給人類發展帶來威脅與災難,并讓人們相信AI的好處會大于弊端。但還是有很多人表現對人工智能的恐懼,而聊到人工智能,人們最為普遍的憂慮以及最為熱門的話題始終是,它是否會造成大規模失業,是否會搶奪人類的飯碗?
當然,樂觀派會認為這種擔憂是科幻電影看多了。在最近,有消息稱Facebook在人工智能研究所在對兩個聊天機器人進行對話策略迭代升級時,發現它們竟自行發展出了人類無法理解的獨特語言,系統中的聊天機器人開始用自創語言對話,全然無視程序員下達的指令。而臉書停止了這一項目的研究,原因是“擔心可能會對這些AI失去控制”。不過Facebook近日公開回應關閉AI失控語言事件,認為一些媒體的報道有失事實,Facebook并沒有關閉機器人聊天系統,而是在使它們變得更加聰明可控。
人類內心對人工智能恐懼與懷疑
這是否是Facebook在人工智能系統中Bug還是故障暫未可知,但如果這是謠言,那么這可能就是人類內心對人工智能恐懼與懷疑的一個釋放的方式與出口。
特斯拉CEO馬斯克最早在2014年就在麻省理工學院的一次公開訪談中拋出了AI“威脅論”:“我認為我們應當格外警惕人工智能。如果讓我說人類當下面臨最大的威脅是什么,我覺得是人工智能無疑”。物理學家斯蒂芬·霍金曾經表示“人工智能可能自行啟動,以不斷加快的速度重新設計自己。”
微軟創始人比爾·蓋茨也曾公開表達同樣的憂慮,稱“機器確實可以幫助人類完成很多工作,但當機器越發的智能,它們將會對人類的存在造成威脅”。亞馬遜CEO貝索斯曾就AI“威脅論”與馬斯克發生過公開辯論。但后來他同樣認為未來的人工智能革命或許的確有一部分超出我們的控制范圍。而谷歌母公司Alphabet執行董事長埃里克·施密特認為擔憂人工智能是純屬杞人憂天,是科幻電影看多了。
AI的發展速度或快于人類學習進步的速度
從目前各方大佬的觀點來看,即便是有對人工智能持樂觀派,但或許還是會透露出一些對AI的擔憂與未來發展走勢的不確定,科技大佬尚且如此,更遑論普通民眾。可以看出的是,人們在人工智能的發展速度面前,還是表現出了不自信的一面。
雖然人們懂得,人類本身是在不斷進化,但人工智能也可以,人們對于新事物的學習與進步都是一步一個腳印,而學習進度的速度相對偏慢,但人工智能的進步速度要遠超過人類,多年前人們會認為AI在圍棋上戰勝人類不太可能,今天已經實現了。而依據摩爾定律,計算能力每隔一段時間就會翻番,這會驅使AI設計變得越來越復雜、計算機處理器速度越來越快,它們的水平會不斷提高。
況且當前的中美科技巨頭,幾乎都在全力押注AI,谷歌、IBM等巨頭相繼開源AI平臺,NVIDIA、英特爾公司深攻AI芯片,谷歌、蘋果在大力收購AI公司,國內AT均提出AI發展戰略,AI的發展速度未來幾年可能會加快。
在當前世界各地,不少中低技工正在不斷被機器人或智能化自動化軟硬件所取代,并且取代率還在不斷上升。有人說,人類需要學習十幾年甚至二十年才能獲得一份體面的工作,而AI呢?開發一個好的程序大家花幾分鐘下載,甚至不用下載直接API就能用了。當然,AI技術在不斷地吞噬工作,但也會不斷地創造工作。問題是,創造工作的速度能否趕上它所毀滅的工作的速度?當AI的發展速度快于人類學習進步的速度,越來越多的人都會被一種被淘汰的焦慮包圍。
人工智能未來可能會取代更多的工種,但不再會創造大量的低技術性崗位
盡管人們總是會拿蒸汽時代工業革命敲碎舊時代生產力體系,繼而帶來更多的新的工作來類比人工智能時代所帶來的想象空間。但人工智能時代可能與工業時代有著本質的不同。
不同之處在于,比如過去工業革命革掉工匠們的命,用汽車取代馬車,但這種變革更多是提升工業化的生產效率,帶來了更多的工種,創造了大量的低技術性崗位,比如一個失地的農民,轉型為產業工人并不困難,因為產業工人的需求很大,而且培訓上崗的技術難度不大。
但人工智能未來可能會取代更多的工種,但不會創造大量的低技術性崗位,因為它的本質不僅是消滅簡單機械的重復性勞動,而是能夠自主分析與判斷,與人類的腦力與技術展開競爭,即便能創造工作,也是技術性更高的工作,比如說無人駕駛技術讓司機的崗位消失,但帶來的卻是軟件工程師、程序員、設計師等相關的崗位,這些崗位不是能通過簡單的培訓就能夠上崗的。從另一個角度而言,正如美國學者約翰.C.黑文斯所言:技術純熟的工匠與工業化的流水線上的廉價勞動力對抗,與對自動駕駛汽車在生死關頭的程序如何編寫的擔憂本身不可同日而語。
人類如果在越來越多的領域被AI所取代,那么人類的工作將越來越多的聚焦在AI所不能取代的領域,而這些領域也沒有人能夠確保它永遠不會被取代,正如有人說,我們恐懼的不是人工智能,而是自己的無能。也有如羅振宇此前在演講中說過一句:“再殘忍的資本家好歹要剝削工人,人工智能時代可能讓人們連這個價值都沒有。”
心理學上的恐怖谷效應
從心理學上來看的話,恐怖谷理論或許能夠從另一個角度來解釋我們對于AI機器人的恐懼。“恐怖谷”一詞由日本機器人研究院Ernst Jentsch于1906年的論文《恐怖谷心理學》中提出,即當機器人越來越接近人類的時候,我們對它們的好感會提升,但是當機器人非常接近人類的時候,一旦到達某個臨界點,我們的好感就對大幅度降低,甚至開始莫名的厭惡和懼怕。
為什么,因為當一個長著人的皮囊,但各項性能都超過人類、甚至克服了衰老與疾病的AI機器,人類的自尊感會被消弭于無形,而在這個時候,人們更擔心的是人工智能產生獨立意識,然后噬主。盡管,獨立意識的產生方法現在只有幾個假說而已,但需要思考的是,當一個AI的物種在智力、智商與能力等諸多方面均超出人類的時候,它是否還會心甘情愿的接受人類的統治?
只要人類與一個人工智能的系統算法密切結合工作,那么人工智能可能向人類學習,繼而實現人物的自動化進程,當AI專家不斷將新研究轉變為算法,然后加入現有系統中,使得AI設計變得越來越復雜,那么它的危險就來自于自我學習與進化,發展演化到一個足夠復雜的系統,人們可能無法關掉某個本身具有運行指令的系統,因為程序正在通過某種邏輯讓自己的效率最大化。
這樣一來,即使出現未知后果的風險提高,我們逐漸的無法完全了解這些系統的運作結果,它們的失靈方式也多種多樣。歷史上大的災難往往都由各種各樣的小故障組合而來,這也意味著一種安全與失控的危險。
所謂的恐懼都是源于未知。人工智能的發展速度太快,而普通人卻對人工智能的操作方式、運作邏輯與程序一無所知,它彷佛一只神秘的黑盒子,人們知道自己未來不可避免的將身處黑箱之中,卻不知道黑箱的邊界,而人們更擔心人工智能收集各種數據,因為驅動大數據經濟的AI應用程序,是基于人類的興趣、愛好、生活方式等數據以及主觀判斷所設計的系統,而這種系統卻比人類更了解自身,這會讓人們的隱私蕩然無存。當前已經有AI芯片問世,比普通芯片快十倍乃至上百倍。顯然,這開辟了一系列的可能性。
人工智能會剝奪人的幸福感
從另一個層面來看,人工智能還會剝奪人的幸福感。人類需要幸福感與意義,需要薪水,需要人生的意義。而對于大多數人而言,幸福感與意義一般是由工作所賦予的,另一種就是從幫助他人中建立起來的存在感。因為工作能夠幫助人們建立一種心流與價值意義,讓人們沉浸并找到自身存在的意義。
而人的能力在本質上是有限的,當然,自動化與AI化將會成為一個趨勢,工作被機器人取代之后,人們會焦慮該找什么樣的工作才不會被取代,當自動化與失業威脅圍繞,人們可能擔心無法掙到足夠的前來購買產品與滿足自身的娛樂需求,人們必須思考如何找回被剝奪的存在感、意義與幸福感。當AI能夠代替人類來幫助人類,人們就會逐步喪失表達同理心的能力。
按照心理學的理論,這是更高一級的“自我實現”的需求,它和娛樂一樣是剛需,當自我實現的需求被剝奪之后,人們會思考自身存在的意義究竟為何,哲學家帕斯卡在《沉思錄》所言:面對強大有力的宇宙,人是一根會思考的蘆葦。
當人生幸福感被為人工智能剝奪而找不到意義時,就會陷入另一種危機之中——如何定義自己。正如凱文凱利所說:在未來的十年或者是未來一個世紀,我們都將生活在揮之不去的身份危機之中。我們需要人工智能來告訴我們,我們是誰。這同樣讓人們感到恐慌。
AI導致數據的轉移與權力的集中:繼而導致資源與利益的重新分配
其次是數據。我們知道,數據是AI系統的命脈,你需要用數據進行訓練,需要海量的數據與信息來進行推理。比如數字圖像、數字記錄,以及工廠的數據和跟蹤信息,這些都可以放到系統中進行訓練。而隨著巨頭用戶規模化擴張,會導致數據不斷轉移與集中到幾家公司手中,這回導致權力與資源的轉移與重新分配。如果未來強人工智能快速發展,它對人類的了解會越來越透徹。
有用戶表示,通過識別照片和人臉,Facebook的人臉識別軟件可以區分出化妝和不化妝時的我,這既有趣又可怕。與此同時,人類在辨認人臉時卻常常遇到困難。據說波士頓的某家公司的AI已經通過數據的訓練非常擅長閱讀人類情緒了。
而根據人類簡史的作者赫拉利的觀點來看,人工智能技術的一個潛在結果是促成數據集中到某一個地方,也進而導致權力的集中。因為說到數據算法,你能在一個地方集中的數據越多,算法就會越好。因此人工智能技術革命產生了巨大的,將數據集中的動力,也造成了權力的集中。
也就是說,對于AI科技巨頭來說,它的用戶規模越來越大,數據就會越來越大,這同樣會造成權力越來越大。換句話說,中美科技巨頭將擁有越來越大的權利。但事實上,這也是人類對人工智能恐懼的一方面,因為權力的轉移會導致利益與資源的重新分配。這可能導致它會讓部分人受益,但不會讓更廣泛的普通人受益。
AI技術未來會不斷突破,但風險在于其程序設定沒有人類的價值觀與道德標準
讓人們更為恐懼的是,社交機器人學家與人工智能專家正在努力讓人工智能融入人類特征,但人工智能卻沒有人類的價值觀與道德標準,人工智能在加速推進,但只要人們沒有從法律層面否決它是否應該被開發出來之前,它都是可以進行開發的。這會給谷歌、Facebook、微軟等科技巨頭提供大量的機會,即在道德倫理與法律監管真空中進一步發展人工智能技術。
但所隱含的弊端是,機器人沒有與生俱來的道德,這原本是需要程序員和各個系統從操作系統開始,逐步落實道德標準。就比如科幻作家艾薩克·阿西莫夫所創造的“機器人三大定律”:機器人不得傷害人類或坐視人類受到傷害、機器人必須服從人類的命令、在不違背第一和第二法則的前提下機器人必須保護自己。
有了這種邏輯與價值觀設定,人們會相對感到安全,當前自動化智能又幾乎沒有相關的法律規定,人類價值觀卻并未被編入人工智能的核心,這可能導致它帶來的潛在危害走向失控。說到底,這是人們潛意識里對機器人的不自信,對它將叛變人類以及取代人們的恐慌。當然,這也是人們是對于未知的一種恐懼。
當然,人工智能要發展到威脅人類這一步還有太長的路要走,甚至在許多人看來,這一天永遠也不會到來,畢竟現有的人工智能技術還不成熟,與真正人意義上的智能差的很遠,目前的它被過度解讀和渲染了。不過,更多的恐懼是來自于未知。恐怖大師史蒂夫-金所說,讓人的心備受恐懼折磨的從來都不是妖魔鬼怪,而是超出認知范圍的未知。
盡管我們不必過于擔心人工智能可能會對人類造成的威脅,但也知道人工智能的發展是沒有天花板的。我們正確的做法是正視這個趨勢,并在未來趨勢中去熟悉使用人工智能輔助,逐步占得這種技術進步的紅利,并從中分一杯羹,在宏觀層面,需要思考和做好AI的安全管控設計以及預防的備用方案,來管控好人工智能的安全、風險失控、倫理道德以及社會層面等諸多方面的問題,來消除人們的恐慌以及盡量讓弊端與威脅最小化。