美國Breaking Defense網站發表了一篇有關美國國防部副部長鮑勃·沃克論及人工智能如何影響戰爭的文章。
文章說,在應用物理實驗室舉行的人工智能會議上,美國軍方一致認為人工智能、機器人和人機協同將改變戰爭進行的方式,而美國國防部副部長鮑勃·沃克則承認,他開始深信人工智能還將改變戰爭的性質是一個很大的過失。文章如下:
沃克既是一名訓練有素的美國海軍陸戰隊軍官,也是五角大樓的一位重量級的人工智能支持者。他說,戰爭的性質就是意志、擔心、不確定性和可能性的沖突,因此人們必須自問,要是大量的戰爭行動都是在無人系統之間發生的話,如何能夠逐漸消除擔心。
在經典的戰爭理論中,核心的論點就是人類容易出錯。如果不為擔心、憤怒和自尊所支配的機器開始在戰爭中自行決策的話,錯綜復雜的沖突計劃會發生難以預計的改變。沃克說現在戰爭的不確定性正在變得不同于以往,他堅持認為計算機輔助決策能夠幫助指揮官做出更為清晰的判斷。戰爭的不確定性不會消失,雖然人們能夠通過觀看在紅場的閱兵來推測俄羅斯新型坦克的能力,但是敵人的新型人工智能裝置的真實情況只有在作戰中才能夠顯現出來。他說,如果屆時敵人的人工智能裝置比美國的更好,情況就嚴重了。
將人工智能引入戰場會產生前所未有的不確定性,對抗人工智能的交互行動更會形成越來越難以預計的反饋回路,即混沌理論的軍事應用。沃克說,美國決沒有足夠的狹義的人工智能系統,在網絡中與人互動。所謂“狹義的”人工智能系統是指相當于特殊目的的人類智能的項目,而“廣義的”人工智能系統則是相當于全面的人類智能的項目,目前還只能在科幻小說中看到。
五角大樓所執行的謹慎的人工智能系統開發過程經常被嘲笑為創新的障礙,特別是其作戰測試和評估嚴格要求智能機器可靠而且可重復地按照人的預計行事。沃克強調說,希望人工智能系統所遵守的一項關鍵限制就是沒有人的明確命令決不能消滅任何目標。
沃克認為“廣義的”人工智能系統中具有自行決策的武器,決不是人們所追求的。他說美國不會去設計自行決定打擊某個目標的武器,不過這也并非意味著每次打擊都必須由人去扣動扳機。敵人不會遵守美國給自己加上的限制,自然會給美國帶來使得自己處于不利情況的問題。
對于美國不開發“廣義的”人工智能系統的限制,一些業內人士提出了異議。例如,漢森機器人公司的CEO戴維·漢森認為,如果一個國家限制自己,不去開發“廣義的”人工智能系統的話,就會激勵敵人開發更為復雜的超出控制的自適應機器,以獲得壓倒性優勢。
人工智能與其它技術相比,有可能成為更加強大也更加賺錢的技術行業,因為它能夠給制造商帶來驚喜,能夠提供他們從未想到的問題解決方法。不過,這也使得人工智能技術更加危險,尤其是超出控制的人工智能系統可能會造成意想不到的嚴重問題。
牛津大學的學者安德斯·桑德伯格認為,對于自主系統的控制非常困難,其原因并非它的任性和渴望自由,而是因為人們所創造的是復雜的自適應技術系統。事實上,當前流行的創造人工智能系統的最為有效方法不是一行又一行地編寫智能程序,而是創造一臺“學習機器”,同時給它提供大量的數據資料,使它能夠像一個小孩一樣通過反復體驗和嘗試去學習??墒?讓這樣的系統正確理解如何學習和如何做出決定是非常困難的,更談不上預計它們未來的行動。
對于美國的敵人力圖在人工智能領域獲得壓倒性優勢的問題,沃克相信美國的創造性和道德觀念會取得優勢,“和美國人一起工作的美國人工智能機器會戰勝那些壓制人民創造潛能的極權主義者所設計的人工智能系統”。不過他承認并不能保證如此,說這是一場競賽,必須等待,看競賽如何開展,必須非常謹慎。