在過去的幾年里,機(jī)器學(xué)習(xí)和人工智能在準(zhǔn)確性方面取得了巨大的進(jìn)步。 然而,受監(jiān)管的行業(yè)(如銀行)仍然猶豫不決,往往優(yōu)先考慮法規(guī)遵從性和算法解釋的準(zhǔn)確性和效率。 有些企業(yè)甚至認(rèn)為這項(xiàng)技術(shù)不可信,或者說是危險(xiǎn)的。
在2008年金融危機(jī)期間,銀行業(yè)認(rèn)識(shí)到,他們的機(jī)器學(xué)習(xí)算法是基于有缺陷的假設(shè)。 因此,金融體系監(jiān)管機(jī)構(gòu)決定需要額外的控制措施,并引入了對(duì)銀行和保險(xiǎn)公司進(jìn)行“模式風(fēng)險(xiǎn)”管理的監(jiān)管要求。
銀行也必須證明他們理解他們所使用的模型,所以,令人遺憾但是可以理解的是,他們有意地限制了他們技術(shù)的復(fù)雜性,采用了簡(jiǎn)單和可解釋性高于一切的廣義線性模型。
如果你想建立對(duì)機(jī)器學(xué)習(xí)的信任,可以嘗試像人一樣對(duì)待它,問它同樣的問題。
為了信任AI和機(jī)器學(xué)習(xí)提供的建議,來自所有行業(yè)的企業(yè)需要努力更好地理解它。 數(shù)據(jù)科學(xué)家和博士不應(yīng)該是唯一能夠清楚地解釋機(jī)器學(xué)習(xí)模型的人,因?yàn)檎鏏I理論家Eliezer Yudkowsky所說的那樣:“到目前為止,人工智能的最大危險(xiǎn)在于人們過早地認(rèn)為他們了解這項(xiàng)技術(shù)。
信任需要人為的方法
當(dāng)數(shù)據(jù)科學(xué)家被問及機(jī)器學(xué)習(xí)模型是如何作出決定的時(shí)候,他們傾向于使用復(fù)雜的數(shù)學(xué)方程式去解答,使得外行人目瞪口呆,也不知道可以如何信任這個(gè)模型。 以與人類決策相同的方式來處理機(jī)器學(xué)習(xí)決策,會(huì)不會(huì)更有成效? 正如Udacity聯(lián)合創(chuàng)始人塞巴斯蒂安·特倫(Sebastian Thrun)曾經(jīng)說的:“人工智能幾乎算得上是一門人文學(xué)科。 這實(shí)際上是一種理解人類智力和人類認(rèn)知的嘗試。”
所以,不要用復(fù)雜的數(shù)學(xué)方程來確定信貸員員如何做出決定,而只是簡(jiǎn)單地問:“貸款申請(qǐng)表上哪些信息對(duì)您的決定最重要?或者,“什么值表示風(fēng)險(xiǎn)的高低,以及您是如何決定接受或者拒絕一些特定的貸款申請(qǐng)的?
可以采用同樣的人為方法去確定算法如何做出類似的決定的。例如,通過使用稱為特性影響的機(jī)器學(xué)習(xí)技術(shù),可以確定循環(huán)效用余額,申請(qǐng)人的收入以及貸款目的是信貸員算法的前三個(gè)最重要的信息。
通過使用稱為原因代碼的能力,人們可以看出每個(gè)貸款申請(qǐng)人的詳細(xì)資料的估計(jì)中最重要的因素,并且通過利用稱為部分依賴的技術(shù),可以看到該算法將較高收入貸款申請(qǐng)的風(fēng)險(xiǎn)等級(jí)評(píng)為較低。
客觀性,可擴(kuò)展性和可預(yù)測(cè)性的價(jià)值
通過分析機(jī)器如何像人類一樣做出決策可以使人類更好地理解人工智能和機(jī)器學(xué)習(xí),此外,人類還可以通過認(rèn)識(shí)到技術(shù)的獨(dú)特能力來獲得對(duì)人工智能和機(jī)器學(xué)習(xí)信任,包括:
解決可信度和數(shù)據(jù)異常值的問題:傳統(tǒng)統(tǒng)計(jì)模型通常需要假設(shè)數(shù)據(jù)是如何創(chuàng)建的,數(shù)據(jù)的背后的過程以及數(shù)據(jù)的可信度。然而,機(jī)器學(xué)習(xí)通過使用高度靈活的算法來消除這些限制性的假設(shè),這些算法不會(huì)給予比它應(yīng)得的更多的可信度。
支持現(xiàn)代計(jì)算機(jī)和海量數(shù)據(jù)集:與手工流程不同,機(jī)器學(xué)習(xí)不假設(shè)世界充滿了直線。相反,它會(huì)自動(dòng)調(diào)整方程式以查明最佳模式,并測(cè)試哪些算法和模式最適合獨(dú)立驗(yàn)證數(shù)據(jù)(而不是僅測(cè)試所訓(xùn)練的數(shù)據(jù))。
利用缺少的值預(yù)測(cè)未來:高級(jí)機(jī)器學(xué)習(xí)不是要求數(shù)小時(shí)的數(shù)據(jù)清理,而是可以構(gòu)建一個(gè)藍(lán)圖,優(yōu)化特定算法的數(shù)據(jù),自動(dòng)檢測(cè)缺失值,確定哪些算法不適用缺失值,尋找取代缺失值的最佳值,并使用缺失值的存在來預(yù)測(cè)不同的結(jié)果。
不要懷疑AI或機(jī)器學(xué)習(xí)的建議,讓我們通過詢問我們要求人類的相同推理問題來更好地理解它們。讓我們認(rèn)識(shí)到技術(shù)在降低數(shù)據(jù)異常可信度方面的客觀能力,以及為當(dāng)今海量數(shù)據(jù)提供可擴(kuò)展的靈活性的能力。
也許最重要的是,讓我們承認(rèn)AI和機(jī)器學(xué)習(xí)的能力,通過利用缺少的信息來更好地預(yù)測(cè)未來的結(jié)果。因?yàn)殡m然技術(shù)確實(shí)足夠強(qiáng)大以至于需要警惕和正式的監(jiān)管,但如果能夠建立一個(gè)正確的理解和信任水平,消費(fèi)者和企業(yè)都只會(huì)受益。