什么是可解釋的人工智能?
為什么可解釋的人工智能很重要
Sanchez的問題引發(fā)了另一個問題:為什么可解釋的人工智能很重要?其原因是多方面的,這可能對人們、企業(yè)、政府和社會產生巨大影響。在此考慮一下“信任”這個詞。
IBM Watson物聯網高級產品經理Heena Purohit指出,人工智能(IBM稱之為“增強型智能”)和機器學習已經在以復雜的方式處理大量數據方面做得非常出色。但Purohit說,人工智能和機器學習的目標是幫助人們提高工作效率,做出更明智、更快速的決策——如果人們不知道他們?yōu)槭裁匆龀鲞@些決策,這就更加困難了。
Purohit說:“由于人工智能的目的是幫助人們做出更高的決策,當用戶改變行為或根據人工智能輸出(或)預測采取行動時,企業(yè)就實現了人工智能解決方案的真正價值。但是,為了讓用戶改變自己的行為,就必須相信系統的建議。當用戶感覺到有能力并知道人工智能系統如何得出建議(或)輸出時,就會建立這種信任!
從組織領導的角度來看,可解釋的人工智能在某種意義上是讓人們信任并購買這些新系統,以及它們如何改變人們的工作方式。
“看到‘人工智能黑盒’問題仍然存在,我現在確保我們的人工智能解決方案是可以解釋的!盤urohit補充說,“在設計人工智能產品以確?梢越忉屓斯ぶ悄軙r,我想問的一個問題是:人工智能是否使人類容易理解、檢測和理解其決策過程?”
可解釋的人工智能有助于識別人工智能偏見和審計
可解釋的人工智能對于信任和透明度至關重要的其他領域將越來越重要,例如任何人工智能偏見可能對人們產生有害影響的場景。
SPR公司的Maturo說,“盡管這種解釋的任務很麻煩,但這是一項值得努力的嘗試,通?梢越沂灸P椭械钠。在許多行業(yè)中,這種透明度可能來自法律、財政、醫(yī)療或道德義務。在可能的情況下,模型看起來越不神奇,它的用戶就會越多!
可解釋的人工智能對于問責制和可審計性也很重要,它將(或者至少應該)仍然存在于組織的人員中,而不是其技術中。
“企業(yè)和個人總是需要進行決定。只是按照算法推薦的做法并不具有說服力!盢ess公司數字工程首席技術官Moshe Kranc說。Kranc指出,可解釋的人工智能對于識別錯誤的結果是至關重要的,這些錯誤的結果來自于諸如有偏見或調整不當的培訓數據和其他問題。能夠跟蹤人工智能系統得出不良結果的路徑可以幫助人們解決潛在問題,并防止它們再次發(fā)生。
“人工智能技術并不完美。盡管人工智能的預測可能非常準確,但模型總是有可能出錯!盋lara Analytics公司數據科學主管Ji Li說,“人工智能技術具有可解釋性,幫助人類快速做出基于事實的決定,但允許人類仍能使用他們的判斷力。有了可解釋的人工智能,人工智能將成為一種更有用的技術,因為人類并不總是相信或從不相信預測,但卻不斷幫助改進預測!
事實上,可解釋的人工智能最終將使人工智能在商業(yè)環(huán)境和日常生活中變得更有價值,同時也防止了不良后果。
“可解釋的人工智能對業(yè)務很重要,因為它為我們提供了解決問題的新方法,適當地擴展流程,并最大限度地減少人為錯誤的機會。提高的可視性有助于增強理解,并改善客戶體驗!盨AS公司首席信息官Collins說。
Collins指出,這在醫(yī)療和銀行等受到嚴格監(jiān)管的組織尤為重要,這些組織最終需要能夠展示人工智能系統是如何做出決定或結果。而即使在不需要審計其人工智能的行業(yè)中,可解釋人工智能的核心信任和透明度也是值得的,他們可以具有良好的商業(yè)意識。
“在采用可解釋的人工智能的情況下,人類增強了技術的知識和經驗,以調整和加強分析模型以供將來使用。”Collins說,!叭祟惖闹R和經驗有助于學習技術,反之亦然。這是一個持續(xù)的反饋循環(huán),可以成為企業(yè)的一種動態(tài)資產。”

請輸入評論內容...
請輸入評論/評論長度6~500個字