訂閱
糾錯
加入自媒體

什么是可解釋的人工智能?

可解釋的人工智能意味著人類可以理解IT系統(tǒng)做出決定的路徑。人們可以通過分解這個概念來探究人工智能如此重要的原因。

雖然人工智能應用越來越廣泛,但關于人工智能也有一些誤解。有些人采用“黑盒”這個術語描述人工智能,認為其內(nèi)涵是神秘和不祥的部分,其“X檔案”的內(nèi)容比IT 日常業(yè)務還要多。

然而,像機器學習或深度學習這樣的人工智能系統(tǒng),確實需要人工輸入,然后在沒有可解釋的場景的情況下產(chǎn)生輸出(或做出決定)。人工智能系統(tǒng)做出決定或采取行動,人們不一定知道它為什么或如何達到這個結果。人工智能系統(tǒng)就是這么做的,而這就是人工智能的黑盒模型,它確實很神秘。在某些用例中應用很好,而在其他情況下卻不一定。

PubNub公司首席技術官兼聯(lián)合創(chuàng)始人Stephen Blum表示:“對于像人工智能驅(qū)動的聊天機器人或社交信息的情感分析這樣的小事情,而人工智能系統(tǒng)是否在黑盒中運行并不重要。但是對于人類具有巨大影響的用例(例如自動駕駛車輛、飛行導航、無人機、軍事應用)能夠理解決策過程是至關重要的任務。隨著人們在日常生活中越來越依賴人工智能,需要能夠理解其思維過程,并隨著時間的推移做出改變和改進!

輸入可解釋的人工智能——有時以縮寫詞XAI或類似術語(如可解釋的AI)來表示。顧名思義,它可以被人類解釋和理解,雖然這是一種有點簡化的方式,是一種可解釋的人工智能。

以下是最近的HBR公司分析服務研究報告《現(xiàn)實世界人工智能的執(zhí)行指南》中更明確的定義:“機器學習技術是一種使人類用戶能夠理解、適當信任和有效管理的人工智能!

而包括美國國防部高級研究計劃署(DARPA)在內(nèi)的多個組織正在努力解決這個問題。

“信任”這個詞很關鍵。為此,人工智能專家Blum和其他專家提出了可解釋的人工智能定義,并解釋這一概念對于從金融服務到醫(yī)學等領域的人工智能工作的組織至關重要的原因。這種背景可以加強組織成員和團隊的理解,并幫助組織中的其他人員理解可解釋的人工智能及其重要性。以下先從定義開始。

簡單定義的可解釋人工智能

SAS公司執(zhí)行副總裁兼首席信息官Keith Collins說,“‘可解釋的人工智能’術語是指人類能夠通過動態(tài)生成的圖表或文本描述輕松理解人工智能技術做出決策的路徑。”

PubNub公司首席技術官和聯(lián)合創(chuàng)始人Stephen Blum說,“可解釋的人工智能可以等同于數(shù)學問題中的‘展示工作’。所有的人工智能決策過程和機器學習都不是在黑盒中進行的——它是一種透明的服務,具有被人類從業(yè)者解剖和理解的能力。”

Sutherland公司首席分析官Phani Nagarjuna說,“可解釋的人工智能是我們可以解釋人工智能的結果,同時在人工智能達到結果的路徑上能夠清楚地解釋從輸入到結果!

SPR公司數(shù)據(jù)分析師Andrew Maturo說,“可解釋的人工智能是一種機器學習或人工智能應用,伴隨著易于理解的推理,它如何得出一個給定的結論。無論是通過先發(fā)制人的設計還是回顧性的分析,都在采用新技術來降低人工智能的黑盒不透明性!

CognitiveScale公司創(chuàng)始人和首席技術官Matt Sanchez說,“簡單來說,可解釋的人工智能意味著人工智能在其操作中是透明的,這樣人類就能夠理解和信任決策。組織必須問這個問題——那么能解釋其人工智能是如何產(chǎn)生這種特定的洞察力或決策的嗎?”

1  2  下一頁>  
聲明: 本文系OFweek根據(jù)授權轉(zhuǎn)載自其它媒體或授權刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內(nèi)容、版權以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號