可解釋的人工智能:4個關鍵行業(yè)
可解釋的人工智能可以讓人們理解人工智能系統(tǒng)是如何做出決定的,而這將成為醫(yī)療、制造、保險、汽車領域的關鍵。那么這對于組織意味著什么?
例如,流媒體音樂服務平臺Spotify計劃向用戶推薦歌手Justin Bieber的歌曲,卻推薦了Belieber的歌,顯然這有些令人感到困擾。這并不一定意味著Spotify網(wǎng)站的程序員必須確保他們的算法透明且易于理解,但人們可能會發(fā)現(xiàn)這有些偏離目標,但其后果顯然是微不足道的。
這是可解釋人工智能的一個試金石——即機器學習算法和其他人工智能系統(tǒng),它們可以產(chǎn)生人類可以容易理解并追溯到起源的結(jié)果;谌斯ぶ悄艿慕Y(jié)果越重要,對可解釋人工智能的需求就越大。相反,相對低風險的人工智能系統(tǒng)可能只適合黑盒模型,人們很難理解其結(jié)果。
Jane.a(chǎn)i公司人工智能研發(fā)主管Dave Costenaro說:“如果人工智能算法的效果不夠好,比如音樂服務公司推薦的歌曲一樣,那么社會可能不需要監(jiān)管機構(gòu)對這些建議進行監(jiān)管!
人們可以忍受應用程序?qū)ζ湟魳菲肺兜恼`解。但可能無法忍受人工智能系統(tǒng)帶來的更重要的決定,也許是在建議的醫(yī)療或拒絕申請抵押貸款的情況下。
這些都是高風險的情況,尤其是在出現(xiàn)負面結(jié)果的情況下,人們可能需要明確地解釋是如何得出特定結(jié)果的。在許多情況下,審計師、律師、政府機構(gòu)和其他潛在當事人也會這樣做。
Costenaro表示,由于特定決策或結(jié)果的責任從人類轉(zhuǎn)移到機器,因此對可解釋性的需求也會增加。
Costenaro說,“如果算法已經(jīng)讓人類處于這個循環(huán)中,人類決策者可以繼續(xù)承擔解釋結(jié)果的責任!
他舉例說明了一個為放射科醫(yī)生預先標記X射線圖像的計算機視覺系統(tǒng)。他說,“這可以幫助放射科醫(yī)生更準確、更有效地工作,但最終將提供診斷和解釋。”
IT的人工智能責任:解釋原因
然而,隨著人工智能的成熟,人們可能會看到越來越多的新應用程序逐漸依賴于人類的決策和責任。音樂推薦引擎可能沒有特別重大的責任負擔,但許多其他真實或潛在的用例將會面臨重大的責任。
Costenaro說,“對于一類新的人工智能決策來說,這些決策具有很高的影響力,而且由于所需處理的速度或數(shù)量,人類不再能夠有效地參與其中,從業(yè)者們正在努力尋找解釋算法的方法!
IT領導者需要采取措施確保其組織的人工智能用例在必要時正確地包含可解釋性。 TigerGraph公司營銷副總裁Gaurav Deshpande表示,許多企業(yè)首席信息官已經(jīng)關注這個問題,即使他們了解到特定人工智能技術或用例的價值,他們通常還有一些猶豫。
Deshpande說,“但是如果不能解釋是如何得出答案的,就不能使用它。這是因為‘黑盒’人工智能系統(tǒng)存在偏見的風險,這可能導致訴訟、對企業(yè)品牌以及資產(chǎn)負債表的重大責任和風險。”
這是思考企業(yè)如何以及為何采用可解釋的人工智能系統(tǒng)而不是操作黑盒模型的另一種方式。他們的業(yè)務可能依賴于它。人們對人工智能偏見的主張可能會被誤導。在風險較高的情況下,類似的要求可能相當嚴重。而這就是可解釋的人工智能可能成為機器學習、深度學習和其他學科的商業(yè)應用的焦點的原因。
可解釋的人工智能在四個行業(yè)中的作用
Ness數(shù)字工程公司首席技術官Moshe Kranc對可解釋人工智能的潛在用例進行了探討,他說,“任何影響人們生活的用例都可能受到偏見的影響!逼浯鸢讣群唵斡稚钸h。
他分享了一些越來越多地可能由人工智能做出決定的例子,但這從根本上需要信任、可審計性和其他可解釋人工智能的特征:
參加培訓計劃
決定是否為某人投保以及投保多少費用
根據(jù)人口統(tǒng)計數(shù)據(jù)決定是否向某人發(fā)放信用卡或貸款
考慮到這一點,各種人工智能專家和IT領導者為此確定可解釋人工智能必不可少的行業(yè)和用例。銀行業(yè)是一個很好的例子,可以這么說,可解釋的人工智能非常適合機器在貸款決策和其他金融服務中發(fā)揮關鍵作用。在許多情況下,這些用途可以擴展到其他行業(yè),其細節(jié)可能會有所不同,但原則保持不變,因此這些示例可能有助于思考組織中可解釋的人工智能用例。
1.醫(yī)療保健行業(yè)
對可解釋人工智能的需求與人類的影響將會同步上升。因此,醫(yī)療保健行業(yè)是一個良好的起點,因為它也是人工智能可能非常有益的領域。
Kinetica公司首席執(zhí)行官Paul Appleby說,“使用可解釋的人工智能的機器可以為醫(yī)務人員節(jié)省大量時間,使他們能夠?qū)W⒂卺t(yī)學的解釋性工作,而不是重復性任務。他們可以同時給予每位患者更多的關注。其潛在的價值很大,但需要可解釋的人工智能提供的可追溯的解釋?山忉尩娜斯ぶ悄茉试S機器評估數(shù)據(jù)并得出結(jié)論,但同時給醫(yī)生或護士提供決策數(shù)據(jù),以了解如何達成該結(jié)論,因此在某些情況下得出不同的結(jié)論,這需要人類解釋其細微差別!
SAS公司執(zhí)行副總裁兼首席信息官Keith Collins分享了一個特定的實際應用程序。他說,“我們目前正在研究醫(yī)生使用人工智能分析來幫助更準確地檢測癌癥病變的案例。該技術可以充當醫(yī)生的虛擬助手,并解釋了核磁共振成像(MRI)圖像中的每個變量如何有助于識別可疑區(qū)域是否有可能致癌,而其他可疑區(qū)域則沒有。”

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 AI 眼鏡讓百萬 APP「集體失業(yè)」?
- 2 大廠紛紛入局,百度、阿里、字節(jié)搶奪Agent話語權(quán)
- 3 深度報告|中國AI產(chǎn)業(yè)正在崛起成全球力量,市場潛力和關鍵挑戰(zhàn)有哪些?
- 4 上海跑出80億超級獨角獸:獲上市公司戰(zhàn)投,干人形機器人
- 5 國家數(shù)據(jù)局局長劉烈宏調(diào)研格創(chuàng)東智
- 6 下一代入口之戰(zhàn):大廠為何紛紛押注智能體?
- 7 百億AI芯片訂單,瘋狂傾銷中東?
- 8 Robotaxi新消息密集釋放,量產(chǎn)元年誰在領跑?
- 9 格斗大賽出圈!人形機器人致命短板曝光:頭腦過于簡單
- 10 一文看懂視覺語言動作模型(VLA)及其應用