訂閱
糾錯
加入自媒體

提高人工智能道德水平的9個步驟

涉及人工智能應用的法律目前還很少,這使得很多組織面臨各方面的壓力,而為了讓公眾放心,人工智能應用必須是合乎道德和公平的。

隨著人工智能的應用越來越普遍,越來越多的IT領導者開始關注人工智能的道德含義。事實上,由SnapLogic公司贊助,由Vanson Bourne公司進行的2019年調查報告發(fā)現(xiàn),在接受調查的1000名美國和英國IT決策者中, 94%的受訪者認為人們應該更加關注人工智能開發(fā)中的企業(yè)責任和道德規(guī)范。

人們?yōu)榇烁械綋鷳n是有理由的。一些著名的科技公司已經卷入相關丑聞,因為他們創(chuàng)建的人工智能系統(tǒng)沒有按預期行事。例如,在2015年,很多用戶抱怨谷歌公司的圖像識別軟件將黑人標記為“大猩猩”,雖然這家科技巨頭承諾要解決這個問題,但在三年之后,谷歌公司提供的唯一解決方案就是取消人工智能識別大猩猩的能力。而微軟公司的基于人工智能的Twitterbot-tay上在使用了幾個小時后,就變成了種族主義者,這讓微軟公司不得不取消了這個業(yè)務。

此外據悉,舊金山日前成為美國第一個禁止市場機構使用面部識別軟件的主要城市,其部分原因是該技術存在潛在的偏見。幾個規(guī)模較小的城市已經通過或正在考慮類似的禁令。

雖然有關人工智能失誤的報道屢見不鮮,但許多人擔心,在沒有公眾知識的情況下,更普遍、更陰險的人工智能犯罪可能發(fā)生在幕后?蛻艨赡苡肋h不會知道他們是否因為道德上可疑的人工智能算法而被拒絕貸款或面臨欺詐嫌疑。

紐約大學的AI Now研究所和美國南部浸禮會派這樣的組織都在呼吁開發(fā)人工智能的公司讓其技術變得更加透明,并同意遵守相應的道德原則。作為回應,包括谷歌公司和微軟公司在內的一些企業(yè)已經發(fā)布了有關人工智能使用的內部指南。

然而,許多人認為這還遠遠不夠。相反,他們希望政府機構參與并頒布法規(guī)。在Vanson Bourne公司的研究中,87%的商業(yè)IT領導者表示應該對人工智能開發(fā)進行監(jiān)管。

IT領導者具有這種愿望的部分原因是,在缺乏相關法律的情況下,企業(yè)沒有辦法知道他們是否做了足夠的工作來確保其開發(fā)的人工智能是合乎道德的。監(jiān)管法律可能使他們有能力向客戶保證人工智能的應用,因為可以表示他們遵守了所有相關法律。如果沒有這些法律,獲得和保持客戶信任可能會更加困難。

但即使沒有監(jiān)管法律,企業(yè)也可以而且應該采取措施確保他們使用人工智能是道德的。以下提供了企業(yè)可以改善其在人工智能方面的道德立場采取的9項措施:

1.遵守法規(guī)

組織至少需要確保其人工智能應用程序符合數(shù)據隱私法規(guī)。大多數(shù)人工智能軟件(尤其是機器學習)都依賴于大量的數(shù)據來進行操作,企業(yè)有責任確保他們對這些數(shù)據的處理符合相關法律。在美國,組織可能需要遵守健康保險便攜性和責任法案(HIPAA)、兒童在線隱私保護法案(COPPA)或其他聯(lián)邦或州法律。

如果組織在歐洲擁有客戶或員工,他們還必須遵守歐盟的通用數(shù)據保護法規(guī)(GDPR)。除其他事項外,這項全面的立法要求組織盡可能以最短的時間存儲數(shù)據,并為個人提供查看和刪除其個人數(shù)據的方法。就人工智能而言,最重要的是,GDPR法規(guī)還指出,“個人不應僅僅依據自動處理(例如算法)做出決定,而且具有法律約束力或對其產生重大影響。”

2. 遵守數(shù)據科學最佳實踐

除了遵守政府部門的規(guī)定外,組織還應該提供數(shù)據科學最佳實踐。Forrester公司在其名為“人工智能的倫理:如何避免有害的偏見和歧視” 報告中建議,“為了防止模型中的算法偏見,組織需要堅持數(shù)據挖掘的基本原則,確保組織培訓數(shù)據代表其計劃使用模型的人群!

還有一些人建議,數(shù)據科學家需要反復測試和驗證他們的模型,并保持跟蹤數(shù)據沿襲的方法。雖然很少有企業(yè)高管了解機器學習的復雜性,但他們有義務確保他們的數(shù)據科學家遵守行業(yè)最佳實踐。

3.安全設計

幾十年來,科幻作家一直在警告人工智能可能具有世界末日的危險。如今人工智能變得越來越普遍,重要的是不要忽視人工智能傷害人類的可能性,因為它不只是在書籍和電影中出現(xiàn)的事物。自動駕駛汽車和基于人工智能的武器系統(tǒng)等相關應用顯然會影響人類的安全,設計師應確保這些系統(tǒng)盡可能安全。雖然其他機器學習系統(tǒng)可能不會直接影響人類的人身安全,但它們可能會對他們的隱私和在線安全產生重大影響。

4.使人工智能技術更加透明

企業(yè)在人工智能道德方面可以采取的最重要步驟之一是確保他們完全理解使用的任何人工智能系統(tǒng)的運作。人工智能供應商Kyndi公司首席執(zhí)行官Ryan Welsh在一次采訪中指出,“要發(fā)揮人工智能的全部潛力,信任至關重要。而信任來自人們的理解,并且能夠證明系統(tǒng)結論和結果背后的推理。人工智能不可能是一個黑盒,因為它經常出現(xiàn)。要想讓人工智能蓬勃發(fā)展,就必須更加透明!

AI Now研究所表示,“為了實現(xiàn)有意義的問責制,我們需要更好地理解和跟蹤人工智能系統(tǒng)的組成部分及其所依賴的完整供應鏈:這意味著要考慮培訓數(shù)據、測試數(shù)據、模型的來源和使用、產品生命周期中的應用程序接口(API)和其他基礎設施組件。”

1  2  下一頁>  
聲明: 本文系OFweek根據授權轉載自其它媒體或授權刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內容、版權以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號