眼見和耳聽或都不能為實!更多人正在被AI變聲”“換臉”合成騙取錢財
人工智能帶來了難以置信的機會,但任何技術都有可能被惡意使用。AI 工具的獲取和使用變得越來越容易,也讓網(wǎng)絡犯罪分子能夠以更加難以識破的方式進行詐騙。
文丨阿秋
編輯丨張飛
近日,網(wǎng)絡安全公司 McAfee發(fā)布的一份報告顯示,越來越多的人被人工智能(AI)詐騙。調(diào)查發(fā)現(xiàn),10% 的成年人曾經(jīng)被這種詐騙方式針對,另外 15% 的人認識有人被騙過。
亞利桑那州立大學AI領域的教授坎巴姆帕蒂稱,只需獲得某人3秒鐘的原聲,就能迅速復制出完全相同的聲音。這給了不法分子利用該項技術詐騙的機會,即給受害者留下假的語音郵件,或者冒充他們的好友打電話給他們。據(jù)悉,在受害者中,有 77% 的人表示在詐騙中損失了錢財,其中三分之一的人損失超過 1000 美元,還有 7% 的人損失了5000 -15000 美元。
McAfee 首席技術官 Steve Grobman 稱,“人工智能帶來了難以置信的機會,但任何技術都有可能被惡意使用。AI 工具的獲取和使用變得越來越容易,也讓網(wǎng)絡犯罪分子能夠以更加難以識破的方式進行詐騙。”
AI助力騙子橫行
“最近ChatGPT引爆AI風潮,刷新了人們對AI的認知。AI技術是把雙刃劍‘’,在給人們生活提供便利的同時,也給不法分子留下了可乘之機,眼見不一定為真,耳聽也不一定為實。”
日前,據(jù)南通反詐消息,小劉的初中同學“小韓”通過QQ聯(lián)系小劉,準備借6000元錢。小劉向來謹慎,擔心“小韓”不是本人,沒想到“小韓”發(fā)來一條聲音很像本人的語音。后來“小韓”又給小劉打了一通視頻電話,看到對方的臉后,小劉便相信了對方,于是給“小韓”提供的銀行卡轉了6000元。
不過,小劉轉完錢后越想越不對勁,覺得“小韓”表情僵硬,于是撥打小韓的電話,沒想到小韓的QQ賬號被盜了,這才意識到被騙,隨后立即報警。警方初步判斷,通話的視頻極有可能是詐騙分子通過AI技術“變聲”“換臉”詐騙手段合成的。
這并非個例,4月2日,央視網(wǎng)報道稱,加拿大犯罪分子利用AI合成親人聲音實施詐騙,3天時間內(nèi)至少有8人上當,涉案金額約100萬元。這些受害者多為老年人,他們表示,“電話里的聲音簡直和親人一模一樣”。
早在2019年,《華爾街日報》曾報道過一名詐騙犯用AI語音合成來冒充老板,讓一家分公司的總經(jīng)理給他打了22萬歐元。但在當時,詐騙者還得準備被模仿者的語料進行訓練打磨。而現(xiàn)在,AI讓克隆聲音幾乎沒什么門檻,連方言和語氣的模仿都不在話下。
此外,以往被認為安全的“聲紋”系統(tǒng)如今也能被輕易破解。
3月,《衛(wèi)報》澳大利亞版記者尼克·伊夫賽德稱,他用人工智能做出自己的聲音,成功進入了自己的Centrelink自助服務賬戶。而就在兩年前,澳大利亞服務局在一份報告中聲稱“聲紋與指紋一樣安全”。
提高警惕是自我防范的首要
據(jù)了解,當下不法分子利用AI主要通過AI合成聲音、AI換臉展開詐騙活動。所謂AI合成聲音,是指騙子通過撥打騷擾電話等方式,錄音提取詐騙對象及其重要關系人的聲音特征,然后利用AI技術進行語音合成,進而用偽造的聲音實施詐騙。
因為人臉效果更易取得對方信任,所以不法分子還會利用AI換臉技術,即通過合成視頻或照片“以假亂真”,冒充詐騙對象的親人、朋友等重要關系人,擾亂詐騙對象的視線進而實施詐騙。
此外,不法分子還會使用AI技術篩選和鎖定受騙人群。他們會分析詐騙對象在網(wǎng)絡平臺發(fā)布的個人信息,根據(jù)所要實施的騙術利用AI技術對人群進行篩選,從而選出目標對象,制定詐騙計策。
那么,面對如此強勢的技術騙局,個人該如何保護自己不受詐騙的侵害呢?
南通反詐提示,一方面,在涉及錢款時,大家要提高安全意識,通過電話、視頻等方式確認對方是否為本人,在不能確定真實身份時,要格外留意、不要著急匯款,避免上當受騙,建議將到賬時間設定為“2小時到賬”或“24小時到賬”,以預留處理時間。
另一方面,個人應當加強個人信息保護意識,切勿接聽任何陌生人邀請的視頻驗證或語音聊天,謹防騙子利用AI技術搜集人臉、聲音等素材,掌握大量個人信息并對人物性格、需求傾向等進行刻畫,從而有針對性地實施詐騙。
泰和泰律師事務所律師劉青在接受媒體采訪時建議,若遭遇詐騙應第一時間報警尋求警方幫助,注意保留相關材料以供警方盡快掌握案情、嚴懲犯罪分子。
如發(fā)現(xiàn)自己的肖像被盜用或者“被換臉”,劉青建議,用戶應當?shù)谝粫r間保留證據(jù),以便后續(xù)維權。“同時,用戶還可以向網(wǎng)絡平臺運營商提出投訴,要求強制下架侵權圖片或視頻,也可以提起人格權訴訟,用法律武器維護自己的合法權益。”
用魔法打敗魔法?
2018年,紐約州立大學曾開發(fā)出一款“反換臉”AI刑偵工具,通過預測眼睛是否眨動的狀態(tài)來識別偽造人臉,準確率宣稱能夠達到99%,但這款工具很快便失效了,因為深度偽造技術的進化速度更快。
隨著AI的技術演進,人們所聽所見將越來越不可信,對了應對先進技術帶來的負面影響,科技企業(yè)也在希冀使用技術手段攔截和防范AI帶來的語言合成、AI換臉、內(nèi)容虛假等深度偽造問題。
2019年,谷歌開始有意識地防御,先是招募了一群演員錄制視頻,然后利用網(wǎng)上的深度偽造技術進行換臉等操作,并對這些數(shù)據(jù)進行全面地分析,讓開發(fā)者們研究深度偽造技術的算法和邏輯,在“知己知彼”的基礎上,更準確地識別和防治深度偽造內(nèi)容。
此后,微軟推出了名為“Video Aunthenticator”的工具,其能夠對畫面中渲染邊界和灰度等級進行逐幀的實時分析進而生成可靠指數(shù),幫助用戶鑒別內(nèi)容真實性。
不久前,OpenAI 公司發(fā)布了一款AI分類器,可識別人工智能生成的文本。AI分類器基于一個語言模型,通過對同一話題的人類文稿和AI文稿數(shù)據(jù)集的大量學習和訓練,以識別文本是否由AI生成。但博客數(shù)據(jù)顯示,檢測成功率只有26%,對英文以外的語言,檢測效果要差很多。
在2022世界人工智能大會治理論壇上,上海交通大學凱原法學院院長、特聘教授彭誠信曾指出:“數(shù)字社會中倫理之治的根本還在于人,企業(yè)倫理、科技的可信向善,歸根結底還是人的可信向善,因此需要完善法律監(jiān)管、厘清法律基本責任,確立人們的行為規(guī)范。”
為對AI技術進行快速有效地監(jiān)管,國際方面,白宮官員近日向美國科技公司發(fā)出邀請,希望與行業(yè)企業(yè)領導者共同探討針對人工智能的監(jiān)管問題。參加的科技公司包括谷歌、微軟和OpenAI等公司高管。
上個月,歐洲數(shù)據(jù)保護委員會已經(jīng)成立了一個專門針對ChatGPT的工作組,并朝著制定人工智能隱私規(guī)則的共同政策邁出的重要一步。
“我們希望人工智能的能力成為改善人類生活、促進人類文明發(fā)展的’助推器’,以及人類走向星際文明的’擺渡人’。”
上海交通大學安泰經(jīng)濟與管理學院教授史占中在近期一場媒體沙龍上表示,從國家的層面來講,要加快AI相關領域的立法,特別在金融、安全、健康等領域嚴格監(jiān)管,厘清AI的設計者、使用者、內(nèi)容生成者的權責關系,完善AI決策的問責機制,保護大眾合法權益;而從社會層面來講,應加強AI技術的監(jiān)管,推進AI研發(fā)者遵守倫理準則與規(guī)范AI的發(fā)展。
國內(nèi)方面,相關監(jiān)管政策也在細化落實中。為促進生成式人工智能技術健康發(fā)展和規(guī)范應用,國家網(wǎng)信辦起草了《生成式人工智能服務管理辦法(征求意見稿)》,并于4月11日向社會公開征求意見。
征求意見稿要求,利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務的組織和個人,承擔該產(chǎn)品生成內(nèi)容生產(chǎn)者的責任;利用生成式人工智能產(chǎn)品向公眾提供服務前,應當向國家網(wǎng)信部門申報安全評估,履行算法備案和變更、注銷備案手續(xù)等。
原文標題 : 眼見和耳聽或都不能為實!更多人正在被AI變聲”“換臉”合成騙取錢財

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 AI 眼鏡讓百萬 APP「集體失業(yè)」?
- 2 大廠紛紛入局,百度、阿里、字節(jié)搶奪Agent話語權
- 3 深度報告|中國AI產(chǎn)業(yè)正在崛起成全球力量,市場潛力和關鍵挑戰(zhàn)有哪些?
- 4 上海跑出80億超級獨角獸:獲上市公司戰(zhàn)投,干人形機器人
- 5 一文看懂視覺語言動作模型(VLA)及其應用
- 6 國家數(shù)據(jù)局局長劉烈宏調(diào)研格創(chuàng)東智
- 7 下一代入口之戰(zhàn):大廠為何紛紛押注智能體?
- 8 百億AI芯片訂單,瘋狂傾銷中東?
- 9 Robotaxi新消息密集釋放,量產(chǎn)元年誰在領跑?
- 10 格斗大賽出圈!人形機器人致命短板曝光:頭腦過于簡單