網站地圖 - 關於我們
          您的當前位置: 首頁 > 業界 > 頭條 正文

          警惕AI“深度偽造” 接陌生電話時建議先“變聲”

          作者:admin 時間:2023-10-29 06:58
          導讀:

            警惕AI“深度偽造”

            接陌生電話時建議先“變聲”

            專家:人體生物特征易被“移花接木” 電話、視頻聊天時需加強防範與甄別

            “以前我們說‘眼見為實’,但隨著技術發展,不法分子的技術手段也在更新,造出‘假人說假話’,有時讓人防不勝防,必須要注意鑒別和防範。”近日,於深圳舉行的世界數字城市大會“生物特征識別技術應用論壇”上,國家特聘專家陳友斌教授在接受本報全媒體記者專訪時談到:“人臉識別技術已經落地各項應用,由此引發的個人隱私泄露等問題也日漸突出,人臉識別技術應用安全管理勢在必行。”

            文、圖/廣州日報全媒體記者 馮秋瑜(除署名外)

            AI換臉、聲音合成

            “好友”以假亂真騙走錢財

            “如今,社會生活中的不少業務都可以在線上進行,金融方麵如開戶、開卡、理財、信貸;民生方麵如申領社保、修改密碼、開庭、辦案;商務方麵如談判、簽約、公證等,然而你有沒有想過,屏幕上出現的那個人,是否真的是你以為的那個人?人工智能大時代下,這一點特別需要警惕。”陳友斌說。

            前不久包頭警方就通報了一起利用AI實施詐騙的案件:福州市某公司法人代表郭先生10分鍾內被騙430萬元。據通報,郭先生的一位“好友”突然通過微信視頻聯係他,稱自己的一位客戶朋友在外地競標,需要430萬元保證金,且需要公對公賬戶過賬,想要借郭先生公司的賬戶走賬。基於對好友的信任,加上已經視頻聊天核實了身份,郭先生沒有核實就直接分兩筆把430萬元轉到了對方指定的銀行卡上。事後,郭先生撥打好友電話才知道被騙,原來不法分子通過智能AI換臉和擬聲技術,佯裝成好友對他實施了詐騙。“不法分子用視頻對講的方式模擬受害者朋友的聲音,看起來,人也是這個人,聲音也是他的聲音,但其實根本就不是他朋友所為。” 陳友斌說。

            無獨有偶,2022年2月,有位陳先生到派出所報案,稱自己被“好友”詐騙了近5萬元。經警方核實,詐騙分子利用陳先生某好友在社交平台發布的視頻,截取其麵部畫麵後利用“AI換臉”合成,製造陳先生與“好友”視頻聊天的假象騙取其信任,從而實施詐騙。

            今年10月7日,國家金融監督管理總局北京監管局發布風險提示稱,有不法分子非法獲取個人信息,通過計算機算法仿真合成受騙者親人、領導同事或公職人員的肖像麵容與聲音,冒充上述人員身份行騙;在獲得受害者信任後使用事先準備好的套路話術向受害人發送銀行卡轉賬、虛擬投資理財、刷單返利等詐騙信息,並利用視頻通話,語音轟炸等手段進一步降低受害者的防備心,受害者往往在短時間內難以察覺異樣,一旦聽信詐騙分子的騙術並完成轉賬,對方便杳無音訊。

            AIGC數字人?自然人?

            人體生物特征或被“深度偽造”

            “不法分子通過AI換臉和擬聲技術,佯裝熟人實施詐騙。”陳友斌介紹,我國在人臉識別這一領域的應用排在世界前列,因而人臉識別的風險和隱私保護必須引起關注。

            “在鏡頭前麵的那個人,他是不是一個真實的自然人?人是不是真實的?證件是不是真的?人證是不是一致?需要遠程核身的手段。”陳友斌介紹,出現在偽造圖像或者偽造視頻中,借助AI技術生成或者偽造的人稱為“AIGC數字人”。它可以是真實世界不存在的人,也可以是對真實世界存在的人的偽造。而“自然人”是出現在真實圖像或者真實視頻中,且存在於真實世界的人。

            據了解,目前在廣深兩地,生產和銷售虛擬數字人的企業已達上千家,由AI技術創建的“數字人”具有高度逼真的外觀和自然的語言交互能力,能夠與用戶進行實時對話互動,甚至達到“不仔細看看不出來”的逼真程度。

            作為多年從事圖像識別與人工智能領域研究的專家,陳友斌提醒:“人臉、聲紋、指紋、虹膜、簽名等是最常用的人體生物特征,即便是自然人,但是否他本人此時此刻就在那個地方,還是別人移花接木把他粘到那裏去?也需要鑒別。”

            陳友斌介紹,與傳統技術相比,“AI換臉”的破壞力不僅在於“偽造”,更在於“深度”。“詐騙分子一般會先對公眾在網絡上發布的各類信息進行大數據分析,包括社交媒體上的個人數據、工作信息、人際關係等,研究他們的日常生活習慣、工作習慣、資產狀況等,然後結合要實施的騙術,通過AI技術對人群進行篩選,從而確定要實施詐騙的目標人群,鎖定詐騙對象。”

            警惕聲紋造假

            接陌生電話“變個聲音再說”

            陳友斌介紹,“深度偽造(Deep Fake)”是一種基於深度學習的多媒體篡改與合成技術,主要包括圖像、語音、視頻和文本的偽造及篡改等,在視頻通話、視頻會議中,模仿目標人物去欺騙另外一個人。“深度偽造發展得非常快,這個技術最早用於好萊塢拍電影時去模擬一些現實中拍不到的部分,後來被不法分子所利用,讓人臉圖片的嘴巴動起來、眼睛眨起來,還能搖頭晃腦的,還有換臉等,現在這類模型非常多。”

            他告訴記者,這種深度偽造技術在不改變身份的情況下,可以對人臉進行年齡、性別、種族的改變,並且操縱口部或者表情;還可以通過人臉遷移、交換、堆疊等方式,以“換臉也換表情”“換臉不換表情”等多種方法混合來改變身份。“實時交互式的深度偽造將合成映射到現在的時刻,針對實時交互式的應用場景,如在線會議中使用虛假身份竊取信息或擾亂秩序,或在視頻通話中模仿目標人物去欺騙另一端的用戶等。”

            陳友斌提醒:特別需要注意的是,聲音的信息也可以通過提取“聲紋”來進行造假。什麼是“聲紋”呢?陳友斌介紹,人類語言的產生是人體語言中樞與發音器官之間一個複雜的生理物理過程,發聲器官――舌、牙齒、喉頭、肺、鼻腔在尺寸和形態方麵每個人的差異都很大,所以任何兩個人的聲紋圖譜都有差異。現在大家都常接到很多陌生人打來的廣告電話,殊不知在和陌生人說話的過程中,不知不覺就把自己的聲紋泄露了。

            “不法分子可能通過不同的人向你打電話‘輪番轟炸’,也許他們的目的根本不是為了推銷,而是獲取你的聲紋、生活習性和社會關係,進而實施詐騙。”陳友斌介紹,語音時長會影響聲紋識別的精度,有效語音時長越長,算法得到的數據越多,精度也會越高。因此他提醒:“不熟悉人工智能科技的老年人尤其需要提高警惕,包括年輕人也一樣,接到陌生電話千萬不要多說話,實在必須說話時可以捏著鼻子、變個聲音跟他說,否則經過一段時間的數據學習,不法分子就可能會利用你的聲紋信息和講話習慣等,合成你的聲音、換成你的臉,在你的社交網絡裏進行詐騙。”

            細心留意AI偽造“蛛絲馬跡”

            多渠道確認不輕信視頻內容

            如何防範AI深度偽造詐騙?陳友斌提醒:“如果這個人跟你很熟,你跟他多交互對話幾次,就可以發現問題了。”據了解,以銀行業務為例,是需要通過圖像、語音、自然語言處理再加上交互對話來完成金融業務,最大限度減小風險。而普通人也可以通過多種核對的方式來發現AI深度偽造的“蛛絲馬跡”。

            他介紹,因為人臉合成的素材大多使用的是睜眼照片,所以“缺少眨眼”可以被視為是合成視頻的“特征”之一,此外合成視頻還可能存在口型和發音不同步、情緒不符合、某個地方不自然或者不銜接、牙齒和嘴唇紋理不清,耳朵不對稱等情況。AI擬聲、AI換臉包裝作偽後的通話,雖能逼真地模仿原始人物的語言和行為,但仍充滿破綻,例如眨眼頻率過低、眼睛移動不協調、麵部表情不自然、語句不連貫等――這些都是“數字人”的特點。以下防範口訣比較好記:“電話回撥再確認,視頻不可輕易信;私人問題記得問,答不上來不可信;眨眼能破AI麵孔,關鍵時刻要常用。”

            據悉,國家網信辦8月8日發布的 《人臉識別技術應用安全管理規定(試行)(征求意見稿)》,也從公共場所、經營場所、可能侵害他人隱私的場所等作出了要求。有關部門也提醒:要提高信息保護意識,特別警惕需要錄入個人信息的非正規軟件;在開啟“定位服務”、輸入身份證號或是錄入“人臉識別信息”“指紋識別信息”等個人生物信息時一定要慎之又慎;發現APP過度、強製收集個人信息時及時向有關部門投訴舉報。此外,妥善設置個人社交賬戶的瀏覽權限,不過度公開或分享涉及個人信息的動圖、視頻等,對不明平台發來的鏈接提高警惕,不輕易向陌生人開啟手機屏幕共享。

            《廣州日報》2023年10月29日第A5版

          打賞

          取消

          感謝您的支持,我會繼續努力的!

          掃碼支持
          掃碼打賞,你說多少就多少

          打開支付寶掃一掃,即可進行掃碼打賞哦

          相關推薦:

          網友評論:

          推薦使用友言、多說、暢言(需備案後使用)等社會化評論插件

          欄目分類
          最新文章
          熱門文章
          Copyright © 2021 早報網 版權所有


          本網站所刊載信息,不代表早報網觀點。如您發現內容涉嫌侵權違法立即與我們聯係客服 710564642@juzkou.com 對其相關內容進行刪除。
          早報網登載文章隻用於傳遞更多信息之目的,並不意味著讚同其觀點或證實其描述。文章內容僅供參考,不構成投資建議。投資者據此操作,風險自擔。
          《早報網》官方網站:www.juzkou.com互聯網違法和不良信息舉報中心
          Top Top