一樣的臉,
熟悉的聲音,
一定是你認識的那個他嗎?
“眼見為真,耳聽為實”?
其實不然。
正值2024 年“金融教育宣傳月”,金融教育宣傳是為了切實提升社會公眾的風險防范意識和能力,今天我們將和大家一起了解下AI詐騙新陷阱。
隨著科技的飛速發(fā)展,人工智能(AI)技術逐漸成為日常生活中的得力助手,AI換臉和擬聲技術是人工智能技術在圖像和語音領域的重要應用之一。但其也給大眾帶來了新的安全隱患——AI詐騙。
2024年3月15日,2024年中央廣播電視總臺3·15晚會曝光了使用“AI換臉”進行詐騙的行為。
2024年7月25日,國家金融監(jiān)督管理總局金融消費者權益保護局發(fā)布防范新型電信網絡詐騙風險提示,將“AI換臉擬聲”納入其中,作為專門類詐騙。據(jù)介紹,AI換臉擬聲類金融詐騙,多為不法分子以“網店客服”“營銷推廣”等為借口聯(lián)系消費者,采集發(fā)音、語句或面部信息,之后利用“換臉”“擬聲”等技術合成消費者虛假音頻、視頻或圖像,模擬他人聲音或形象騙取信任,誘導其親友轉賬匯款等。
其中最常見的兩種詐騙方式就是聲音合成與AI換臉。
1、聲音合成
騙子通過騷擾電話錄音等來提取某人的聲音,獲取素材后進行聲音合成,從而可以用偽造的聲音進行詐騙。
2、AI換臉
人臉效果更易取得對方信任,騙子用AI技術換臉,可以偽裝成他人,在視頻通話中利用AI換臉,騙取信任。
如何防范AI詐騙呢?
1、加強安全意識。警惕不明來源的信息和可疑的交易,不輕信陌生人的請求或信息,避免將敏感信息泄露給不信任的第三方。
2、謹慎對待網絡交易。避免點擊惡意鏈接或下載不可靠的附件,確保支付環(huán)節(jié)安全可靠。
3、保護個人信息安全。不要在不安全的網絡環(huán)境下輸入銀行卡賬號、密碼、手機驗證碼等敏感信息。避免在互聯(lián)網過多暴露個人照片、聲音、視頻等信息,不輕易將個人照片、聲音等隱私信息分享給陌生人或不可信的平臺。
4、謹慎對待線上聯(lián)系。涉及轉賬、提供個人信息或點擊鏈接時,如遇到可疑情況,及時進行核實。多重核驗,確認身份,比如說可以讓對方在臉前揮手、摁鼻子、捏臉等,觀察其面部是否出現(xiàn)變形、抖動等。還可以撥打對方常用的電話號碼,而非所謂的“新號碼”,進一步核實對方身份。
AI詐騙已經成為一種新型犯罪手段,給我們的生活帶來了不可忽視的威脅。我們要時刻保持警惕,加強自我防范意識,共同營造一個安全、和諧的網絡環(huán)境。讓我們攜手共進,共同抵御AI犯罪的侵害!
AI詐騙案件頻發(fā)
小伙伴們要注意
千萬不要上當了!?。?/span>



內容來源:國家金融監(jiān)督管理總局金融消費者權益保護局發(fā)布相關宣傳文章。
風險提示:本文僅為投資者教育,介紹防范AI詐騙相關知識。如需購買基金產品,請您關注投資者適當性管理相關規(guī)定,提前做好風險測評,并根據(jù)您自身的風險承受能力購買與之相匹配的風險等級的基金產品?;鸬倪^往業(yè)績并不預示其未來表現(xiàn),基金管理人管理的其他基金的業(yè)績并不構成基金業(yè)績表現(xiàn)的保證。基金投資須注意投資風險,請仔細閱讀基金合同、基金招募說明書和產品資料概要等法律文件,了解基金的具體情況。