E學健康小知識:👀眼見未為真,👂耳聽未為實? Deepfake (深度偽造)AI 工具讓假影片更難被識別?

Janet - UHN病人與家屬學習中心
☝ 點選圖片可開啟聲音Podcast👆

如果有一天,你收到一段來自朋友的影片,說自己健康出現了狀況進了急診室,現在沒有現金付救護車的費用;他不想通知家人以為免他們擔心,只想你趕快把現金轉到他的帳戶,你會怎樣做?

又或者有一天你的家人說在藥房取藥,那裡只收信用咭但他身上只有現金,讓你把信用咭資料給他,讓他可以付藥費,你會掏信用咭出來把資料唸給他聽嗎?

香港財經節目主持人陳永陸經常在電視及電台評論股票,不過去年年底他「開咪」的電台收到聽眾投訴,說在社交平台聽了他的意見,投資虛擬資產平台,誰知被騙了。不過原來陳永陸根本沒有開過該平台的帳戶!那位聽眾聽到的錄音懷疑是用Deepfake (深度偽造)AI 工具製作而成,他說全部陳永陸的語氣與電台的節目一模一樣:「兩把聲音聽起來一模一樣,怎會是假的呢?

另一個國際的詐欺案例是關於Elon Musk Deepfake,這段假影片由一個假的交易平台發出,假冒他向觀眾推銷一個「新投資」,號稱可以獲得30%的股息。Tesla首席執行長立刻發出警告,聲明該影音是Deepfake假冒的,不但聲音不清楚而且很機械化。

大家可以看看以下這兩段視頻:

  • 女警揮手瞬間,就能變臉,性別、五官、聲音都能輕鬆改變,若不留意,大家都很有可能誤以為是親友,上當受騙。

  • 這個記者在一個Deepfake網站上生成了自己的虛擬人像,並輸入了希望該人像所說的話,從而創造出一段同事和專家都看不出破綻的影片。

隨著人工智慧(AI)應用的門檻越來越低,製作一則Deepfake影片非常簡單:它將人們的臉孔和聲音合成到完全捏造的場景中,科技新手也能製作出影像和聲音逼真得能騙過大家甚至專家的影片。不法分子可能使用這種技術製造出假訊息、甚至用於詐欺犯罪;Deepfake也可能冒充公眾人物政府官員其他知名人士,製造虛假信息、進行詐騙或破壞他人形象,對社會的秩序互信構成巨大威脅。

然而,AI變臉並非無懈可擊,這些影片在細節上仍有瑕疵 。大家可以看看影片中人物的瞳孔是否圓形、牙齒是否模糊、身上的配件是否對稱等;人物說話時嘴型亦可能未能完全對上、側臉輪廓和脖子亦會有色差;若他們在臉前方揮手,也可能出現畫面變形;人物的口音或語調可能會突然改變。大家可使用Deepware等免費偵測軟體,以及Google推出的新工具SynthID,來幫助識別Deepfake內容。有些國家也正在研究設立AI認證標章,以確保AI生成的內容對社會無害。

所以若大家收到看似萬分緊急又與錢財有關的求助電話或視頻,記得要「停一停,想一想」,想辦法查証對方的真實身份,才做下一步行動!


參考資料:

https://youtu.be/J56oMYQ2Heg?si=cO9vX2hYn4jKAfGl

https://www.youtube.com/live/Ic6wK6DPI9Q?si=pEznTAUOxsZh4ieT

https://youtu.be/U-E4nVemTFk?si=UhoXfUCmwObIienT

https://www.youtube.com/watch?v=6E6FvwVxylw


留言