一系列使用 AI 技術將創作者臉部和身體替換為《怪奇物語》演員的影片,本週在社交媒體上掀起病毒式傳播,引發了對深偽技術濫用的新一輪擔憂。巴西內容創作者 Eder Xavier 發佈的怪奇物語AI影片,透過 Kling AI 的 2.6 Motion Control 技術,將自己無縫替換為演員 Millie Bobby Brown、David Harbour 及 Finn Wolfhard,該系列影片在 X 平台上已獲得超過 1,400 萬次 觀看。
即加入CFTime TG 讨论区!想掌握最新加密市场动态与 AI 新闻与资讯,更能随时获得免费 web 3入场券!
技術突破:從「換臉」到「全身替換」 偵測難度大幅增加
這些影片不僅吸引了大量觀眾,也引起了科技專家的關注。a16z 合夥人 Justine Moore 分享了相關影片,並評論道:「我們還沒有準備好 AI 將如何迅速改變內容製作流程。一些最新的視訊模型對荷里活有直接的影響——以近乎可忽略的成本實現無限的角色替換。」
專家警告,隨著圖像和視訊生成工具持續改進,如 Kling、Google 的 Veo 3.1 與 Nano Banana、FaceFusion 及 OpenAI 的 Sora 2 等新模型,使得高品質合成媒體的取得門檻降低,這種在病毒影片中出現的技術很可能迅速擴散,超越孤立的示範範疇。
安全隱憂:數位肖像盜用門檻降低 無人安全
網路安全公司 GetReal Security 的首席調查官 Emmanuelle Saliba 表示:「閘門已經打開。盜用個人的數位肖像——他們的聲音、臉部——從未如此容易,而現在,只需一張圖片就能讓它活過來。沒有人是安全的。」他預警:「我們將開始看到系統性的濫用,規模從一對一的社交工程攻擊,到協調的虛假資訊活動,再到對關鍵企業和機構的直接攻擊。」
賓漢頓大學電機與電腦工程教授 Yu Chen 指出,全身角色替換超越了早期深偽工具僅限臉部操作的範疇,帶來了新的挑戰。他解釋道:「這些系統必須同時處理姿勢估計、骨骼追蹤、服裝與紋理轉移,以及整個身體的自然動作合成。早期的深偽技術主要在受限的操作空間內運行,專注於臉部區域替換,而幀的其餘部分基本保持原樣。偵測方法可以利用合成臉部與原始身體之間的邊界不一致性,以及頭部動作與身體運動不自然對齊時的時間偽影來識別。」
潛在危害:從非自願親密影像到政治虛假資訊與企業間諜活動
Yu Chen 教授強調,除了金融詐欺和冒充詐騙,非自願親密影像是最直接的危害途徑,因為這些工具降低了創建包含真實個人的合成露骨內容的技術門檻。Saliba 和 Chen 教授同時強調的其他威脅還包括政治虛假資訊和企業間諜活動,例如詐騙者冒充員工或 CEO、發布捏造的「洩密」影片、繞過控制措施,以及透過「影片中一個可信的人物足以在短時間內降低懷疑,從而進入關鍵企業內部」的攻擊來竊取憑證。
責任歸屬:開發者、平台、政策制定者與使用者需共同承擔
目前尚不清楚影視工作室或被描繪的演員將如何回應。Yu Chen 教授認為,由於這些影片依賴公開可用的 AI 模型,開發者在實施保障措施方面扮演關鍵角色。然而,責任應該由平台、政策制定者和終端使用者共同分擔,因為將責任完全放在開發者身上可能難以執行,並會扼殺有益的用途。
隨著這些工具的普及,Chen 教授建議研究人員應優先開發能識別合成內容內在統計特徵的偵測模型,而非依賴容易被去除的元數據。他補充說,平台應投資於自動化偵測流程和人工審查能力,同時為涉及公眾人物或潛在詐騙的高風險內容制定明確的升級處理程序。政策制定者則應著重建立清晰的責任框架並強制執行揭露要求。
Yu Chen 教授總結道:「這些能力的快速普及意味著,今天制定的應對框架將在數月而非數年內接受大規模測試。」
