TL;DR:
以前是“眼见为实”,现在是“眼见为虚”。AI视频不仅能“复活”明星,还能伪造犯罪现场,让司法证据变成大型“剧本杀”。真相正在迷雾中裸奔,而我们需要更硬核的监管和技术“防弹衣”。
在明尼阿波利斯,亚历克斯·普雷蒂(Alex Pretti)被杀案的监控视频成了打脸官方陈述的“正义之剑”。然而,当画面一转,一段足以乱真的布拉德·皮特AI视频出现在屏幕上时,我们不得不面对一个扎心的事实:视频这枚“真相硬币”,正在被AI悄悄熔掉。1
兄弟们,这就是我们当下的尴尬处境——视频从未如此有说服力,但也从未如此不可信。当“黑科技”深度伪造(Deepfake)成了人人都能上手的“魔法棒”,真相和谎言之间,可能只差一个高性能显卡。
技术大揭秘:这玩意儿到底怎么工作的?
如果你觉得Deepfake只是高端版的“修图”,那可就太小看它了。这其实是一场算法世界的“左右互搏”。
从技术角度看,这套“骚操作”主要分三步走:特征提取、图像转换、图像整合。2 核心演员是生成对抗网络(GAN)。简单来说,这里面有两个AI:一个是“造假者”(生成器),疯狂练习怎么画出完美的布拉德·皮特;另一个是“鉴黄师”(判别器),死盯着看哪张是假的。
“生成器为了骗过判别器,会拼了命地卷;判别器为了不被打脸,也会拼了命地学。这种‘卷王’式的竞争,最后产出的就是那种连亲妈都认不出来的逼真视频。” —— 某匿名算法工程师的调侃式总结
除了GAN,还有**自编码器(Autoencoder)**在后台默默工作。它先把你的脸“压缩”成一串数字(编码),再把这串数字“解压”成目标明星的脸。3 就在这一压一解之间,你的脸就这么悄无声息地换成了吴彦祖,或者别的什么大佬。
行业“地震”:谁在害怕这些“数字影帝”?
别以为这只是娱乐圈的“换脸乐子”,它引发的次生灾害简直是“核弹级”的。根据最新报告,2023年全球基于生成式AI的深度伪造欺诈增长了整整30倍!2
- 个人层面的“社死”: 别有用心者利用“AI换脸”制作低俗视频。这不仅仅是侵犯肖像权,简直是在数字化人格上反复横跳。4
- 企业层面的“破产”: 想象一下,你的CEO突然在视频会议里叫你给某个神秘账户转账,声音、相貌完全对得上,你转不转?小鹏汽车展台的虚假视频事件,已经给所有企业敲响了警钟。5
- 社会层面的“暴乱”: 2022年,印度有人用AI合成了20多段犯罪视频发到社交媒体,直接引发了公众恐慌甚至无辜人员遭受暴力致死。2 当视频不再是铁证,社会的信任基石就在晃动。
“在拥挤的剧院里大喊‘着火了’是危险的,而在互联网上发布一段政要‘宣战’的伪造视频,简直是想让世界重启。” —— 改编自奥利弗·温德尔·霍姆斯的格言
未来预测:监管“神兽”能否关住AI这头猛兽?
面对这一地鸡毛,监管层终于坐不住了。
好消息是,中国的监管“大招”已经在路上了。2025年9月1日起,《人工智能生成合成内容标识办法》将正式施行。2 这意味着:
- 显性标识:以后AI生成的视频,必须在显眼位置标上“AI生成”字样,不能再玩躲猫猫。
- 隐性水印:内容里会嵌入看不见的“数字指纹”,哪怕你把视频剪成碎片,也能溯源找到是谁搞的鬼。
未来的博弈将是全方位的:从风险识别(抓现行)到风险评估(看危害有多大),再到风险应对(该下架的下架,该坐牢的坐牢)。2
甚至,这已经变成了一场国际外交战。毕竟,AI是没有国界的。如果我们不联手搞一个“全球深度伪造治理联盟”,那以后谁也别想在网上看到哪怕一秒钟的真心话。2
在这个“万物皆可AI”的时代,保持怀疑或许是我们保护真相的最后体面。下次看到视频,先别急着转发,先问问:这视频背后的,到底是真人,还是那串狡黠的算法代码?
引用
-
More Than Ever, Videos Expose the Truth. And Cloud It, Too. · The New York Times · (2024/2/11) · 检索日期2025/2/15 ↩︎
-
生成式人工智能深度伪造风险的样态特征、生成逻辑与监管策略 · 电子政务杂志 · 黄静, 韩松言, 田宇航 (2025/5/13) · 检索日期2025/2/15 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
深度伪造视频的伦理风险与规制逻辑 · 汉斯出版社 · 王宇翰 (2024/8/30) · 检索日期2025/2/15 ↩︎
-
[PDF] 深度伪造视频的伦理风险与规制逻辑 · 法学 · 王宇翰 (2024/8/30) · 检索日期2025/2/15 ↩︎
-
从小鹏“不雅视频”看AIGC失控风险,谁该为“数字谎言”买单? · 知乎 (2024/x/x) · 检索日期2025/2/15 ↩︎