TL;DR:
AI不是法外之地,乱用生图工具真的会“喜提”铁窗泪。一名俄亥俄州男子因利用AI伪造亲密图像,成为美国首个根据联邦AI新法被定罪的“显眼包”,这波“法律铁拳”来得快准狠。
这位名叫詹姆斯·斯特拉勒二世(James Strahler II)的37岁俄亥俄州老哥,最近在法庭上“认栽”了。他不仅承认了网络跟踪、制作淫秽儿童性虐待图像,还顺带解锁了一个极其尴尬的“历史第一”:成为美国司法部宣称的、首位根据全新联邦AI法规被定罪的人。1
说白了,以前很多人觉得在键盘后面动动手指,用AI生成的虚假图像搞点“颜色”或者打击报复,法律可能拿他没办法。但这次,斯特拉勒用自己的亲身经历告诉全世界:法律的补丁已经打好了,不仅能封你的号,还能封你的人。
法律也玩“版本更新”:这套组合拳是怎么打的?
长期以来,AI生成的色情内容(尤其是所谓的Deepfake)一直游走在法律的灰色地带。如果图像里的人是“捏”出来的,或者是通过已有照片合成的,检察官往往很难用传统的法律给他们定罪,因为他们可能会辩解称“这不是真人”。2
但规则在2025年发生了质变。当时,美国总统签署了具有里程碑意义的《删除法案》(Take It Down Act)。2 这个法案的杀伤力在于,它明确禁止在未经同意的情况下在线发布亲密图像,并且专门把“AI伪造品”列入了打击名单。1
调侃式点评:以前你玩Deepfake是“技术流”,现在你玩Deepfake可能是“技术性入狱”。
斯特拉勒这次涉及的罪名相当硬核,除了网络跟踪前任,还包括利用AI制作数字伪造品。根据司法部的说法,这正是《删除法案》大显身手的时候:只要你明知这些亲密影像是未经当事人同意生成的(哪怕是AI生成的),且发布或威胁发布,那就是联邦重罪。3
监管“地震”:谁还觉得AI是法外之地?
这起案件绝不是个案,而是全球范围内AI强监管浪潮的一个缩影。
- 加州先行一步:在联邦法案大面积铺开前,加州就在2025年签署了针对AI生成未成年人虐待图像的严格法案,堵住了“无法证明是真人”的法律漏洞。2
- 跨国联手:英国和美国此前已经达成共识,无论AI生成的有害内容是否描绘了真实儿童,统统都是违法行为。2 科技公司甚至被要求主动识别并删除这些“赛博毒素”。
- 版权与伦理的双重夹击:虽然Meta、OpenAI和微软等巨头还在为“合理使用”版权数据训练模型而跟法院拉锯,2 但在涉及隐私、色情剥削和儿童安全等底线问题上,监管层的态度只有四个字:绝不姑息。
未来预测:下一个“风口”可能在监狱?
这起“首例”定罪释放了一个强烈的信号:AI应用的“狂野西部”时代正在终结。4
对于那些幻想着利用大模型绕过道德约束、甚至制作非法内容的人来说,斯特拉勒的下场就是前车之鉴。随着《删除法案》这类工具的普及,执法部门的“抓捕技能包”已经从传统领域延伸到了像素级。
我们认为:AI确实让创作门槛变低了,但也让作恶的代价变得更清晰了。技术本无罪,但如果你非要拿着“赛博画笔”去触碰法律的高压线,那对不起,法律的“版本更新”绝对比你的模型迭代还要快。
接下来的几年,我们大概会看到更多类似的案例浮出水面。而对于普通开发者和用户来说,最明智的选择就是:尊重隐私,拥抱合规,让AI干点正事儿吧!
引用
-
Ohio man becomes first to be convicted under new AI statute for sexually explicit images · The Guardian · (2026/4/8) · 检索日期2026/4/9 ↩︎ ↩︎
-
人工智能政策轮廓开始显现 · 中国保护知识产权网 · (2025/9) · 检索日期2026/4/9 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Columbus man pleads guilty to cyberstalking exes, creating AI-generated obscene material · U.S. Department of Justice · (2026/4/8) · 检索日期2026/4/9 ↩︎
-
美国出台首个联邦人工智能监管法案 · 安全内参 · (2025) · 检索日期2026/4/9 ↩︎