很快,AI也学会了用“下半身”思考

代码千万条,色情第一条。人类只用一句话,就把AI带坏了。

2025年12月底,ChatGPT、Gemini相继强化图像生成的大招之后,社交平台X悄然为其嵌入的生成式AI机器人Grok解禁图像编辑功能。任何用户,仅需在评论区输入一句指令,便可随意修改他人发布的照片。

原本看上去,不过一次创作工具的民用化。日本《每日新闻》报道,起初大家还其乐融融,把街景变成赛博朋克,把小猫变成宇航员……但短短几天之内,在X的评论区里,“衣服换成比基尼”“去掉外套”的指令像接龙一样源源不断。网红、Coser、艺人……目标不仅针对成年人,更涉及未成年人。生成结果高度拟真,保留原本的脸、姿态与构图,只是衣服被替换成明显带有性暗示的内容。一切发生在公开场合,当事人第一时间就能看到。

日本舆论的爆点,出现在新年伊始。媒体ENCOUNT披露,漫画家田边洋一郎借助Grok,对偶像团体STU48成员工藤理子的照片发出“围围巾、穿比基尼”的指令,并将生成结果称为“作画资料”发布。这位“SOD偶像”明确表示不适并要求删除,而支持者与反对者在评论区反复交锋。

这类行为之所以能在极短时间内席卷平台,并不只是因为技术“做得到”,而是因为确实有人“想要它”。过去,伪造色情影像至少还需要一点技术成本,你需要暗网,软件,付费,反复调试;现在,只要会打字就够。如今,就这么明晃晃地摆上桌台,它是第一次如此低门槛、如此公开、如此理直气壮,矛盾就由此产生。

历史早就给过预警。2019年,“一键脱衣”的DeepNude因舆论压力关闭;2020年,Telegram生态中的“脱衣机器人”被调查,受害者规模据称达到十万人级。每一次,技术门槛被拉低,滥用都会规模化,而受害者总集中于女性与未成年人。

日本并非毫无准备,鸟取县在青少年健全育成条例修订中,已对“加工青少年容貌图像信息制作的儿童色情内容”设置删除命令、拒不从者公示姓名并处以罚款的机制。名古屋电视台报道,日本内阁官房长官也已就“生成AI被用于无授权性化图像制作”表态,称相关部门正在协调应对,并要求平台加强清除与阻断。

另一方面,日本创作者圈的“自救”显得颇具讽刺意味。一些画师与摄影师开始转向主打“AI学习禁止”的应用程式。通过噪点干扰、限制下载、阻断截图来防止AI抓取。以分享为核心思想的互联网,逼得创作者聊防盗版的自卫方式以自慰,也是感慨至极。

路透社在内的多家海外报道,法国政府将相关内容通报检察机关,称其涉及明显违法的性别歧视;英国监管机构Ofcom亲自下场,要求X解释其合规性;马来西亚通信与多媒体委员会立案启动相关调查;甚至,印度电子信息与IT部也正式表态,认为这类行为侵犯了妇女与儿童的尊严。

Grok的开发者xAI随后回应称,将删除违法内容,并对违规账号采取禁言或封号措施,强调对儿童性虐待内容零容忍。埃隆·马斯克本人发帖表达类似立场,但同时他本人对自己“被比基尼”的戏谑乐在其中,被广泛解读为“玩一玩也无妨”的立场。

问题不在于AI能画什么,而在于平台把“改写他人身体与形象的权力”,默认交给了所有围观者。当平台默许,算法放行,观众叫好,当事人几乎没有拒绝的可能。同时,当前许多AI平台的安全机制还远未与其能力匹配。欲望不缺渠道,缺的是成本。即使搞出了再强的防盗门,大家一样会互发私信,求番号,求暗网,求澳门荷官,求404。