警惕AI换脸技术滥用滋生黑灰产:色情视频被恶意“炮制” 几元就能买到预训练模型
来源:经济参考报
业内人士指出,这些以假乱真的换脸视频不仅突破了法律与道德的底线,更对个人安全和社会公序良俗构成严重威胁,呼吁加强治理。
小雨是一名娱乐主播,直播内容主要是和粉丝聊天,不涉及任何擦边内容。但不法分子却将小雨的脸换到色情影片中传播,让她无端卷入不良舆论风波。
“视频是不能P的”“居然背着我们偷偷拍片”……看到直播间公屏上类似弹幕如爆炸般袭来,小雨自此不敢再参加任何线上或线下社交活动。
深度伪造(Deepfake),是指通过使用人工智能生成技术,将个人的声音、面部表情以及身体动作拼接合成虚假内容。最常见的是AI换脸技术,也包括语音模拟、人脸合成、视频生成等。
深度伪造的“作案工具”究竟来自哪里?记者采访了解到,最多只需要四样东西:AI换脸软件、预训练模型、被换脸的视频、受害人照片。
首先,AI换脸必然需要受害人的照片。根据相关技术社区的分享,最初版本的深度伪造大概需要50张多角度、高清晰度的照片,才能实现较为自然的视频合成。但经过几年迭代,目前只需要20张左右的照片就可以实现。
按理说,作为非技术人员的普通人,应该较难获得预训练模型来进行深度伪造。但事实并非如此。
打开很多电商平台、二手交易平台,可以轻松找到专用于深度伪造的预训练模型。这些模型一般被称为“AI金丹”,只需要几元钱成本,便可轻易获得。
受访专家表示,从照片盗用到预训练模型的交易,每一个环节都暴露了当前网络环境的漏洞。
实际上,在打击AI换脸色情视频的技术攻防战中,公安机关面临前所未有的挑战。
而对于受害者而言,过高的技术壁垒也使得独立取证几乎成为一件不可能的事。“传统办案中‘人赃俱获’的模式在AI犯罪面前已经不起作用了。”王警官坦言。
业内人士指出,技术再逼真,人性的漏洞永远是突破口。面对可疑电话时保持冷静,收到亲友紧急转账请求时多渠道核实,警惕背后可能存在的AI语音合成陷阱。(记者 原勋)
