近日,韩国曝出"Deepfake"(深度伪造技术)事件,被认为是采用新犯罪手段的"N号房"案件重现。多个关于"韩国AI深度伪造"的话题词引发网友热议。
据韩媒报道,针对女性的深度伪造犯罪在韩国日趋猖獗。Deepfakes是利用AI换脸制造色情图频。韩国网民在通讯软件"电报"(Telegram)上发现大量聊天群,其中有成员创建和分享露骨的性"深度伪造"图像,对象涉及未成年女孩。
在此过程中,加害者还毫不犹豫地公布受害女性的身份,威胁受害人,索要钱财。
曾曝光"N号房"事件的前共同民主党紧急对策委员会共同委员长朴智贤表示,目前全国涉及深度伪造犯罪的人数可能达到22万(包含可能重复的情况),众多女性因此陷入不安和恐惧之中。因为针对年轻女性的深度伪造色情内容泛滥,韩国总统敦促当局采取更多措施来"根除"该国的数字性犯罪流行问题。
韩联社资料图
如何快速识别AI换脸变声诈骗?
深度鉴伪5秒让AI换脸诈骗无处遁形;
如何为"一老一小"构建安全通讯环境?
AI技术强力反制电信诈骗。
9月8日,2024年国家网络安全宣传周在南沙正式拉开帷幕,关于AI换脸、换声等对个人隐私侵害的话题成为大家关注的焦点。一张"人像照片"、一段近距离的人物视频,都有可能成为不法分子犯罪的新手段和新工具。
画面中技术人员正在演示的就是"AI换脸"技术,仅需一张目标人物的静态照片,就能让照片中的人物动起来。
中国网络空间安全协会人工智能安全治理专业委员会委员张博介绍,"尽管现在AI换脸、换声等有一定的技术门槛和操作成本,但如果被不法分子获取的情况下,就有可能被用来假冒他人,实施相关的犯罪活动。"