人工智能、大数据、5G等新兴科技的发明都为社会发展增添了诸多蓬勃发展的动力,但是物极必反,其也给整个国家的安全带来严重威胁。在人工智能下进行深度学习,看似正常的科学领域分支,却在悄无声息中给深度伪造技术造成了可乘之机。
近日,韩国出现多起利用AI换脸伪造女性色情露骨图像的犯罪案,在这背后,犯罪者用深度伪造技术(Deepfake)合成色情照片和视频,并在通信软件Telegram的群聊中传播,参与者多达22万人,引发韩国民众恐慌。
【环球时报驻韩国特派记者 莽九晨 环球时报记者 任伊然】据韩国《朝鲜日报》27日报道,韩国总统尹锡悦当天表示,最近以不特定人群为对象的深度伪造技术影像通过社交媒体迅速传播,不少受害者是未成年人,加害者也大多10多岁。
随着人工智能的快速发展,近几年深度伪造技术迅速兴起,其巨大的应用潜力为艺术、社交、医疗等领域的发展带来了新的可能性,但同时也为不法分子散布虚假视频,激化社会矛盾,煽动暴力和恐怖行动提供了新工具,给经济安全、社会安全等安全领域带来了诸多风险。
潮新闻 评论员 张萍图片由AI生成。用最新的人工智能技术深度合成一个名人音视频要多少钱?记者的实验告诉我们:粗糙一些的不要钱,精细一点的几十块钱。最近媒体记者调查发现,深度合成软件在网络上越来越容易获得,一些网络主播会开直播教网友如何使用,因此引发的侵权纠纷也原来越普遍。
参考消息网5月29日报道 据埃菲社5月21日报道,人工智能所构成的威胁还远没有达到像科幻电影中那样,在没有人类干预的情况下创造一台统治世界的机器。然而,目前存在的风险是,人工智能很有可能取代政客的身份,例如通过生成视频图像,让他们“说出”自己原本没有说过的话。
(央视财经《经济信息联播》)美国OpenAI公司发布的首个视频生成模型“Sora”在给相关内容制作行业带来震撼的同时,也引发了人们对其“深度伪造视频”可能加剧错误和虚假信息传播的担忧。当前,包括谷歌和Runway在内的多家公司,都在积极研发此类人工智能项目。
近年来,随着人工智能技术的发展,使用“深度伪造”换脸技术制作的色情影像在韩国社交媒体上肆意传播,韩国女性深受其害。为从根本上清除这一社会毒瘤,保障女性权益,韩国政府不断加大打击“深度伪造”性犯罪的力度。
最近,美国流行乐歌星“霉霉”不雅照在网上疯传,不过都是造假,始作俑者是利用AI深度伪造技术合成的。其实,利用AI技术合成不雅照并不新鲜,之前也出现过女星遭遇“一键脱”的事件,号称利用某款软件就可以一键生成不雅照。
【来源:红星新闻】英国政府7日说,使用“深度伪造”技术制作色情内容以及相关传播行为将被列为刑事犯罪,以应对英国这类影像激增的问题,目前受害者多数为女性。“深度伪造”指用人工智能技术制作看起来真实度很高的视频、图片或音频片段,这种技术可将色情影像中的人变成他人模样。
【网络安全机构预测深度伪造将成为2025年主要欺诈手段】财联社1月13日电,全球网络安全机构派拓网络发布的亚太地区网络安全预测显示,2025年,深度伪造将被更加频繁地单独使用或加入到更大规模的攻击中。报告显示,在亚太地区,深度伪造已被用于各种非法用途。