武功没有正与邪,看用的人是怎么样的。这位程序员明明有很好的技术与前途,偏偏就是不走正道。让我们看看究竟发生了什么事。事件回顾6月17日,央视新闻曝光了一起让人愤怒的“AI脱衣”案件。犯罪嫌疑人白某某是一名24岁的大学本科毕业生,曾是北京某公司的程序员。
近日,北京某公司员工白某某研发“一键脱衣”AI软件,通过AI软件将他人提供的女明星、女同事、女同学照片等女性图片制作成裸体图片,1块5一张贩卖牟利。据检察机关统计,仅仅两个月,白某某就通过AI去衣软件制作照片近七千张。目前,北京市海淀区检察院已对白某某提起公诉,追究其刑事责任。
□郭元鹏随着AI技术的深度发展,“AI换脸”“AI脱衣”工具变得常见。一些不法分子将歪主意打到了造“黄谣”,甚至威胁、诈骗上。4月19日,北京市海淀区人民法院审理了一起使用“AI去衣”软件制作淫秽物品案。
日前,中央网信办开展为期2个月的“清朗·2023年暑期未成年人网络环境整治”专项行动,整治重点聚焦包括“AI换脸”“AI绘图”等在内的新技术新应用风险问题。南都记者调查发现,随着AI技术的普及,其带来的隐患在网络中广泛存在。
Unstable Diffusion作为目前最大的AI色情内容生成平台,已经筹集了超过2.6万美元的捐款,购买了用于训练AI的硬件设备,并创建了超过3000万张照片的数据集。“在这个平台上,创造力可以自由发挥,没有太多限制。我们相信艺术应该是无审查的。”
北京某公司程序员白某某研发“一键脱衣”AI软件,通过AI软件将他人提供的女明星、女同事、女同学照片等女性图片制作成裸体图片,以1块5一张的价格贩卖牟利。据检察机关统计,仅两个月,白某某就通过该软件制作照片近7000张,其中1500余张被认定为淫秽物品。