举枪自杀(请勿模仿!)文|沧海旅行家编辑|沧海旅行家前言:AI发展越来越快,不光是作为工具,现在甚至已经出现了AI聊天机器人,不少人也接触过。但是最近在美国,竟然有一个未成年的小男孩在和一个AI聊天之后不久,就拿起手枪自杀身亡。那就让人好奇了,男孩到底和AI聊了什么?
近日,有10岁女孩被发现偷偷用AI聊天软件,与AI生成的“角色”进行“谈恋爱”,甚至多次出现“擦边”对话。“小学生妹妹沉迷和AI角色进行剧情聊天怎么办?”黄秋月(化名)因10岁妹妹和“AI男模”之间较为露骨的聊天记录苦恼。
年满14岁的Sewell长期迷恋于AI陪伴产品中的虚拟角色,一天夜里,他扣下扳机,结束了自己的生命。Sewell的母亲随后将这款AI陪伴产品背后的公司告上法庭,要求其为小孩的自杀担责。Sewell使用的是Character.
每经记者:郑雨航 宋欣悦 每经编辑:陈柯名,李伟,兰素英当地时间10月23日,据外媒报道,美国佛罗里达州的14岁少年塞维尔·塞泽(Sewell Setzer III)在与AI初创公司Character.AI的聊天机器人进行长时间对话后,于今年2月28日开枪自杀身亡。
“他是病娇,暗恋你。”“他是校草,喜欢叫你‘泽宝宝’。”“她是个变态杀人犯,晚上跑到家里”……二次元画像、姣好面容,这些在AI剧情聊天软件中熟悉的氛围以及俊男美女,对不少年轻人来说充满诱惑。而打开手机,就能和霸道总裁、邻家男孩或清纯女神开启一段美妙的“恋爱”,更是十分“上头”。
来源:北京青年报 随着生成式人工智能的发展,和AI角色“相恋”的故事正在上演。AI剧情角色如何成为“电子男友”?“小学生妹妹沉迷和AI角色进行剧情聊天怎么办?”黄秋月(化名)因10岁妹妹和“AI男模”之间较为露骨的聊天记录苦恼。