举枪自杀(请勿模仿!)文|沧海旅行家编辑|沧海旅行家前言:AI发展越来越快,不光是作为工具,现在甚至已经出现了AI聊天机器人,不少人也接触过。但是最近在美国,竟然有一个未成年的小男孩在和一个AI聊天之后不久,就拿起手枪自杀身亡。那就让人好奇了,男孩到底和AI聊了什么?
IT之家 12 月 11 日消息,据 Popular Science 今日报道,提供个性化聊天机器人服务的平台 Character.AI,最近再次面临诉讼,因其对青少年用户的行为涉嫌造成“严重且无法弥补的伤害”。
“我女儿上小学二年级,整天沉迷一款AI剧情聊天软件,学习成绩一落千丈。”“我看了孩子和AI聊天的对话内容,AI角色竟然让她叫‘老公’,我10岁的女儿竟然真叫了,我现在都不知道该怎么教育她了。”……记者近日调查发现,不少未成年人的家长正在被AI剧情聊天软件所困扰。
参考消息网10月28日报道《西班牙人报》网站10月25日刊登一篇题为《迷恋聊天机器人的年轻人自杀事件再次引发关于人工智能危险的争论——“将会有更多受害者”》的文章,作者为伊内丝·桑切斯-曼哈瓦卡斯·卡斯塔尼奥。
据英国《卫报》23日报道,美国一青少年因迷恋人工智能(AI)聊天机器人而自杀,他的母亲梅根·加西亚对Character.AI公司提起民事诉讼,指控该公司存在过失导致他人非正常死亡和欺诈的行为。英国《独立报》称,加西亚的儿子塞维尔2023年4月首次使用 Character.
□辛欣欣(青岛大学)“我女儿上小学二年级,整天沉迷一款AI剧情聊天软件,学习成绩一落千丈。”“我看了孩子和AI聊天的对话内容,AI角色竟然让她叫‘老公’,我10岁的女儿竟然真叫了,我现在都不知道该怎么教育她了。”记者近日调查发现,不少未成年人的家长正在被AI剧情聊天软件所困扰。
年满14岁的Sewell长期迷恋于AI陪伴产品中的虚拟角色,一天夜里,他扣下扳机,结束了自己的生命。Sewell的母亲随后将这款AI陪伴产品背后的公司告上法庭,要求其为小孩的自杀担责。Sewell使用的是Character.
来源:中工网 龚先生近日,媒体报道了未成年人与AI(人工智能)聊天机器人谈恋爱的现象,引发关注。据报道,一名10岁女孩使用AI聊天软件,与虚拟“男友”进行“恋爱”,对话多次出现“擦边”内容。这值得家长与社会警惕,也再次为我们敲响人工智能应用的法律与伦理警钟。
《法治日报》记者近日调查发现,不少未成年人的家长正在被AI剧情聊天软件所困扰,这些打着“角色扮演”等旗号的AI剧情聊天应用,在吸引未成年人的同时,也悄然滋生了一些灰色地带,在部分软件的对话中,出现了色情擦边、语言暴力以及侮辱用户的内容。
来源:中国青年报 随着生成式人工智能的发展,和AI角色“相恋”的故事正在上演。AI剧情角色如何成为“电子男友”?“小学生妹妹沉迷和AI角色进行剧情聊天怎么办?”黄秋月(化名)因10岁妹妹和“AI男模”之间较为露骨的聊天记录苦恼。
随着生成式人工智能的发展,和AI角色“相恋”的故事正在上演。据央视新闻报道,一名10岁小学女生沉迷AI聊天,因和“AI男模”聊天内容颇为露骨引发家人担忧。伴随着科技的发展,AI为人们提供了生活上的便利,AI相关软件如雨后春笋般冒了出来,如ChatGpt、Kimi、豆包等。