“我女儿上小学二年级,整天沉迷一款AI剧情聊天软件,学习成绩一落千丈。”“我看了孩子和AI聊天的对话内容,AI角色竟然让她叫‘老公’,我10岁的女儿竟然真叫了,我现在都不知道该怎么教育她了。”……《法治日报》报道,记者近日调查发现,不少未成年人的家长正在被AI剧情聊天软件所困扰。
2024年10月22日,美国佛罗里达州奥兰多地方法院受理了一起开创先例的诉讼:梅根·加西亚起诉Character.ai公司存在管理疏忽,使得旗下的聊天机器人产品“让青少年暴露在色情材料的环境下,遭受性虐待和引诱”。
央视网消息(记者/卢洋):“小学生妹妹沉迷和AI角色进行剧情聊天怎么办?”央视网《新闻+》记者联系到黄秋月时,她正因10岁妹妹和“AI男模”之间较为露骨的聊天记录苦恼。“和她平时在家里比较单纯的形象完全不一样。
来源:中国青年报 随着生成式人工智能的发展,和AI角色“相恋”的故事正在上演。AI剧情角色如何成为“电子男友”?“小学生妹妹沉迷和AI角色进行剧情聊天怎么办?”黄秋月(化名)因10岁妹妹和“AI男模”之间较为露骨的聊天记录苦恼。
□辛欣欣(青岛大学)“我女儿上小学二年级,整天沉迷一款AI剧情聊天软件,学习成绩一落千丈。”“我看了孩子和AI聊天的对话内容,AI角色竟然让她叫‘老公’,我10岁的女儿竟然真叫了,我现在都不知道该怎么教育她了。”记者近日调查发现,不少未成年人的家长正在被AI剧情聊天软件所困扰。
举枪自杀(请勿模仿!)文|沧海旅行家编辑|沧海旅行家前言:AI发展越来越快,不光是作为工具,现在甚至已经出现了AI聊天机器人,不少人也接触过。但是最近在美国,竟然有一个未成年的小男孩在和一个AI聊天之后不久,就拿起手枪自杀身亡。那就让人好奇了,男孩到底和AI聊了什么?
“小学生妹妹沉迷和AI角色进行剧情聊天怎么办?”近日,有网友反映自己10岁的妹妹和“AI男模”之间聊天比较露骨。根据网友提供的聊天记录,妹妹在AI剧情聊天软件中扮演“大小姐”“恶毒女配”,提出诸如“揪住她的头发扇巴掌”“拿着刀划向她的脸”等要求。
生成式人工智能在聊天上的应用,也呈现出了“成瘾性”和“不确定性”的高风险特征。图/IC photo“小学生妹妹沉迷和AI角色进行剧情聊天怎么办?”随着生成式人工智能(AI)被率先应用在社交娱乐等领域,其不受限制与无法预知的互动内容,也正在引发新的问题。
AI会威胁人类生命吗?近日,美国一14岁少年开枪自杀,其生前长期沉迷某款AI聊天软件,孩子母亲将相关企业告上法庭,指控平台方对孩子的死负有责任。此案在社交媒体上被称为“首例AI聊天致死案”。法庭文件显示,该少年患有阿斯伯格症,今年被确诊为焦虑症和破坏性情绪失调症。
原标题:与AI“相恋”别入戏太深“小学生妹妹沉迷和AI角色进行剧情聊天怎么办?”随着生成式人工智能的发展,和AI角色“相恋”的故事正在上演,其不受限制与无法预知的互动内容,也正在引发新的问题。与虚拟伴侣谈个恋爱,倒不是什么新鲜事。
人工智能聊天机器人初创公司Character.AI表示,它已经推出了一项通话功能,允许用户与其人工智能角色进行语音对话。Character AI 的虚拟人格库通过大型语言模型提供对话,但直到现在,唯一的语音选项是一个听起来不真实的通用文本到语音声音。
一段时间以来,不少未成年人的家长饱受AI剧情聊天软件困扰。一些打着“角色扮演”等旗号的AI剧情聊天应用,在吸引未成年人的同时,也悄然滋生了一些灰色地带。在部分AI剧情聊天软件的对话中,出现了色情擦边、语言暴力以及侮辱用户的内容。