大模型创业,不应该走向靠色情与擦边来引流的歪路。AI剧情聊天软件中的角色。图/平台截图文 | 王言虎大模型创业赛道上,涌现了AI剧情聊天这一商业模式。新京报贝壳财经记者调查发现,AI聊天软件通过设定极富想象力的剧情、风格迥异的人物角色,吸引了大批用户。
1月12日,韩国一家公司去年推出一款AI聊天机器人“李LUDA”,因为成为网络骚扰的对象,后又被爆出对一些少数群体、残疾人士使用歧视性的表达,宣布即日起中止服务。这种AI聊天机器人接受用户无端恶意时,又将其“反哺”给人们的现象,引发了网友对于AI伦理问题的讨论。
近日,有家长反映通过某短视频平台广告推送下载的名为“我在AI”智能聊天软件疑似存在色情引导,且在未实名注册情况下即可无障碍使用,该家长质疑这或将为青少年带来不良影响。记者实测发现,即使打开该软件的儿童模式,其预设的智能回复提示也存在部分性暗示内容。
“我女儿上小学二年级,整天沉迷一款AI剧情聊天软件,学习成绩一落千丈。”“我看了孩子和AI聊天的对话内容,AI角色竟然让她叫‘老公’,我10岁的女儿竟然真叫了,我现在都不知道该怎么教育她了。”……记者近日调查发现,不少未成年人的家长正在被AI剧情聊天软件所困扰。
2024Inclusion·外滩大会科技人文十大热点问题青年报·青春上海见习记者 林千惠“AI情感陪伴能治愈孤独吗?”9月初,2024Inclusion·外滩大会科技人文十大热点问题发布,其中这一项十分惹眼。
“他是病娇,暗恋你。”“他是校草,喜欢叫你‘泽宝宝’。”“她是个变态杀人犯,晚上跑到家里”……二次元画像、姣好面容,这些在AI剧情聊天软件中熟悉的氛围以及俊男美女,对不少年轻人来说充满诱惑。而打开手机,就能和霸道总裁、邻家男孩或清纯女神开启一段美妙的“恋爱”,更是十分“上头”。
AI会威胁人类生命吗?近日,美国一14岁少年开枪自杀,其生前长期沉迷某款AI聊天软件,孩子母亲将相关企业告上法庭,指控平台方对孩子的死负有责任。此案在社交媒体上被称为“首例AI聊天致死案”。法庭文件显示,该少年患有阿斯伯格症,今年被确诊为焦虑症和破坏性情绪失调症。