这两年,各类生成式人工智能,如大语言模型、聊天机器人等给人们带来了新鲜的体验和很大的帮助。但是人们在惊叹其强大的同时,也发现这些AI会虚构、造假与欺骗。比较典型的是,有人向AI询问“自己”,结果一眼就找出了不少谬误。
AI技术正被频频用来作为造谣黑手,让“造谣一张嘴,辟谣跑断腿”的现实性困难,再度凸显。公安部网安局在14日早间发布的一起公告显示,近期在互联网上广为流传的“顶流明星赌博输10亿”的信息,其实是一则由AI技术编造的、彻头彻尾的谣言。
2024年,大模型浪潮逐渐迈入了应用深化与广泛落地的关键阶段,集成了生成式AI技术的新产品以多种形式进入人们的日常生活,成为工作、创作和娱乐的重要助手。不过,新AI技术与各行业深入融合的同时,也引发了数据安全、版权归属、伦理挑战等一系列担忧。
来源:环球时报 【环球时报赴乌镇特派记者 刘扬 李炫旻】随着以ChatGPT为代表的生成式人工智能大模型持续火爆,全球科技公司、科研机构纷纷布局自己的大模型。生成式人工智能与大模型的快速发展,也给网络安全带来全新挑战。
人工智能(AI)在拓展创意边界、提升传播效能的同时,也带来虚假信息泛滥、知识产权侵权等隐忧,给国际传播生态建设带来新挑战。一些媒体和国际组织开始探索如何应用AI新技术应对AI虚假信息,“用技术对抗技术,用魔法打败魔法”。
生成式AI正以惊人的速度进化出“一本正经胡说八道”的能力——不久前,两封信网上流传,一封署名英伟达CEO黄仁勋的内部信表达对DeepSeek的看法,一封是“来自”DeepSeek CEO 梁文锋对冯骥的公开回应。
原标题:“投喂”AI不能滥用隐私数据“我们将对您主动上传的文档材料,在采取脱敏处理后作为AI训练的基础材料使用……”近日,办公软件WPS在其隐私政策中的表述被质疑滥用用户隐私,随后其官方向用户致歉,并承诺用户文档不会被用于人工智能训练目的。
无论是“逢大事便有谣言”还是“逢谣言便有AI”都提示我们,治标更要治本,要以前瞻性思维布局谋划,让打击治理谣言事半功倍。据1月12日央视新闻报道,近日,西藏日喀则市定日县发生6.8级地震后,一系列“小男孩被埋图”在网络上广泛传播。
2025年,新一代人工智能从实验室走进人世间。网上网下,人人都在谈大模型、个个都在议黑科技,从DeepSeek应用到“杭州六小龙”的思考,AI话题已经和柴米油盐一起,成为寻常生活里的日常。不过,AI虽好,它也是一把“利刃”,用好了快刀斩乱麻,用坏了也是伤筋又动骨。