新研究:新技术助力人工智能减少“胡诌”人工智能(AI)中广泛使用的大语言模型不时出现的“一本正经地胡诌”是其难以克服的问题。近日,英国牛津大学研究团队开发出一种名为“语义熵”的新方法,有望大幅提升AI回答的可靠性。
随着AI工具如雨后春笋般喷涌而出,如今,高校论文的“AI味”也日渐浓郁,引发了老师、学校和全社会的普遍担忧。 近日,一则“大学老师说AI作文全判0分”的热搜显示,老师对部分学生滥用AI持鲜明反对态度。 据央视新闻日前报道,AI工具已成为不少大学生完成报告、论文的“神器”。
近日,国家网信办公布了《人工智能生成合成内容标识办法(征求意见稿)》(以下简称《征求意见稿》),并面向社会公开征求意见,意见反馈截止时间为10月14日。《征求意见稿》提出,人工智能生成合成内容是指利用人工智能技术制作、生成、合成的文本、图片、音频、视频等信息。
图为对大语言模型进行反复提问可能会得到多种具有不同语义的答案示意图。刘传波 制图目前,大语言模型逐渐成为文学、法律、医学、自然科学研究等领域中不可或缺的工具。然而,在应用过程中,大语言模型常会出现 “幻觉”现象——可能生成看似合理但实际并不准确或不真实的信息。
生成式AI正以惊人的速度进化出“一本正经胡说八道”的能力——不久前,两封信网上流传,一封署名英伟达CEO黄仁勋的内部信表达对DeepSeek的看法,一封是“来自”DeepSeek CEO 梁文锋对冯骥的公开回应。
目前,人工智能聊天工具ChatGPT的功能正在被人们充分挖掘,学生是最早开始使用这一工具的群体之一,其引发的一些问题也引起了教育界的关注。在国外,已有学校禁止使用ChatGPT,因为担心学生可能会用它作弊。