南都讯 记者李玲 数据质量决定了大模型的上限,但数据短缺成为制约大模型发展的瓶颈。如何缓解AI公司的数据焦虑?6月14日,第六届北京智源大会上公布了两个数据集:一是千万级高质量开源指令微调数据集,二是开源中英文行业数据集。高质量的指令数据是大模型性能的“养料”。
21世纪经济报道记者 冯恋阁 福州报道生成式人工智能技术不断发展,训练数据来源成为人们最关注的问题之一。去年11月,国家数据局等17部门联合印发的《“数据要素×”三年行动计划(2024—2026年)》提到,要提升数据供给水平、建设高质量语料库和基础科学数据库。
AI大模型不断涌现,“百模大战”愈演愈烈。但不论是To B还是To C的大模型,都面临训练数据日渐匮乏的问题。业内有报告预测,语言数据将于2030~2040年耗尽,其中能训练出更好性能的高质量语言数据将于2026年耗尽;此外,视觉数据将于2030~2060年耗尽。
科技日报北京7月25日电(记者 张梦然)《自然》24日正式发表的一篇研究论文指出了一个人工智能(AI)严重问题:用AI生成的数据集训练未来几代机器学习模型,可能会严重“污染”它们的输出,这被称为“模型崩溃”。
得益于神经网络规模的扩大以及海量数据的训练,人工智能(AI)在过去10年间突飞猛进。“做大做强”的策略,在构建大型语言模型(LLM)上取得了显著成果,ChatGPT就是一个典型的例子。然而,《自然》《麻省理工科技评论》等多家杂志网站指出,AI扩展正逼近极限。