AI大模型不断涌现,“百模大战”愈演愈烈。但不论是To B还是To C的大模型,都面临训练数据日渐匮乏的问题。业内有报告预测,语言数据将于2030~2040年耗尽,其中能训练出更好性能的高质量语言数据将于2026年耗尽;此外,视觉数据将于2030~2060年耗尽。
南都讯 记者李玲 数据质量决定了大模型的上限,但数据短缺成为制约大模型发展的瓶颈。如何缓解AI公司的数据焦虑?6月14日,第六届北京智源大会上公布了两个数据集:一是千万级高质量开源指令微调数据集,二是开源中英文行业数据集。高质量的指令数据是大模型性能的“养料”。
AI几乎读取了互联网上的所有内容,但仍渴望获得更多数据。为此,开发人员必须寻找变通之道。得益于神经网络规模的扩大以及海量数据的训练,人工智能(AI)在过去10年间突飞猛进。“做大做强”的策略,在构建大型语言模型(LLM)上取得了显著成果,ChatGPT就是一个典型的例子。
赵精武【析理论道】 数据作为数字时代的“新石油”,不仅是传统产业、新兴产业发展的重要支撑,同时也是人工智能科技创新的关键创新资源。现阶段,人工智能产业发展面临的最突出、最迫切的困境,便是训练数据供给不足。