DeepSeek和o1/o3一类推理大模型持续带来震撼之际,有人开始研究他们的弱点了。最新研究揭示:在遇到高难度问题时,推理大模型可能像“三心二意的学生”一样频繁切换解题思路,却因缺乏深入探索而失败——这种现象被研究者称为Underthinking。
下一个改变世界的,仍是made in China大家新春快乐,在庆祝新年的同时,最火的话题,非 DeepSeek 莫属。 一边是铺天盖地的赞誉,称它为“中国 AI 之光”。图源:deepseek官网另一边,则是无休止的质疑,围绕模型来源、参数规模、实际能力等问题展开。
这几天DeepSeek火了,不仅轰动全国,也震动了世界,尤其是美国科技界,东方让世人再一次注目。其实它并没有正面回答我的问题,,它对我的重复追问似乎有些恼火,“嗯,用户又问了DeepSeek和ChatGPT哪个更厉害。之前已经回答过一次”,但DeepSeek还是耐着性子礼貌的回答我,首先DeepSeek分析我这个家伙提出这样的问题是出于什么目地,“首先,用户可能对这两个模型不太了解,或者想要更详细的比较。