“服务器繁忙,请稍后再试。”这是近期DeepSeek用户经历的日常,需求井喷让DeepSeek始终处于满负荷算力运行状态。然而,“算力不足”的另一面却是“算力过剩”——市场上大量异构芯片因彼此之间“语言不通”存在“生态隔离”,难以被有效整合和利用。
每经记者:岳楚鹏 每经编辑:兰素英2月10日,清华大学KVCache.AI团队联合趋境科技发布的KTransformers开源项目迎来重大更新,成功打破大模型推理算力门槛。此前,拥有671B参数的MoE架构大模型DeepSeek-R1在推理时困难重重。
Kimi和DeepSeek必有一战?作者 | 刘俊群编辑丨刘钦文来源 | 野马财经只见新人笑,哪闻旧人哭?2025年1月20日,本该是“国产AI领头羊”月之暗面的高光时刻——其对标Open AI满血版o1的k1.