首先,这玩意儿免费还特别好用,不管是普通老百姓还是搞开发的专业人员,都爱用它。其次,AI模型运行起来特别耗算力,DeepSeek的服务器没办法同时满足这么多人用它时所需要的算力,任务处理得慢,所以就老是卡着,看起来忙不过来。
1 发布多个大模型:基于自研训练框架、自建智算集群和万卡算力等资源,仅用半年时间便已发布并开源多个百亿级参数大模型,如 DeepSeek-LLM 通用大语言模型、DeepSeek-Coder 代码大模型,并在 2024 年 1 月率先开源国内首个 MoE 大模型,各大模型在公开评测榜单及真实样本外的泛化效果均有超越同级别模型的出色表现。