近日由来自来自香港中文大学和上海交通大学的研发团队,发表了《A Survey on Inference Optimization Techniques for Mixture of Experts Models》对MoE模型的推理优化技术进行全面梳理,从模型级、系统级到硬件级,深入探讨各种优化策略及其应用。
11月5日,腾讯混元宣布最新的MoE模型“混元Large“以及混元3D生成大模型“ Hunyuan3D-1.0”正式开源,支持企业及开发者精调、部署等不同场景的使用需求,可在HuggingFace、Github等技术社区直接下载,免费可商用。
同行几乎每月都在发布大模型开源消息,腾讯的类似新闻发生在6个月前。11月5日,腾讯将MoE模型“混元Large”以及混元3D生成大模型“Hunyuan3D-1.0”正式开源,这两个模型已在腾讯业务场景落地,支持企业及开发者精调、部署等不同场景的使用需求。
界面新闻记者 | 崔鹏界面新闻编辑 | 宋佳楠11月5日,腾讯混元宣布开源两款最新的大模型产品,分别是MoE架构的大语言模型“Hunyuan-Large(混元Large)”,以及3D生成大模型“Hunyuan3D-1.
近日,上海人工智能实验室发布了推理大模型InternThinker(书生思想者)。公众在电脑上登录“书生·浦语”大语言模型后,点击界面左侧的InternThinker链接,就能体验这个对标OpenAI o1的沪研推理模型的实力。