北京商报讯(记者 魏蔚)2月12日,字节跳动豆包大模型团队宣布,已提出全新的稀疏模型架构 UltraMem,该架构有效解决了 MoE 推理时高额的访存问题,推理速度较 MoE 架构提升 2-6 倍,推理成本最高可降低 83%。
《科创板日报》2月10日讯(编辑 宋子乔)2月10日,A股视觉认知概念股午后大幅走强,创业板星宸科技直线拉升涨停,全志科技、富瀚微、虹软科技等纷纷大幅冲高。消息面上,豆包发布视频生成实验模型“VideoWorld”。
“这世界唯一不变的就是一直在变。” 科技圈更是如此,本以为大模型的发展已经够疯狂了,可最近豆包大模型团队又搞出了一个大新闻,直接把我惊掉了下巴。他们推出了全新稀疏架构 UltraMem,据说能大幅降低推理成本,最高能降 83%!
3月10日,字节豆包大模型团队官宣开源一项针对MoE架构的关键优化技术,可将大模型训练效率提升1.7倍,成本节省40%。据悉,该技术已实际应用于字节的万卡集群训练,累计帮助节省了数百万GPU小时训练算力。
每经北京2月11日电(记者杨昕怡)豆包大模型团队今日宣布,团队提出了全新的稀疏模型架构UltraMem,该架构有效解决了MoE(混合专家模型)推理时高额的访存问题,推理速度较MoE架构提升2~6倍,推理成本最高可降低83%。
来源:环球网 【环球网科技综合报道】2月13日消息,字节跳动豆包大模型Foundation团队近日宣布了一项重要创新成果——UltraMem稀疏模型架构。这一架构通过将计算和参数解耦,在保证模型效果的同时,有效解决了推理过程中的访存问题,为人工智能领域带来了新的突破。
21世纪经济报道记者雷晨 北京报道继DeepSeek大模型之后,国产大模型再度实现突破。2月10日,字节跳动豆包大模型团队公众号发文宣布,与北京交通大学、中国科学技术大学联合提出的视频生成实验模型“VideoWorld”,在业界首次实现无需依赖语言模型,即可认知世界。
来源:港股那点事格隆汇2月27日丨涂鸦智能-W(02391.HK)公告,于2025年2月17日,集团与北京火山引擎科技有限公司("火山引擎")达成深度合作,将"豆包"大模型集成至涂鸦智能云开发者平台上。双方将携手推动人工智能大模型及AI云原生技术在更多领域实现应用落地。
到 2024 年 11 月底,豆包 APP 的累计用户规模已超 1.6 亿,每日平均新增用户下载量稳定在 80 万,日活跃用户数接近 900 万,增长率超过 15%,在全球 AI 应用中排名第二,仅次于 ChatGPT,在国内 AI 应用领域,与 Kimi 等竞品形成了 “两超多强” 的新格局。
每经记者:杨昕怡 每经编辑:余婷婷训练大模型的成本之高一直是行业痛点,各路玩家都在思考如何用技术创新把成本“打”下来。3月10日,字节跳动豆包大模型团队发布了针对MoE(混合专家模型)架构的通信优化系统COMET,该方案通过细粒度计算-通信重叠技术,助力大模型训练优化。