来源:环球网 【环球网科技综合报道】12月18日,字节跳动正式推出了其最新的豆包视觉理解模型。据官方介绍,该模型在处理千tokens输入时的价格仅为3厘,这意味着用户仅需一元钱即可处理多达284张720P分辨率的图片。
21世纪经济报道记者雷晨 北京报道继DeepSeek大模型之后,国产大模型再度实现突破。2月10日,字节跳动豆包大模型团队公众号发文宣布,与北京交通大学、中国科学技术大学联合提出的视频生成实验模型“VideoWorld”,在业界首次实现无需依赖语言模型,即可认知世界。
《科创板日报》12月18日讯 字节跳动豆包正一路高歌猛进,今日又迎来重磅更新。截至目前,豆包大模型日均tokens使用量超过4万亿,发布7个月以来增长超过33倍。在今日的火山引擎Force原动力大会上,豆包又发布了视觉理解模型,具备更强的内容识别、理解和推理、视觉描述等能力。
《科创板日报》2月12日讯(记者 张洋洋)今日,字节跳动豆包大模型团队提出了全新的稀疏模型架构 UltraMem,该架构有效解决了MoE推理时高额的访存问题,推理速度较 MoE 架构提升2-6倍,推理成本最高可降低83%。目前,国内外大模型领域的竞争愈发激烈,已然进入白热化阶段。
近期在豆包亮眼表现的催化之下,市场对字节链的关注度显著提升,随着字节入局AI硬件,除云端外,字节端侧逻辑也得到强化,我们认为云厂商发力AI终端是产业发展的必然,增强用户粘性的同时,也为模型算力提供落脚点。
2月10日,界面新闻获悉,豆包大模型团队联合北京交通大学、中国科学技术大学共同开发的视频生成实验模型“VideoWorld”正式开源。不同于主流多模态模型,VideoWorld 在业界首次实现无需依赖语言模型,即可认知世界。