To C大模型,将是字节跳动新“王牌”?

AI 概述
字节跳动,“放大招”了! 5 月 15 日,火山引擎发布会上,字节正式对外发布豆包大模型,并宣布了 0.0008 元/千 Tokens 的超低定价。 火山引擎还做了个类比:一元钱就能买到豆包主力模型的 125 万 Tokens,大约 200 万个汉字,相当于三本《三国演义》。 豆包大模型的上线,意味着字节正式加入今年全球最火热的大模型战局。 ...

字节跳动,“放大招”了!

5 月 15 日,火山引擎发布会上,字节正式对外发布豆包大模型,并宣布了 0.0008 元/千 Tokens 的超低定价。

火山引擎还做了个类比:一元钱就能买到豆包主力模型的 125 万 Tokens,大约 200 万个汉字,相当于三本《三国演义》。

豆包大模型的上线,意味着字节正式加入今年全球最火热的大模型战局。

坊间有评论认为,作为国内最激进的互联网公司,字节跳动在大模型的投入上是不够的。但从去年 11 月开始,字节开始把越来越多的资源放到 AI 探索上:根据晚点 LatePost 报道,梁汝波不仅在 OKR 里强调将调整公司组织配合 AI 战略,新的研发也在组建。此前,抖音前任 CEO 张楠也宣布要聚焦剪映,寻求在 AI 辅助创作上的的突破。

内部多次大调整,似乎也意味着字节要拿出真正实力来决胜 AIGC 时代。

大模型“价格战”打响

豆包大模型的推出,正式打响了国内大模型价格战。

近期,全球 AIGC 领域最热议话题莫属于 OpenAI 发布了最新旗舰生成 AI 模型 GPT-4o,不仅拥有业内最前沿强悍的技术,还拥有更低的价格。

与 GPT-4Turbo 相比,GPT-4o 速度提升了两倍,速率限制高出了 5 倍,价格还减半。值得注意的是,OpenAI 还允许用户无须注册 ChatGPT 就可直接使用该服务,将使用条件限制取消。

OpenAI 的这波操作,促使国内做大模型大厂们不得不思考接下来如何将技术提升上去,同时价格还得压下来。

字节推出国内超低价的豆包大模型,也算是跟进 OpenAI 这波操作。

据了解,豆包大模型定价只有 0.0008 元/千 Tokens(即 0.8 厘处理 1500 多个汉字),宣称比行业便宜 99.3%。同时豆包大模型应用场景也十分最丰富,目前日均处理 1200 亿 Tokens 文本,生成 3000 万张图片。

豆包大模型

除字节外,其他大模型厂商们也开始行动了。

近日,幻方量化旗下 DeepSeek(深度求索)推出第二代 MoE 模型 DeepSeek-V2,该模型 API 定价为每百万 Tokens 输入 1 元、输出 2 元(32K 上下文),价格为 GPT-4Turbo 的近百分之一。

此外,智谱 AI 大模型开放平台也推出全新价格体系,新注册用户可以获得额度从 500 万 tokens 提升至 2500 万 tokens,同时个人版 GLM-3Turbo 模型产品的价格从 5 元/百万 tokens 降低至 1 元/百万 tokens。

大家加快技术速率升级与降价,归根结底是大模型要真正的“落地”。

据麦肯锡报告分析,到 2030 年,大模型有望在全球推动 49 万亿人民币的经济增量。市场是十分庞大的,但此前大模型处于一种“虚高”状态中。

如今你随机问 10 个人,可能 9 个都不清楚大模型究竟是什么。

需要大模型的客户端,又用不起。坊间传闻,GPT-4 的训练成本高达 10 亿美元;百度十多年间在 AI 上的投入超过 1000 亿元。

研发成本过大决定着定价高,导致中小企业压根用不起。

腾讯云副总裁吴运声接受媒体采访曾表示,“为什么腾讯云在去年提行业大模型,是因为通用大模型很大,真正要在行业里面用起来有很多门槛。客户买不起,买了推理也推理不起,哪怕精调也太贵了。”

消费者不清楚,企业端用不起,自然而然“大模型也被传出是‘概念产品’”。不过,现在掀起的技术升级与降价风潮,势必对大模型真正的“接地气”利好。

To C 再 To B

全新大模型商业化路径

回到字节,则早有 AI 大模型的野心。

发布豆包大模型前,字节就在 AI 应用上试水。

豆包,原名云雀大模型在去年 8 月推出,是国内首批通过算法备案的大模型之一。同时字节近期接连推出 AI 产品,包括拥有 AI 生图功能的“星绘”、AI 角色互动的“话炉”以及对标小红书的“可颂”等。

从云雀大模型的研发到大模型服务平台豆包的推出,再到产品应用,可以看出字节 AIGC 领域布局上进行了全方位覆盖的打法。

豆包大模型的正式推出,字节做大模型真实意图也展露出来:

依旧要做爆款应用,只是这次打造的是“系统型超级应用”,面向的是 C 端市场。

目前国内大多大模型厂商是基于基础模型再自研出自家通用大模型,比如百度文心一言,需要进行大量的学习训练再展开实际应用,还是被定义为通用大语言模型,面对的客群也主要 B 端企业用户。

豆包是一个大模型,但并不像通用大模型,其概念更像 AGI 即更全面的人工智能系统。

目前,豆包不单具备识别、语音合成等大模型基础通用的功能,它还可以通过各种学习训练成专有模型或者嵌入应用。

据透露,基于豆包大模型,字节不仅打造了 AI 对话助手“豆包”,还有 AI 应用开发平台“扣子”、互动娱乐应用“猫箱”,以及星绘、即梦等 AI 创作工具,同时还把大模型接入抖音、番茄小说、飞书、巨量引擎等 50 余个业务。

训练或是嵌入 AI 应用越多,这个大模型就有海量数据和场景可以做训练支撑,功能与场景也更将全面,这也意味着大模型的自主训练学习的能力会更强,这也更接近 AGI 的概念了。

超低价及嵌入应用这两点,也表明是字节做大模型面向的是 C 端市场,其未来或许是想靠庞大的用户量进一步驱动大模型的发展,进而再发展该领域 B 端客户,这是典型的“用 C 端应用来做 B 端产品的思维”。

但这个靠大模型驱动的 AI 应用体系一旦形成,可预测的是字节未来或许将打造一个“系统型超级应用。”

试想一下,嵌入豆包大模型的应用或是衍生出的 AI 应用,在技能上是无边界的,这也意味 AI 应用功能部分可能会重合,应用的差异性将会缩小,最后或许就合并形成一个系统型超级应用(可通过模型训练学习后功能齐全的应用)

这也意味着,未来 AI 手机或许也只需要一个功能齐全的系统型超级应用了。那时候,就不是应用间的竞争,而是超级应用间的竞争,厂商们可能都需要自研大模型,要么就要像有大模型的厂商去购买了。

字节这步大模型的“棋”,布得很大。

机遇与挑战几何?

野心纵然再大,也得有能力去实现。那么,字节做大模型的优势有哪些?

一是用户;二是资金了。

作为国内爆款应用最多的大厂之一,字节旗下抖音国内就有超 7 亿用户,TikTok 在全球也拥有超 10 亿用户,完全具备大模型训练时所需的庞大用户数据做支撑。

字节的资金储备也充足。

4 月,胡润研究院发布了《2024 全球独角兽榜》,字节跳动以 1.56 万亿元人民币的价值连续三年成为全球价值最高的独角兽全球价值最高的独角兽。另据市场消息,2023 年,字节营收达到了 1200 亿美元,这年息税折旧摊销前利润就超过 400 亿美元。

不过,大模型领域所需的资金投入是“无底洞”。

字节收入是多,但公司如今也再寻找“第二增长曲线”。

本身而言,字节旗下爆款应用是高度依赖用户的,如今随着互联网用户增长的见顶以及内容平台的激烈竞争,字节业绩增长也显著放缓。挖增,同时也是所有内容平台要破的困局。

布局 AI 领域,是提供给了字节收入的新路径,但也加大了研发、营销多方面的资金投入量。此外,字节训练的又是一个功能性更全的大模型系统,资金投入更是庞大。

所以对于字节而言,要做好大模型,投入大也是其需要面对的第一大难关。

还有技术上的难关。

与 GPT-4 相比,国内的大模型整体都处于一个落后的状况。不过,豆包大模型要打造的模型概念更系统复杂,这也意味着其不仅需要海量数据支撑,还需丰富的场景支撑,而这背后需要更为庞大的算力支撑。

三,应用落地上的难关。

字节能不能打造出系统型超级应用先不说。

大家做出的大模型多为生成式 AI,落地场景一般是嵌入 AI 应用中。

但如今 AI 应用都远未普及,许多用户可能都还分不清 AI 应用与普通应用间的区别,甚至还有都没用过 AI 应用的。

可见,大模型在应用落地上任重而道远。

豆包大模型目前又处于起步阶段,用户量反响都还不好拿来说。但将豆包大模型嵌入自家应用体系中,势必会打破各个应用的边界,应用的功能或将重合,这是字节可能先要面对的问题。

总的来看,字节入局大模型领域的姿势是很新颖,但注定也是长路漫漫。然而一旦踏上正轨,字节或能迎来一个全新的“系统型超级应用”爆款时代。

声明:本文来自于微信公众号 伯虎财经(ID:bohuFN),作者:安晓

以上关于To C大模型,将是字节跳动新“王牌”?的文章就介绍到这了,更多相关内容请搜索码云笔记以前的文章或继续浏览下面的相关文章,希望大家以后多多支持码云笔记。

「点点赞赏,手留余香」

0

给作者打赏,鼓励TA抓紧创作!

微信微信 支付宝支付宝

还没有人赞赏,快来当第一个赞赏的人吧!

声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权/违法违规/事实不符,请将相关资料发送至 admin@mybj123.com 进行投诉反馈,一经查实,立即处理!
重要:如软件存在付费、会员、充值等,均属软件开发者或所属公司行为,与本站无关,网友需自行判断
码云笔记 » To C大模型,将是字节跳动新“王牌”?

发表回复