Meta 发布新多token预测技术,使AI模型速度提升3倍

AI 概述
近期,Meta、Ecole des Ponts ParisTech 和 Université Paris-Saclay 的研究人员在一项研究中提出了一种改进 AI 大型语言模型(LLMs)准确性和速度的方法,即通过同时预测多个 token。这与自回归语言模型的经典结构相悖,后者旨在一次预测一个 token。 然而,多 token 预测并非适用于所有类型的模型和语言任务,但在某...

近期,Meta、Ecole des Ponts ParisTech 和 Université Paris-Saclay 的研究人员在一项研究中提出了一种改进 AI 大型语言模型(LLMs)准确性和速度的方法,即通过同时预测多个 token。这与自回归语言模型的经典结构相悖,后者旨在一次预测一个 token。

Meta 发布新多 token 预测技术,使 AI 模型速度提升 3 倍

然而,多 token 预测并非适用于所有类型的模型和语言任务,但在某些领域中提供了重大优势,推理速度提升了 3 倍,并在生成任务上表现更佳。虽然仍有改进空间,但这项技术可能成为某些 LLM 应用的强大工具。

传统的训练 LLMs 的方法被称为 “下一个 token 预测”,这是一种自监督学习技术,模型被给定一个 token 序列,必须预测下一个 token。然后将预测的 token 添加到输入中,重复这个过程,一次预测一个 token。在大量文本语料上重复此过程,模型学习了允许它输出连贯文本段落的一般模式。

研究人员已经研究并记录了下一个 token 预测在获取语言、世界知识和推理能力方面的局限性。新研究的假设是 “训练语言模型同时预测多个未来 token 会导致更高的样本效率”。

多 token 预测指示 LLM 同时预测训练语料库中每个位置的多个来 token。研究人员提出了一个简单的多 token 预测架构,不需要额外的训练时间或内存开销。

他们在多种任务上测试了新的多 token 预测方案,发现在小型模型上,多 token 预测导更差的结果,但随着模型规模的增加,它变得越来越有用。此外,多 token 预测还使模型在推理时间上提升了 3 倍,尤其在 “字节级标记化” 训练上,多字节预测大幅优于基线的单字节预测模型。多 token 预测仍有改进空间,研究人员正在考虑自动选择最佳预测 token 数量的技术,以及研究词汇量和多 token 预测之间的动态关系。

这项研究及其未来的改进对企业应用有用的地方在于,它有可能为生成任务提供更快的推理和更高的准性,几乎不需要额外的成本。同时,它保留了大部分 LLM 架构,可以与 Transformer 块的其他优化技术兼容。

以上关于Meta 发布新多token预测技术,使AI模型速度提升3倍的文章就介绍到这了,更多相关内容请搜索码云笔记以前的文章或继续浏览下面的相关文章,希望大家以后多多支持码云笔记。

「点点赞赏,手留余香」

0

给作者打赏,鼓励TA抓紧创作!

微信微信 支付宝支付宝

还没有人赞赏,快来当第一个赞赏的人吧!

声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权/违法违规/事实不符,请将相关资料发送至 admin@mybj123.com 进行投诉反馈,一经查实,立即处理!
重要:如软件存在付费、会员、充值等,均属软件开发者或所属公司行为,与本站无关,网友需自行判断
码云笔记 » Meta 发布新多token预测技术,使AI模型速度提升3倍

发表回复