无限上下文、2万亿token,它能干翻Transformer?

继Mamba之后,又一敢于挑战Transformer的架构诞生了!

来自Meta、南加州大学(USC)、CMU和UCSD的研究人员提出了全新的神经网络架构——Megalodon(巨齿鲨)

这是专为有效处理“无限上下文”长度的LLM预训练,以及推理而设计的架构。

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索
error: 您点击的内容受到保护~