abab 模型进展|MiniMax 发布万亿 MoE 模型abab 6.5

MiniMax正式推出abab 6.5系列模型,包含abab 6.5和abab 6.5s两个模型。万亿MoE模型abab 6.5支持200k tokens的上下文长度,在各类核心能力测试中,开始接近GPT-4、Claude 3 Opus、Gemini 1.5 Pro等世界领先的大语言模型的性能。abab 6.5s跟abab 6.5使用了同样的训练技术和数据,但更高效,支持200k tokens的上下文长度,可1秒处理近3万字的文本。abab 6.5和abab 6.5s会滚动更新到MiniMax旗下的产品中,包括生产力产品海螺AI和MiniMax开放平台上。

原文连接

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索
error: 您点击的内容受到保护~