Mistral AI最新磁力链放出!8x22B MoE模型,281GB解禁

法国人工智能初创公司Mistral AI通过发布一条磁力链,向AI社区公开了一个281GB的文件,其中包含了他们的全新Mixtral 8x22B MoE(Mixture of Experts)模型,具有56层网络,48个注意力头,8名专家和2名活跃专家,能够处理高达65k的上下文长度。该模型已在Hugging Face平台上上线,社区成员可以基于此构建自己应用。

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索
error: 您点击的内容受到保护~