法国人工智能初创公司Mistral AI通过发布一条磁力链,向AI社区公开了一个281GB的文件,其中包含了他们的全新Mixtral 8x22B MoE(Mixture of Experts)模型,具有56层网络,48个注意力头,8名专家和2名活跃专家,能够处理高达65k的上下文长度。该模型已在Hugging Face平台上上线,社区成员可以基于此构建自己应用。
暂无讨论,说说你的看法吧
法国人工智能初创公司Mistral AI通过发布一条磁力链,向AI社区公开了一个281GB的文件,其中包含了他们的全新Mixtral 8x22B MoE(Mixture of Experts)模型,具有56层网络,48个注意力头,8名专家和2名活跃专家,能够处理高达65k的上下文长度。该模型已在Hugging Face平台上上线,社区成员可以基于此构建自己应用。
扫码打开当前页

山鲸AI丶鲸喜官
之前