DeepSeek-V2

5月09

  • DeepSeek-V2 系列模型已在魔搭 ModelScope 社区开源

    17:17 作者:Po

    魔搭 ModelScope 社区宣布,DeepSeek-V2 系列模型现已在魔搭 ModelScope 社区开源。该模型在性能和效率方面表现出色,引入了 MLA 架构和自研 Sparse 结构 DeepSeekMoE,具有高吞吐量和节约训练成本的优势。用户可以通过魔搭 ModelScope 社区直接下载模型。地址原文连接

    DeepSeek-V2 系列模型已在魔搭 ModelScope 社区开源

    DeepSeek-V2
    分享到

5月08

  • DeepSeek 发布 V2 模型 ,与 GPT-4 相比在成本效益上具有显著优势

    17:20 作者:Po

    DeepSeek 在开源 MoE(Mixture of Experts)模型领域取得了重要进展,继今年 1 月份开源国内首个 MoE 模型后,现在发布了第二代 MoE 模型 DeepSeek-V2。这一新模型在多项性能评测中均展现出色的表现,与 GPT-4 等闭源模型竞争,同时在成本效益上具有显著优势。原文连接

    DeepSeek 发布 V2 模型 ,与 GPT-4 相比在成本效益上具有显著优势

    DeepSeek-V2
    分享到

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索
error: 您点击的内容受到保护~