近日,阿里巴巴开源了其首个拥有超过 1000 亿参数的 Qwen1.5-110B 语言模型。该模型在基础能力评估中与 Meta-Llama3-70B 相当,并在 Chat 评估中表现出色。值得注意的是,Qwen1.5-110B 采用了相同的 Transformer 解码器架构,且支持 32K tokens 上下文长度,且仍为多语言模型,在英、中、法、西、德、俄、日、韩等语言上均取得良好效果。
暂无讨论,说说你的看法吧
近日,阿里巴巴开源了其首个拥有超过 1000 亿参数的 Qwen1.5-110B 语言模型。该模型在基础能力评估中与 Meta-Llama3-70B 相当,并在 Chat 评估中表现出色。值得注意的是,Qwen1.5-110B 采用了相同的 Transformer 解码器架构,且支持 32K tokens 上下文长度,且仍为多语言模型,在英、中、法、西、德、俄、日、韩等语言上均取得良好效果。
扫码打开当前页
山鲸AI丶鲸喜官
之前