据最新消息,DeepSeek R2即将在下月发布,相较于之前的模型,其成本降低了高达97%,采用了华为高性能芯片,性能与英伟达相当,这一新模型有望为用户带来更高效、更经济的深度学习体验。

据电脑知识网报道,4月29日消息,近日国内媒体深度求索传出消息,他们可能在下个月推出新一代的AI大模型——DeepSeek-R2。 据悉,DeepSeek-R2大模型将采用先进的混合专家模型(MoE),结合智能的门控网络层(Gating Network),以应对高负载推理任务的性能优化,这一技术的运用将大大提高其工作效率。 业内分析师预测,DeepSeek-R2的定价策略可能会打破现有AI服务的定价模式,相较于OpenAI的同类产品,DeepSeek-R2的定价可能更为亲民。 更有消息指出,DeepSeek-R2的研发成本相较于GPT-4下降了高达97%,并且是在华为昇腾卡上进行训练的,凸显出其在全方位全产业链的自主可控优势。 据知情人士透露,DeepSeek-R2的总参数量将达到惊人的1.2万亿,相较于DeepSeek-R1的6710亿参数,增加了一倍,DeepSeek-R2是基于华为昇腾910B芯片集群进行训练的,其在FP16精度下拥有高达512PetaFLOPS的计算能力,芯片使用效率达到82%。 据华为实验室的数据显示,这一性能相当于英伟达上一代A100训练集群的91%,虽然这些数据的真实性还有待进一步验证,但从目前的情况来看,DeepSeek-R2无疑表现出了更强大的实力和更高的自主性。 (图片来源:网络) 仅供参考,关于DeepSeek-R2的具体性能和表现,还需等待其正式发布后进一步了解和验证。