香港 切换城市

请选择您所在的城市:

    热门
    城市

    机加与电镀

    发布投稿
    客服热线13302605436

    比肩DeepSeek!阿里开源推理大模型,登顶全球第一!

    200-01-01

    阅读:0

    评论:0

    举报

    [摘要] 3月7日消息,阿里巴巴在昨天凌晨,开源了全新的推理大模型通义千问QwQ-32B,通过大规模强化学习,QwQ-32B在数学、代码及通用能力上实现质的飞跃,整体性能足以比肩DeepSeek-R1,目前QwQ-32B已经成功登顶开源社区Hugging Face大模型榜单!根据阿里官方的实际测试数据,QwQ-32B在AIME24得分79.5(DeepS

    3月7日消息,阿里巴巴在昨天凌晨,开源了全新的推理大模型通义千问QwQ-32B,通过大规模强化学习,QwQ-32B在数学、代码及通用能力上实现质的飞跃,整体性能足以比肩DeepSeek-R1,目前QwQ-32B已经成功登顶开源社区Hugging Face大模型榜单!

    根据阿里官方的实际测试数据,QwQ-32B在AIME24得分79.5(DeepSeek-R1为79.8),远超OpenAI o1-mini的63.6分,在LiveCodeBench得分63.4(DeepSeek-R1为65.9)比同规模模型都要强,在LiveBench测试中以73.1分超过DeepSeek-R1的71.6分,QwQ-32B的综合性能甚至比R1还要强!

    QwQ-32B后面那个32B指的是参数规模达到320亿,阿里直接用320亿参数规模的千问,追上了6710亿参数规模的R1(激活参数370亿),而且QwQ-32B还实现了高性能推理模型在消费级显卡上的本地部署,模型体积经Q4量化后压缩至不足20GB,可直接在24GB显存的RTX 3090/4090显卡上全精度运行。

    根据阿里千问的说法,QwQ-32B是在Qwen2.5-Plus基础加上推理深度思考功能,性能提升主要是来源于大规模强化学习(昨天强化学习之父Sutton刚刚拿下计算机届最高奖图灵奖),阿里的思路和DeepSeek完全一样,希望降低企业与个人用户的使用门槛和成本,单次推理成本仅0.25美元。

    1741340955703.png

    QwQ-32B的模型权重、训练代码及工具链已经完全公开,阿里还提供了中文技术文档,QwQ-32B已经成为继DeepSeek后登顶全球开源社区榜首的又一个国产大模型!另外,阿里最近的大动作其实一点也不比DeepSeek少,之前与DeepSeek-R1同期发布的QWen2.5-Max就已经很强了,上周还开源了最新的视频生成模型Wan 2.1,未来三年阿里还将在AI领域投资3800亿美元,用于建设阿里云和AI硬件基础设施!


    人已打赏

        ×

        打赏支持

        打赏金额 ¥
        • 1元
        • 2元
        • 5元
        • 10元
        • 20元
        • 50元

        选择支付方式:

        打赏记录
        ×

        精彩评论文明上网理性发言,请遵守评论服务协议

        共0条评论
        加载更多
        短视频营销

        xxx

        0文章
        0总阅读
          广告

        打赏成功!

        感谢您的支持~

        打赏支持 喜欢就打赏支持一下小编吧~

        打赏金额¥{{ds_num}}
        打赏最多不超过100元,打赏须知

        收银台

        订单总价¥0.00

        剩余支付时间:000000

        手机扫码支付

        使用支付宝、微信扫码支付

        余额(可用: ¥)
        为了您的账户安全,请尽快设置支付密码 去设置
        其他支付方式