阿里发布三款中型千问3.5新模型 每百万Token低至0.2元
技术资讯
AI资讯解读
先看这条资讯为什么重要,再判断它会影响哪条主线和哪些公司。
这类资讯通常先看什么:这类资讯市场通常先看技术突破是否真实落地,以及谁先受益。
这条资讯到底为什么重要
关键数据 • API定价: 0.2元/百万Token ↑ 行业最低水平 • 模型规模:27B至122B三档,支持消费级显卡 • 性能提升:35B超越上代235B旗舰模型 利好还是利空: 中长期偏利好 主要风险 • 价格战压缩行业利润空间,中小厂商生存压力加大 • 开源模型可能削弱商业模式护城河 • 消费级部署对数据安全和模型效果控制提出挑战 一句话总结: 成本降维打击加速AI普惠化,下游应用和边缘计算环节迎来增量机遇。
先看核心要点
成本突破:推理价格降至行业新低 阿里发布三款千问3.5中型模型,托管服务定价 每百万Token仅0.2元 ↑,相比主流大模型API降价幅度超70%
技术驱动 :通过模型架构优化和稀疏激活技术,在保持性能的同时大幅降低推理成本,加速AI应用商业化落地
部署门槛大幅降低:消费级硬件可运行 新模型支持直接部署于消费级显卡,打破以往大模型对高端算力的依赖
人工智能为什么值得看
短期看: 大模型价格战加剧,推动AI应用渗透率快速提升
降低使用成本将刺激 下游应用开发、API服务、垂直场景解决方案 等环节需求爆发,加速商业化进程
📄
资讯原文
《科创板日报》25日讯,阿里开源三款千问3.5系列的中等规模新模型。包括Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen3.5-27B,性能超越了更大尺寸的上代旗舰模型Qwen3-235B-A22B和Qwen3-VL。千问3.5新模型还可直接部署于消费级显卡。目前,基于Qwen3.5-35B-A3B的托管模型Qwen3.5-Flash已上线阿里云百炼,每百万Token输入低至0.2元。(记者 黄心怡)