我国科学家实现新一代光计算芯片研究新突破
技术资讯
AI资讯解读
先看这条资讯为什么重要,再判断它会影响哪条主线和哪些公司。
这类资讯通常先看什么:这类资讯市场通常先看技术突破是否真实落地,以及谁先受益。
这条资讯到底为什么重要
关键数据 • 性能提升: 2个数量级 ↑ • 光学神经元: 百万级 单片集成 • 生成分辨率: 512×512 及以上 利好还是利空: 中长期偏利好 主要风险 • 技术从实验室到量产存在工程化难度和周期不确定性 • 光计算生态系统尚不完善,需配套软件算法和应用场景适配 • 传统数字芯片仍在快速迭代,光计算商业化窗口期存在竞争压力 一句话总结: 国产光计算芯片技术突破开辟AI算力新赛道,中长期重塑半导体产业格局。
先看核心要点
全光计算芯片首次支持大规模生成式AI 上海交大研发的LightGen芯片实现三大技术突破: 百万级光学神经元 集成、全光维度转换和光学生成模型训练算法,可完成512×512高分辨率图像生成、3D生成和高清视频生成等复杂任务
技术驱动型突破解决全球智能计算领域公认难题 性能实现数量级跃升 相比顶尖数字芯片,LightGen在算力和能效上均实现 2个数量级 的提升 ↑
光计算利用光场变化完成运算,天然具备高速和并行优势,有效突破传统芯片架构在深度神经网络和大模型应用中的算力与能耗瓶颈
半导体为什么值得看
短期看: 光计算技术验证成功提振产业信心,利好光芯片设计、光子集成、光学器件等上游环节,推动 光电混合计算 产业链投资热度提升
中长期看: 光计算有望成为AI算力第三条路线,与传统数字芯片、类脑芯片形成互补,重塑 高性能计算产业格局 ↑,国产半导体在新赛道实现技术领先具有战略意义
📄
资讯原文
记者从上海交通大学获悉,该校科研人员近日在新一代光计算芯片领域取得突破,首次实现了支持大规模语义媒体生成模型的全光计算芯片。相关成果12月19日发表于《科学》杂志。据了解,随着深度神经网络和大规模生成模型迅猛演进带来超高算力和能耗需求,传统芯片架构的性能增长速度已出现严重缺口,光计算等新型架构受到广泛关注。“所谓光计算,可以理解为,不是让电子在晶体管中运行,而是让光在芯片中传播,用光场的变化完成计算。光天然具备高速和并行的优势,因此被视为突破算力与能耗瓶颈的重要方向。”论文作者、上海交大集成电路学院助理教授陈一彤表示,把光计算真正用到生成式AI上并不简单,已有的全光计算芯片主要局限于小规模、分类任务,光电级联或复用又会严重削弱光计算速度。如何让下一代算力光芯片运行复杂生成模型,是全球智能计算领域公认的难题。陈一彤课题组此次提出并实现了全光大规模语义生成芯片LightGen,采用极严格算力评价标准的实测表明:即便采用性能较滞后的输入设备,LightGen仍可取得相比顶尖数字芯片2个数量级的算力和能效提升。团队表示,LightGen之所以实现性能飞跃,在于其在单枚芯片上同时突破了“单片上百万级光学神经元集成”“全光维度转换”“不依赖真值的光学生成模型训练算法”三项关键瓶颈,使得面向大规模生成任务的全光端到端实现成为可能。据介绍,LightGen可完整实现“输入—理解—语义操控—生成”的闭环,完成高分辨率(≥512×512)图像语义生成、3D生成(NeRF)、高清视频生成及语义调控,同时支持去噪、局部与全局特征迁移等多项大规模生成式任务。“LightGen为新一代光计算芯片助力前沿人工智能开辟了新路径,也为探索更高速、更高能效的生成式智能计算提供了新的研究方向。”陈一彤说。