当前位置: 首页 > news >正文

上海交大《科学》发文,首次实现支持大模型的全光计算芯片

来源:FUTURE远见

选编:FUTURE | 远见

北京时间12月19日,上海交通大学集成电路学院(信息与电子工程学院)图像通信与网络工程研究所陈一彤课题组在新一代算力芯片领域取得重大突破,首次实现了支持大规模语义媒体生成模型的全光计算芯片,相关研究以All-optical synthesis chip for large-scale intelligent semantic vision generation(大规模智能语义视觉生成全光芯片)为题发表于国际顶级学术期刊《科学》(Science)上。上海交通大学为论文第一作者和通讯作者单位,陈一彤助理教授为第一作者及通讯作者。

研究背景

随着深度神经网络和大规模生成模型的迅猛演进,AI正以前所未有的速度革新世界。然而,规模爆炸式增长的生成模型带来超高算力和能耗需求,与传统芯片架构的性能增长速度已出现日益严峻的紧迫缺口。

为突破算力与能耗瓶颈,光计算等新型架构受到广泛关注。然而如传统的全光计算芯片主要局限于小规模、分类任务,光电级联或复用又会严重削弱光计算速度。因此,“如何让下一代算力光芯片能运行复杂生成模型”成为全球智能计算领域公认的难题。

研究成果

研究团队首次提出全光大规模语义生成芯片LightGen,这也是国际首次实现的大规模全光生成式AI芯片,在单枚芯片上同时突破了百万级光学神经元集成、全光维度转换、无真值光芯片训练算法的领域公认瓶颈。

大规模全光生成计算芯片LightGen

论文实验验证了全光芯片LightGen在高分辨率(≥512×512)图像语义生成、3D生成(NeRF)、高清视频生成及语义调控、去噪、局部及全局特征迁移等多项大规模生成式任务。不再让电辅助光生成,而是让全光芯片完整实现输入图像、理解语义、语义操控、生成全新媒体数据的端到端过程,即让光“理解”和“认知”语义

LightGen生成的采样图像示例

此外,LightGen采用了极严格的算力评价标准,在实现与电芯片上运行的Stable Diffusion、NeRF、Style Injection Diffusion等前沿电子神经网络相仿生成质量的同时,直接测量整个系统端到端的耗时与耗能降低。实测表明,即便采用较滞后性能的输入设备,LightGen仍可取得相比顶尖数字芯片2个和2个数量级的算力和能效提升。而如果采用前沿设备使得信号输入频率不是瓶颈的情况下,LightGen理论可实现算力提升7个数量级、能效提升8个数量级的性能跃升。这不仅直接体现了在不损失性能情况下替换顶尖现有芯片能获得的巨大算力和能效提升,也印证了解决大规模集成、全光维度变换、无真值光场训练等关键难点,全光片上实现大规模生成式网络的重要意义。

论文同步被《Science》官方选为高光论文重点报道。论文中提到,生成式AI正加速融入生产生活,要让“下一代算力芯片”在现代人工智能社会中真正实用,势在必行的是研发能够直接执行真实世界所需任务的芯片——尤其是大规模生成模型这类对端到端时延与能耗极其敏感的任务。面向这一目标,LightGen为新一代算力芯片真正助力前沿人工智能开辟了新路径,也为探索更高速、更高能效的生成式智能计算提供了新的研究方向。

相关研究及论文信息

陈一彤

陈一彤博士长期致力于光计算领域的研究,聚焦新一代算力芯片切实应用时的核心科学难点问题,团队所提出的全模拟光电芯片ACCEL(Nature 623 (7985), 48-57),国际首次实测验证了复杂智能任务中光计算的系统级算力优越性,将光计算芯片中的超高算力能效,无损地保留和接入复杂成熟的数字社会中。2023年,所提出的PED (Photonic Encoder Decoder,Science Advances 9(7), eadf8437)光计算架构,更被Science子刊认证为“国际首个全光生成网络(PED is the first demonstration of all-optical generative neural networks)”。基于上述研究基础,LightGen突破性将全光芯片的适用范围拓展到了大规模生成式神经网络,并已与工业界合作开展应用实践。

上海交通大学集成电路学院(信息与电子工程学院)陈一彤助理教授担任第一作者及通讯作者,翟广涛教授、张文军院士、博士生孙心玥,清华大学硕士生谭龙涛、博士生姜一洲、博士后周银等均对本文做出重要贡献。该研究得到了多项国家及上海市项目资助。

论文链接:

https://www.science.org/doi/10.1126/science.adv7434

阅读最新前沿科技趋势报告,请访问欧米伽研究所的“未来知识库”

https://wx.zsxq.com/group/454854145828

未来知识库是“欧米伽未来研究所”建立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。欢迎扫描二维码或访问https://wx.zsxq.com/group/454854145828进入。

http://www.jsqmd.com/news/116289/

相关文章:

  • Linly-Talker支持模型灰度发布,逐步上线新功能
  • Linly-Talker开源镜像部署指南(含GPU加速优化)
  • 考虑实时市场联动的电力零售商鲁棒定价策略(Matlab代码实现)
  • 用Linly-Talker制作节日祝福视频?个性化礼品新创意
  • 可计算性:物理世界和意识
  • 【无人机协同】动态环境下多无人机系统的协同路径规划与防撞研究(Matlab代码实现)​
  • Linly-Talker支持多线程推理,高并发场景从容应对
  • 用Linly-Talker生成股票行情分析视频?金融内容自动化
  • Linly-Talker如何处理中英文混读?语音识别适配策略
  • Linly-Talker支持模型热切换,A/B测试轻松实现
  • 【虚拟同步机控制建模】三相虚拟同步发电机双环控制(Simulink仿真实现)
  • 途知抖音多模态数据采集与AI融合解析
  • AI教师上岗记:Linly-Talker在K12教育中的实际效果测评
  • 人生的机会,从来不在计划之中?(说说我在百度的故事...)
  • 海南自由贸易港全岛封关首日,西门子能源在海南启动建设燃机总装基地及服务中心 | 美通社头条
  • Linly-Talker音频频谱可视化:调试语音合成质量的利器
  • 复星与比亚迪达成全球战略合作,引领“出行+度假“新生态
  • cesium126,230816,Ce for Ue 加载服务器上的地图(GeoServerWMS):
  • 用Linly-Talker生成旅游景点解说视频?文旅宣传新手段
  • Linly-Talker如何应对长文本输入?分段处理策略解析
  • Linly-Talker音频响度标准化,符合广电播出规范
  • 万字长文!关于AI绘图,一篇超详细的总结发布
  • 【博士论文复现】【阻抗建模、验证扫频法】光伏并网逆变器扫频与稳定性分析(包含锁相环电流环)(Simulink仿真实现)
  • Linly-Talker支持模型加密传输,防止中间人攻击
  • Linly-Talker如何保证语音时序对齐?CTC损失函数应用解析
  • Linly-Talker支持CUDA核心监控,实时掌握GPU利用率
  • 用Linly-Talker生成天气预报视频?气象服务智能化尝试
  • TOSA ROSA
  • 一次优化sql的实践
  • 一次优化sql的实践