据中国激光杂志社网,于2023年07月07日报道,人工智能如何推动激光技术发展?
封面解读
封面形象化地展示了人工智能和激光的双向赋能效果。激光束照射到人脑轮廓结构包裹着的具象化智能体上,驱动着智能体的运行,代表着激光对人工智能的赋能作用;围绕着智能体的是五个气泡,包含了激光器件优化设计、激光器系统结构优化设计、光束智能控制、输出特性表征测量、激光器应用效能优化等典型场景,代表着人工智能对激光发展的赋能作用。
一、背景介绍
激光具有亮度高、单色性好、方向性好等优点,经过六十余年的发展,已经广泛应用于科学研究、医疗卫生、先进制造、**等诸多领域。然而,由于物理、材料、器件、工艺等方面因素的限制,激光系统性能提升面临的挑战越来越大;与此同时,科学研究、先进制造、**等应用场景对激光器的性能提出了越来越高的要求,如何进一步优化提升激光性能、实现激光特性的精准调控是亟待解决的问题。
得益于人工智能(AI)及相关技术的快速进步,AI技术在激光系统优化设计、光束控制以及特性表征等方面取得了良好的运用效果,作为一项赋能技术,有望全面系统地带动激光技术快速发展。本文从激光器件、激光系统及激光应用等多个方面梳理AI赋能激光领域的研究进展,并对未来AI技术与激光技术两个学科方向的双向赋能进行了展望。
二、研究进展
通过对人工智能赋能激光的相关论文进行检索分析,可以将人工智能赋能激光概括为激光器件优化设计、激光器系统结构优化设计、光束智能控制及优化、激光特性的精确表征与预测、激光器应用效能优化等五个层面。
1.激光器件优化设计
激光器件是构成激光器的基本单元,其特性直接决定了激光器的性能表现。以往激光器件(比如光子晶体光纤、耦合器等)的设计通常需要进行大量耗时的仿真运算来寻找优化设计参数,特别是对于多参数优化的情况,仿真设计周期较长,并可能陷入局部最优解,难以实现器件设计的最优化。
研究表明,采用AI算法进行器件设计可以极大地缩短仿真时间,提高设计效率及器件性能。比如,光子晶体光纤结构复杂,设计自由度高,且其光学性能表征过程较为繁琐。研究人员引入人工神经网络对该类光纤进行设计及特性表征,仅需输入光纤结构参数便可以在数毫秒时间内实现对光纤多种光学特性的高精度预测,极大加速了光纤表征及设计过程。
因此,人工智能赋能的器件设计不仅可以提高设计效率,还可在参数优化上获得更好的效果,从而助力激光器系统的优化,在激光产生、传输和应用等方面发挥重要作用。
2.激光器系统结构优化设计
针对激光器的仿真分析往往需要考虑多物理场作用,过程较为复杂,优化设计难度较大。通过引入机器学习可以降低仿真及设计难度,甚至实现激光器状态的实时控制。比如,研究人员利用深度强化学习算法来调控锁模光纤激光器的锁模状态,采用的深度神经网络可以根据激光状态调整电偏振控制器,并评估调整的效果,可以在秒量级的时间范围实现稳定的激光锁模状态。
3.光束智能控制及优化
光束智能控制是指采用先进的光学元件、传感器、控制电路并结合智能算法等技术手段,对光束的强度、相位、偏振和波前等特性进行控制和调节,从而实现对光束的高精度、高效率的操纵和应用,其中典型的案例为光纤激光相干合成(CBC)。经典的主动相位方法(例如随机并行梯度下降算法)的控制带宽随着合束数量的增加而减小,难以实现大规模CBC系统。
为此,研究人员将准强化学习算法应用于CBC系统,可以实现大于100路激光的相干合成,为解决大规模相干合成系统中控制带宽不足提供了思路。
4.激光特性的精确表征与预测
对激光输出特性的精确表征是应用激光的前提条件。针对激光部分输出特性测量时间长、精确测量对仪器/测量光路要求高的问题,研究人员引入机器学习法,实现了激光模式的高精度快速分解、光束质量的快速精确表征以及脉冲宽度的精确测量,为激光输出特性表征提供了高鲁棒性的表征方法。
5.激光器应用效能优化
激光具有节能高效、调控灵活等优点,在切割、焊接、钻孔、打标、清洁、增材制造等领域具有非常广泛的应用,但其调控灵活的特性也意味着针对不同的应用场景需要精确设计激光参数才能达到最佳应用效能。
在激光加工中,由于发生的光与物质相互作用是高度非线性的,难以在数学上建模,且材料类型、材料的均匀性/一致性等都会对加工质量产生较大影响,因此实现高质量加工工艺的控制十分困难。通过引入AI技术,建立激光器参数(激光功率、光斑直径、脉宽、重频等)、进给速度、辅助气体类型/压力等工艺参数与加工质量的关系,实现加工质量的优化,提高激光器应用效能,推动高质量激光加工的发展。
三、总结与展望
综上,AI技术已经广泛渗透至激光系统的设计-研制-应用全链条,并不断向基础前端和应用终端延伸。同时,激光技术的快速发展,也可能对AI领域带来促进作用,最终形成“双向赋能”的正向激励局面。
AI赋能激光,不仅意味着激光性能指标的突破,例如更高的输出功率、更高的精度和稳定性、更智能的控制系统、更环保的设计,还意味着激光系统设计-研制-应用链路的创新。例如用户根据应用场景提出激光性能需求,AI系统根据需求自动设计系统结构并提出器件方案,甚至可以细化到材料筛选环节。
另一方面,激光技术的发展可以通过推进算力等方式促进AI领域的进一步发展。以ChatGPT为代表的大模型的成功离不开高算力支持,当前电子计算机运算性能依赖半导体光刻工艺水平,而激光光源则是支持光刻工艺不断进步的重要因素之一。
此外,光子具有光速传播、抗电磁干扰及可任意叠加等特性,且天然适用于并行运算,以光子为基础的光计算具有超大算力、极低功耗、极低延时等突出优势。激光赋能的超强算力光子计算机将有望推动AI技术进一步发展。
当前,人工智能驱动的科学研究已经成为全球人工智能新前沿,并已在多个学科领域取得实效。在科学研究和教育教学等过程中,高度重视培养跨学科的高素质人才是面向未来的长远之策。
近年来,科技部、自然科学基金委联合启动了人工智能驱动的科学研究专项部署工作,教育部、国家发展改革委、财政部出台了一系列政策推动跨学科的高素质人才培养,将使得未来的激光研发队伍里有大量具备智能科学与技术和光学工程通识技能的高素质人群。
展望未来,机遇与挑战并存,但是可以相信的是,不断发展的人工智能技术必将继续促进激光等学科的发展,逐步构建起以人工智能支撑基础和前沿研究的新模式。
课题组介绍
国防科技大学高能激光团队激光相干合成课题组,主要从事高功率单频/窄线宽光纤激光、超快激光、激光多参量控制、相干合成系统集成、大气传输与“目标在回路”控制等方面的研究以及相关教学和人才培养工作,实现了连续/纳秒/皮秒/飞秒等多种制式的光纤激光相干合成,出版中文学术专著1部(**工业出版社)、参编英文专著1部(Wiley出版集团)。
在全光纤单频光纤激光方面,课题组在国际首次实现300瓦级(2013年)、400瓦级(2017年)和500瓦级(2020年)功率输出;在窄线宽单模光纤激光方面,课题组先后实现4千瓦级(2018年)、5千瓦级(2020年)、6千瓦级(2021年)、7千瓦级(2022年)功率输出。
在激光相位控制方面,课题组先后实现6束(2009年)、16束(2010年)、32束(2014年)、60束(2018年)、100束(2020年)规模、400束(2022年)规模和1000束(2023年)规模激光相干合成;在系统集成方面,课题组先后实现光纤激光相干合成千瓦级(2010年)、5千瓦级(2016年)、8千瓦级(2019年)和20千瓦级(2021年)功率输出。
近年来,将人工智能技术运用于光纤材料设计、多模激光模式分解、光束质量评价、激光相位控制等方面,取得了创新成果,是国际上较早开展人工智能与激光技术交叉科学研究的课题组。