美国研究人员使用相变材料(PCM)开发了具有快速原型设计和重新编程能力的光子集成电路(PIC)。
西雅图华盛顿大学开发的直写可重写光子芯片技术使用低损耗相变材料 (PCM) 薄膜,只需一步即可直接激光写入完整的端到端 PIC,电路的任何部分都可以擦除和重写,从而实现快速设计修改。
该团队已将该技术应用于可重构网络的光互连结构、用于光计算的光子交叉阵列以及用于光信号处理的可调谐滤波器。 将直接激光写入技术的可编程性与 PCM 相结合,为可编程光子网络、计算和信号处理开辟了机会。 它还以方便且具有成本效益的方式提供快速原型设计和测试,并消除了对纳米制造设施的需求。
光子芯片是通过在 PCM 中利用两个非易失性相(非晶态和晶体)之间的显着折射率对比度创建的,可以使用商用海德堡 DWL 66+ 激光写入系统(在 405nm 和 27 nm 下工作)的激光写入系统。5MW)。
光子电路写在标准氧化硅衬底上,该衬底涂有 200 nm 厚的 SiO2 层,覆盖 330 nm Si3N3 薄膜上的 30 nm Sb2SE3 层。 SiO2 覆盖层保护并防止 SB2SE3 层氧化。
在SB2SE3薄膜中,使用结晶相(CSB2SE3)作为高折射率核心,将非晶相(ASB2SE3)作为包层,形成波导。 这种二元相位配置能够在 Si3N4 底层的帮助下将基本横向电 (Te0) 光学模式限制在CSB2SE3波导上。
激光产生的一系列矩形ASB2SE3结构,宽度范围从1 m到200 nm,最小可实现的特征尺寸为300 nm,明显小于其他系统。
该团队使用该技术构建波导、光栅、环形谐振器、耦合器、交叉点和干涉仪,以构建光子芯片。
什么是光子芯片?
光子芯片或光子集成电路(PIC)是一种特殊类型的芯片。
与传统的电子主导芯片不同,光子芯片是利用光子(光粒子)进行信息处理和传输的器件。 在此类设备中,数据被编码到光子上,然后通过光纤传输,从而实现超高速数据传输。
光子芯片具有许多显着优势。 首先,由于光速快,光的频率远高于电子,光子芯片的数据传输速度和处理能力远远超过电子芯片。
其次,光子芯片的信号传输损耗小,因此可以实现远距离、大容量的数据传输。 此外,光子芯片的能耗低,因为光信号的传输不会产生热量。
最后,光子芯片具有良好的抗电磁干扰性能和对环境的强适应性。 光子芯片的实现并非遥不可及。 事实上,已经有不少科研机构和企业在开发这种新型芯片,部分产品已应用于光纤通信、生物医药、环境监测等领域。
然而,光子芯片也面临着一些技术挑战,如制造精度、光电转换效率、光信号的调制和检测等。 这些问题需要研究人员进一步克服,但总体而言,光子芯片的前景是乐观的。
除了光子芯片,研究人员还在探索许多其他新型芯片,如量子芯片、纳米芯片、生物芯片等。
光模块的核心部件
在光模块厂商中,全球有一半在中国,但光模块的核心是光芯片,光芯片占光模块成本的大部分,国内光芯片企业主要集中在2在5G系列产品的生产制造方面,10G和25G中高速光芯片已逐步实现量产,而50G及以上高端光芯片的生产仍主要集中在美日企业,国内对高端光芯片的需求极度依赖进口。 像中国制造光模块一样,但大部分高端光芯片都依赖进口,只有自主研发的硅光子芯片才用于部分光模块产品和应用领域。
光模块产业链也很长,涵盖芯片(光电)、器件(无源有源)、模组成品,其中芯片技术壁垒高,可以占大部分比例,高端产品被国外垄断,比如据ICC数据,2021年2月光芯片在5G及以下速率的国产化率超过90%; 10G光芯片的国产化率在60%左右,一些性能要求高、难度大的10G光芯片仍需进口; 2021年25G光芯片国产化率在20%左右,但25G以上光芯片国产化率仅为5%,而且大部分是海外光芯片厂商。
光模块有两大增长因素
从资本市场来看,近年来光模块行业出现了两个高潮
首先是中国5G网络建设的高峰期。
2019-2020年前后,随着中国5G牌照的发放,三大运营商大力准备建设5G网络。 由于其支出主要集中在无线网络和承载网络上,因此对前传和中传光模块的需求非常高。 由于当时5G网络的大规模渲染,资本市场也非常看好5G的发展,刺激了一波年度光模块概念**。
然而,自2020年下半年以来,由于5G网络建设放缓和商用推广受阻,光模块的概念也有所下降,导致近两年半的低迷。 然而,光模块只占电信应用的一部分,更大的应用是在数据通信领域。
二是ChatGPT引爆的AI新时代。
去年年底,OpenAI 推出了一种新的对话式 AI 模型 ChatGPT。 由于其高水平的创造力,它迅速走出了圈子并愈演愈烈。
年初,各种消息逐渐传到中国。 尤其是在Microsoft推出新版必应搜索引擎并宣布将上线“文心一言”之后,相关话题在各大流量平台上爆发。
全球主要制造商都在与大型AI模型进行“军备竞赛”。 但在大规模模型竞争的背后,其实是一场算力的竞争。
以 OpenAI 团队为例,他们使用了 10,000 张 NVIDIA A100 显卡来训练 GPT3 模型。 训练 GPT4 及更高级别的模型需要更多的计算能力,据说 OpenAI 拥有超过 30,000 张 A100 显卡。 业内人士认为,1万张显卡几乎是大型号的门槛,国内几乎所有主要厂商都部署了2万或3万张显卡。
例如,SuperPod 架构(NVIDIA 的 AI 基础设施解决方案)需要 140 台 AI 服务器; 1120 个 A100GPU; 186 台交换机,带 5760-8000 个收发器。
因此,一句话,对算力的需求呈指数级爆发,给光模块带来了巨大的新增量。