第188次:光电子与光信息

论坛执行主席
  • 江风益院士 江风益院士
  • 刘益春院士 刘益春院士
  • 许宁生院士 许宁生院士

论坛日期:2024年12月5-7日

论坛地点:南昌市喜来登酒店(地址:江西省南昌市红谷滩区红谷中大道1669号)

承办单位:中国科学院信息技术科学院、中国科学院学部学术与出版工作委员会

主题报告
  • Micro-LED近眼显示屏关键技术进展——从分立器件到光电集成http://videozh.cas.cn/masvod/public/2026/01/14/20260114_19bbbd03f63_r36_1200k.mp4

    王立 教授 南昌大学

    增强现实(AR)智能眼镜有望成为继智能手机之后的新一代移动通信与交互工具。超高集成度对智能眼镜硬件提出了重量轻、像素多、亮度高、功耗低、时延小、成本低等要求(简称六要素)。微显示屏作为智能眼镜的核心硬件,其性能直接关系到智能眼镜能否顺利走向大众市场、实现消费级的广泛普及。氮化镓Micro-LED微显示屏,具有满足上述六要素的物理潜质。本单位基于硅基氮化镓材料生长、芯片制造、器件物理和专用装备等方面二十多年的研发积累,继突破硅基氮化镓高光效蓝光、绿光和黄光LED技术和批量生产后,实现了硅基氮化镓高光效红光LED材料与芯片技术突破,解决了“氮化镓红光光效低”、“低电流密度下光效低”和“随芯片尺寸缩小光效显著下降的尺寸效应”等问题,获得了高光效微米尺寸LED红光像素。基于硅基氮化镓LED与硅基CMOS驱动电路工艺兼容的优势,实现了两者光电集成,成功制造出具有六要素的红、黄、绿、蓝单色Micro-LED AR微显示屏,同时取得了RGB三合一全彩微显示屏技术重要进展,并展示了Micro-LED近眼显示屏在单色AR眼镜上的应用效果。为加快智能眼镜进入大众消费级市场步伐,需要协同发展微显示屏、光波导、整机等硬件和软件,建立技术和产业良性发展生态。
  • 增强现实用衍射光波导——从应用场景到产品定义以及技术创新和量产成本http://videozh.cas.cn/masvod/public/2026/01/14/20260114_19bbbae45f2_r36_1200k.mp4

    史瑞 首席技术官 广纳四维光电科技有限公司

    人类对于增强现实(AR)眼镜的应用憧憬由来已久。随着诺基亚公司在2006年布局基于衍射光波导的AR眼镜专利,日本索尼公司在2008年发布了基于衍射光波导的AR眼镜的原型机,微软公司在2016年推出量产型同样基于衍射光波导的HoloLens。时间转眼来到2024年,又不断的有创新型的基于衍射光波导的AR眼镜发布。但作为被人类给予厚望的消费级产品,经过近20年的发展,仍未达到大规模的应用。究其原因就是从AR眼镜的应用场景,到配合应用场景的产品的定义,以及实现产品定义的技术创新,到最后实现产品量产的成本控制这一链条没有明确,中间脱节严重。本次报告将从应用场景出发,到产品定义,再到实现产品的技术创新,以及到最后的量产成本控制,来分析目前哪些具体环节存在脱节,以及通过怎样的技术路径,可以实现大规模的量产,被消费者大规模的应用。
  • 近眼全息3D显示技术http://videozh.cas.cn/masvod/public/2026/01/14/20260114_19bbbe745db_r36_1200k.mp4

    王琼华 教授 北京航空航天大学

    近眼全息3D显示技术能够提供人眼视觉所需全部深度信息,且不存在集合调节冲突所致的立体观看视疲劳问题,是近眼显示技术发展的一个重要方向,具有广泛的应用前景。然而,近眼全息3D显示存在着视角小和散斑噪声严重的问题,阻碍了其进一步发展。本报告将介绍我们提出的对应解决办法。提出了一种基于彩色液晶光栅的大视角近眼全息3D显示技术。我们设计了具有特殊结构的彩色液晶光栅解决了传统液晶光栅中不可避免的色差问题,并能同时对红、绿、蓝三种颜色的全息像进行二次衍射调制。同时,还提出了一种无色差的彩色全息图计算方法,以配合彩色液晶光栅实现无色差的大视角近眼全息3D显示,最终实现了50.12°的近眼全息3D显示。提出了一种端到端物理模型驱动网络的低噪声近眼全息3D显示技术。在所提出的端到端物理模型驱动网络中,我们设计了一种基于感受野模块和复合卷积算法的编解码网络来实现低噪声全息图的计算。基于所提出的端到端物理模型驱动网络,能并行计算出3D场景的低噪声红、绿、蓝全息图。当把全息图加载到空间光调制器上进行重建时,彩色近眼全息3D图像的峰值信噪比达到了28dB,实验验证了所技术的可行性。
  • 沉浸式视觉计算中显示环境构建技术http://videozh.cas.cn/masvod/public/2026/01/14/20260114_19bbbbcf9ea_r36_1200k.mp4

    汪国平 教授 北京大学

    沉浸式计算是为用户提供沉浸式多感官(包括视觉、听觉和体感)体验感受的真实感计算技术,是虚拟现实领域中的主要计算范式。沉浸式视觉计算包括高真实感并行绘制、大场景并行显示环境和并行绘制、以及近眼显示设备和焦点绘制等关键技术。本报告主要介绍团队多年来围绕飞行视景仿真等应用场景,展开沉浸式视觉计算方面的技术研究和系统研发,针对高速大翻滚飞行机动中对复杂场景实时高速平滑绘制等问题,提出了复杂场景资源的动态高效并行调度技术,可用于多分辨率和多显示介质自适配的实时绘制技术,解决跨终端的自适应高真实感实时绘制问题。针对近眼显示中的高效绘制问题,提出了基于深度学习的自适应焦点绘制技术。同时针对大场景并行显示环境的快速构建问题,提出了异形大场景屏幕的自动校正与融合技术。本报告技术在高端飞行模拟器的显示子系统中得到成功应用。
  • 混合现实环境的智能表达与高保真绘制http://videozh.cas.cn/masvod/public/2026/01/14/20260114_19bbb9183a9_r36_1200k.mp4

    鲍虎军 教授 浙江大学

    混合现实旨在构建并交互呈现虚拟或虚实融合的环境,让用户产生跨越时空、身临其境的沉浸式体验。得益于感知、计算和呈现技术的进步,近年来涌现出了许多优秀的混合现实建模和实时绘制呈现算法和软硬件系统,但仍面临着场景建模成本高昂、绘制效率和逼真性不足等难题,严重阻碍了混合现实的应用普及。当今AI技术的跨越式发展已证明利用神经网络来表达和学习逼近复杂对象的巨大潜力,所涌现的强大端到端推理能力将多模态内容生成提升到了前所未有的高度,为混合现实技术的突破提供了变革性机会。本报告将重点介绍我们在混合现实的隐式神经表示建模和实时高保真呈现方面的创新研究进展,通过挖掘神经网络的强大连续参数化表达能力,解决混合现实系统所需的高效高精建模和实时高保真绘制问题,以便为用户提供沉浸性的交互感知体验、为具身智能的演化提供有效训练数据。报告最后将展示若干典型应用。