6月7日,第二届自然语言处理前沿论坛在国家超级计算济南中心科技园圆满举行。论坛邀请中国中文信息学会资深学者莅临国家超级计算济南中心,重点围绕自然语言处理领域前沿热点问题,聚焦大模型能力与价值对齐、可解释性AI、算力网络关键技术、大模型推理与语言机制、大模型脑神经解码、大模型的产业应用等学术话题,进行了精彩报告与热烈讨论。复旦大学黄萱菁教授、清华大学马少平教授、哈尔滨工业大学秦兵教授、江西师范大学王明文教授、国家超级计算济南中心主任王英龙研究员、北京语言大学杨尔弘教授、中国科学院自动化研究所赵军研究员、苏州大学周国栋教授、中国科学院自动化研究所宗成庆研究员出席论坛。来自齐鲁工业大学(山东省科学院)及山东省内兄弟院校的百余名老师和同学共同参与此次活动。
论坛开幕式由齐鲁工业大学(山东省科学院)计算机科学与技术学部主任吴晓明主持。
在开幕式致辞中,王英龙首先对与会专家来访表示热烈的欢迎,并对计算学部的整体发展状况、在大模型领域的研究进展与规划进行详细介绍。进而王英龙表示,自然语言处理作为人工智能领域的重要分支之一,具有广泛的应用前景和深远的社会影响,希望本次论坛能够成为各位来宾与专家凝聚价值共识、交流碰撞思想的桥梁,为推动自然语言处理技术在齐鲁大地进一步发展和壮大起到重要的作用。
与会专家结合自己的研究工作,针对自然语言处理领域的前沿热点问题,进行了精彩的报告。依据报告次序,具体介绍如下:
复旦大学计算机学院 黄萱菁教授
报告题目:大模型能力与价值对齐
报告内容:黄萱菁教授首先介绍了大模型的发展历程,并通过剖析国内最新人工智能的政策导向,引出人类与大模型价值观对齐问题。而后,报告从大模型价值观对齐、大模型能力对齐两个方面展开;在大模型价值观对齐方面,黄老师对数据驱动的大模型价值观对齐方法以及具体实施细节进行了详细的介绍,包括RLHF-PPO等算法;在大模型能力对齐方面,黄老师介绍了机器人及智能体的能力对齐、翻译信达雅对齐、代码推理能力对齐、代码生成能力对齐等;最后,报告展望了对齐技术前景,介绍了多智能体竞争、MOSS大模型生态的相关工作,指明了未来的研究方向。
清华大学计算机科学与技术系 马少平教授
报告题目:人工智能导论课程建设
报告内容:马少平教授指出,随着人工智能的火热发展,人工智能导论课程开课范围正逐步扩大到各个理工科院系、文科院系等,逐步成为重要的通识教育课程;如何从繁杂的知识体系中,针对不同的对象选取合适的教学内容,已成为人工智能导论课程建设的首要问题。针对这一问题,马老师指出需对人工智能发展历史进行梳理,并在不同阶段选择主要经典方法作为课程的教学内容;对课程内容进行难度分级,为不同背景的学生提供合适的教学内容。最后,为方便学生自学,马老师介绍了自己历时十余年编写的教材《艾博士:深入浅出人工智能》,并展示了配套的PPT以及教学视频。该报告为人工智能导论课程建设做了详细的指导规划,对于人工智能人才的培养具有重要意义。
哈尔滨工业大学计算学部 秦兵教授
报告题目:可解释性AI与大语言模型
报告内容:秦兵教授首先回顾了大语言模型与可解释性AI的发展,然后系统地介绍了可解释性AI技术如何助力大语言模型,以及大语言模型如何助力可解释性AI的发展。在可解释性AI技术助力大语言模型方面,秦老师介绍了基于归因方法的大语言模型分析、基于示例的解释与大语言模型调试、通过可解释性的提示增强大语言模型、通过知识增强提示辅助大语言模型。在大语言模型助力可解释性AI方面,秦老师系统地梳理了大语言模型增强可解释性的各种框架与方法。最后,秦老师重点强调了可解释性AI与大语言模型之间相互促进和补充的重要关系,并展望了可解释性AI与大语言模型的发展方向。
江西师范大学计算机信息工程学院 王明文教授
报告题目:基于文本提示的产品缺陷检测算法
报告内容:王明文教授指出,近年来随着大模型的井喷式发展,越来越多的传统视觉任务开始尝试借助文本提示中的语义逻辑关系来提升任务的识别精度和模型的泛化能力。随后,王老师简要介绍了工业缺陷检测以及文本提示下的工业缺陷检测,并详细介绍了三种不同的基于文本提示的算法:基于缺陷描述的缺陷样本生成算法、基于缺陷描述的缺陷互动标注算法、基于缺陷描述的缺陷检测算法。最后,王老师展示了基于这些算法开发的工业产品——缺陷检测原型系统的具体应用和效果。
国家超级计算济南中心 王英龙研究员
报告题目:算力网络关键技术与应用实践
报告内容:王英龙研究员首先强调了算力在当今大模型时代的重要价值,指出算力设施的建设是时代所需、国家之要,而算力网络的通畅是算力设施的重要保障。随后,王英龙介绍了国家超级计算济南中心近年来取得的进步和成果,并阐述了国家超级计算济南中心建设规划的三期策略;针对算力网络发展面临的挑战,讲述了融合算力生产、互联和配给网络的体系结构,研发了基于FPGA 的高速协议转换,突破了长距无损IB高速通信技术;介绍了国家超级计算济南中心研发的基于算力互联网的算网操作系统,实现了算网资源一体化调度、任务统一分发和协同运行、数据统一存储与高效流转。最后,报告展示了针对智慧海洋、智慧医疗等场景开展的算力互联网协同应用,展望了未来算力互联互通、协同发展的美好前景。
中国科学院自动化研究所 赵军研究员
报告题目:大模型推理机制研究
报告内容:赵军研究员指出,推理是人类智能的重要组成部分,随着人工智能进入大模型时代,研究大模型的推理机制愈发重要。报告首先介绍了大模型推理机制分析的背景和意义,并分析了现有的推理测试基准。然后,报告从探究影响因素、分析作用关系、解释推理机制三方面,重点介绍了目前大模型推理机制分析的主要工作。最后,赵老师对大模型推理机制进行了总结,并对下一步的研究方向作出了展望。
苏州大学计算机科学与技术学院 周国栋教授
报告题目:语言机制
报告内容:周国栋教授指出认知科学的关键是语言机制问题,从形式主义、功能主义和认知主义等多方面深入探讨了语言机制问题。首先,周老师引用了Hans-Georg Gadamer的观点,指出语言机制不仅是一个技术问题,更是一个哲学问题。而后,周老师探讨了自然语言理解和语言学的关系,指出自然语言理解需要结合形式语言学和功能语言学的理论,通过认知方式实现对语言的统一解释。最后,周老师指出语言理解可以视为篇章理解和知识图谱的组合,并强调了理解语言机制对于自然语言处理的发展至关重要。
中国科学院自动化研究所 宗成庆研究员
报告题目:基于大语言模型的脑神经解码方法
报告内容:宗成庆研究员指出,自2022年起,以ChatGPT为代表的大语言模型成为举世瞩目的热点,为人工智能领域提供了新的研究范式,同时也为探索人类大脑语言理解的神经机制提供了新的机会和可能。在报告中,宗老师围绕两个问题来讨论大语言模型与脑神经解码的结合:人脑是如何实现语言表征和理解的?能否根据脑神经影像和脑电等数据实现大脑语言的有效解码?而后,宗老师介绍了两个数据集:用于汉语概念表征研究的功能性磁共振成像(fMRI)数据集和多模态同步神经影像数据集,并指出这两个数据集对该类问题研究的重要作用和价值。随后,报告着重介绍了基于预训练语言模型的词汇和连续文本神经解码方法。最后,宗老师分析了未来大语言模型的发展趋势,并展望了大语言模型与人类大脑语言理解的神经机制对齐的若干研究方向。
交流环节,与会师生和各位专家进行了热烈的讨论。通过与专家们的互动,参会师生对大模型时代如何更好地开展相关工作有了更加明确的认识。同时,专家们对大模型现存问题进行的深刻剖析也让大家有了更加清晰的努力方向。与会师生纷纷表示,此次论坛深刻启发了未来科研工作的新思路、新方法、新方向,衷心感谢与会专家能够莅临指导。
国家超级计算济南中心副主任潘景山对本次自然语言处理前沿论坛进行了闭幕总结。潘景山对各位与会专家的莅临指导表示感谢,并期待国家超级计算济南中心能够与各位专家建立更加深入的合作关系,期待国家超级计算济南中心能够有机会再次承办自然语言处理前沿论坛等学术活。
论坛期间,与会专家共同参观了国家超级计算济南中心展厅,深入了解国家超级计算济南中心的发展历程、主要业务及科研成果。