“AI未来说·青年学术论坛”|“量子计算”专场清华大学翟荟
不到现场,照样看最干货的学术报告!
嗨,大家好。这里是学术报告专栏,读芯术小编不定期挑选并亲自跑会,为大家奉献科技领域最优秀的学术报告,为同学们记录报告干货,并想方设法搞到一手的PPT和现场视频——足够干货,足够新鲜!话不多说,快快看过来,希望这些优秀的青年学者、专家杰青的学术报告 ,能让您在业余时间的知识阅读更有价值。
人工智能论坛如今浩如烟海,有硬货、有干货的讲座却百里挑一。“AI未来说·青年学术论坛”系列讲座由中国科学院大学主办,百度全力支持,读芯术作为合作自媒体。承办单位为中国科学院大学学生会,协办单位为中国科学院计算所研究生会、网络中心研究生会、人工智能学院学生会、化学工程学院学生会、公共政策与管理学院学生会、微电子学院学生会。“AI未来说·青年学术论坛”第五期“量子计算”专场已于2019年5月18日下午在中科院举行。清华大学翟荟教授为大家带来报告《Discovering Quantum Mechanics with Machine Learning》。
翟荟,清华大学高等研究院教授。主要从事冷原子物理等量子物质的理论研究以及机器学习方法在物理学中的运用等。翟荟教授于 2002 年本科毕业于清华大学物理系首届基础科学班,2005 年初在清华大学高等研究中心获物理学博士学位。2005-2009 年先后在美国俄亥俄州立大学和加州大学伯克利分校做博士后。2009 年起任清华大学高等研究院研究员,2012 年获得长聘,2013 年获得国家自然科学杰出青年基金支持,2015 年任高等研究院教授,2016 年受聘教育部长江特聘教授。
报告内容:神经网络在学习来自物理系统的实验数据时,能否提炼出其背后的物理规律其?本次报告将展示了一个具有自省能力的机器学习架构(Introspective Learning Architecture)。为验证这一架构的有效性,我们将展示这一架构可以从模拟实验数据中发现薛定谔方程。这种具有自省能力的机器学习架构的特点是将用于执行任务的部分和提取本质信息分开。这种双层机器学习架构赋于机器提取简洁规律的能力,可以更广泛地用于未来物理学问题的研究。
Discovering Quantum Mechanics with Machine Learning
翟荟教授首先介绍了理论物理学家的思维方式和机器学习的思维方式之间很大的相似之处。他以经典力学即牛顿力学开篇,用开普勒从第谷·布拉赫记录下的大量数据中发现行星三大定律的例子,说明了经典力学起源于机器学习式的思考。发现量子力学的一个重要实验观察是一百年前的光谱学数据,而量子力学的发现者们正是从这些光谱学大数据中提炼出了量子力学中最重要的量子化规律,这也是机器学习式的思考。
物理学本质上是实验科学,而理论物理学家就是从这些实验数据中提炼出规律,比如经典力学中开普勒从第谷的实验中提炼规律,量子力学从光谱数据中提炼规律。此外新的规律不能与其它已知的规律相矛盾,因此需要与其他实验进行一致性检验。然后需要进行理论预言,并进一步接受实验的验证。
类似地,对于机器学习而言,也是基于大数据,用一个神经网络去拟合数据背后的规律。神经网络中也需要有验证集,避免数据学到的东西与其他东西相矛盾。然后用发现的规律进行预测,这种预测也是可以被检验的。基于上述相似性,翟荟教授认为现代机器学习发展出来的算法及最新进展可以和量子力学的科学探索密切结合。
翟荟教授然后谈论了神经网络和理论物理学家的工作方式两者之间虽然有很多共通性,但是仍存在一个很重要的不同之处:即机器学习学到的东西往往是经验拟合,而现代科学对物理规律则是通过简洁的数学来表达的。这就涉及到机器学习的可解释性问题,即背后支持神经网络作出判断的规律到底是什么。这也是人工智能研究自身需要面对的非常重要的问题。
众所周知,量子力学当中最重要、最核心的物理规律就是薛定谔方程,它支配了量子事件中所有运动的规律。每给定一个势能,就会得到一个粒子的密度分布。因此,翟荟教授团队提出这样一个问题:假如使用原子显微镜等实验手段产生不同的势能,然后测量其中粒子的密度分布,假设人们积累了足够多的这样的数据之后,但不知道其背后是什么物理规律,能不能利用机器学习的算法把量子力学的薛定尔方程发现出来?
于是,翟荟教授团队提出了这个具有自省能力的机器学习架构(Introspective Machine Learning Architecture)。简单地说,该架构分为两层:第一层是干活的,第二层是思考的。采用两层结构是为了解决神经网络的可表达性与可解释性之间存在的矛盾:一方面,为了利用神经网络强大可表达性对大量的数据进行拟合,因为通常网络越深,可表达性越强,因此希望有一个较深的网络来做这件事;另一方面,为了对网络学到的东西进行解释,网络越深就意味着越复杂,可解释性越差。
因此,在这个工作中提出的两层结构,第一层采用了递归神经网络,将实验数据作为输入和输出来进行训练,第二层采用了递归自编码器,将训练后第一层网络的神经元中产生的大量参数作为输入,将网络压缩到最简洁的表达方式。最后他们发现这样得到的最本质的递归关系可以表达为两个变量的方程组的形式,而这个方程组正是我们已知的薛定谔方程的离散表达形式。
接着翟荟教授指出该双层网络结构是普适性的。用它发现薛定谔方程的例子只是一个例子,它的要点是解决了拟合和反思的矛盾:拟合的时候希望网络越深越好,反思的时候需要提取网络最本质的自由度。把拟合和思考两个网络结构分开,既能干活又能思考,装备这种结构的神经网络更有效地为现代科学研究服务。
对这一工作具体细节感兴趣的读者可以查阅翟荟教授和他的学生王策博士,加州大学圣地亚哥分校助理教授尤亦庄教授一起合作的文。
留言 点赞 关注
我们一起分享AI学习与发展的干货
欢迎关注全平台AI垂类自媒体 “读芯术”