加入收藏 | 设为首页 | 会员中心 | 我要投稿 187手机网 (https://www.187shouji.com/)- oppo手机、手机助手、华为手机、安卓手机、苹果手机!
当前位置: 首页 > 4G频道 > 通讯 > 正文

北大教授:超级计算机计算性能提升速度是"十年千倍"

发布时间:2020-06-02 21:56:05 所属栏目:通讯 来源:网络整理
导读:北大教授:超级计算机计算性能提升速度是

李若:各位朋友们好!我的研究领域是传统的科学计算,今天我想和大家探讨的是一种新的可能性。,维数的概念,对于学过数学的人是一个非常标准而熟悉的词汇。我们做科学计算,比如做偏微分方程数值解,其常常目标是为了逼近一个函数,这个函数从一个m维空间映射到n维空间,m和n如果非常大,就是所谓的高维的问题。

尽管很高的维数对于学数学的人来说感觉非常自然,但是在历史上对于普罗大众,大家开始接受比直观的三维空间更高的维数概念是在狭义相对论的时候,那时候伴随狭义相对论所提出的四维时空的概念,使得高维的概念进入大众视野。对于数学家和物理学家来说,维数本质上只是变量的个数。对于科学计算来说,我们要想表达一个高维函数,这个维数m-就是自变量的维数-非常要命,这个数大了以后很难办,但是n这个维数带来的困难要小得多。

狭义相对论出现以前,大概更早三四十年,就有了气体动理学的玻尔兹曼方程。这个方程中就会涉及到一个高维的所谓分布函数,这个函数是时间、空间的函数。与此同时,它居然把速度量作为自变量,使得这个函数变成一个七维函数,它满足这样一个方程(图)。这个f的自变量维数一旦高上去之后,当时大家没有感觉,等到我们真想解这个方程的时候,才发现面对着巨大的困难。

其实七维并不是显得特别高,我们平时觉得时空是四维的,事实上可以在建模的时候,将维数从日常的四维,升高到几乎不可能的维数,这是所谓的量子多体问题。这是一个薛定谔方程,薛定谔方程里面的波函数依赖于非常非常多个自变量,每个自变量都是普通的三维空间中的一个向量。这里的N会大到什么程度呢?它会大到像阿伏伽德罗常数这样的数,这个维数一下子变得高不可攀了。通过这个例子可以看到,维数我们是可以把它玩的非常大的。

在物理的历史上,维数是从日常的维数逐渐一步一步的加上去,这件过程大约可以从广义相对论的时候开始算起。在理解广义相对论的时候,大家发现它本质上是把相互作用几何化,把引力解释成为空间曲率。大家发现可以享受引入新的自变量的好处,把各种相互左右都解释为新加入的维数的几何结构。比如说为了解释磁铁的磁力,可以为电子硬生生的引进自旋这个自变量,物理书上叫做“内禀属性”,在数学看来就是一个自变量,引进这个就可以解释磁铁的磁性。吃了这种甜头以后,物理学家们逐渐就把四种基本的作用力,比如核里面的强相互作用、弱相互作用,逐渐都想把它统一起来使用,加自变量维数的方式,然后把它统一起来,就发展成了现在的各种弦的理论、m理论这些。大致上看来,物理学家把各种各样的相互作用最终变成了新的自变量,从而导致了函数自变量维数的增长,这种增长为我们求解这些方程带来了非常巨大的困难。

科学研究的目标第一步是理解,就是所谓认识自然,第二步是控制,这是希望通过获得的理解来改造自然。当我们想做科研的时候,一个被研究的客体放在面前,我们可以把我们研究的客体,首先可以看成是一个黑盒子,我们通过观察它的输入,测量它的输出,然后猜测到底这个黑盒子里发生了什么事。输入和输出从表象上常常是非常高维的,但是需要注意的是,我们能够观察、测量和控制的关于输入和输出中的信息都是非常低维的数据。这是因为我们对所能够观察和控制的所有这些因素,只有低维的表达能力造成的。我们翻来覆去的做输入和输出的观察,有一天终于给出这个客体的方程,这就是物理的模型。所以这些模型,或者说方程,就是照亮黑盒子的光,使得黑盒子变成了亮盒子。我们的问题在于这些方程中自变量的维数太高,计算量太大,我们就会很难对其进行求解。

这个盒子和现在热门的神经网络长得非常像,给它一个输入,输入从表象上非常高维,它就给一个输出。神经网络和刚才我们说的这个盒子比较,其特点在于它是天生就是一个亮盒子,里面所有的连接结构、参数都是设定好的。现在大家做神经网络的训练,就是反复地匹配这些输入和输出的数据,然后把盒子里面的参数给确定下来。一提到这个大家马上会非常兴奋的去讨论大家非常感兴趣的一些问题,比如怎么样调参和训练,还有关于所谓的泛化和解释性的问题,这些讨论很容易就会把科学问题和哲学联系在一起,我们就不展开了。

最近这几年,利用神经网络去表达过去我们觉得很难的一些问题的解的时候,往往给我们非常神奇的感觉,训练出来的神经网络常常可以捕获我们过去觉得绝对不能表达的特征,准确度非常高,这让我们觉得这个好像是一种智能,我们说它是人工智能的意思是觉得它和人的智能多少还是有一些区别的。神经网络的结构天然和我们研究科学问题的解构这么相像,我们可能马上会觉得它们之间会有一些竞争,但是今天我想讨论的是,我们其实可以利用它们的相似性,把神经网络的这种表达形式,以非常自然的形式应用到求解高维科学计算的问题上来。

北大教授:超级计算机计算性能提升速度是


我特地构造了一个看上去很抽象,但事实上又相当具体的例子,来说明这种可能性。我们考虑时间发展的方程,左边是一个函数,这个解函数u是时间和空间的函数,空间可以是非常高维的,右边是不包含时间导数的算子,具有初值。为了解这样一个方程,原则上n非常大的时候,现在的科学计算是很难解决这样一个问题的。但是请注意到刚才我们说过的一个重要的事实,我们所关心的初值或者说我们所能够给出的初值,这种U0,它的整个集合是非常低维的,每个U0本身有非常高维的表象,但是所有的U0放在一起的集合是一个低维的结构。所有的这种函数所形成的集合,这个集合形成了一个流形,它的维数是很低的,我们把它记作K,这个是和1差不多一样大的一个数。

由于这个方程是个时间发展方程,以U0作为初值时候的的解,就会在所有可能的解空间里面形成一条单参数的曲线。所有这种单参数的曲线,形成了这样一个集合(图),单参数是t,其他的维数是K维的。对于所有的解形成的在解空间中的流形,构成了以U0作为底的K+1维的流形,整个流形的维数是不高的。这样,原则上来说我们就可以用下面的形式对这个流形做参数化,我们利用t是其中一个显式的参数,可以把其中每一个函数都写成x的函数,依赖于参数ω,这个ω是只依赖于t的一个K维向量。这样的解的形式代入到方程里面去,我们会发现这样的等式,拿u对所有的ω求导数,这是一个广义导数,每一个ω对t求一个导数,会发现这个对所有x都成立。我们可以使用u对ω的导数做检验函数,这个东西是一个内积。总而言之,我们最后可以转化为一个常微分方程组,以ω作为变量的常微分方程组,前面这个东西就是由这些东西所做出来的矩阵,这个矩阵是对称正定的,右边是右端项。我们获得了只有K个变量的常微分方程组,这个方程组我们是可以非常高效的求解的。

(编辑:187手机网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读