网易首页 > 网易号 > 正文 申请入驻

【新智元专访】微软人工智能首席科学家邓力:十年内机器有望拥有常识

0
分享至

新智元原创

记者:闻菲

【新智元导读】2016中国人工智能大会(CCAI 2016)日前在京召开。大会第一天(26号)上午,微软首席科学家、深度学习技术中心研究经理邓力发表演讲,回顾深度学习历史并就当下机遇展开分析。27日午休时间,邓力抽空接受新智元专访,更深入地探讨了深度学习突破及开源趋势等问题。邓力同意Hinton等学者的看法,认为十年內机器能够拥有常识,对研发通用人工智能(AGI)也表示乐观,相信在他的“有生之年”应该能够看见AGI实现。

新智元与中国自动化协会联合主办的“世界人工智能大会”即将于10月份召开,作为大会嘉宾,邓力表示他希望能在世界人工智能大会上更深入了解人工智能在全球特别是在中国的发展,同时分享他对人工智能和深度学习更多的思考。欢迎点击“阅读原文”查看详情。本文后附邓力本届CCAI演讲全文。在新智元后台输入“0905”下载PPT。

【介绍】邓力,现任微软人工智能首席科学家、深度学习技术中心研究经理。他在美国威斯康星大学先后获得硕士和博士学位,然后在加拿大滑铁卢大学任教并获得终身教授,其间还出任麻省理工大学的研究职位。1999 年加入微软研究院历任数职,并在2014 年初创办深度学习技术中心,主持微软公司和研究院的人工智能和深度学习领域的技术创新。研究方向包括:自动语音与说话者识别、口语识别与理解、语音–语音翻译、机器翻译、语言模式、自然语言处理、统计方法与机器学习、听觉和其他生物信息处理、深层结构学习、类脑机器智能、图像语言多模态深度学习,商业大数据深度分析预测等。由于在深度学习的卓越贡献,他荣获2015电气电子工程师学会(IEEE)SPS技术成就奖。

深度增强学习是了不起的进展,深度学习需要借鉴脑科学的知识

新智元:过去一年深度学习最大的突破是什么?

邓力:深度增强学习是一个很了不起的进展。AlphaGo 影响很大,也让很多做深度学习的研究者意识到,深度学习应用不但可以在有大量直接标注的数据上成功(比如语音识别、图像识别),还可以在其他更多的方面成功。这个成功不像以前那样一定要把每项训练数据都做一一标记,因为增强学习大部分数据都不是直接标注,而是要等到最后结果得出来,再指导前面的机器学习过程。深度学习和增强学习的概念以前都有,但谷歌 DeepMind 将深度学习和增强学习结合在一起,提出了深度增强学习,并且给出了应用场景,做了很多好的工程工作,向大家展示了它能够解决以前深度学习解决不了的问题。就在前几周,新闻报道谷歌 DeepMind 采用深度增强学习的方法,让数据中心的能量消耗减少了 40%,这个影响是非常大的。省电不但有经济效益,对环境的好处也是巨大的。以前一般人想不到可以将增强学习用在这个上面,我看了这项应用的报道后立即深受启发。

新智元:LeCun 前不久表示,他非常看好对抗生成网络模型。

邓力:对抗生成网络是很好的方法,它有助于无监督学习,如何把数据输入输出的关系弄清楚。

新智元:您最近主要在做无监督学习?

邓力:思考了这方面的很多问题。一是无监督学习不需要使用标注数据,二来也是更重要的一点,从思想模型上讲,无监督学习更像人脑的学习。当然,直接的效应还是标注量——大 5 倍、10 倍可以,但大 100 倍、1000 倍、1 万倍呢?现在不少人在做深度无监督学习,我也在这方面提出一些高层的解决方案。例如看图说话,给定一幅图像,让机器用自然语言句子描述内容。微软前年还专门标注了好几十万个这样的数据给大家,整个深度学习领域的研究员都能应用,影响很大。但不可能标几千万甚至几亿的这种图像,尽管大家都知道,这会进一步提高看图说话的效果。其实我和团队之所以要研究无监督学习,更重要的一点是,我们目前的深度学习方法离真正的人脑学习差得太远了。深度学习需要借鉴脑科学的知识,虽然一两年内暂时还用不上,但我相信不远的将来,三到五年之内,大家都肯定会往这方面思考。我们现在也在往这方面想。我昨天讲的深度学习,有一部分也是受脑科学的影响。只是我们更重视计算——脑科学计算不了也没实用价值。但是,人工智能和脑科学将来都会慢慢结合。

新智元:Hinton 在之前接受采访时表示,他认为十年内机器能够拥有常识,您怎么看?

邓力:我同意他的看法。我们要是能够把人脑关于常识的机制加到算法里面,人工智能会有新的大进展。关于常识的知识库会越来越大,方法也会越来越强。计算能力、计算机硬件、数据……这些都在不断发展扩大。到了一定阶段,我想十年之内,差不多就会得到这样一个好的解决方案吧。当然,到时候肯定不会像现在这样采用监督学习的方式,而是整合了多种方法,监督学习、无监督学习、增强学习……而且现在发展速度这么快,工业界和学术界都大力投入人工智能和深度学习。十年算蛮长时间了。这么长时间,应该可以实现。

至于通用人工智能,应该会长一点,在十年以外。常识只是一部分,而通用人工智能,就是要用同一个人工智能解决很多的问题,这就需要在常识之外,还有很多其他的人类认知能力。把这些认知能力都考虑到一起,我想用的时间……至少在十年以外吧。但解决的机会是会有的,有生之年我也应该能看到,我还是比较乐观的。

新智元:深度学习是最终的答案吗?

邓力:最终的答案应该有很多方法整合在一起,深度学习是其中主要的一个。不过,深度学习本身范围也很广。什么是深度学习呢?有些人说深度学习就是神经网络,我认为这不全面。深度学习的基本概念,一是多层次的,多层次不一定要神经网络方法才能实现,可以用统计方法,也可以使用贝叶斯的方法。深度学习的另一个特点是端到端的学习,也不必局限于backprop。总之,深度学习不一定限定在神经网络,还要把常识——随便举个例子——结合进来,我是这样认为的。

去年,我们团队在 NIPS 发表了一篇论文探讨了这样的问题。你知道,现在使用神经网络,大部分都很难解释;我们的团队就采用概率模型的方法,把比较浅层的概率推理方法加层,每一步的方法从果推到因,把每个步骤都当做一个迭代的过程,每个计算的步骤作为神经网络的一个层次,然后把这个过程一层层循环上去,最后就形成了一个神经网络,再来做反向传播。学习完了以后,由于这个网络也很深层,预测的结果就很准,但同时我们没有把原来贝叶斯基本的架构破坏掉,所以用原先的模型就可以解释最终的结果,这就是把神经网络和其他方法结合起来的一个例子。

新智元:怎么看开源?

邓力:开源是一个好事。开源的结果是把整个业界的水平提高,给大家很多很多的选择。我很高兴见到很多公司开源,我认为开源的力度越大越好。举一个例子,以前实习生来了,有一个很长适应的时期,才能把公司内部的应用软件搞懂。开源以后,他们在入职之前就已经对相关的技术和产品比较熟悉了,来了之后马上就可以上手。微软已经开源了CNTK,今后也应该会开源更多。

新智元:微软研究院在深度学习上的特点是什么?

邓力:微软的优势是深度学习开始比较早,储备的人才和经验很多。不过前几年管理相对松散,做深度学习的人分散在很多不同的地方,但彼此之间都有合作。在深度学习和人工智能方面,我们会投资更多。

新智元:跟 Hinton 合作有什么印象比较深的地方吗?

邓力:当时我们一起做语音识别,神经网络和贝叶斯算法做了很多比较。发现贝叶斯算法不如神经网络那么有效,主要是因为神经网络能够利用大型并标准的矩阵计算。当时我们试了各种各样的方法,在2009年到2012年期间,Hinton 给了我很多实际的建议,比如早在2009年他就一直跟我说,“你一定要用好的GPU”,用什么样的GPU我还是听他的,这个对我们影响很大。

新智元:神经网络、层次化模型等思路在语音识别发展的历史上早已被提出并无数次验证,但都没有成功。回顾深度学习成功前的十年,那时能够持续不断地在“非主流”的方向上尝试、改进、探索,是一件非常不易的事情,您是如何坚持过来的?

邓力:我在上世纪90年代也做神经网络,但没有成功——不过那时候大家都没有成功(笑)。然后改做贝叶斯网络模型和方法,在为语音生成(编注:语音生成指的是统计方法生成,不同于语音合成)建模的深度贝叶斯网络做了很长时间。同样,当时深度贝叶斯网络学习的方法不成熟, 但现在两三年内有了很多进展。这些新进展把统计、数学、概率和神经网络的方法联系在一起。将来要解决更像人脑的问题,单单依靠数据就不够了。现在大家开始注重非监督深度学习,过去积累的研究经验和有计算价值的语音生成知识和模型也可以派上用场。

新智元:您去年都还在发论文,一直都工作在第一线。如何保持这样长时间的高水平高产出?

邓力:这是责任,也是个人的兴趣。公司给了我很多资源,现在团队有了这么多人,人多了自然就好做事了。

新智元:10月份,新智元和自动化协会联合主办的人工智能世界大会就要召开了。您对世界人工智能大会有什么寄语?

邓力:我希望能在这个会议上学到更多的东西,更深入了解人工智能在全球的发展, 特别在中国的发展。同时也分享我对人工智能和深度学习更多的思考。

邓力CCAI 2016 演讲:深度学习的三个模式

邓力:谢谢大家,今天讲的题目是《深度学习的三个模式》,第一个模式是用有标注的大数据来做有监督深度学习,第二个是用无标注的(更)大数据来做非监督学习,第三部分就是深度增强学习。

深度学习的三个特点

首先,深度学习的基本概念大家要了解。如果不了解可以先看维基百科,维基百科有关深度学习的页面介绍得非常清楚,在一开头就把深度学习的三个基本要点讲出来了。深度学习有好多层的非线性变换,这跟大脑是有一定的关系,这也使端到端的优化很必要。在深度学习之前的一些模型,就比较“浅”,“端到端”的特点并不是特别明显。很大一部分深度学习的进展,就是怎样把这个深层优化解决。更重要的是,好多层非线性变化的结果,是在不同的层次上面把它抽象化进行层次的分类,这一点在所谓的图像上面显得特别清楚,在不同的层次上面看到有时候是比较浅层的特征;接近于高层,认知方面的特征越来越明显。在语音识别上面,我们也发现有类似不同层次的抽象。这种多层次抽象对于深度学习在自然语言理解和推理的应用,意义是更大的。

还有强化学习和非监督学习,这两个方向的学习是目前深度学习的更加活跃的领域,深度强化学习有很多成功的例子。

AI = 感知 + 认知

我这个题目还有一个字眼叫AI,什么叫“人工智能”?根据 Wikipedia,AI就是人为造成的智能。这并没告诉你新的信息。为了给你新的信息,从我现在这个演讲的角度来讲,我想把人工智能分成两部分,一部分是所谓的感知——感知是什么意思?就是说你所看到的这些现象,视觉的现象,还有语音的现象,音乐、手势、触觉、等等。感知指的是人怎样把原始的感官得来的信号转变成一些跟认知有关的过程。语音识别属于感知,图象识别也属于感知。

下面更重要的是叫做机器的认知。它包括自然语言,这是机器认知很大的部分。认知讲的是怎样把人类发明的符号进行转换,然后形成知识。决策和控制也属于认知。刚才大疆的李泽湘教授讲的那些机器人的控制就在认知范畴之内。要控制好机器人的动作,必须要理解并模拟物理过程。认知还有很大的一部分是关于人机对话,这一方面最近很多公司在做非常大的投入,微软也有很多有关的消息。趁这个机会我向大家介绍一下我们微软的思路,让大家稍微了解一下这个新的领域。这个领域完全是属于机器认知部分的人工智能。

人工智能的应用


在讲之前,我先把人工智能的应用跟大家讲一下,刚才谭院长也讲过很多人工智能的应用。首先,深度学习在语音方面的应用最早是2009到2010年。2年之后,深度学习在图像识别上的应用取得成功。研究者用的方法都是深度神经网络和有监督学习。还没有用到将来可能有的大数据量,只不过比他们之前用的数据更大。在图像识别成功之后,深度学习成功的例子包括机器翻译、包括自然语言理解和问答。

现在,深度学习第一步的成功我们已经看得很清楚。比如说用深度学习做的机器翻译,效果现在已经超过了发展了25年多的传统的统计方法。深度学习在游戏上面也有很大的成功,深度增强学习起了决定性的作用。那么下一步的波浪是什么呢?这张 slide 写的只是我的估计,比如说自动知识提取和整合应用并扩展。我现在有相当多的背景来做估计,也为此访问了不少专家。

深度学习下一步可能的成功,基于现在很多这方面的研究,是所谓的人机对话,我们采用的基本技术是叫做增强深度学习,很大程度上,直接用现有成功的深度学习和增强学习去达到成功的效果。增强深度学习有相当多这方面的应用,包括最近你们看到的新闻报道。谷歌DeepMind已经为谷歌的数据中心能源节省了40%,在节能和环境保护上面取得相当大的成效。

深度学习语音识别

首先把监督深度学习在语音识别的应用给大家做一个回顾。基本思想就是,用非常大量的有匹配的输入输出数据,训练大型的深度神经网络。对于语音输入,你要知道它讲什么,把这个准备好以后,就丢到深度学习的机器去训练它的大量参数。

2009年差不多年底的时候,我们微软同多伦多大学做了一个非常好的合作。当时 Hinton 教授到了我们微软来,把一个基于 RBM/DBN pretraining 的深度神经网络方法介绍给我们。在这之前的几年,我们实际上用了非常强的深度贝叶斯网络方法来模拟语音生成的多层次结构。

从语音深层次的角度来讲,首先有个符号概念形成的层次。比如现在我要讲什么句子,几个毫秒之前我的脑袋就知道。生成这个符号概念之后,要把这个概念转成下一层所谓的 motor control。然后,motor controller 在运动神经系统内激发出一些起控制作用的目标。不同的声音的元素(音素,phoneme)是跟不同的控制目标连在一起的。这个控制目标可以驱动发音肌肉高度协调的伸缩。

这有点像刚才李教授讲手精细动作的控制。我这里讲的是在语音生成时嘴巴、舌头运动的控制。这一层次完了之后就到了下一层次,它可以将整体的声道作为一个动态系统。那么在这一运动层之后的因果关系就是 articulatory-to-acoustis 投射。用的是声学原理,把口腔运动层转化成声学的语音层。怎样把以上这种深层次的语音生成模型用于语音识别?你知道应该用 Bayes Rule,这是一个很传统的方法。对这个非常深层的生成模型,我们在微软做了4~5年的研究。

在2006年,Hinton教授和同事写了一篇 DBN 的文章,这被学术界认为是深度学习的开始。那篇文章讲的 DBN 跟我以上讲的深层语音模型,实际上都是生成式模型。但 DBN 直接用神经网络来参数化整体的生成式模型,这个是非常有用的。我们当时在2009-2010年,用DNN的方法直接用很简单的神经网络,得到了同深层语音生成式模型差不了多少的识别率,但识别错误种类截然不同。所以,我一做这种比较之后就觉得,这个DNN肯定有学问,所以我们就继续把它的规模加大。

原来的计划是把DNN加大到一定程度以后,再回去把语音知识用物理模型的形态加回语音识别器。现在DNN/RNN做有监督学习太成功了,大家根本不想回去。但是,我想下一步因为现有的DNN/RNN不能做无监督的深度学习,这些语音知识和物理模型在将来做无监督深度学习还是必要的。

经过了大概两年多的艰苦奋斗,包括与研究院北京的员工合作,我们终于在2012年做出由 DNN 驱动的大型语音识别和翻译。这里想提到一个很重要的发现。差不多2010年夏天的时候,我们发现,训练数据量变得越来越大之后,原先用 RBM/DBN pretraining DNN的方法可以丢掉,而用更简单的方法 retrain DNN。为了保证这么做有比较好的理论根据,我们当时还做了非常强的分析,从理论上看出来,大数据确实可以不需要那么复杂的 pretraining。原理实际上很简单。现在所有的深度学习,这一块基本上都不用当时所用的 RBM/DBN pretraining 的方法。你们看文献的时候,要注意在2012年之前的文献,常常把 DBN 和 DNN 混合在一起。直到我们微软同多伦多大学在2012年合写了文章,在那篇文章中才把 DBN和 DNN正确地分开。

这么成功的语音识别方法,我们实际上并没有很多的知识权保护。Hinton 和我在2012年秋,分别接受 John Markoff 采访时不约而同地讲到这一点。John 也把这一点明确地写到他在《纽约时报》著名文章。

我想,这跟深度学习2012-2013年时在工业界迅速崛起有关。

深度学习2012年的时候,就已经把语音识别的错误率降到这里(~13%)。两三年之后,到了2014、2015年,(错误率)继续降到了 9% 左右,这里我就不讲太多了。

在深度学习成功之后的一年内,我们的进展非常快,跟以前我们用的很复杂的GMM-HMM方法来比较,DNN需要的工程优化要少多了。所以,非常快地微软内部所有的语音产品,包括 XBOX、Window Phone、Cortana、Skype,都全部用深度学习来驱动。苹果跟亚马逊一般很少在外面去讲他们做的东西,但他们确实也很快地用上了DNN。

深度学习图像识别

下一步讲一下深度学习对物体图像识别的影响。对于图像识别,深度学习让错误率下降比语音识别更快更多。在2012年之前,错误率差不多一直在26%左右。2012年那时候,大家不完全知道大数据可以把语音识别淘汰下来。ImageNet结果出来的时候是10月份,记得我当时把这个结果发给微软做视觉的同事。我说你们看一下,我的同事不相信这么好的结果,说可能出了一些问题,也可能说这个dataset不够好,或是他们投机取巧。但我当时一看这ImageNet 的结果就马上知道,这和语音识别结果一模一样,就是把模型做大,而且根本不需要preretraining。

这个结果是一个2013年成立的公司 Clarifai 得到的。2015年底,我们微软孙剑的团队公布了这个结果,已经低于人类的错误率。哪怕所用的神经网络是更深,这个深度在近几年以来一直是低于20多。到今天的2016年,大家真正认识到这个深层是这么的重要。

现在转到机器认知上面。我刚才讲的都是在感知上面的应用。在认知上面的应用,最近很大的一个突破,是成功地用记忆模型跟用注意模型——这些都是人的认知技能—— 把这些模型用到深度学习上,让它们能够解决机器认知上面的问题,包括机器翻译。

大家对深度学习有一定了解的话,相信知道LSTM。LSTM让很多的 Short-Term 记忆单元,变成长期的记忆。这跟人脑的记忆机制相差很远,所以LSTM只是一个数学的模型。你可以把以前的比较简单的神经网络理解成是一个“cell”,这个cell比较复杂,它是一个动态的模型。以前2000、3000节点可以被几百个 LSTM cells 替代。有了LSTM cells之后,就可以记一些相当好的信息,如果需要的话,信息可以马上忘掉。

几个礼拜前,在1997年发明了这个模型的 Schmidhuber 教授,他在西雅图见到我。这么好的模型,20年间没有人用,因为相当复杂。我们两个都同意,说这个模型是一个现象模型,跟人类的记忆差得非常远。有了这个模型之后,可以用到很多的学习方法,包括语音识别、语音理解、做人工对话。当然,这个模型本身的机制跟真正人的认知还有很大的区别,一定还有很大的空间,等待大家做研究。

有了这个LSTM 模型之后,你就可以做非常有意思的东西,这个机器翻译的工作是一年多前发表的,这个东西为什么会翻译的这么好?精髓在什么地方?精髓就是当模型运行到这里之后,这一层已经把所有的信息给编码成一个 thought vector,输入,然后用它做输入把这个解码器的网络进行驱动。


下一步我就讲一些更深层的一些记忆模型,这个是Memory,就是记忆,这个就不讲太多了。

深度增强学习

深度增强学习可以把它理解成是以前的增强学习加上深度学习。把它加在一起就可以解决以前的增强学习解决不了的问题。要是没有深度学习的话,旧的增强学习本身就解决不了现在可以解决的问题。增强学习的方法是看长期的收益。在整个学习的过程中,可以把这个长期收益的给优化,AlphaGo用的这种方法使它能战胜高手。

这里有两个深度学习的网络,AlphaGo是把不同机器学习方法组合在一起,主要的精华还是深度增强学习,第一个神经网络使得它的宽度减少,这样就可以使得搜索方法在比较局限的时间内,把所有重要的那些东西搜索出来。

再讲一下深度增强学习在人机对话上的应用,这个不想讲很多。最近我写了一篇文章,从高层上面、从机器学习角度来讲的。首先就说,现在的App 已经达到了一个局限,同时 Bot 成为了一个新模式。人机交界应用上,深度学习已经用到这个领域来了。

这个应用为什么需要用增强学习方法呢?因为我们交互过程中,并不是每一个对话、每一个阶段就要得到什么,这个不可能的。你要是同机器对话,可能经过几轮。如果你想用这个机器干一些事情,比如买机票、订餐馆,你最后得到的收益信息,是在完成任务之后得到的。所以,这个长期收益的特点非常符合增强学习的思想。

无监督学习

最后讲一下,无监督深度学习是一个非常大的新兴领域,我们正在研究。要是没有这个labels,你到底怎么做学习?

无监督学习的精华,在不同的研究部门有不同的想法。我们的想法是:一定要把整合人类现有的知识巧妙地用上。应该把深度学习的方法和其他方法整合到一起。

你们做有监督深度学习,都用到Back Propagation,我们现在很多人用的Back Propagation,在无监督的条件下做不了。你首先就不知道优化什么和怎么优化。

我们做了一个比较简单的无监督深度学习实验。这个目标函数很奇怪,旁边有一个很大的堡垒。这只是我们研究里的其中一个结果,可以看到无监督学习的困难在什么地方。


人工智能的未来

最后一段话。从我们的角度来看,将来的AI会往什么方向发展?第一个就说我们的AI将会是一个一般式的AI。今天早上谭院士讲的话跟我是完全符合的,最有用的、最后成功的AI,一定是通用的AI,否则这个AI不会被整个业界广泛的采用。第二点,怎样把一个领域的知识转化成另外一个领域的知识。而且这个AI要基于多种类的深度学习。第三点,怎样在深度神经网络上面做 symbolic processing,而且必须要能够自动获取并且产生新的知识,能使得新的知识能够与所有的知识融合在一起。

我希望整个业界能够把人工智能作为一种科学的研究来看待,而趋向就是能够广泛地开发使用通用的AI。现在语音识别AI跟图像识别AI还不一样,目前用在图像识别的深度学习与语音识别的深度学习有不同的结构。AlphaGo用的方法跟下围棋和下象棋的方法也不是一样的。将来应该有一个统一的构架,可以解决各种各样的问题。比如说AI用在医疗,AI用在自动看书理解,用AI代替小孩高考,将来用一个统一的AI就可以了。

我今天就讲到这里,谢谢大家。

在新智元后台输入“0905”下载PPT

【福利】由中国自动化学会和新智元联合主办的AI全球年度盛典『AI WORLD 2016世界人工智能大会』即将盛大开幕。大会官网:http://aiworld2016.com/

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
妹妹被局长开除后摆地摊,五年后,哥哥调来担任市委书记

妹妹被局长开除后摆地摊,五年后,哥哥调来担任市委书记

乔生桂
2024-04-20 19:44:55
88年女子升级当婆婆,五官出众像明星,大方回应:16岁当的妈妈

88年女子升级当婆婆,五官出众像明星,大方回应:16岁当的妈妈

梅子的小情绪
2024-04-23 12:49:54
女大学生“透明军训服”走红,隐私被暴露在外,身材一览无余!

女大学生“透明军训服”走红,隐私被暴露在外,身材一览无余!

乡野小珥
2024-04-25 12:40:35
突出保卫重点!陈一新赴南方大省,选择的地点有深意

突出保卫重点!陈一新赴南方大省,选择的地点有深意

政知新媒体
2024-04-25 20:21:28
很心酸!3月份销量不足10辆的SUV,共有14款,合资车占近一半!

很心酸!3月份销量不足10辆的SUV,共有14款,合资车占近一半!

户外小阿隋
2024-04-25 17:13:19
同仇敌忾!“必须打败俄罗斯”,整个欧洲都动起来了

同仇敌忾!“必须打败俄罗斯”,整个欧洲都动起来了

娱宙观
2024-04-24 23:14:08
20时,35岁张琳芃摊牌,官宣决定,国足批准,武磊遗憾

20时,35岁张琳芃摊牌,官宣决定,国足批准,武磊遗憾

东球弟
2024-04-25 15:58:12
探长:许钟豪搞了张昊+张明池+徐杰+胡明轩+任骏飞 正好一套阵容

探长:许钟豪搞了张昊+张明池+徐杰+胡明轩+任骏飞 正好一套阵容

直播吧
2024-04-25 21:57:28
因这事儿,北京交警:他俩合计被扣1491分!

因这事儿,北京交警:他俩合计被扣1491分!

鲁中晨报
2024-04-25 19:17:03
今日!NBA战3场,湖人VS掘金,能否3连败?詹姆斯+浓眉PK约基奇

今日!NBA战3场,湖人VS掘金,能否3连败?詹姆斯+浓眉PK约基奇

晚池
2024-04-26 01:01:05
马兴瑞以这一身份部署工作,提出反恐维稳新要求

马兴瑞以这一身份部署工作,提出反恐维稳新要求

政知新媒体
2024-04-25 20:56:40
新事丨省卫健委原副主任被查,曾力推“无红包医院”

新事丨省卫健委原副主任被查,曾力推“无红包医院”

健识局
2024-04-25 19:44:22
金锁被官兵欺负,只剩一件“肚兜”的时候,你还记得尔康说了啥么

金锁被官兵欺负,只剩一件“肚兜”的时候,你还记得尔康说了啥么

娱乐的小灶
2024-04-25 00:23:04
很好奇:为什么美国可以将俄罗斯踢出swift系统,却不敢动我们?

很好奇:为什么美国可以将俄罗斯踢出swift系统,却不敢动我们?

杂谈哥闲谈
2024-04-25 21:10:00
刚刚,苹果新机彻底定了,这价格是疯了吧

刚刚,苹果新机彻底定了,这价格是疯了吧

锋潮评测
2024-04-25 17:04:28
预告:国家移民管理局将于4月28日举行新闻发布会

预告:国家移民管理局将于4月28日举行新闻发布会

财联社
2024-04-25 10:18:14
上海这些业主操碎心:小区交房不到半年,开出50多家民宿!只因地理位置极佳?

上海这些业主操碎心:小区交房不到半年,开出50多家民宿!只因地理位置极佳?

新民晚报
2024-04-25 16:25:22
情侣退房后留下一地狼藉,房东边清理边羡慕:大哥真是猛男!

情侣退房后留下一地狼藉,房东边清理边羡慕:大哥真是猛男!

卧龙的心术
2024-04-25 19:22:40
抢在中国清空美债前,美国亮出2大狠招掀桌子,亚洲货币或崩盘?

抢在中国清空美债前,美国亮出2大狠招掀桌子,亚洲货币或崩盘?

朝晖前哨
2024-04-25 10:10:32
70岁二次创业!王健林和儿子联手另起炉灶

70岁二次创业!王健林和儿子联手另起炉灶

小马哥谈体育
2024-04-25 19:39:23
2024-04-26 01:30:44
新智元
新智元
AI产业主平台领航智能+时代
10957文章数 65456关注度
往期回顾 全部

头条要闻

河北一高校学生就读4年无学籍 省教育厅回应

头条要闻

河北一高校学生就读4年无学籍 省教育厅回应

体育要闻

当胜利变成意外,就不要再提未来……

娱乐要闻

心疼!伊能静曝儿子曾被狗仔追到洗手间

财经要闻

24年后再产纯净水 农夫山泉为何要打自己脸

科技要闻

北京车展,被穿红衣服的他们占领

汽车要闻

全新哈弗H9亮相 大号方盒子硬派SUV入列

态度原创

本地
教育
时尚
亲子
公开课

本地新闻

云游中国|苗族蜡染:九黎城的“潮”文化

教育要闻

TTS新传论文带读:为什么主播都喜欢开“惊喜盒子”?

复盘中年女人的穿搭,才知道不扮嫩更高级有气质,这么穿很美

亲子要闻

女孩发布了自己日常锻炼的视频,各种花式俯卧撑都轻松拿捏,小朋友你伤到大朋友们的自尊心了。

公开课

睡前进食会让你发胖吗?

无障碍浏览 进入关怀版