镇江公众科技网 - 镇江市科学技术协会
天气预报

神经网络之父:人工智能不再有冬天

时间:2019-01-07 13:38来源: 作者:丹阳市科学技术协 点击:
据国外媒体报道,日前《连线》在G7峰会首次人工智能会议上采访了谷歌高管、神经网络之父杰夫?辛顿(Geoff Hinton),谈及人工智能技术面临的道德挑战、信任度以及如何开发更有效人工智能等诸多问题。辛顿强调,人工智能已经走进我们的生活,不会再有冬天。 上世纪70年代初英国研究生杰夫?辛顿(Geoff Hinton)开始建立简单的数学模型,来描述人脑神经元如何通过视觉理解世界。几十年来,人们一直认为人工神经网络是一项不切实际的技术。但在2012年,辛顿和多伦多大学的两名研究生利用人工神经网络有效提升了计算机识别照片中物体的准确度。六个月内,谷歌收购了由这三位

 

 据国外媒体报道,日前《连线》在G7峰会首次人工智能会议上采访了谷歌高管、神经网络之父杰夫?辛顿(Geoff Hinton),谈及人工智能技术面临的道德挑战、信任度以及如何开发更有效人工智能等诸多问题。辛顿强调,人工智能已经走进我们的生活,不会再有冬天。

  上世纪70年代初英国研究生杰夫?辛顿(Geoff Hinton)开始建立简单的数学模型,来描述人脑神经元如何通过视觉理解世界。几十年来,人们一直认为人工神经网络是一项不切实际的技术。但在2012年,辛顿和多伦多大学的两名研究生利用人工神经网络有效提升了计算机识别照片中物体的准确度。六个月内,谷歌收购了由这三位研究人员创立的一家初创公司。鲜为人知的人工神经网络开始成为硅谷的热门话题。现在,所有的大型科技公司都把辛顿和其他初创公司煞费苦心开发的技术作为公司发展的未来技术,以及推动社会发展的核心技术。

  上周,在G7峰会首次人工智能会议上,《连线》杂志采访了辛顿。来自世界主要发达经济体的代表们在会上讨论了如何推广人工智能的有益之处,同时尽量减少失业和算法歧视等不利因素。以下是经过编辑的采访记录:

  《连线》:加拿大总理贾斯汀·特鲁多(Justin Trudeau)在七国集团会议上表示,应对人工智能带来的道德挑战还需要更多的工作。您怎么看?

  杰夫?辛顿:我一直担心致命的自动武器可能被滥用。我认为应该像日内瓦公约禁止使用化学武器一样禁止它们。即便不是每个人都在上面签名,其存在也会起到某种道德标杆的作用。你会注意到谁没有签名。

  《连线》:你在谷歌的4500多名同事联名致信,抗议谷歌与五角大楼续签一份涉及将机器学习应用于无人机图像的合同。谷歌曾表示这并非用于攻击性目的。你在信上签名了吗?

  杰夫?辛顿:作为谷歌的高管,我不认为我应该公开投诉,但是我私下抱怨了这一点。我没有在这封信上签名,但和谷歌联合创始人谢尔盖?布林(Sergey Brin)谈过。他说他也有点不高兴。所以他们没有续签。

  《连线》:谷歌的领导层决定完成但不再续签合同。他们还发布了一些使用人工智能的指导方针,其中包括承诺不将该技术用于武器。

  杰夫?辛顿:我认为谷歌决定是正确的。会有各种各样的东西需要云计算,很难知道在哪里画一条底线,从某种意义上说这是随意的。我很高兴谷歌画出了这条线。这些原则对我很有意义。

  《连线》:人工智能在日常生活中也会引发伦理问题。比如说相关软件被用于社会服务或卫生保健的决策。我们应该注意什么?

  杰夫?辛顿:我是技术应用方面的专家,而不是社会政策方面的专家。我确实拥有相关技术专长的一个地方是监管机构是否要求解释人工智能系统是如何工作的。我认为那将是一场彻头彻尾的灾难。

  对于人类来说,他们无法解释自己所做的大部分事情。比如说当你雇佣一个人的时候,这个决定是基于各种各样你可以量化的东西,然后是各种各样的直觉。人们不知道他们是怎么做到的。如果你让他们解释他们的决定,你是在强迫他们编造故事。

  神经网络也存在类似的问题。当你训练一个神经网络时,它会学习十亿的巨量数据,从而提取出知识。如果你输入一个图像,输出的是正确的决定,比如说,这是不是一个行人。但如果你问“它为什么这么想?”如果有任何简单的规则能决定一幅图像是否包含行人,这种难题在很久以前就已经解决了。

  《连线》:那么我们怎么知道什么时候该信任这些系统呢?

  杰夫?辛顿:你应该根据他们的表现来进行规范。你进行实验,看看这个东西是否有偏见,或者它杀死的人是否比正常人要更少。对于自动驾驶汽车而言,我认为人们现在多少接受了这一点。即使你不太清楚自动驾驶汽车是如何做到这一切的,但如果它的事故率比有人驾驶汽车少得多,那就是一件好事。我认为我们必须像对待人那样去做:你只需要看看他们表现如何,如果它们一再出现问题,你可以说它们不太好。

  《连线》:你曾说过,思考大脑如何工作会激发你对人工神经网络的研究。我们的大脑通过突触连接的神经元网络从感官中获取信息。而人工神经网络则通过数学神经元网络提供数据,神经元之间由所谓的权值连接起来。在上周发表的一篇论文中,您和几位合著者认为,我们应该通过更多研究来揭示大脑中正在起作用的学习算法。为什么?

  杰夫?辛顿:大脑解决问题的能力与我们大多数的神经网络非常不同。我们的大脑大约有100万亿个突触。一般来说,人工神经网络的权值至少要小10000倍。大脑用了很多很多的突触从几个片段中集中学到尽可能多的东西。当有很多情景和范例时,深度学习擅长利用神经元之间更少的连接来进行学习。我认为大脑并不关心把大量知识压缩到几个连接中,它关心的是利用大量连接快速提取知识。

  《连线》:我们怎样才能建立起更有效的机器学习系统呢?

  杰夫?辛顿:我认为我们需要转向一种不同的计算机。幸运的是,我这里有一个。

  (辛顿把手伸进皮夹,拿出一块闪亮的大硅片。这是英国初创公司Graphcore的一个原型,其致力于开发为机器学习算法提供动力的新型处理器。)

  几乎所有运行神经网络的计算机系统,甚至是谷歌的特殊硬件,都使用RAM存储器。处理器从RAM存储器读取数据然后加以利用,但从RAM中提取神经网络的权重需要耗费大量的能量。所以现有的算法都确保一旦获取了权重值,就会反复使用很多次。由于成本过大,你不能为每一个训练样例做出改变。

  但在Graphcore芯片上,权重存储在处理器的缓存中,而不是RAM中,因此它们永远不需要移动。因此有些东西会变得更容易探索。然后也许我们会得到一个系统,比如说有一万亿的权重,但是每个样例只涉及到十亿个。这更像是大脑的规模。

  《连线》:最近市场对人工智能和机器学习的兴趣和投资激增,意味着用于研究的资金比以往任何时候都要多。该领域的快速发展是否也带来了新的挑战?

  杰夫?辛顿:人工智能社区面临的一大挑战是,如果你想要发表一篇关于机器学习的论文,其中必须有一个表,首先列出所有不同的数据集以及所有不同的方法,然后突出你的方法看起来是最好的。如果不是这样,论文就很难发表。我不认为这会鼓励人们去思考全新的想法。

  如果你提交的论文有一个全新的观点,它就不可能被接受,因为初级审稿人不见得能够理解。或者你会遇到一位资深审稿人,他需要回顾太多的论文才能看得懂,但第一次会认为这肯定是胡说八道。任何让大脑受伤的东西都不会被接受。我认为这很糟糕。

  尤其是在基础科学领域,我们应该追求的是全新的理念。因为我们知道,从长远来看一个全新的想法将比一个微小的改进能够产生更大的影响。我认为现在需要进行改变。这个领域的资深人士不多,大都是年轻人。

  《连线》:会阻碍这一领域的进展吗?

  杰夫?辛顿:需要再等上几年,这种不平衡就会得到纠正。这是暂时的。公司都在忙于教育人们,大学也在教育人们,大学最终会在这个领域聘用更多的教授,这将是正确的。

  《连线》:一些学者警告说,当前的炒作可能会就像上世纪80年代那样进入“人工智能冬天”,当时就是由于进展没有达到预期,兴趣和资金都枯竭了。

  杰夫?辛顿:不,不会有人工智能的冬天,因为它会推动你手机的技术进步。在过去的人工智能冬季,人工智能并不是你日常生活的一部分。现在它是。

(编辑:fly365) 本文由网友投稿,本站声明:本文立场与本网站无关,如果有误,请联系本站修正或删除!联系方式:
顶一下
(0)
0%
踩一下
(1)
100%
------分隔线----------------------------