实至名归!ACM宣布深度学习三巨头共同获得图灵奖
2019-03-29 来源:raincent
聚焦AI,读懂下一个大时代!
昨日晚间,ACM(国际计算机学会)宣布,有“深度学习三巨头”之称的Yoshua Bengio、Yann LeCun、Geoffrey Hinton共同获得了2018年的图灵奖,这是图灵奖1966年建立以来少有的一年颁奖给三位获奖者。ACM同时宣布,将于2019年6月15日在旧金山举行年度颁奖晚宴,届时正式给获奖者颁奖,奖金100万美元。
根据ACM官网上的信息显示,ACM决定将2018年ACM A.M.图灵奖授予约书亚·本吉奥(Yoshua Bengio)、杰弗里·辛顿(Geoffrey Hinton)和杨乐昆(Yann LeCun) 三位深度学习之父,以表彰他们给人工智能带来的重大突破,这些突破使深度神经网络成为计算的关键组成部分。本吉奥是蒙特利尔大学教授,也是魁北克人工智能研究所Mila的科学主任。辛顿是谷歌副总裁兼工程研究员、Vector研究所首席科学顾问、多伦多大学名誉教授。杨乐昆是纽约大学教授、Facebook副总裁兼人工智能首席科学家。
本吉奥、辛顿和杨乐昆三人既有各自独立的研究,又有相互间的合作,他们为人工智能领域发展了概念基础,通过实验发现了许多惊人的成果,并为证明深度神经网络的实际优势做出了贡献。近年来,深度学习方法在计算机视觉、语音识别、自然语言处理和机器人等应用领域取得了惊人的突破。
虽然人工神经网络作为一种帮助计算机识别模式和模拟人类智能的工具在20世纪80年代被引入,但直到21世纪初,只有杨乐昆、辛顿和本吉奥等一小群人仍然坚持使用这种方法。尽管他们的努力也曾遭到怀疑,但他们的想法最终点燃了人工智能社区对神经网络的兴趣,带来了一些最新的重大技术进步。他们的方法现在是该领域的主导范式(dominant paradigm)。
图灵奖(Turing Award),全称“A.M. 图灵奖(A.M Turing Award)”,由美国计算机协会(ACM)于1966年设立,专门奖励那些对计算机事业作出重要贡献的个人。它是以英国数学家阿兰·M·图灵(Alan M. Turing)的名字命名的,图灵阐明了计算的数学基础和极限。目前,图灵奖由谷歌公司提供财政支持,奖金为100万美元。
由于图灵奖对获奖条件要求极高,评奖程序又是极严,一般每年只奖励一名计算机科学家,只有极少数年度有两名合作者或在同一方向作出贡献的科学家共享此奖。因此它是计算机界最负盛名、最崇高的一个奖项,有“计算机界的诺贝尔奖”之称 。
“人工智能现在是所有科学领域中增长最快的领域之一,也是社会上谈论最多的话题之一,”ACM主席Cherri M.Pancake说,“人工智能的发展和人们对它的兴趣,在很大程度上要归功于本吉奥、辛顿和乐昆获得的深度学习最新进展。这些技术正被数十亿人使用。任何口袋里有智能手机的人都能实实在在体验到自然语言处理和计算机视觉方面的进步,而这在10年前是不可能的。除了我们每天使用的产品,深度学习的新进展也为科学家们提供了研究医学、天文学、材料科学的强大新工具。”
谷歌高级研究员、谷歌人工智能高级副总裁杰夫·迪恩(Jeff Dean)表示:“深度神经网络对现代计算机科学的一些重大进步做出了巨大贡献,帮助科学家在计算机视觉、语音识别和自然语言理解等领域长期存在的问题上取得了实质性进展。”这一进步的核心是30多年前由以上三位深度学习大师开发的基础技术。通过大幅提高计算机感知世界的能力,深度神经网络不仅改变了计算领域,而且正在改变科学和人类努力的每一个领域。”
机器学习、神经网络和深度学习
在传统计算中,计算机程序用明确的分步指令指导计算机。
而在人工智能研究的子领域——深度学习中,计算机并没有被明确地告知如何解决特定的任务,比如对象分类。相反,它使用一种学习算法来提取数据中的模式,这些模式可以将输入数据(如图像的像素)与期望的输出(如标签“猫”)关联起来。“研究人员面临的挑战是开发有效的学习算法,使之能够调整人工神经网络中连接的权重,从而捕捉数据中的相关模式。”
杰弗里·辛顿自上世纪80年代初以来一直倡导用机器学习方法研究人工智能。受人脑的启发,他和其他人提出的“人工神经网络”成为了机器学习研究的基石。
在计算机科学中,“神经网络”一词指的是计算机模拟的、由被称为“神经元”的计算元素层组成的系统。这些“神经元”仅与人脑中的神经元大致相似,它们通过加权连接相互影响。通过改变连接的权重,可以改变神经网络的计算。因为人们认识到使用多个层次构建深层网络的重要性,从而有了“深度学习”这个术语。
由于强大的图形处理单元(GPU)计算机的普及以及大量数据集的出现,本吉奥, 辛顿和杨乐昆在过去30年里奠定的概念基础和工程进展得到了显著的推进。近年来,这些因素和其他研究共同激发了计算机视觉、语音识别和机器翻译等技术的跨越式发展。
此前,杨乐昆曾在辛顿的指导下进行博士后工作,从20世纪90年代初开始,杨乐昆和本吉奥就在贝尔实验室共同工作,即便没有在一起工作,他们的研究也有着内在的联系和相互的影响。可以说,他们三人彼此之间的影响成就了他们的研究。
本吉奥,辛顿和杨乐昆一直坚持探索机器学习、神经科学和认知科学之间的交叉地带,他们最著名的合作是共同参与了加拿大高等研究院(CIFAR)发起的机器与大脑学习计划(the Learning in Machines and Brains program)。
今年的图灵奖得主在人工智能技术方面取得的重大突破包括但不限于:
杰弗里辛顿
反向传播算法:在1986年的一篇论文“Learning Internal Representations by Error Propagation”中,辛顿与David Rumelhart和Ronald Williams证明了反向传播算法可以帮助神经网络发现数据的内部表示,使得神经网络可以用来解决从前无法解决的问题,反向传播算法是目前大多数神经网络的标准算法。
玻尔兹曼机(Boltzmann Machines):1983年,辛顿与泰伦斯·谢诺沃斯基(Terrence Sejnowski)一起发明了玻尔兹曼机,这是第一个能够学习不属于输入或输出的神经元内部表征的神经网络。
卷积神经网络的改进:2012年,辛顿和他的学生Alex Krizhevsky、Ilya Sutskever一起,利用分段线性神经元(rectified linear neurons)和dropout正则化改进了卷积神经网络。在著名的ImageNet比赛中,辛顿和他的学生们使物体识别的错误率几乎减半,从而重塑了计算机视觉领域。
约书亚·本吉奥
序列概率模型(Probabilistic models of sequences):20世纪90年代,本吉奥将神经网络与概率模型(如隐马尔可夫模型)相结合。它被用在AT&T/NCR阅读手写支票的系统里,这被认为是20世纪90年代神经网络研究的巅峰,现代深度学习语音识别系统正在扩展这些概念。
高维词嵌入和注意力模型:2000年,本吉奥发表了具有里程碑意义的论文《神经概率语言模型(A Neural Probabilistic Language Model)》,引入高维词嵌入作为词的意义表示,本吉奥的研究对自然语言处理任务产生了巨大而持久的影响,其中包括语言翻译、问和视觉回答。他的团队还引入了一种注意力机制,这种注意力机制在机器翻译方向取得了突破,成为深度学习中顺序处理的关键组成部分。
生成对抗网络:自2010年以来,本吉奥关于生成深度学习的论文,特别是与Ian Goodfellow共同开发的生成对抗网络(GANs),在计算机视觉和计算机图形学领域引发了一场革命。一个的由此引发的惊人应用中,电脑可以自动生成原创图像,而这种能力被认为与人类智能类似。
杨乐昆
卷积神经网络:在20世纪80年代,杨乐昆开发了卷积神经网络,这是该领域的一个基本原理。能够提高深度学习的效率是它的众多优势之一。上世纪80年代末,杨乐昆还在多伦多大学和贝尔实验室工作时,他是第一个训练卷积神经网络系统处理手写数字图像的人。
如今,卷积神经网络已经成为计算机视觉、语音识别、语音合成、图像合成和自然语言处理领域的行业标准。它被广泛应用于各种应用中,包括自动驾驶、医学图像分析、声控助手和信息过滤。
改进反向传播算法:杨乐昆提出了早期版本的反向传播算法(backprop),并基于变分原理对其进行了清晰的推导,他的工作加速了反向传播算法,包括两种加速学习时间的简单方法。
拓宽神经网络: 杨乐昆还为神经网络开拓了广阔的空间,将其作为处理广泛任务的一种计算模型,并在早期的工作中引入了一些现在广为人知的基本概念。例如,在识别图像领域,他研究了如何在神经网络中学习分层特征表示。如今,这一概念经常被用于许多识别任务。
他和Léon Bottou一起提出了一个被应用于每一个现代深度学习软件中的理念,即学习系统可以被构建为复杂的模块网络,在这个网络中,反向传播通过自动分化来执行。他们还提出了能够控制结构化数据的深度学习体系结构。
据悉,ACM将于6月15日加州旧金山年度颁奖晚宴上进行2018年图灵奖的颁奖仪式。
标签: [db:TAGG]
版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点!
本站所提供的图片等素材,版权归原作者所有,如需使用,请与原作者联系。