尤瓦尔vs李飞飞:一场关于“AI威胁论”的终极对话

2019-06-11    来源:raincent

容器云强势上线!快速搭建集群,上万Linux镜像随意使用

 

尤瓦尔·赫拉利和李飞飞在斯坦福大学展开了一场别开生面的对话,他们所提出的问题已经远远超出了我们可以解答的范围。《连线》杂志主编尼古拉斯?汤普森在座无虚席的纪念礼堂主持了这场90分钟的谈话。

赫拉利(Harari)是耶路撒冷希伯来大学的历史教授,曾两次获得波隆斯基创意奖,他是国际畅销书《智人:人类简史》和《上帝的人:未来简史》的作者。

李飞飞是著名的人工智能研究者,工程师和计算机科学教授。她是当今人工智能领域最多产的学者之一,在深度学习和计算机视觉方面的成果被世界各地的公司和研究团队借鉴和使用。其最著名的角色研究成果是创建了ImageNet,这是一个在计算机视觉应用程序中被广泛使用的1400万图像手工注释数据集。

他们谈到了一些关于人工智能和技术的重要话题,包括我们是否仍然可以相信人类的能动性;人工智能时代的民主是怎样的形式;以及人工智能是否最终会威胁人类或是帮助人类。

李飞飞和赫拉利并没有把我们引向那些晦涩难懂的话题上,而是要求我们认真思考更多重要的问题:这些问题不但反映了人工智能技术对个人自由和选择的影响,也反映了其对当前社会中的法律,经济和政治制度的影响。

这四个相关问题试图帮助我们去梳理AI对个人的影响:

♦ 重新思考自由意志 ——尤瓦尔·赫拉利(Yuval Noah Harari)

♦ 爱情和人工智能的极限——李飞飞

♦ 将自我意识外包给人工智能? ——尤瓦尔·赫拉利(Yuval Noah Harari)

♦ 处于人工智能核心地位的人类,我们能否以“人本位”的精神,重新定义在人工智能技术支持下所搭建的教育、研究和对话体系? ——李飞飞

像许多看到它的人一样,我带着一种紧迫感重复着这段对话。这些在学界极具争议的话题也是AI从业者,政策制定者以及公众都应该思考的。

而我们需要迅速采取行动。“工程师们不会等待。即使工程师愿意等待,他们背后的投资者也不会等待。因此,这意味着我们并没有太多的时间,”赫拉利警告说。

1、重新思考自由意志

 

 

如果你不能信任客户,如果你不信任自己的感受,那么你信任谁? ——尤瓦尔·赫拉利(Yuval Noah Harari)

讨论进行到自由意志和能动性这一深奥而又复杂的话题上,完全跳过了浅显的内容。

对自由意志有效性的质疑乍一看似乎是一种无关紧要的理论探索——完全超出了工程学科的范围。但事实上,许多颇为激烈的讨论最后都回到了哲学家们争论了数千年的话题之上。

只是这一次,我们拥有了一个全新的视角——正如赫拉利所指出的,我们本身拥有的许多根深蒂固的观念正在受到挑战,“不是哲学思想,而是实用技术。”

赫拉利在这十年中的大部分时间里都在质疑自由意志和个体能动性的核心概念。

他并不是孤身一人。由于测量神经活动的技术进步,许多神经心理学专家都对自由意志发起了新的抨击。

这导致许多顶级神经科学家怀疑我们的决策自由。

“我们只是在我们既定思维中处理信息,且它会机械地引导我们的行为。因此,我们认为我们有意识做出的那些的决定,实际上只是一种幻觉,可以归结为我们的大脑想要我们要做的事情。“

——汉娜·克里克洛(Hannah Crichlow),普林斯顿大学著名神经学家,《命运科学》(The Science of Fate)一书的作者 。

但是,无论科学怎样的进步和成熟,我们的自由意志终究不能摆脱被操控的命运。赫拉利称之为“入侵人类”——这对我们的社会构成了巨大风险。

某些组织可能会努力“创造一种算法,它能比我更了解我自己,从而能够操纵我、提升我甚至取代我。”这将是我们的挑战——不仅要决定这些指令发展或替换的应该是什么,更重要的是由谁来决定。

我们可能会想,我们应当如何决定人类进化的方向。

“谁来定义这些优化和性能提升的好与坏呢?”那么,如果“什么是好”这个问题我们都没有答案,那又要如何决定该强化哪个方面呢?这是一个非常深刻的伦理问题和哲学问题,哲学家们已经辩论了数千年。“话说回来,我们需要加强哪些优秀品质呢?”赫拉利问道。

我们中的大多数人都会很自然地“求助于传统的人文主义思想”,优先考虑个人的选择和自由。然而,赫拉利警告称:“当一种可以大规模攻击人类的技术出现时,这一切都不管用了。”

如果人类的能动性和自由意志这一概念本身正处于争论之中,那么就很难去定义AI技术可以被用在哪里。这也同时影响到了我们生活的各个方面——我们选择做什么,我们可能买什么,我们可能去哪里,我们会以何种方式进行投票。而目前还不能决定究竟应该由谁来决定技术的使用范围。

由于生物技术(B)、计算能力(C)和数据分析(D)的共同发展,这种技术界限不断模糊的发展状况让我们面临一个重大问题,赫拉利认为这些技术甚至已经可以攻击人类了(HH)。

数学家把它概括为B * C * D = HH。

随着现代技术的发展,入侵人类可能成为一种非常现实的可能性。“这不仅仅是讨论开始的时刻,也是我们直面挑战的时刻”李飞飞补充说。

如果存在操纵,那么如何保证政府、商业和个人自由的体系依然合乎法律的要求?

2、爱与人工智能的极限

 

 

爱情也是可以被“黑”的吗? ——李飞飞

如果人类可以被“黑客”攻击,我们的行为和信仰可以被操纵,那么这种微妙控制的极限是什么?

我们可能会承认,我们可以通过一些微小的尝试来控制自己——当走进一家刚做过肉桂面包的面包店时,谁不会突然想吃肉桂面包呢?——但我们控制行为的方式肯定是有限度的。

在这一点上,似乎没有人能够确切知道这些操作的极限是什么。

然而,操纵的策略是众所周知的。犯罪分子和行骗者会利用这些工具,使他们既因勇敢无畏而受到崇敬,也因其故事在媒体上传播和被电影、文学及电视讲述而受到谴责。

总的来说,我们不相信自己是很容易被操纵的人。相反,我们认为那些被操纵的人是少数愚蠢的人。“最容易被操纵的人是那些相信自由意志的人,因为他们认为自己不会被操纵,”赫拉利总结道。

将爱武器化作为操纵的潜在手段不仅是可能的,而且有充分的证据可以证明。这一主题与历史悠久的爱情骗局是一致的;我们很多人都听说过“异地恋的人因为一些小紧急情况需要突然大量的钱”。在去年诈取美国人1.43亿美元的所有骗局中,爱情骗局是最“成功”的。

哥伦比亚大学心理学家、《自信游戏》(The Confidence Game)一书的作者玛丽亚?科尼科娃(Maria Konnikova)提醒我们,操纵“首先是通过情绪来完成的。”这让我们处于一种脆弱的状态,因为“至少在那一刻,感觉取代了思考。”

毕竟,控制系统——不管是不是人工智能——并不需要通过体验爱来控制人类与他人联系和亲近的能力。赫拉利解释说:“被操纵爱情和实际感受到的爱情是两码事。”

在不降低人类爱情重要性的前提下,生物学和神经化学成分已经得到了很好的研究。

考虑到我们每个人被提供的信息量越来越大,我们对个体的生理和心理习性的了解也越来越深入,再加上分析大量数据的成本越来越低,我们不能忽视这种更加昂贵的骗局出现的可能性。这些骗局利用了非常真实的情感,比如孤独、寂寞以及迫切想要与他人建立联系的渴望。

我们都容易受到这种操纵。科尼科娃提醒我们:“我们希望相信他们告诉我们的东西。”

在数据科学和技术快速发展的时代背景下,甚少有人能够对这种技术极限有着明确的判断和定义。但李飞飞很乐观:“我想确保在座的每一位都认识到,我们离那个目标非常、非常、非常远,因为这项技术还处于萌芽阶段。”然而,风险越来越大,现状还能持续多久?危机还有多久到来?

正如李飞飞所提到的的:“我认为你确实凸显了解决这场潜在危机的紧迫性和重要性。但我认为,面对这种情况,我们更需要的是采取行动。”

3、将自我意识外包给人工智能

 

 

生活在一个从算法中了解自身重要信息的世界意味着什么? ——尤瓦尔·赫拉利(Yuval Noah Harari)

几千年来,人类一直在将我们大脑的一些功能外包出去:比如写作使我们能够保持更加准确的记录,但并不是依赖于我们的记忆;导航从神话传说和星图发展到地图和GPS。

但有了人工智能,我们就有了一个革命性的机遇:如果自我意识是人类将要外包给技术的东西之一,那会怎样?

赫拉利讲述了一个关于他自己如何进行发现自我的故事,他说自己直到20多岁才知道自己是同性恋。这个故事引人深思,我们都在努力看到自己的盲点。“我直到21岁才意识到自己是同性恋。回想起那段时间,我不知道是15岁还是17岁,在那时候就应该表现的很明显了,但我却意识不到。”

赫拉利继续说道:“但是现在人工智能,即使是今天非常愚蠢的人工智能,也不会错过它。”这开辟了一个非常有趣的新可能性:或许算法会知道一些我们都不知道的,关于我们自身的事情?

在人工智能发展的这几十年间,这一直是一个诱人的想法。

“我把我所有的钱都押在一个赌注上——我们建造机器人的原因与我们做其他类型的科学和艺术的原因相同,因为我们知道一些我们以前不知道的重要事情,甚至我们可以确定我们已经将这些知识抛之脑后,将它浪费。简单地说,就是以一种新的方式看待自己。”

——?帕梅拉·麦考达克(Pamela McCorduck),著名的人工智能历史学家,《思考的机器》(Machines Who Think)一书的作者

在今天,利用我们所拥有的的数据,我们可能更早地诊断出从抑郁症到癌症等各种不同的疾病,其结果也会对我们的生活产生很有意义的影响。

利用已有数据去探索除了关于身心健康之外的其他领域的新事物确实是一件令人兴奋的事情。毕竟,无论文化、时代和地位如何变幻,人类所经历的某些事情是无法改变的。

随着分析方法变得越来越先进,可用的数据越来越多,我们可以了解到,我们与朋友,邻居甚至生活在全球各地的其他人竟然拥有着相似度极高的生活方式?

然而,我们前进的路上,仍然存在着两项挑战。

把我们的信息交给一种算法,即使是非常聪明的算法,也是相当危险的,尤其是当它使质疑和验证变得困难时。

“一旦你把某个东西打扮成一个算法或沾染一点人工智能,它就会带上这种权威的气息,让人很难反驳。

——汉娜·弗莱(Hannah Fry,),著名的伦敦大学学院数学家,《你好,世界》的作者。

如果一个算法预测我们患了癌症,我们可以进行检查来验证,但如果它告诉我们一些更模糊的东西,比如我们是否受欢迎(或不受欢迎),我们可能倾向于认为这是真的,因为我们没有办法验证它。而由于对潜在错误算法的错误信任,可能会导致我们做出截然不同的决定,弗莱指出,我们可能会相信算法的说法,它甚至凌驾于我们的个人判断之上。

她讲述了一车游客的故事:“他们试图跟着导航的指令,开车越过溪流以达到他们的目的地,但事实却是他们都落了水,等待营救。”

如果我们的自我认知被扭曲了,谁会来拯救我们呢?

此外,使用数据将他人的经验和自己的处境联系起来的做法可能并不可行,因为算法并不与你分享一些他人已知的相关信息。

“如果算法不与你共享信息,而是与广告商或者政府共享信息,会发生什么?”赫拉利问道。

即便是现在,我们在社交媒体上的信息也被用来为我们提供“相关”广告,而我们才刚刚了解是谁在购买我们的信息。

赫拉利说:“这是一个很好的警示案例,因为它已经发生了。”

人工智能被用来预测我们是否会辞职或与另一半分手。这两个都是非常私人的决定,我们中的许多人甚至都不愿意让朋友知道,更不用说非个人组织了。

李飞飞质疑算法的这种方式是不是会比我们自己内省还要好。“我也并不能十分确定!”她说,“但这给了我们希望,我们或许能够在还有时间的时候,更慎重的考虑一下如何应对这其中一些挑战。”

“人类从发现火开始,创造的任何技术都是一把双刃剑。因此,它可以改善生活、工作和社会,但也会带来危险,人工智能也同样有着危险”她提醒我们。

4、处于人工智能核心地位的人类

 

 

我们能否以“人本位”的精神,重新定义在人工智能技术支持下所搭建的教育、研究和对话体系? ——李飞飞

在如此多相关学科参与下的讨论中,李为我们提供了一个开放式的巧妙想法,意图开始引导我们解决所面临的一些问题:以“人本位”的方式对人工智能进行重构。

李飞飞已经开始在斯坦福大学进行改革,其目标很明确——为所有规模和来源的组织提供一个通用的功能模板。

她建立了斯坦福大学以“人本位”思想指导的的人工智能(HAI)研究所,来自不同领域的个人聚集在一起,开展新的合作对话。

该研究所有三个原则:

1. 要慎重考虑我们希望AI成为什么样的“人”;

2. 鼓励多学科合作研究;

3. 专注于人性的增强与提升。

“我们不一定非要在今天找到一个解决方案,但我们会与人文学者、哲学家、历史学家、政治科学家、经济学家、伦理学家、法律学者、神经学家、心理学家,以及更多的其他领域的研究者们一起讨论和探寻人工智能发展的下一步应该怎么走。”李飞飞说道

这一建议源于研究人员和从业人员在获得和保持公众信任、提供积极的用户体验以及如何用相对思虑周全的措施消除人工智能所带来的恐慌等方面所面临的挑战。

在人工智能的领域中制定一个明确的目标,是将我们都团结起来所迈出的重要一步,而且不同学科之间的交叉也会变得越来越具有吸引力。

“这正是为什么我们认为人工智能的新篇章需要通过人文主义者,社会科学家,商业领袖,民间社会和政府的共同努力来一起书写。”李强调。

但我们已经走到了十字路口。

事实上,我们今天面临的许多伦理问题都源于工程师们做出的一些决定,“快速行动,打破常规”的风气最终导致了真正的毁灭。

在科技行业工作可能会让创造者看不到他们所创造的技术带来的后果和影响。有无数意想不到的结果:比如大型在线零售商排挤小企业,从而改变我们城市的产业架构等。

我们如何平衡我们对创新的渴望和随之而来的风险呢?如果公司在未慎重考虑AI产品所带来的一些后果的情况下而获得了成功,我们是否应采取措施来抑制他的发展?

李飞飞对“将道德规范纳入软件学领域”持乐观态度。

“以人为本的人工智能需要由下一代技术专家来开发,他们上过(斯坦福大学政治学教授)罗布?赖希(Rob Reich)的《计算机、伦理与公共政策》(Computers, Ethics and Public Policy)等课程,会思考其中的伦理含义,也会顾及人类福祉。”

无论这个目标有多简单,人工智能领域中的很多人都会质疑它是否也是最具挑战性的那个目标。

“我们不可能单独作为技术专家来做这件事。”李飞飞警告说。

我们如何说服那些在人工智能领域工作的技术人员,尤其是那些可能不想关心他们工作的社会影响等模糊问题的人:他们应该关心这些事情!而且,这是否应当仅仅是一种期望?我们是否需要在整个行业中为每个角色提供道德维度?李飞飞并不太确定。

“我们中的一些审慎者甚至也不知所措。所以伦理学家和哲学家应该参与进来,和我们一起解决这些问题。”

尽管在这个领域工作的前瞻性人士中,很少有人会忽视这个问题的重要性,但它所要求的标准不应被最小化。在技术领域中,对于任何非技术或与技术相关的话题一直存在着很大的蔑视,人工智能领域会尊重这些新视角的重要性吗?还是会对任何不理解反向传播的人不屑一顾?

当被问及赫拉利的作品是否会出现在她的教学大纲上时,李飞飞打趣道:“对不起,不在我的教学大纲上,我教的是深度学习,他的书里并没有方程式。”

结语

这次谈话恰逢其时的提出了一些重要的新问题:关于人工智能在未来几十年对我们个人的影响。在不能精确把握人工智能受控范围的前提下,我们仍旧需要降低被其反向威胁的可能性,赫拉利敦促我们专注于自我意识:

“这是所有哲学书籍中最古老的忠告:了解你自己。我们从苏格拉底、孔子、佛陀那里听到:认识你自己。但有一个不同之处,那就是现在有了竞争,你要和这些大公司和政府竞争。如果他们比你更了解你自己,游戏就结束了。”

但正如李飞飞所建议的,合作是必要的。这项工作已开始在世界各地的许多组织中逐渐形成。赫拉利和李飞飞之间的对话也标志着人工智能领域中,一种新型合作关系的诞生。

“我们开启了人文主义者和技术专家之间的对话,我希望看到更多这样的对话。”她说。

选自:Towards Data Science

译者:大头

标签: [db:TAGG]

版权申明:本站文章部分自网络,如有侵权,请联系:west999com@outlook.com
特别注意:本站所有转载文章言论不代表本站观点!
本站所提供的图片等素材,版权归原作者所有,如需使用,请与原作者联系。

上一篇:终版API已定型,TensorFlow 2.0 Beta蜕变归来

下一篇:TensorFlow 等“开源陷阱",会掐住中国 AI 企业的命门吗?