芥末堆芥末堆

专访 | 卡内基梅隆计算机科学学院院长谈AI

作者:Peter High 发布时间:

专访 | 卡内基梅隆计算机科学学院院长谈AI

作者:Peter High 发布时间:

摘要:他的这些观点可能影射出哪些公司将赢得或失去该领域的一席之地。

安德鲁•摩尔(Andrew Moore)在卡内基梅隆大学的职业生涯,印证了大学是如何培养明星人才的。

2000年,摩尔成为卡内基梅隆大学的终身教授。2006年,他加入了谷歌,负责组建一个新的工程部门。作为该工程部的副总裁,摩尔要负责谷歌零售业务下的“谷歌购物”项目。2014年,摩尔回到卡内基梅隆大学,担任计算机科学学院院长。自从他担任这个岗位以来,他已成为计算机科学和人工智能领域最具影响力的代表人物之一。

摩尔曾谈过计算机科学学院的优秀人才在人工智能、机器学习、机器人学以及其他高需求领域做兼职的问题。当时,他已意识到,那些教授和学生将会把激情和兴趣投入到公司利润丰厚的职位上。这些技术公司允许他们来去自由,并且为了获取更多学院派人才,就职率都很高。

在这次收集中, 摩尔继续探讨了人工智能领域的发展,他的这些观点可能影射出哪些公司将赢得或失去该领域的一席之地。同时,摩尔也发表了一些技术见解。

微信图片_20171106130845.jpg

安德鲁•摩尔

Q: 安德鲁,你是卡内基梅隆大学计算机科学学院的院长,可以描述一下自己的职责吗?

Andrew Moore:卡内基梅隆大学的计算机科学学院有几百名优秀的教师,他们的研究领域涉及计算机技术的各个方面。我们也有几千名优秀的学生。作为院长,我的职责是确保整个组织能够向前发展。我认为我的角色是帮助这些天才们去做他们想做的事情。

Q:你曾说过CMU(卡内基梅隆大学)就像霍格沃茨学院一样,走在计算机科学学院、工程学院和大学的其他地方,就会看到很多聪明的人在做各种各样的事情,这些事情将改变科技的格局,最终改变我们的生活。那么,卡耐基梅隆大学的这种领袖地位是怎么来的呢?

Andrew Moore:这一切都归结于两个有远见的人,艾伦·纽威尔(Allen Newell)和赫伯特·西蒙(Herbert Simon),他们与麦卡锡和明斯基被并称为人工智能之父。1956年,他们四人参加了达特茅斯人工智能会议,在那里探讨了未来使用计算机的可能性。当时,艾伦·纽威尔和赫伯特·西蒙两位伟人还在卡内基理工学院(即后来的卡内基梅隆大学)的商学院中。

在20世纪60年代,还没有一所计算机科学类的学校。艾伦·纽威尔和赫伯特·西蒙用他们的激情和高超的智慧预测了未来,并召集了一些志同道合的人。他们看到的不是计算机在未来的5到10年里能做什么,而是思考未来人类在机器的世界里生活意味着什么。在那个时代,他们激励了一大波思想家,推动了计算机科学的进步。

今天,我们的计算机科学学院已经有了250名教员,他们的研究涵盖方方面面,从初级的光子运动与计算,到高级的与机器人交谈并建立复杂的情感关系……这些都多亏了艾伦·纽威尔和赫伯特·西蒙最初的兴趣。

微信图片_20171106130914.jpg

艾伦·纽威尔和赫伯特·西蒙

Q:人工智能一直是一个非常重要的话题。它还衍生出很多相关的话题,如机器学习和机器人技术,你和卡内基梅隆的计算机科学学院都参与其中,能解释一下它们之间的联系吗?

Andrew Moore:人工智能是创造计算机行为的科学和工程,一直以来,我们都认为它离不开人类的智能。20世纪90年代,计算机开始打败人类。1997年,他们打败了国际象棋世界冠军。在此之前,人们一直认为国际象棋是人类特有的智慧。在接下来的几年里,人们发现很多只有人类才能做到的事,可以通过编写计算机算法来完成。

当我们管理一个软件团队时,会根据要解决的问题把人员分配到三个部门:感知、决策和行动。如果你想建立一个人工智能系统,也应该这么分类。

  • 首先,感知部门要思考一件事:AI要如何理解周围的世界?

  • 其次,决策部门根据要解决的问题,考虑AI如何在众多可能的条件中搜索选择,找到一个最适合解决问题的方案。

  • 最后,行动部门要负责实现,让AI能够与世界接轨。可能通过与人交谈,也可能通过掌管工厂的控制系统。

我们把这些看成一个大循环。你感知当前的世界,决策并行动,然后观察发生了什么,再做一次循环,这就是顶级架构。接下来我说一下决策部门的一些细节,它有一个有趣的历史。

艾伦·纽威尔和赫伯·西蒙想到了让计算机做出决策的好方法。

假设机器可以这样想:“如果我做了这件事,我将预测接下来会发生什么,看看这样做是否有好处。”然后想:“如果我做了另一件事,就要预测接下来会发生什么,看看那样做是否有好处。”

决策系统一般会想象不同的事情发生,预测不同的结果,然后选择最好的。这很有效,但前提是工程师要在软件中把所有的预测规则写下来。这就是为什么计算机在象棋比赛中大获全胜的原因,因为规则是完全清楚的。你会知道,如果你把这个棋子移到那个方块上,它就能吃掉那个象,等等。

微信图片_20171106131000.jpg

国际象棋的成功让我们很兴奋,因为我们认为机器在其他方面也可以这样做,比如,进入工厂流水线,或弄清楚航天飞机发射的所有细节。然而,我们很快就陷入了麻烦,上世纪90年代末,继国际象棋成功之后,人工智能举步维艰。此时出现的问题是,很多事情我们无法写出所有的预测程序。例如,如果您想在AltaVista(当时的搜索引擎)中显示好的结果,并且实现:只要显示一个答案,就可以预测用户对这个答案的满意程度。没有人能清楚地写下所有的预测。

这时,一个AI领域的分支出现了,就是机器学习。随着机器学习的出现,AI迎来爆炸式发展。你不用让程序员编写所有的预测程序,系统可以使用以前存在的数据,进行自我编程,并基于历史数据,提出一种最佳预测方法。

简而言之,人工智能的历史是:感知、决策、行动。系统的决策部分很好,但后来我们遇到了麻烦,因为我们不知道该怎么编写程序,才能让机器预测接下来要发生的事情。到2000年左右,技术的快速发展帮助计算机编写了自己的程序,以预测接下来发生的事情。这就是我们的现状。

Q:AI发展的速度取决于计算机计算能力的提升和人类的创造力吗?当然,能够决定发展速度的因素有很多,你更看重哪些因素呢?

Andrew Moore:这个问题问得很及时。我们正处于想做一些事,并且能够用人工智能来完成的阶段。但这时候出现了一些问题。举个例子:每个国家和政府都有抵御网络战争的军队,为了保卫国家利益,随时迎战。网络战争开战的方法有很多,一些社会人士认为,要培养1万名网络战士,手动攻击或防御。但我们认为,可以找20个超级聪明的人编写程序,自动化1万名网络战士要做的事。人和计算机有机结合才能获取最大的成功,但人才是决定性因素。

微信图片_20171106131022.jpg

Q:在听你谈人工智能的历史和发展时,感觉AI的目标似乎永远无法实现。但随着其不断发展,AI取得的进展有目共睹。关于AI的未来,你怎么看?

Andrew Moore:这是个感性的话题。AI就像在探索新地图,以搞清楚哪些任务可以自动化完成。有趣的是,并不是所有的任务都可以自动化。我们可以让计算机做它擅长的事,如预测和运行多种选择,而我们人类做其他的事,如深入探索横向思维或类比推理等概念性的东西。

人类在解决一个新问题时,往往会找之前处理其他类似问题的经验来比照解决,但这种做法很难促进人类的进步。我不知道还要5年还是55年,人们才会放弃这套自认为先进的做法。我们懂得如何将人类智能中简单重复的部分自动化,却不懂是否要去获取更先进的认知。

Q:如你所描述的,短期内的哪些进展会影响我们的生活?

Andrew Moore:在未来五年内,有一件事将改变消费产品和消费者的体验,那就是情感识别和情感理解。直到近三、四年,计算机视觉和语音处理技术都是在识别人、识别物体,将口语转化为基本的书面语言。

事实上,我们可以走得更远。例如,现在手机的摄像头分辨率很高,可以看到面部的细节,并对整个面部的细节进行追踪。通过追踪你能发现面部肌肉的运动规律。借助心理学的知识,你能从肌肉运动中发现面部动作单元和微表情,以获取以前人类没有发现的信息。

这意味着当与一个人对话时,我们可以捉捕到他们的激动、开心、恐惧,甚至轻蔑。这个可能性不错。但如果我们真的研究出能评估人类情绪状态的机器时,或许人们会认为我们打开了潘多拉的魔盒。

Q: 已经有很多文章报道过会受到自动化影响的工作问题,如卡车司机和私人助理等。你也曾表示过,不仅这些工作有风险,一些经过大量培训的工作,如法律和医疗行业的,也会受到影响。你认为哪些技能不会很快被取代?此外,除了人工智能、机器人技术、机器学习等相关学科的培训课程,还有哪些课程比较重要?

Andrew Moore:有大量的工作岗位,即使我们可以使其自动化,也没有意义。最好的例子就是幼儿园老师。作为孩子展开学习的第一段经历,幼儿园教的是人与人之间的互动。这不是没有灵魂的训练。我认为,在直接与人打交道的工作中,我们没有任何理由来取代人类的角色。在接下来的20年里,我们将不会有新技术来远程模拟人们在一起工作时的那种相互关怀和互动。幼儿园教师、社会工作者、护士、社区警察,以及其他类似的工作,都会继续存在,而且非常重要。

最有趣的是,如果通过将许多工作自动化,我们的GDP增长率会大大提高,那么,社会可以大力资助养老服务,社工工作和教育。根据经济和政治的发展情况,我们可以利用因生产率提高而节省下来的资本,培养更多人去从事与人互动类的工作。现在,平均一个老师要照顾40个孩子,而以后,我们可以让一个老师照料5个孩子。

微信图片_20171106131139.jpg

Q: 之前,你谈过一些巨头科技公司,如谷歌、苹果、Facebook微软之间的AI竞争。除了学术上的深耕,你还曾在匹兹堡的谷歌分部工作过,同时也和其他公司建立过伙伴关系,对它们有足够了解。那么你认为谁将会胜出呢?

Andrew Moore: 这场比赛的胜利取决于谁先开发出最能帮助人们解决日常生活问题的个人助理。我对亚马逊的Echo和Alexa印象深刻,而谷歌、苹果和微软也相继将大量资源投入到自己的个人助理中。当人们意识到某个个人助理管用时,他们就会多听它的建议,就像现在听GPS导航的话一样。一旦这种情况发生,游戏规则将改变。

如果一家公司在其他三家公司之前做出了这样的个人助理,该公司将在一定程度上赢得胜利。因为接下来发生的事都是水到渠成的,属于其他行业的事儿了。那些提供旅游、医疗、餐馆和娱乐等服务的人都想和一个为全国人民提供建议的人工智能系统挂钩。这就是为什么AI个人助理如此受追捧的原因。

现在,没有多少明确的证据表明,某家公司比其他公司领先很多。我确实知道一些他们正在使用的技术的差异,相信很快就会有一个领先者出来。不过目前,他们都在比赛中。获胜取决于公司内部的某个团队在正确的时间内做出了正确的实验,并在精确度和召回率上取得突破。

Q: 每家公司都挖掘了大量人才,决定因素之一是他们具有多少才华。你所在的学校也不能幸免,有相当数量的来自CMU的优秀学者被挖走。从你进入谷歌工作的那段时间起,实际上你也是这方面的代表。对于大学来说,这是一个挑战,公司如此看好CMU的人才,必会来招聘更多的人才,而另一方面,公司也成为学生和教授施展才华的好地方。您如何看待学术界与公司企业之间联盟的利益与风险?

Andrew Moore:我们可以而且应该互相帮助。我们在计算机科学学院的职责之一就是成为这个大生态系统的一部分,培养可以变革未来世界的优秀人才。最极端的可能就是人工智能和计算机科学方面所有伟大的教育工作者都去为大型科技公司工作了,没有人去做教育下一代的工作。

我们正在努力为此做点什么。不过,与其强制性地让新教员签署一份忠诚承诺书,保证在未来40年里只做一名学者,不如屈服吧!卡内基梅隆大学提供了这样一个平台,老师可以调整自己的职业生涯,去一个新兴领域工作,但也可以再回来,之后还能随意切换,跳来跳去。这样做的一个代价是,如果我们不小心,很容易会人去楼空。我们也正在积极应对这种担忧。

去年,我们雇用了25名新教员进入学院。今年,又增加了22名。我们有一个很大的教职工群体,但他们并不一直在学校。作为卡内基梅隆大学的一份子,他们可以自由地去追求绝对疯狂和天才的研究想法,还可以离开,以确保让其想法在全球传播,而不是固定在期刊或学术刊物上。当他们从外面回来的时候,会对目前的商业世界有新的认识。

微信图片_20171106131210.jpg

Q:与社会的开放性和包容性相比,在教师发展的道路上设置障碍是很短视的行为,会导致他们离开,或者让很多人拒绝进入这个行业。同样,出于安全考虑,也有许多人主张对人工智能实施更严格的监管,从另一个角度看,这可能减缓AI发展的速度。这是短视的观点吗?在更广泛的层面上,人工智能的安全问题到底有多严重?

Andrew Moore:人工智能有两种不同的安全问题,重点是不要把它们混为一谈。第一种是安全关键系统的安全,这是特别重大的事情,卡内基梅隆和其他一些强大的计算机科学机构正在研究解决这个问题。安全关键系统的一个例子就是使用现代人工智能技术,操纵自动驾驶汽车,确保飞机安全着陆,或者引导微型医疗器械对人做手术。

任何安全关键系统如果有了人工智能的参与,就会表现得更好。从理论上讲,上述事件都可以帮助我们拯救生命。过去,我们渴望全球交通事故死亡人数下降两倍、三倍,甚至四倍,似乎有些异想天开。但是现在,如果汽车能够自动避免交通事故,解决人类反应不够快的问题,这是有可能的。

工程师们知道,当他们设计一个安全关键系统时,他们有责任做大量的测试,并给出正式的证明,如数据证明,以表明他们正在建造的东西在很多情况下是安全的。就像一个优秀的建筑公司在建造一座建筑之前所做的评估一样。建筑公司要拿出证据证明,无论发生什么级别的地震或其他自然灾害,这座建筑物都能安然无恙,工程师也有道德责任去做这样的事。

我们谈的这个系统还处于学习中,目前只有微弱的数学理论来帮助工程师证明安全性。加强理论研究是人工智能学术研究的重要发展方向之一。和架构师一样,我们要写出证明,无论环境发生怎样的变化,系统仍能工作。退一步说,一个系统可以挽救大部分的生命,但对于少部分人的死亡仍要负道德责任。系统必须确保没有任何意外可以伤害或杀死某个人。这是最主要的问题,也是我们招聘教师时特别强调的一个责任问题、职业素养问题,是我们正在发展研究和教育的重要方向。

第二种安全问题对我们这些活在软件世界里的人来说很有趣。随着行业的发展,我们在人工智能领域的早期成功大部分都应用在非安全关键行业。例如,当你让搜索引擎或社交网络变得更智能时,它可能会对一个人的生活产生影响,但你是杀不死这个人的,顶多让他难受一下而已。

拿Facebook来说,为了让工程师快速反应,他们有一个有趣的开发方法:快启动,慢修复。从娱乐或电子游戏的角度看,这是非常好的做法。这意味着你的工程师们在不断创新,大胆尝试各种新事物新方法,并且有很多乐趣。

然而,当你参与一个关键系统的安全工作时,没有人想要使用这种哲学思想。你必须小心谨慎。

Q:你来自英国,却选择成为美国公民,成为匹兹堡的一员。你曾说过:“我坚信,匹兹堡地区,更确切地说是卡内基梅隆大学,要成为改变世界的中心。”我们已经谈过卡内基梅隆大学,那匹兹堡呢?在上世纪70年代末和80年代初,它经历了一段黑暗,钢铁工厂大量倒闭,经济萧条,就业岗位减少。本来你可以住在世界上任何一个地方,但你却选择了匹兹堡。这个地区为什么如此吸引你,你为什么看好它?

Andrew Moore:首先,匹兹堡有积极而友好的文化。在文艺复兴时期,这座古老的城市欢迎外来客加入他们的城市文化。对于新匹兹堡人来说,我们的生活方式是这样的:孩子们可以到处闲逛,可以自由地穿过高密度住宅区去拜访朋友。这是一个人们可以随便串门的地方。

匹兹堡的生活方式与西海岸的不同,那里的活动和社交是计划出来的,你只能在约好的时间开车穿越城市,不然就会影响他人。匹兹堡是美国东海岸连接中西部的重要城市,它有许多学术、研究、医疗和制造类的人才。匹兹堡令人愉快的生活方式和紧密团结的文化也有助于我们招募人才。

其次,匹兹堡仍然是世界上最大的钢铁制造中心之一。这里有一种建筑文化。构建和创造都是值得尊重的行为。最近,我和一些大学生讨论他们选择CMU的原因时,他们说,当他们参观校园的时候,教授和学生都在谈论建筑类的东西,而不是学习或写论文。

最后,匹兹堡的市政府支持高科技产业。例如,15 - 20年前,匹兹堡的空气质量很差。我们想招募的很多人都不愿意来。现在经过整个城市的努力,空气状况已经有所改善了。这也给了我们极大的信心,让我们一起努力,把匹兹堡变成一个宜居的好地方。

原文链接:https://www.forbes.com/sites/peterhigh/2017/10/30/carnegie-mellon-dean-of-computer-science-on-the-future-of-ai/#206be9b72197

(本文转自智能观,作者Peter High)

1、本文是 芥末堆网转载文章,原文:智能观
2、芥末堆不接受通过公关费、车马费等任何形式发布失实文章,只呈现有价值的内容给读者;
3、如果你也从事教育,并希望被芥末堆报道,请您 填写信息告诉我们。
来源:智能观
芥末堆商务合作:王老师 18710003484
  • 专访 | 卡内基梅隆计算机科学学院院长谈AI分享二维码