神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。

编者按: 在过去十年中,人工智能正迅速成为人类社会、经济活动以及科学发现不可或缺的工具。尽管这些发展令人印象深刻,尽管这些技术已经改变了我们的生活,但人们普遍认为,人工智能可以赋予个人和社会力量,创造难以想象的机会来改善人类的整体体验和生活质量,也可以创造工具来摧毁社会,奴役个人,将权力和财富集中在少数人手中,这取决于这场技术革命的进程。LinkedIn创始人里德·霍夫曼与知名美籍华裔院士李飞飞进行了一场对谈,关于构建人工智能也需要考虑的伦理因素,以及如何才能以人类为中心建立人工智能。原文标题Human-Centered AI。

相关文章:

霍夫曼对话李飞飞:如何建立以人为本的人工智能(二)

霍夫曼对话李飞飞:如何建立以人为本的人工智能(三)

从错误中学习是人类最重要的技能之一。理想情况下,这种知识会随着时间的推移而不断发展,以至于我们可以防止或减轻未来犯的错误。

但计算机的发展速度远远超过了人脑。近年来,人工智能系统以极快的速度发展,为关键的数据洞察力服务。但是,要通过编程来实现人类从错误中学到的情感、社会背景和整体道德考虑的细微差别,则要难得多。很多时候,人工智能中产生的意外负面影响,例如在招聘、住房或法律援助的人工智能工具中的种族、性别或社会经济偏见,一直到出现之后才能知道其原因。

如果人工智能要为人类的集体需求服务,那么应该如何构建和设计机器智能,使其能够理解人类的语言、情感、意图和行为,并进行细微和多维的互动?

斯坦福大学计算机科学教授李飞飞博士说,这甚至在技术开发之前就开始了。她是斯坦福以人为本人工智能研究所(HAI)的联合创始人和联合主任。 该组织致力于推动人工智能的研究、教育、政策和实践,以改善人类状况。6月,HAI推出了伦理与社会审查委员会。该计划在去年进行了试点,要求人工智能研究人员在获得HAI的资助之前,考虑其项目的伦理问题。

“从根本上说,我们如何创造这种技术,如何使用这种技术,如何继续创新,但也要设置正确的护栏,取决于我们为人类做的事情。”李博士说,她还担任过斯坦福大学人工智能实验室主任,此前在2017至2018年斯坦福大学休假期间,她在谷歌担任副总裁和谷歌云的AI/ML的首席科学家。

李博士最近在与Greylock的里德·霍夫曼一起讨论了研究人员、技术专家和政策制定者在开发和部署人工智能时关于伦理的考虑。

在对话中,李博士和霍夫曼探讨了当今广泛的人工智能景观,包括人工智能的实际应用;学术界和行业领导者如何与联邦政府合作推进人工智能研究;以及李博士作为非营利组织AI4ALL的联合创始人和董事会主席的工作。

里德·霍夫曼:

感谢大家加入我们今天的对话。我很高兴介绍我的朋友李飞飞博士。她是斯坦福大学计算机科学的红杉教授,也是斯坦福以人为本人工智能研究所(HAI)的联合主任。

在2019年创立HAI之前,她曾担任斯坦福大学人工智能实验室的主任。在2017年至2018年斯坦福大学休假期间,她是谷歌的副总裁和谷歌云的AI/ML的首席科学家。

她还是名为AI4ALL的全国性非营利组织的联合创始人和董事会主席,该组织专注于培训贫困社区的不同K-12学生,帮助他们成为明天的AI领袖。我们都知道这一点超级重要,谢谢你。

所以让我们开始吧。飞飞,你创办斯坦福以人为本人工智能研究所已经两年多了,或者我们称之为HAI。研究所的目标是什么,到目前为止你们取得了什么成就?

李飞飞:

首先,感谢你的邀请,很高兴能与你进行对话。

HAI已经成立两年了,其中一半时间是在全球新冠疫情期间,但我们的诞生是出于一个非常重要的使命。我们希望推进人工智能的研究、教育、推广和实践,包括政策,以改善人类的状况,因为我们相信AI是如此重要的技术。它是革命性的横向技术之一,将从根本上改变企业的行为方式和人们的生活方式,所以我们希望专注于这项技术的良性使用和良性目的。

那么发生了什么?让我尽量简短地说,因为我们的工作重点是在研究、教育和政策方面。

在研究方面,我们有超过250名教师和数百名学生研究人员参与各种跨学科的前沿人工智能相关研究。感谢我们慷慨的朋友,我们有多个项目鼓励各个阶段的想法,其中包括人工智能用于发现药物,人工智能用于贫困评估,人工智能用于未来的工作,基本强化,学习算法等等。

在教育方面,HAI既关注教育我们的学生,也关注社区和生态系统。在斯坦福大学内,我们鼓励并继续支持多种课程。

其中一些课程确实是新的。例如,技术和伦理学已迅速成为最受欢迎的本科和研究生课程之一。在校园里,我们有关于人工智能促进人类福祉和人工智能促进气候的课程,人工智能促进医疗保健,专注于数据和公平,以及各种教育项目。

面向外部,我们认识到斯坦福大学和我们的人工智能专业知识的责任。我们特别认识到缺乏获得人工智能的客观信息的机会。因此,我们专注于与政策制定者,国会工作人员等合作,培训我们国家的政策制定者。我们也有面向企业高管的课程,我们也有面向记者和新闻工作者的课程。我们将继续扩大这种外部教育计划。

最后,我们相信在这个人工智能和技术的时代,我们可以提供一个平台,与国家、国际以及州一级的政策制定者合作,这一点非常重要。正如你前面提到的,我个人很荣幸地加入了由国会特许的国家人工智能研究资源的工作组,我们正在与多个联邦机构和政策制定者就人工智能的各个方面进行合作。以上就是对HAI的简短总结。

里德·霍夫曼:

大家应该已经从你的描述中知道HAI是什么,我们的重点是对人类有益,然后,我们如何建立许多重要的桥梁?与政策界的桥梁,与研究和学术界的桥梁。

其中一个重要的桥梁,就是研究所在工业方面的作用是什么?工业专家、技术专家或工业界应该如何看待HAI,如何与之互动?

李飞飞:

是的,好问题。首先,让我们认识到这一点:

首先,让我们认识到(在人工智能时代),工业是人工智能创新应用以及职业人工智能研究最有活力和最肥沃的土壤之一。

因此,它是整个生态系统的一个重要组成部分。坦率地说,我认为这是美国过去几十年,甚至一个世纪以来的独特优势。

在HAI,和整个斯坦福社区一样,我们强烈而深刻地相信我们的学术自由和独立。

话虽如此,我们也相信有很多自由交流思想以及自由讨论的论坛。

因此,从这个角度来看,HAI正在积极地与行业伙伴接触。例如,从更正式的角度开始,我们有行业合作伙伴,作为企业合作伙伴和附属项目,我们可以参与到研究交流。当然,这在我们的学术自由和独立的政策受到保护的前提下进行。但不仅如此,我们认为斯坦福大学是一个难得的平台,行业伙伴、同事、公民社会、政策制定者、各学科的研究人员可以将其作为一个中立的平台,讨论、辩论和探索坦率的想法、一些最棘手的人工智能问题。

给你举个例子,你知道我们对这个很感兴趣,GAN:生成对抗性网络。这是一个非常令人兴奋的神经网络技术,它可以生成图像、演讲稿、文本。当然,它可以用于生成训练数据的创造性用途。

这些都是很好的用途,但同样的技术也可以用于伪造虚假信息。而我们如何利用这项技术,更好地使用这项技术,但同事要设置防护栏?这些都是艰难的问题,行业创新者和企业家正在尝试解决,但政策制定者、民间社会、利益相关者都在思考护栏的问题。

斯坦福大学为他们提供了一个平台,让他们聚在一起讨论这个问题。另一个例子是对于识别技术。这是一个与许多其他人工智能技术相比达到一定程度的成熟的技术,然而它也会造成很多伤害,从偏见到监视。

而我们如何真正处理这些具有挑战性的问题?我们继续为行业领导者和合作伙伴以及其他利益相关者提供论坛和平台,让他们一起讨论这个问题。当然,我们看到了生态系统的价值,业界是巨大的参与者,我们喜欢继续参与。

里德·霍夫曼:

正如你所描述的,这对产业界超级重要,因为它提供了一个独立的,以真理、诚信和客观为动机的,在学术方面建立桥梁,但也给业界提供良好的反馈和良好的想法。

太多时候,特别是科技行业认为它可以做得很好,不需要外界的帮助。但并非如此,这个问题变得太重要了。而这种 “太重要”的部分原因是,人工智能显然将重新定义许多行业的景观,因此对社会产生真正严重的影响。

我认为这是你在《纽约时报》的一篇文章中发出的号召,你写了一篇关于将人类置于人工智能中心的短文。请告诉我们你如何定义这个词,以及为什么以人为本如此重要。

李飞飞:

谢谢你,里德。所以我一直相信,自从人类文明的诞生开始,我们物种的DNA中就有一些东西,使我们永远不会停止创新。我们创新各种工具来改善我们的生活,提高我们的生产力,坦率地说也是为了互动和改变我们的环境。

但是这些工具从根本上说是人类创造物的一部分,是人类结构的一部分。而现在我们不叫它们工具,我们倾向于叫它们机器,因为它们更复杂。所以在哲学上,我确实相信没有独立的机器价值。机器的价值反映了我们人类的价值。

AI是令人兴奋的。这项技术是由人制造的,也将用于为人服务。从根本上说,我们如何创造这项技术,如何使用这项技术,如何继续创新,但也要设置正确的护栏,取决于人类要为人类自己做这件事。

所以这一切的核心,都是以人为本的。这就是我如何从根本上看待这个问题。

当然,里德,我希望AI继续提高我们的人性和能力,并以仁慈和积极的方式影响我们的人类社区、人类生活、人类社会。

译者:蒂克伟

相关文章:

霍夫曼对话李飞飞:如何建立以人为本的人工智能(二)

霍夫曼对话李飞飞:如何建立以人为本的人工智能(三)

文章来源于互联网:霍夫曼对话李飞飞:如何建立以人为本的人工智能(一)

全国律协 互联网 腾讯
互联网电视 对比

Leave a Comment

Your email address will not be published. Required fields are marked *