编者注:人工智能(AI)技术在今年成为了一个热词,无论你是否了解它,每个人似乎都能发表两句自己的观点,但由此产生的人类与机器的关系、失业问题、机器人统治世界等各式担忧也都浮出了水面。然而,人类和机器之间到底应该是什么关系?人工智能的未来究竟该是什么样的?微软公司 CEO Satya Nadella 亲自撰文表达了自己的观点。
本文刊载于 Slate,原文标题为「The Partnership of the Future」
The Partnership of the Future
增强机器学习(Advanced machine learning)也被称为人工智能(Artificial Intelligence),它在未来的前景远不止于靠在一些像象棋或围棋这样的比赛中击败人类而登上新闻头条这么简单。最终,人类和机器能够共同工作——而不是相互对抗。计算机也许能够赢得游戏的胜利,但想象一下人类与机器一起工作的画面吧,双方携手并进也许就能够解决像疾病、知识的匮乏以及贫穷这样重大的社会问题。
然而,想要到达到这种程度,我们需要一个大胆而雄心勃勃的计划才行,这个计划要能够超越现有的事物。通过对现有技术渐进式的改良,我们能够实现它。现在到了与 AI 技术展开更广泛合作与协同的时间了。
在今年年初同 Saqib Shaikh——这位开发了能在一定程度上帮助视力障碍人士技术的微软工程师——待在一起的时候,我对这个领域有了一些灵感。利用一些包括视觉识别、增强机器学习等前沿技术,Saqib 和他的同事们开发了一些能在小型计算机上运行的应用,彼时,他总喜欢戴着一副墨镜工作。这项技术能够实时处理并解释数据。从本质上说,这项技术是用他的听觉而非视觉描绘了一幅他心中的世界的样子。他感受世界的方式更加多样,比如能将走廊里的噪音联系到一副滑板,又比如将开会时突然的沉默联系到同事们正在思考;他能用「听」的方式「阅读」菜单;但对他来说最重要的也许是,他能发现自己正在和亲人们一起在一个热闹的公园里野餐。
(左边的就是微软工程师 Saqib Shaikh,而他是一位盲人)
机器与人类共同协作的美好画面在 AI 究竟是好的还是坏的这类争论中被忽视了,我们对 AI 的看法似乎陷入到了《2001:太空漫游》的场景与现在的个人虚拟助手(Cortana、Siri 以及 Alexa)之间去。当机器能够帮我们开车、帮我们做家务、帮我们更好地做决策时,我们可以更好地利用我们的闲暇时间去完成我们的梦想。当然,我们也可以为机器人可能引起的巨大的经济混乱而感到担心。基于你所听取的意见,那个所谓的计算机的智能超越人类的「奇点」时刻既有可能在 2100 年左右出现,也可能只是科幻小说中的一个情节而已。
在我看来,最有成效的辩论不是 AI 是好还是坏,而是:这场辩论应该向人们及组织机构传递这项技术的价值。在《与机器人共舞》这本书中,约翰•马尔科夫写道:「回答一个充满了智能机器的世界的控制权问题,最好的方式是去理解创造了这些系统的那些人们的价值观。」这是一个有趣的问题,也是一个我们这个行业必须讨论、回答的问题。
在今年年初的开发者大会上,我分享了一套我们做 AI 的方法。第一,我们想要去开发一个能增强人类能力与体验的人工智能,最终,它不会出现人类 vs. 机器的画面。我们人类拥有创造力、同情心、情感、以及智慧,这些都让我们可以与强大的 AI 计算能力相结合,让我们的社会更快向前发展。第二,我们也需要对我们的技术建立信任。我们必须在技术中注入对隐私的保护、透明度以及安全性。AI 设备必须能检测到新的威胁,也要能设计出合适的方法去解决问题。第三,我们所有的技术都必须要包容、尊重每一个人。
这套方法是一个开始,但我们能走得更远。
科幻小说作家阿西莫夫也提供了一套非常好、但最终不够完美的方法。在 1940 年代,他为自己小说中的道德准则提出了「机器人三定律」,阿西莫夫的定律是分层级的,第一定律优先于第二定律,第二定律同样优先于第三定律。第一定律是:机器人不得伤害人类,或因不作为使人类受到伤害;第二定律:除非违背第一法则,机器人必须服从人类的命令;第三定律:在不违背第一及第二法则下,机器人必须保护自己。每一条定律都不能相互违背。虽然阿西莫夫的定律很有启发性,但它没有为科技公司和研究人员提供清晰的价值观和设计准则;也没有告知社会人类应该在新的时代所必须具备哪些能力。
计算机领域的先驱 Alan Kay 讽刺道:「预测未来的最好的方式就是自己去发明一个。」在 AI 的话语中,他的基本观点认为,我们要停止去预测未来会是怎样,而是应该用符合规律的方式去创造未来。我同意这个看法。就像软件设计中遇到的挑战一样,符合规律的方法开始于你所立足的平台。在软件开发领域,AI 正在变成第三代的「run time」——下一代的运行平台。在计算机领域,「run time」就是程序员开发和执行应用程序的顶部系统。换句话说,我们开发 Office,里面是为了 PC 而生的 Word、PowerPoint 这样的应用;而今天的 Office 365 则是为了网页而生的。在一个 AI 和机器人的世界里,这样的生产力和沟通工具将会在一个全新的平台中开发,它将不会只是管理信息,它还能从信息中学习,并且和真实的世界展开交互。
这个新的平台看起来正在被创造。我还记得比尔•盖茨在 1995 年发给所有微软员工的「互联网浪潮」备忘录,他在里面预测,互联网将会在连通性、硬件、软件开发及商业上都带来巨大的影响。20 年之后,我们正在面临一场新的浪潮——AI 浪潮。所以,指导我们的思维、设计及开发的通用设计原则和价值观应该是什么?
有些人正在成为解决这个问题的领先者。来自 MIT 传媒实验室的 Cynthia Breazeal 将她的生活投入到了探究一个更加人性化的 AI 与机器人当中去。她认为,技术往往会忽略社会及人类行为方面的考虑。在最近的一次对话中,Cynthia 认为,我们人类是所有物种里最社会化、也是最富情感的一个,但我们很少花时间去思考设计和技术中的情感元素。她说道:「毕竟,我们感知世界的方式是通过通信和协同的方式进行的,如果我们对帮助我们工作的机器感兴趣,那我们就不能忽略其中的人文因素。」
为此,我已经意识到了哪些原则和目标是我们这个行业和社会应该去讨论和辩论的。
AI 必须以帮助人类的形式而设计:作为我们开发的更加自动化的机器,我们需要尊重人类的自主权。协作式机器人应该去做那些更加危险的工作,比如采矿,这样,我们能够为人类工人创造一个更加安全的保障。
AI 必须是透明的:我们应该了解这种技术的运行原理和他们的运行规则。我们需要的不仅仅是智能的机器(intelligent machines),而是可理解的机器(intelligible machines);不是人工智能(artificial intelligence),而是共生智能(symbiotic intelligence)。技术要能理解人类,而人类也必须要了解机器。人类应该明白技术是怎样「看」这个世界、「分析」这个世界的,这样能让道德和设计携手并进。
AI 必须在不伤害人类尊严的条件下将效率最大化:它应该要有文化上的承诺,让多样性得到增强,我们需要在设计这些系统时对不同的族群有更宽广、更深远和更多样化的考虑。科技产业不应该规定人类未来的价值观和道德观。
AI 必须为智能化的隐私而设计:用值得信任的精细化保护手段保证个人及群体的信息安全。
AI 必须有算法上的问责制,这样人类就能处理意外出现的伤害。我们必须在设计这些技术时考虑到意料之中及意料之外的双重情况。
AI 必须对偏见有所防范,它要能保护正确和有代表性的研究。这样,错误的诱导不会让它变得带有歧视性。
但这些所有的「必须」也是为人类设计的,特别是当它涉及到我们后代的未来所应该具备的技能时。为了保证一致,我们的下一代以及之后的小朋友们应该具备:
同情心:同情心是如此难以复制到机器上,它将会在一个 AI 的世界中对人类来说格外有价值。理解他人的想法和感受,与他人合作并建立良好的关系,这些在未来都将至关重要。
教育:有些人觉得,因为人的寿命会增加、出生率会下降,这会导致我们在教育上的支出也会下降。但我坚信,如果想要创造和管理我们今天还无法实现的创新,我们需要增加教育投资去获得更高层级的思维以及更公平的教育成果。开发新的知识和技巧让新技术能够大规模实现,这需要很长的时间来解决。在创新、技术、薪资和财富这不同元素之间有着直接的联系。动力织布机在 1810 年就发明了,但花了 35 年的时间才改变了织布行业,这是因为没有足够的技术工人。
创造力:在人类所有的技能中,最令人垂涎的就是创造力了,而这也不会改变。机器将会继续丰富并增强我们的创造力。在最近的采访中,小说家 Jhumpa Lahiri 被问及为什么一位具有如此特殊的英文能力的作者会选择用意大利语——她的第三语言——去创造一种全新的文学语言,她的回答是:这不就是来自创造力的观点吗?我们需要持续去探索。
判断力和问责制:我们也许会愿意接受计算机给出的诊断或法律裁决,但我们仍然期待会有一个人出来为最终结果承担责任。
那么如何才能平等呢?自动化将会导致更平等还是更不平等呢?一方面,我们被告知不必为此担心。在历史中,人类劳动力被替代之后,工人们总是变得更加富裕而不是更穷。另一方面,我们也被告知,经济领域的替代现象如此剧烈,企业家、工程师和经济学家们都应该面对这个「新的挑战」——去补充而不是替代人类劳动力的设计承诺。换句话说,我们的商业领袖们必须用制造者和创造者的思维去代替之前那种节省劳动力的自动化思维。
AI 的轨迹和他们对社会的影响才刚刚开始。想要真正抓住这个未来时代的意义,我们需要深入的、多样化的分析。我在微软研究员的同事 Eric Horvitz 是 AI 领域的先驱,他寻求这方面问题的答案已经很多年了。Eric 和他的家人已经在以私人名义支持斯坦福大学的「百年研究计划」,为了将要到来的新世纪,他们每年会推出一个有关社会经济、法律和道德方面可能与智能计算有关的长期及短期报告,同时它也会提供机器智能方面的观点变化和人机关系方面的变化。
虽然前面没有什么已经设计好的路线,但通过之前的工业革命,我们已经看到了社会的变革不会是一帆风顺的。第一,我们要发明和设计的革新性技术是我们赖以存在的东西。第二,我们要改造我们的未来。举个例子,无人机驾驶员可能需要训练;老式的方向盘可能不会存在了,它将会变成自动驾驶汽车。第三,我们要解决扭曲、不和谐和错位的现象。当机器能够更好地解读 X 光图时,放射科医生的职责会是什么?当计算机能够检测数百万份不同形式的文件时,律师的功能是什么?然而,如果我们已经整合了正确的价值观和正确的设计原则,如果我们已经准备好了我们人类所需要的技术,那么我们人类和我们的社会将会迎来蓬勃的发展。
为《纽约时报》撰文的认知科学家与哲学家 Colin Allen 总结道:「就像我们能够设想机器可以在人类的监督下获得更高的自主权,我们也可以设想机器的控制权会涉及到更加敏感的、道德方面的内容。但可以确定的是,没有完美的机器,只有更好的机器。」
在追寻 AI 的过程中,下一个最关键的步伐是去在其设计中允许加入道德和同情心的框架。
评论(0)