伦理遇上AI:慕尼黑工业大学的突破性研究

人工智能

7.2.2020

人工智能的 良知

克里斯托弗·吕特教授领导着世界上成立最早的人工智能伦理研究机构之一。慕尼黑工业大学将组建跨学科团队来研究 AI 软件决策的后果问题。其核心课题将是自动驾驶。

如果现在我放手不管,会出事儿吗?2016 年,当克里斯托弗·吕特教授首次驾驶高度自动化的汽车在 A9 高速公路上从慕尼黑前往因戈尔施塔特的途中,脑中突然浮现出这个想法。这段可进行自动驾驶测试的公路于之前一年投入使用,车辆可在路段上独立自主地加速、刹车和转向。当车辆发出警告信号时,驾驶员有十秒钟的时间重新获得控制权。如果驾驶员没做出反应呢?车载计算机会根据哪些标准来判断接下来该做些什么?优先级是如何设定的?这些问题一直萦绕在吕特教授的脑海中。他遇到的是一个崭新的前沿研究领域。

吕特教授现年 49 岁,在过去九年中他一直担任慕尼黑工业大学的商业伦理学教授,研究如何通过竞争来促进企业的社会和伦理责任。在这次开上 A9 高速公路试驾之前,人工智能(AI)只不过是他闲暇时的兴趣课题。但在这次试驾之后,他阅读了许多研究报告,进行了大量调查,也与汽车制造商进行了讨论。他很快意识到 AI 将会引发一系列伦理问题:如果出现事故,由谁来负责?如何解读智能系统的决定?而且,AI 算法目前还不是完全透明,人们现在很难理解 AI 基于什么样的标准做出决定—— AI 仿佛变成了一个黑匣子。“这是我们必须面对的挑战,无论是用于分析医学化验结果、打击犯罪还是控制汽车。”吕特教授说,“换句话说:我们必须处理围绕人工智能的一系列伦理问题。”

只要想到我们未来的生活完全由机器来支配,一切只基于逻辑而不是伦理,就会使很多人感到不安。由世界经济论坛(WEF)在 27 个国家和地区进行的一项调查显示,在 20,000 名受访者中,有 41 %的人对AI的使用感到担心。48 % 的受访者希望加强对 AI 企业的监管,40 % 希望政府和部门能够加强对 AI 使用的限制。

伦理学专家:克里斯托弗·吕特(Christoph Lütge)教授计划组建跨学科团队研究人工智能的使用将引发的各种社会问题。

自动驾驶的伦理

在伦理学中,自动驾驶是当前特别困难的研究领域,因为它直接关系到人命。举例来说,当载满乘客的车辆刹车失灵时,如果需要选择是撞向水泥路障还是撞入人群,那么 AI 算法应该怎么选呢?AI 在这种情况下应该怎样设置优先级?乘客的生命与路人的生命,孰重孰轻?更应避免让儿童受害还是尽可能保护老年人?“这些都是社会科学家们研究的典型难题。”吕特教授说。同样,这些问题也是德国联邦交通和数字基础设施部组织的自动驾驶伦理委员会的研究主题,吕特教授也是该委员会的成员。“我们一致认为,不能以年龄、性别或其他标准来划分人群。因为这种做法违背了德国的《基本法》。”但是,应该允许通过计算机程序来减少受害人的数量。

责任问题也是一个新领域。在自动驾驶中,汽车制造商需要承担责任,因为《产品责任法》适用于这种情况。在其他情况下,驾驶员应承担责任。“但要实现这一点,将来我们就需要在汽车上安装黑匣子。”吕特教授解释说,“黑匣子的用途是用来证明在事故发生时是否启用了自动驾驶功能。当然,这又会引发有关数据保护的问题。”尽管面临各种各样的挑战,科学家们仍普遍认为自动驾驶会让交通变得更加安全。“人工智能比人类更强,除了因为它不会感到疲倦或注意力不集中之外,它的传感器对环境的感知也要更强。此外,它们可以做出更适当的反应,自动驾驶汽车的刹车反应更快,躲避动作更合理。即使在正常交通环境中,它们也远远胜过人类。”

人工智能研究胜地慕尼黑

吕特教授任教的慕尼黑工业大学新设立了人工智能伦理研究所,许多令人兴奋的课题有待专家的研究。Facebook为研究所提供了 650 万欧元的资金,而且对其研究方向没有进行任何干预。当然,Facebook 对科研成果很感兴趣,毕竟该研究所是这一领域最早成立的研究机构之一。慕尼黑之所以能成为人工智能的科研胜地,主要是因为慕尼黑工业大学在这方面的专业能力举世闻名。另外,德国非常重视数据保护,而且普通民众对技术发展的看法更具有批判性。新成立的研究所经常会听到持怀疑态度的声音。“我们希望汇齐所有重要的相关参与方,共同制定针对AI应用的伦理方针。这样做的先决条件是经济界、政治界和公民社会的代表可以坐到一起并展开交流。”吕特教授说。

吕特教授希望组建关于AI伦理学的跨学科团队,研究新算法的伦理学意义。“技术人员可以编写所有程序,”他说,“但在评估软件所做决策的后果时,还需要社会科学家的参与。”因此,他未来计划组建多个由一名技术工作者和一名人文科学、法律或社会科学的代表组成的互助学习小组。此外,吕特教授还计划成立项目团队,其中的成员将来自不同专业或部门。他们将调查具体的应用案例,例如护理机器人的使用以及在此情况下出现的伦理问题。

吕特教授相信,AI 必将会进入生活的许多领域,因为 AI 能带来巨大的附加价值,比如在交通方面。“几年之内,具有不同自动化程度的自动驾驶汽车一定会出现在街头。”他预测说。根据伦理委员会的规定,自动驾驶汽车至少要与人类驾驶员达到相同的驾驶水平,例如在判断路况及作出反应方面。吕特教授对此非常期待:“当我坐入自动驾驶汽车时,在最初的几分钟里,我总会感到一些不安,但没过多久我就很清楚地认识到它能非常可靠地加速、刹车和转向,然后我很快就将控制权完全交给了它。我很享受这种状态,因为这让我在乘车过程中有时间思考问题。”例如,当自动驾驶汽车跨越边境线时,是否还适用相同的伦理决策算法?还是需要在每条边境线进行一次更新?类似这样的问题还将困扰他很久。

克里斯托夫·吕特教授(Prof. Christoph Lütge)是商业和企业伦理方面的专家。自 2010 年以来,他一直担任慕尼黑工业大学彼得·洛舍基金会的商业伦理学教授。吕特教授也是哈佛大学的客座研究员。

伦理和人工智能指导方针

欧盟专家小组:可信人工智能的伦理指导方针(2019 年 4 月的报告) 伦理委员会:自动驾驶和联网驾驶(2017 年 6 月的报告)
欧盟人工智能专家小组制定了此指导方针,旨在为实现可信赖的人工智能确立基本框架。该指导方针能够为各项原则在社会技术系统中的实施提供帮助。此框架计划的目标是解决公民的担忧和恐惧,同时为提升欧盟在此领域的竞争力提供基础。由德国联邦运输和数字基础设施部部长设立的跨学科伦理委员会制定了关于自动驾驶和联网驾驶的指导方针。
伦理基本原则/人工智能伦理原则自动驾驶和联网驾驶交通:规则摘录
1. 尊重人类自治权。 人工智能系统不应以不正当的方式奴役、强迫或欺骗人类。人工智能系统应致力于创造有意义的工作。规则二 只有当自动驾驶系统在积极判断风险和降低危害方面至少达到与人类相同的水平时,才可以批准自动系统的使用。
2. 防止损害 人工智能系统不应造成损害,其中包括对人类身心健康的保护。人工智能系统的技术稳定性应能够降低滥用或误用的发生几率。规则七 在危险情况下,如果必须选择造成人身伤害还是对动物或财产造成损害,人工智能程序应在这种冲突情况下考虑对动物或财产造成损害。
3. 公平 人工智能系统应促进人类获取教育和商品的公平性。其应用不能影响用户的选择自由。规则九 在事故不可避免的情况下,禁止基于受害者的个人特征(年龄、性别、身体或心理状态)而做出判断。
4. 可解释性 人工智能系统的流程和决定必须保持透明和可以理解。只有通过对其能力和服务宗旨的公开交流才能实现对人工智能的长久信任。规则十 在自动驾驶和联网驾驶期间,人类保留的责任将由驾驶者转移至技术系统的制造商和运营商,以及基础设施、政策和法律的决策机构。

信息

本文首次发表于《保时捷工程杂志》2019年第2期。

文字:Monika Weiner
摄影:Simon Koy

版权:本文中发布的所有图片、视频和音频文件均版权保护。未经保时捷工程书面许可,不得部分或全部复制。欲了解更多信息,请联系我们。

联系方式

您有问题或想了解更多信息吗?请联系我们:info@porsche-engineering.de