由人工智能担任警察,再也不是科幻电影的情节,交通管制常见的科技执法就是应用 AI 辨识闯红灯、未依规定转弯、车辆不停让行人等违规行为。 AI 的客观、高效率正在挑战以人为审判主体的法治领域,这样的转变会对我们产生什么影响呢? 中央研究院「研之有物」专访院内欧美研究所陈弘儒助研究员,他将带我们思考:当 AI 取代人类执法时,将如何改变人们对守法的认知?
想象有一天你正在尖峰时段开车,车子停在十字路口等红灯时,后方出现一辆急驶而来的救护车,你为了让道必须开过停止线。 这时你是否愿意冒着违规被开罚的风险? 还是承担风险以换取他人尽速就医?
在上述情境中,针对要不要闯红灯我们经历了一段价值判断过程。 如果刚好十字路口有真人警察,他的判断可能是:这是情急之下不得不的行为,并非蓄意违规。
然而,如果负责执法的是「法律人工智能系统」(ALI)情况可能截然不同。
ALI 这个词源自 Mireille Hildebrandt 的研究,在概念上可区分为两类:采取传统代码的 IFTTT、运用机器学习的数据驱动。 前者是注重法律推理或论证的计算机模型,将法律规范转为程式码,藉由程序编写来执行法律任务。 后者则通过大量数据的学习,来预测行为范式,用于再犯率、判决结果预测上有较好的成果。
一般情况下,应用在交通管制的ALI会辨识车辆是否超速、闯红灯等违规行为,不过交通情境千变万化,ALI能否做出包含「道德价值的判断」将是一大挑战!
中研院欧美研究所陈弘儒助研究员察觉,人工智能正在左右人们对守法的价值判断及背后的因果结构,进而反思当我们将原本由人来判断的事项,全权交由 AI 来执行时,可能产生哪些潜移默化的影响?
让我们与陈弘儒展开一场从法哲学出发的对话,探索 AI 与法治价值之间的紧张关系。
Q: 怎么会对人工智能(AI)与“法律人工智能系统”(ALI)产生研究兴趣?
A: 会对 AI 感兴趣是因为我很早就对电脑有兴趣,我原本大学想读信息工程,因为高中有些科目没办法读,于是去读文组,大学进入法律系就读,研究所考入「基础法学组」研读法哲学。
后来我到美国读书,当时 AlphaGo 的新闻造成很大的轰动,启发我思考 AI 的应用应该有些法律课题值得探讨,于是开始爬梳 AI 与法律的发展脉络。
AI 这个词大概在 1950 年代被提出,而 AI 与法律相关的讨论则在 1970、80 年代就有学者开始思考:我们能否将法律推理过程电脑程式化,让电脑做出跟法律人一样的判断?
事实上,AI没有在做推理,它做的是机率的演算,但法律是一种规范性的判断,所有判断必须奠基在法律条文的认识与解释上,给予受审对象合理的判决理由。
这让我好奇:如果未来广泛应用 AI 执法,法律或受法律规范的民众会怎么转变?
至于真正开始研究《法律人工智能系统》是受到我父亲的启发。 有一阵子我经常开车南北往返,有一天我跟父亲聊到用区间测速执法的议题。 交通部曾在万里隧道使用区间测速,计算你在隧道里的平均速率,如果超速就开罚。
父亲就问我:「政府有什么理由用区间测速罚我? 如果要开罚就必须解释是哪一个时间点超速。」 依照一般的数学逻辑,你一定有在某个时间点超速,所以平均起来的速率才会超过速限,可是法律判断涉及规范性,我们必须思考背后的正当性课题,不能只用逻辑解释,这启发我逐渐把问题勾勒出来,试图分析执法背后的规范性意涵。
Q: 如果将执行法律任务的权限赋予 AI,可能暗藏什么风险?
A: 我们先来谈人类和 AI 在做判断时的差别。 人类无时无刻都在做判断,判断的过程通常会先做「区分」,例如在你面前有 A 和 B 两个选项,在做判断前必须先把 A 和 B 区分开来,让选项有「可区别性」。
在数据庞大的情况下,AI的优势在于能协助人类快速做好区分,可是做判断还需经历一段 AI 难以触及的复杂过程。 人类在成长过程中会发展出一套顾及社会与文化认知的世界观,做判断时通常会将要区分的选项放进这个世界观中,最终做出符合社会或自身考量的抉择。
当我们将判断程序交由 AI 执行,就会涉及「判断权限移转」的问题,这经常在日常生活中发生,你只要发现原本自己可以执行的事情,有另外一个对象做的比你好或差不多好,你就会渐渐把判断的工作交给它,久而久之,你大概会觉得这是很好的做法,因为可以节省大量时间。
我担心这种判断权限移转会快速且广泛的发生,因为 AI 的工作效率极高,可以大幅节省人力成本,但是哪一些权限可以放给 AI? 哪一些权限人类一定要守住? 我们经常没有充足的讨论,等到发生问题再亡羊补牢可能为时已晚。
以让道给救护车而闯红灯的情境为例,如果让 AI 来做交管,可以节省警察人力,又可以快速精准地开罚,却迫使民众需额外花时间,证明闯红灯有正当理由。 如果是真人警察来判断,警察通常会认为你的行为有正当理由而不开罚。 这对于受法律规范的民众来说,会产生两种全然不同的规范作用。
AI 产生的规范作用会让民众担心事后销单的麻烦程序,如果无法顺利解决,可能会诉诸民意代表或上爆料公社,并渐渐改变民众对守法的态度。 而真人警察产生的规范作用,将使民众自主展现对法律的高度重视,虽然当下的行为抵触法律,却是行为人经过多方权衡后做的判断,相信法律会支持自己出于同理心的行为。
Q: 使用 AI 执法除了看上它的高效率,也是因为和真人相比 AI 不会受私情影响,比较可以做出公正的判断。 如果从法治观念来看,为何决策权不能全权交由 AI 执行?
A: 我认为法治的核心价值在台湾并没有很好的发展,我们常想的是怎么用处罚促成民众守法,长久下来可能会得到反效果。 当人们养成凡事规避处罚的习惯,一旦哪天不再受法律约束,可能会失去守法的动机。
事实上,法治最根深柢固的价值为:
法律作为一种人类行为规范的展现,促使民众守法的方式有很多种,关键在于尊重人的道德自主性,并向民众陈述判决理由。
给理由非常重要,可以让民众不断透过理由来跟自己和法律体系沟通。 如此也可以形成一种互惠关系,使民众相信,国家公权力能用适当的理由来制定法律,而制定出的法律是以尊重公民自主性为主。 当民众理解法律对我所处的社会有利,会比较愿意自动产生守法的动机。
AI 执法看似比人类公正无私,但它的执法方式以处罚为主、缺乏理由陈述,也没有对具体情境的「敏感性」。 人跟人之间的互动经常需要敏感性,这样才能理解他人到底在想什么。 这种敏感性是要锻炼的,真人警察可在执法过程中,透过拿捏不同情境的处理方式来累积经验。
例如在交通尖峰时段应该以维持交通顺畅为原则,这时警察是否具备判断的敏感性就很重要,例如看到轻微的违规不一定要大动作开罚,可以吹个警笛给驾驶警示一下就好。
我越来越觉得人类这种互动上的敏感性很重要,我们会在跟他人相处的过程中思考:跟我沟通的对象是什么样的人? 我在他心中是什么模样? 然后慢慢微调表现方式,这是人类和 AI 最根本的不同。
Q: 相较于法律人工智能,ChatGPT 等生成式 AI 强大的语言功能似乎更接近理想中的 AI,其发展可能对我们产生哪些影响?
A: 我认为会有更复杂的影响。 ChatGPT 是基于大型语言模型的聊天机器人,使用大量自然语言文本进行深度学习,在文本生成、问答对话等任务上都有很好的表现。 因此,在与 ChatGPT 互动的过程中,我们容易产生一种错觉,觉得屏幕后好像有一名很有耐心的真人在跟你对话。
事实上,对于生成式 AI 来说,人类只是刺激它运作的外在环境,人机之间的互动并没有想象中的对等。
仔细回想一下整个互动过程,每当外在环境(人类)给 ChatGPT 下指令,系统才会开始运作并生成内容,如果我们不满意,可以再调整指令,系统又会生成更多成果,这跟平常的人际互动方式不太一样。
资工人员可能会用这个理由说明,生成式 AI 只是一种工具,通过学习大量数据的模式和结构,从而生成与原始数据有相似特征的新数据。
上述想法可能会降低人们对「数据」(Data)的敏感性。 由于在做 AI 训练、测试与调整的过程中,都必须喂给 AI 大量资料,如果不知道资料的生产过程和内部结构,后续可能会产生争议。
另一个关于数据的疑虑是,生成式 AI 的研发与使用涉及很多权力不对等问题。 例如现在主流的人工智能系统都是由私人公司推出,并往商业或用户付费的方向发展,代表许多数据都掌握在这些私人公司手中。
资料有一种特性,它可以萃取出「信息」,谁有管道可以从一大群资料中分析出有价值的信息,谁就有权力影响资源分配。 换句话说,多数人通过输入数据换取生成式 AI 的服务,可是从数据萃取出的信息可能在我们不知情的状况下对我们造成影响。
Q: 面对势不可挡的生成式 AI 浪潮,人文社会学者可以做些什么?
A: 国外对于 AI 的运用开始提出很多法律规范,虽然国外关于价值课题的讨论比台湾多,但并不代表那些讨论都很细致深入,因为目前人类跟 AI 的相遇还没有很久,大家还在探索哪些议题应该被提出,或赋予这些议题重新认识的架构。
这当中有一个重要课题值得思考:
我们需不需要训练 AI 学会人类的价值判断?
我认为训练 AI 理解人类的价值判断很可能是未来趋势,因为 AI 的发展会朝人机交互模式迈进,唯有让 AI 逐渐理解人类的价值为何,以及人类价值在 AI 运作中的局限,我们才有办法呈现 AI 所涉及的价值课题。
当前的讨论多数还停留在把 AI 当成一项技术,我认为这种观点将来会出问题,强大的技术如果没有明确的价值目标,是一件非常危险的事情。 实际上,AI的发展必定有很多价值课题涉入其中,或者在设计上有一些价值导向会隐而不显,这将影响 AI 的运作与输出成果。
思考怎么让 AI 理解人类价值判断的同时,也等于在问我们人类:对我们来说哪一些价值是重要的? 而这些重要价值的基本内容与歧异为何?
我目前的研究有几个方向,一个是研究法律推理的计算机模型; 另一个是从规范性的层面去探讨,怎么把价值理论、政治道德、政治哲学等想法跟科技界交流。 未来也会透过新的视野省视公民不服从议题。
这将有助科技界得知,有很多价值课题需要事先想清楚,影响将扩及工程师怎么设计人工智能系统? 设计过程面临哪些局限? 哪些局限不应该碰,或怎么把某些局限展现出来? 我觉得这些认识都非常重要!