在《人工智能法案》中,“教育”被认定为一个积极应用人工智能的领域。
2023年12月8日,经过长达一周的马拉松式磋商和激烈辩论,欧盟委员会、欧洲议会以及欧盟各成员国的代表们就《人工智能法案》AI Act)达成了初步共识。“靴子落地。”中国现代国际关系研究院欧洲研究所欧洲经济项目负责人董一凡表示,这是一个标志性进展,《人工智能法案》在全球范围内是一份比较领先的整体性监管规则,具有很强的欧盟特色。目前,法案的技术性细节仍在讨论阶段,其最终文本尚未向公众披露。
“欧盟就《人工智能法案》达成的协议具有里程碑意义”,欧盟委员会内部市场专员蒂埃里·布雷顿在社交媒体上表示,“《人工智能法案》不仅是一本规则手册,也将成为帮助欧盟初创企业和研究人员引领全球人工智能领域竞赛的重要指南。”
近年来,欧盟把人工智能技术监管作为关键政策,采取“以人为中心”的发展路径。从2019年开始,欧盟通过非强制性“软法”着手监管AI,逐步转向制定全面的法案。2021年4月,欧盟委员会提交了《人工智能法案》草案。经过多次修订,2023年6月,欧洲议会高票通过该草案。联合报告员德拉戈·图多拉奇表示:“《人工智能法案》将为全球人工智能的发展和治理定下基调。”
美国哥伦比亚大学法学院教授、欧盟数字监管领域专家阿努·布拉德福德指出,欧盟制定了一套强有力且全面的监管措施,这“将为众多考虑实施监管的政府提供优秀示范,其他国家或许不会完全复制每一项条款,但其中许多条款所涉及的关键要素很可能被效仿。”
欧盟《人工智能法案》概述
《人工智能法案》旨在为全球AI技术应用和发展设定全面标准,确保其符合道德和法律双重标准,同时提升欧盟在AI领域的竞争力和影响力。法案适用于AI系统的供应商、使用者,包括欧盟内部和第三国相关方。
法案主要内容包括:统一AI系统在欧盟市场的投放和使用规则;禁止某些AI实践;明确高风险AI系统的要求和责任;规定AI系统透明度的协调规则;涵盖市场监测、监管、治理及执法。法案还特别鼓励创新,关注中小企业和初创企业。
考虑到AI技术对欧洲价值观和基本权利的潜在影响,法案采用审慎的风险权衡方法,将AI风险分为四个层级。
1.不可接受的风险(Unacceptable Risk):包括那些可能威胁人们生命、安全和权利的AI系统。这类风险涵盖使用敏感特征的生物特征分类系统(如政治、宗教、性取向等)、无目的的人脸信息收集、工作场所和教育机构内的表情识别、基于社会行为的评分系统,以及能够操纵或绕过人类自由意志的AI。欧盟委员会明确表示,这些构成明显威胁的AI系统将被禁止。不过,法案为执法部门设定了例外,允许其在严格条件下使用非实时远程生物识别技术,如在重大刑事案件中定位嫌疑人。这一规定体现了欧盟立法者与成员国政府在权力平衡方面的协商结果。
2.高风险(High Risk)。可能发生高风险的AI应用领域包括关键基础设施、公民教育、产品安全组件、公民就业、公共服务、涉权型执法、出入境管理、司法及民主进程等八大类。对于这些领域的AI系统,在市场投放前必须遵守七项义务:进行全面的风险评估,提供高质量数据集以降低风险和偏见,记录操作以确保可追溯性,提供完整的系统信息供审查,向用户明确传达信息,实施人为监督以使风险最小化,并确保系统的安全性和准确性。
3.有限的风险(Limited Risk)。法案特指对用户具有明确透明度要求的特定AI系统,例如聊天机器人。在提供聊天机器人服务时,服务提供方需要明确告知用户,他们正在与机器进行对话。此外,使用深度伪造技术或其他AI生成的内容时,应当对其进行明确标注以告知用户。同样,当使用表情识别或生物特征分类系统时,提供方也应当向用户透露这一信息。
4.最小风险(Minimal Risk)。涉及已经被广泛应用且风险极低的AI系统,例如垃圾邮件过滤器、电子游戏中的AI系统等。这一类别涵盖了绝大多数人工智能系统。鉴于这些系统的风险极小,法案并未对此进行干预。
《人工智能法案》强调AI系统的设计和开发应受公民监督,由国家市场监督机构负责执行新规。法案计划设立欧洲人工智能委员会,负责推动规则实施、标准制定、协助国家机构确保统一应用法案、发布AI技术意见,并在成员国间分享最佳实践。法案鼓励非高风险AI技术提供者遵守行为守则,并引入监管沙盒模式以激励创新。成员国需根据本国情况严格执行规定,违反者可能面临高达3000万欧元罚款或年营业额的2%至6%的处罚。法案细节将进一步完善,预计最早于2025年全面实施。
欧盟《人工智能法案》对教育的影响
欧盟《人工智能法案》引起了全球关注。北京师范大学法学院博士生导师兼中国互联网协会研究中心副主任吴沈括指出,该法案将对欧盟乃至全球的人工智能发展和立法环境产生深远的影响。法案一旦颁布并实施,将对人工智能的研发,以及人工智能产品和服务的设计与运营产生重大的直接影响。其影响不仅限于人工智能开发商,还将波及教育、医疗保健、银行等使用该技术的多个领域。
在该法案中,“教育”被认定为一个积极应用人工智能的领域,同时也被划分为人工智能应用的“高风险”类别。法案指出:“在教育领域部署人工智能系统至关重要,它不仅可以助力整个教育系统的现代化,提升线上线下教育的质量,加速数字化教育的发展,还能使更广泛的人群受益。特别是那些在教育或职业培训中用于决定入学、录取或分配人员的人工智能系统,以及用于评估学生的测试、评定个人教育水平的人工智能系统,或在测试期间用于监控和检测学生行为的人工智能系统。由于这些人工智能系统对个人未来教育和培训水平以及职业生涯产生重大影响,应被归类为高风险。如果设计和使用不当,这类系统可能具有侵入性,侵犯人们受教育和培训的权利及不受歧视的权利,甚至可能使历史上的歧视模式永久化,例如针对妇女、特定年龄组、残疾人、某些种族或民族血统或性取向的人的歧视。”
然而,关键问题在于,如何区分那些促进教育发展的人工智能系统与那些可能对特定学习者造成歧视的系统,特别是在某些情况下,这两种系统可能会同时存在。
此外,法案明确提出要将人工智能素养纳入教育体系和项目中。这为教育机构开发专门针对学生的人工智能项目提供了便利,并确保所有学生都能接受基本的人工智能素养培训。从高等教育机构的视角来看,这一修正案强调了将人工智能素养和技能纳入各个学科课程的迫切性。这一点不仅适用于工程和计算机科学领域,还包括艺术、人文学科、社会科学等领域。同时,它还突出了确保学生能够应对人工智能系统风险的重要性。因此,大学应当将人工智能素养视为一项核心能力,这符合许多机构的“通识教育”或“跨学科研究”的要求。
目前,学生使用生成式人工智能(特别是在完成作业方面的不恰当应用)已成为许多教育机构的关注焦点,各机构为此已投入大量资源使用人工智能来检测和应对这类违规行为。然而,该法案将在多大程度上限制教育工作者管理课堂上人工智能使用的能力,或者限制在欧洲境内运营的公司开发用于检测人工智能工具的能力,目前尚不得而知,有待进一步观察。
总体而言,在欧盟《人工智能法案》的影响下,教育机构需要做出相应调整:首先,建立完善的合规体系,积极应对AI技术的风险,并确保其在教育中得到安全有效应用。其次,提高基于AI的教育工具的透明度和风险评估,确保技术符合高标准。此外,将AI道德和数据素养纳入课程,让学生准备应对AI主导的未来,并强调要遵守版权法。同时,重视个人数据保护,提升数据保护和伦理规范。另一方面,要鼓励教育机构在AI领域内的创新和研究,包括与企业合作开发新应用。还要为在职人员提供AI法律和伦理培训,并促进国际合作,以使得教育实践与全球标准保持一致。
挑战与展望
西班牙数字化与人工智能大臣卡梅·阿蒂加斯形容欧盟《人工智能法案》是“历史性的成就”,强调其在创新促进与尊重公民权利间实现了平衡。欧盟委员会主席乌尔苏拉·冯·德莱恩也认为这是一个历史性的时刻,体现了欧盟价值观的演进,并提到百余家公司已自愿遵守此法案。
复旦大学发展研究院副研究员姚旭分析,全球人工智能监管与立法呈现两种趋势:一是以中国和欧盟为代表的国家迅速出台相关规定,对人工智能进行了从框架到细节的治理探索。其中,2023年7月,中国出台的《生成式人工智能服务管理暂行办法》是全球首个针对生成式人工智能做出迅速反应的法律,明确了本国人工智能产业发展方向和规范。二是以美国为代表的国家,政府、立法与业界还在不断磨合。OpenAI的CEO奥尔特曼(Sam Altman)在国会听证会上曾经呼吁对人工智能进行更明确的监管,但美国国内现有的讨论还不足以在法律层面形成快速突破。
“制定人工智能全球标准,各方仍在博弈。”姚旭表示,2023年5月,G7大阪峰会上,发达国家领导人声称要以所谓“民主价值观”为基础建立人工智能国际准则。2023年11月,中国、美国、欧盟和其他约20个国家在英国签署了《布莱切利宣言》。近期举办的一系列人工智能国际治理会议中,“全球南方”国家普遍表示,希望全球人工智能标准合作程度不断加深,避免在所谓的阵营间“选边站”,这与中国强调的人工智能领域国际合作倡议完全契合。从这个意义上说,《人工智能法案》将使欧盟在人工智能监管国际合作中有较强独立性。
与欧盟立法者和领导人的看法不同,科技团体和公民权利团体都对当前的临时协议表示不满。科技团体认为这份法案过于严苛,而公民权利团体则认为法案存在较大漏洞。《金融时报》报道,欧洲科技行业意见领袖塞西莉亚·博内菲尔德-达尔指出,该法案的严格监管要求可能导致企业投入大量资源聘请律师以符合规定,而不是招募AI工程师,从而影响创新发展。欧洲大公司如空客、西门子等也认为法案规则过于严格,不利于与美国科技企业如微软、OpenAI的竞争。另一方面,美联社报道,欧洲公民权利团体对法案中AI生物信息识别的执法权豁免表示担忧,并认为法案对边境和移民管理中的AI应用管理不足。
除了对法案文本本身的质疑外,法案的执行效果也受到了关注。《纽约时报》指出,法案的实施需要27个欧盟成员国的共同努力,在财政紧张的背景下增加预算,这使得执行成效成为一个问题。以前的欧盟数据隐私立法就因执行不力而受到批评。爱尔兰公民自由委员会的专家克里斯·施里沙克评论说,如果缺乏强有力的执行,协议将毫无意义。鉴于各成员国可能因国内产业发展而在执行上打折扣,这份法案在最终实施后的长期影响及其条文是否会因AI行业的快速发展而过时,都是未知数。
德国工业联合会(BDI)指出,该法案对AI基础模型及其应用的全面监管可能削弱制造商和用户的竞争力及创新能力。美国计算机与通信行业协会也提到,欧盟应避免过于宽泛的监管,否则会抑制创新。一些担心人工智能模型带来安全风险的专家认为,该法案没有对人工智能系统可以使用的计算能力进行限制。
“欧盟《人工智能法案》最终通过后,将成为全球加强人工智能治理浪潮中的重要‘靶子’。”姚旭认为,欧盟内部立法往往具有很强的溢出效应。针对欧盟《人工智能法案》当中的算法透明度、通用人工智能护栏、禁止使用的场景划分等内容,各国后续立法一定会针对本国实际情况逐条参考,确定保障措施和例外条款。欧盟人工智能法案后续施行情况,也将成为各国着重观察的重点,其中,如何平衡监管与发展是重中之重。
本文刊登于《中国教育网络》2023年11月刊,根据欧盟委员会官网、美联社、欧洲新闻网、Medium、复旦发展研究院等网站资料整理
整理:李佳