日前,一场围绕人工智能如何治理的讨论在第十八届联合国互联网治理论坛中展开。来自中国、芬兰、日本、印度、巴西、刚果等国家和地区的专家围绕联合国互联网治理论坛所发布的人工智能政策网络(Policy Network on Artificial Intelligence)PNAI报告(以下简称“PNAI报告”),从人工智能治理的互操作性、人工智能的全球治理框架、人工智能的能力建设等方面展开讨论。
如何实施全球人工智能治理?
如何基于全球视角,实施恰当的人工智能治理政策?PNAI报告从全球视角(不仅包括发达国家,也包括许多欠发达地区)出发,试图探讨人工智能的全球多利益相关者机制。
联合国教科文组织的项目负责人普拉提克·西巴尔(Prateek Sibal)介绍说,PNAI报告涉及三大主题:
首先,人工智能治理的互操作性,主要是不同人工智能监管机制间的相似处和差异性,包括不同国家关于人工智能治理的框架结构;
其次,人工智能的生命周期,特别强调了与人工智能相关的性别问题及种族平等问题;
最后,通过人工智能治理实现绿色、公平、公正的社会转型,同时讨论了人工智能、数据治理与环境的联系。
其中,人工智能的互操作性是一个关键话题。互操作性通常被理解为不同系统间无缝通信和协同工作的能力。
那么,在全球范围内,如何对人工智能进行规范和管理以确保其互操作性?
巴西人工智能战略专家若泽·雷纳托(José Renato Laranjeira de Pereira)表示,在讨论互联网的互操作性时,应了解各地区所采取的举措,以明确其制定何种政策、引领何种讨论。在监管方面,不应仅仅关注领导人工智能发展地区的情况,还应关注全球欠发达地区的情况。
清华大学教授李星指出,可以运用互联网治理的理念来治理人工智能。他表示,对生成式人工智能的政策监管应当谨慎。正如互联网在发展之初也没有技术蓝图一样,生成式人工智能目前也没有确切的发展蓝图,因此务必要留出创新空间,给学术界和技术界提供创新机遇。
清华大学李星教授
他同时表示,互联网技术的发展受到IETF等各种组织的推动,如今生成式人工智能具备比TCP/IP更强大的功能,但在该领域尚未出现IETF这样的组织,应该考虑建立类似组织。他希望全球能够共同推动创新,开发出激动人心的新技术。
和李星教授的想法一样,日本内务和通信部高级政策官员西方信久(Nobuhisa Nishigata)也表示,目前,欧洲正在进行谈判,力求推出人工智能法案,但他认为现在并非一定要立法,而更应大力创新,深入了解和挖掘人工智能的潜力。
他进而提到,要在国际条约框架内让各国保持一定的灵活性,制定安全、公平、人权、隐私保护等总体原则,而不应有过细的规定。各国应进一步加强对人工智能生态系统建设、能力建设和技能培养,建立鼓励创新和测试的实验室,促进人工智能发展,并积极推动政策、技术和标准等各方面的国际间合作,追求可持续发展的目标。
微软人工智能办公室公共政策主任欧文·拉特(Owen Larter)表示,构建何种全球治理架构和框架,要从现有的全球治理结构中汲取经验教训。他认为,当前的首要任务是制定相关标准,要就风险问题达成共识。另外,应重点关注基础设施建设,灵活调整策略。
若泽·雷纳托(José Renato Laranjeira de Pereira)则认为,需关注劳工就业机会的创造,以及自然资源的开发和获取问题。应当鼓励高位企业肩负起更大的社会责任,确保整个价值链具备问责机制,并进行全球治理框架的评估。
人工智能的数据风险
人工智能的进步,尤其是在生成式人工智能领域的最新突破,显示出保护环境的巨大潜力。然而,如果缺乏强有力的数据管理,人工智能可能会扩大地域的不平等性,尤其是对全球欠发达地区而言。
对此,这些地区应该如何开展合作以应对人工智能、数据治理和环境交叉领域的复杂挑战?
联合国教科文组织数据经济政策中心执行主任沙米拉·艾哈迈德(Shamira Ahmed)表示,总体而言,需要从多利益相关方的角度推动人工智能治理的互操作性,以充分发挥其潜力,同时促进多维度的可持续数据发展。这需要充分利用数字技术,并综合考虑环境、经济和社会等因素。
她倡导以信息为导向的方法,确保人工智能使用的数据能够代表多方利益相关方,真正反映出全球欠发达地区的需求,同时最大程度地减少对环境的影响,实现可持续发展。
印度Aapti研究所创始人萨拉尤·纳塔拉詹(Sarayu Natarajan)指出,要关注人工智能技术发展带来虚假信息激增的现象。生成式人工智能生产虚假和错误信息的成本几乎为零,而互联网和数字化传播又进一步降低了传播成本。未来,生成式人工智能提供内容的可信问题将会是一个挑战。对此,她认为应将生成式人工智能与具体内容相关联,了解生成内容的来源及责任归属。
加强人工智能能力建设
人工智能无疑将对全球经济、政治、教育等各方面的发展产生极大影响。
那么,人工智能时代,人们的人工智能能力建设如何加强?
对此,芬兰人工智能计划专家兼PNAI成员玛伊基·西皮宁(Maikki Sipinen)建议,应与大学合作,加强AI基础知识的教育和培训,包括公众教育倡议。此外,应特别加强公务员的人工智能能力建设,这对有效的人工智能治理至关重要。最后,还需加强专家和政府立法者之间的合作,以促使全球人工智能治理更具包容性。
李星教授表示,生成式人工智能给发展中国家带来了机遇和挑战。通常来说,生成式人工智能包括算法、算力和数据三个关键因素。但他认为,教育同样是人工智能发展的重要因素,人工智能的出现需要大家重新思考传统教育体系。年轻一代需要在批判性思维、尊重事实、逻辑思维、推动全球合作这四个关键方面进行能力培养,这对教育改革至关重要。正如斯坦福大学李飞飞教授所言,在人工智能时代,需要像牛顿和爱因斯坦那样的人才对教育领域进行重塑。他表示,期望看到全球建立与人工智能相关的教育系统,这与几百年前现代大学雏形的出现同等重要。
刚果人工智能与新兴技术监管顾问让·弗朗索瓦(Jean-Francois Bonbhel)则指出,应该评估人工智能的收益与风险、关注问责制和重视教育。他们已经着手设立覆盖从小学到研究生的人工智能学校,以提供广泛的人工智能教育,确保每个人都能接触和理解这项技术。
他表示,不论是教育工作者还是软件开发者,在人工智能教育中都有各自的分工,以激发下一代对人工智能赋能时代的兴趣,必须采取多种手段确保下一代掌握与人工智能相关的技能。
萨拉尤·纳塔拉詹(Sarayu Natarajan)表示,人工智能的分类问题与就业关系密切相关,需要特别关注人工智能对就业的影响。同时,他强调要关注技术可能带来的潜在风险,各领域的技术专家和政府管理者需进一步加强交流合作。此外,人工智能能力建设必须保持中立,不能预设立场,不同的职能部门和领域必须展开对话与交流。最后,应理解不同的生成式人工智能应用可能带来的不同后果。国际劳工组织在报告中指出,发达国家可能会因生成式人工智能而失去就业机会,而发展中国家可能增加就业岗位。因此,需要进行深入研究,避免一概而论。
整理:李佳