要有效地将人工智能融入高等教育,就要制定政策、跨职能部门参与、确立伦理准则、进行风险评估、与其他机构合作以及探索多样化应用场景。
2023年10月,EDUCAUSE举办了为期两天的“ChatGPT与生成式人工智能:机遇与挑战”讨论会,8位高等教育专家小组成员与一百余位高等教育专业人士参加了会议。与会者共同探讨了多个话题,包括:成本问题、教学问题、政策制定、人工智能应用案例、引领职责与伦理考量。随着讨论逐步深入,贯穿始终的核心议题逐渐明晰:高等教育机构如何适应快速的技术变革,担负起人工智能议题探讨中的引领职责。鉴于人工智能领域复杂多变,与会者一致强调持续性指导的必要性。这场讨论会中所提出的见解和建议,将助力高等教育界驾驭由人工智能技术所引发的快速变革。
成本问题
随着生成式人工智能的普及,人工智能功能逐渐被添加到各种技术工具和系统中,高校需要解决使用生成式人工智能技术所带来的成本和资金问题:
- 目前,人们对与人工智能相关的成本缺乏了解,尤其是那些看似免费的服务。
- 编制人工智能相关预算时,需要更高的透明度和认识。
- 随着人工智能技术的成熟,用户要更好地了解所涉及的直接和间接成本。
随着人工智能功能日益融入现有的软件与产品,高等教育领域面临着一系列挑战,不仅包括采购方面的挑战,还包括另一个重大挑战:高校必须了解,通过更新应用软件也可能会引入人工智能功能,导致额外成本的增加。要应对挑战的同时探索人工智能技术,就应采购并使用那些经过严格审查、专为特定目的设计(尤其是学习/学生应用)的本地化、可控的人工智能环境。在负责任地使用和实践尚处于早期发展阶段时这么做,将大大有助于支持人工智能在高校中的成功应用。
教学问题
生成式人工智能工具带来的一个关键挑战是,如何切实有效地利用它推动师生的发展。教师需要理解和批判性地评估人工智能的产出,在创新和提升数字素养之间取得平衡。为此可采取多种方法,如将人工智能融入课程设计中,营造批判性思考氛围等。
在人工智能生成内容的背景下,归属权问题引发了各种伦理考量。无论是学生、教师、职工,还是其他人,都有责任承认人工智能在产品创作中的贡献。值得注意的是,在创作中运用人工智能技术,不仅会导致知识产权的归属难以确认,还可能会影响对多元观点的包容。
政策制定
生成式人工智能给高等教育带来的后勤、伦理挑战,凸显了制定积极灵活的政策、开展对话和跨学科合作的必要性。和许多技术一样,围绕人工智能制定政策的棘手之处在于,它始终处于不断变化的状态:技术发展迅猛,而人们对其影响的认知往往具有滞后性。因此,切实可行的方法也许是,制定一套指导原则和伦理框架,以适应技术的变化和解决新浮现的伦理问题。
对人工智能政策制定的探索可包括以下部分或全部步骤:
- 进行全面的政策梳理与评估。不仅要起草新条款,还要审查和更新现有条款。
- 审查现有政策对于人工智能的适用性。鉴于应用人工智能可能会导致原条款失效(如从前的剽窃相关政策并未考虑人工智能的影响),因此要考虑潜在风险,并据此修订相关规则。
- 在校园内部推动跨部门对话,并鼓励学生参与进来。及时掌握人工智能技术的最新进展,特别是那些已融入日常学习中的技术,以确保技术的合理应用和公平整合。
- 创建工作组或行动小组,探索和跟踪人工智能应用案例,应对复杂局面。这一举措类似于应对新冠大流行期间所必需的协同工作模式。
另一种引入人工智能政策的创新方法是在更广泛的议题背景下展开讨论,如将其融入学术研究与人力资源管理等领域。在深入探讨政策的具体细节前,先营造信任与理解的氛围。这样做的目的是引导利益相关方就人工智能、其影响及高校价值观展开有意义的对话。
在制定人工智能相关政策或框架时,高校可考虑的其他步骤包括:
- 评估现状(本校及其他学校)。了解当前校内人工智能的使用情况。确定人工智能的使用范围、涉及的数据类型以及对师生的影响。
- 让利益相关者参与。让各利益相关方共同参与讨论,包括教师、学生、技术专家、职工以及法律专业人士等,了解各方观点对于制定全面的政策至关重要。
- 明确现行政策。审查并阐明与数据隐私、学术诚信及道德行为相关的现有政策。确保在必要时将人工智能相关因素融入其中。特别要注意的是,针对人工智能可能引发的新型学术不端行为,应制定有针对性的专项政策,作为现有剽窃政策的有效补充,而非替代。同时,编制一份操作手册,以引导和激励校内有效实践。
- 了解人工智能供应商的政策。思考如何对来自第三方工具或嵌入第三方工具的人工智能技术进行政策方面的约束。
- 校内培训。为教职员工和学生提供有关人工智能技术的培训,帮助他们了解与人工智能相关的潜在优势、风险和伦理问题。
- 确定伦理原则。制定一套适用于学校内部人工智能技术的伦理准则,重点关注透明度、公平性、责任的可追溯性以及个人隐私保护等方面。
- 进行风险评估。系统评估与人工智能相关的潜在风险,并制定应对策略。举例来说,某些人工智能合同条款允许将学生提供的数据用于开发新产品,因此,制定政策时要评估学生福祉、学术诚信、学术研究和数据安全等方面的影响。
- 制定迭代计划。要认识到人工智能技术和伦理因素在不断发展,要建立一个灵活的框架,以便随着技术和道德规范的发展,不断对相关政策进行迭代和调整。
- 政策宣传。清晰地制定人工智能相关政策,定期在校园中进行宣传,确保所有成员充分知晓与人工智能使用相关的规范、期望以及可能产生的后果。
- 实施全面的监控与审计。建立健全机构内部人工智能应用的监测与审计机制,定期评估其对道德原则的影响和遵循情况。与其他机构合作。
- 与其他高校或组织合作,分享见解、最佳实践和集体智慧,同时探索教育领域的人工智能伦理问题。
- 制定人工智能工具相关协议。制定政策和/或指导方针,解决教学中可能使用的工具在隐私、安全和质量方面的问题。
人工智能应用案例
据2023年4月EDUCAUSE一项快速民意调查显示,人工智能的用途可分为四类:献策(帮助思考)、减负(减轻工作强度)、设计(构建工作内容)和推进(推动工作进程)。以下案例展现了人工智能如何服务于多样化的用户需求。
- 学生辅导:采用人工智能协助辅导学生,简化流程,提供个性化指导。
- 临床治疗与研究:探索人工智能在临床治疗和研究中的应用,探索医疗保健和医学领域的潜在进步。
- 文学创作:给文学专业学生布置与ChatGPT互动的任务,让学生化身书中人物展开讨论,从而展示人工智能的创造性和教育性。
- 虚拟助教:利用人工智能作为虚拟助教,为教育辅助工作贡献力量,减轻教育工作者的负担。
- 编程和生成脚本:使用人工智能生成脚本和代码,展示在编程和内容创作中应用。
- 视频制作与分析:让人工智能参与视频制作,包括分析调查结果、为在线课程生成视觉效果、提供多语言音频及对作业指南和评分标准进行测试。
- 虚拟导师:测试各种语言模型作为特定主题虚拟导师的效果,评估其对学生学习的影响。
- 复杂流程设计:利用人工智能管理复杂的设计和开发流程,为教学内容的创作提供有效的改进方案。
- 无障碍访问功能升级:使用人工智能工具对学习媒体进行整体无障碍升级,确保包容性。
- 在线课程生成:利用人工智能整合不同高校内容,生成在线课程,揭示教育领域中潜在合作的可能性。
- 绩优原因分析:运用人工智能生成与学生绩优相关的分析数据,为改进教学提供建议。
- 变更管理计划:围绕升级、维护和服务方面制定沟通方案,变更管理计划。
- IT响应能力研究:对IT响应能力、灾难恢复和应对勒索软件的准备情况进行研究和验证,展示人工智能在增强IT安全方面的作用。
以上案例,以及其他从人工智能相关文章中收集的案例,应结合高校实际情况进行补充完善、归类整合,并分配给高校的各工作组,以便进行深入探究和跟踪成果。
引领职责与伦理考量
高等教育机构在塑造人工智能的未来格局方面可发挥重要作用。在搭建学术界与人工智能服务提供商之间合作桥梁方面,高等教育机构肩负重任,应致力于推动符合道德标准的人工智能工具的设计。现实中,许多人工智能工具在开发阶段并未设置有效的使用准则或警示机制,可能导致误导性或不准确的内容产生,这进一步凸显了负责任地开发和使用的重要性。高等教育机构与人工智能服务提供商的合作,可推动负责任的人工智能的开发和应用,确保人工智能符合学术界的目标和价值观。
要记住,我们的目标不仅仅是制定政策规范,而是在高等教育领域培养一种负责任地使用人工智能的文化,同时提升教育教学。应将伦理考量融入教育和技术架构中,倡导深思熟虑、目标明确且以人为本的人工智能开发。要培养鼓励质疑、批判性思考的思维方式,确保人工智能成为赋能工具,而非人类智慧的替代品。
本文刊登于《中国教育网络》2024年2-3月合刊
来源:EDUCAUSE
翻译:东南大学 杨望
责编:项阳