生成式人工智能席卷全球,即将对高等教育领域产生深刻变革。虽然一些大学还在观望,学生却没有等待,纷纷成为人工智能工具的活跃用户,给高等教育的教学质量、学术诚信带来了重重挑战。
政策的真空,反映了教育系统还在努力追赶新技术。联合国教科文组织未来学习与创新部主任索比·塔维尔(Sobhi Tawil)表示:“如果大学不提供任何形式的指导,人工智能技术将随意嵌入教育系统,带来诸多不确定性。”如此看来,大学制定应对政策是当务之急。
如何制定教学、评估和学习等方面的政策,让人工智能的应用规范化,让师生从中受益?本文呈现了国外一流大学的政策案例,这些大学都支持教师在课堂中探索生成式人工智能的应用,并对学生的使用进行了规范,然而,各校政策的出发点、细节和深度却有所不同。
有的大学表示,不制定全校层面的政策,鼓励教师自由探索,还搜集了美国其他大学教师的观点、案例供本校教师参考;有的大学强调教师在使用工具时对隐私和安全性的审查职责,并对风险进行了分级;有的大学为教师创新作业形式、改变评估方式提供了指导;有的大学成立了人工智能委员会,为多学科的教学应用绘制了路线图,同时发布了科研和行政管理指南;还有些大学制定了指导原则,承诺将帮助师生成为日益人工智能化世界中的引领者。
杜克大学
杜克大学规定,未经授权使用人工智能将被判为作弊。除此之外,大学没有制定全校层面的政策。杜克大学认为,在快速发展的人工智能技术面前,标准化、“一刀切”的政策忽视了教师自身的立场,从长远看不可取。因此,大学将决定权交给教师,并提供了一份指南,搜集了美国其他大学的教师关于使用人工智能的观点和案例,旨在抛砖引玉,鼓励本校教师制定适合自身课程的政策。
教师要躬行践履
我们鼓励教师使用生成式人工智能。一个开启探索的好方法是,试着将你要给学生布置的作业输入工具,看看会出现什么。你可以对提示词(Prompt)进行充分探索。在考虑工具是否能够对学生起到帮助时,保持好奇和开放的心态。
阐释制定政策的理由
要基于学科本身、知识性内容和你对批判性思维的理解制定政策。可以先问自己以下问题:在课堂中使用工具会给学生带来哪些损失(或收获)?你希望学生了解人工智能的哪些方面?我们鼓励教师向学生解释制定政策的理由,并展开关于人工智能的对话。
教师可参考美国特拉华大学的四种不同表述,结合自身课程情况制定个性化政策。一是禁止使用,二是仅在事先得到许可的情况下使用,三是仅在标注引用时才能使用,四是允许自由使用,无需标注。
来自美国其他大学的三个案例,呈现了教师们的观点。
在西爱达荷大学教师乔尔·格拉德(Joel Gladd)看来,有两个指导原则决定了是否允许在课堂上使用人工智能工具。首先是认知维度,使用人工智能不应降低学生的思考能力,其目标是促进学习,而非阻碍学习。其次是道德层面,学生应对人工智能的使用保持坦承,严守学术诚信。
塞勒姆州立大学教师里斯·霍洛维茨(Lis Horowitz)分享了她的写作课零容忍政策背后的原因:“批判性思维、分析能力和写作是本课程的学习目标,所有内容都必须由学生自己完成。良好的写作能力将成为激烈职场竞争的优势,因此,不允许提交由人工智能生成的作业,否则将被视为抄袭。”
加州大学圣克鲁兹分校的梅根·麦克纳马拉(Megan McNamara)通过定义“诚信”这一概念,指出了学术诚信和个人成长的利害关系。她指出,诚信是人的一生中最宝贵的财富之一,要在学术环境中保持诚信。在她的课上,允许学生以有限的方式使用人工智能,并要对使用保持坦承。
提供使用指导
虽然学生可能已经开始使用生成式人工智能,并不意味着他们知道如何正确使用。教师可以教给学生,如何对由人工智能生成的内容进行引用,提高人机交互时的风险意识。
在引用由人工智能生成的内容时,教师可采取个性化的方法。可以让学生提交与人工智能的对话记录,作为书面作业的附录。也可以让学生交作业时提交一份总结,普利茅斯州立大学教师帕姆·哈兰德(Pam Harland)提供了总结的问题范例:“你的提示词是什么?你是否修改了人工智能生成的内容?你是否提出了后续问题?你学到了什么?”
教师还要教给学生如何在道德框架下使用人工智能,认识其局限性。当学生了解了生成式人工智能的幻觉、偏见和不准确性时,就会明白,为什么使用人工智能不是取得好成绩的捷径。宾夕法尼亚大学沃顿商学院教师伊桑·莫利克(Ethan Mollick)告诉学生:“不要相信人工智能说的任何话。如果它给了你一个数字或告诉了你一件事情,除非你知道答案,或可以通过其他渠道核实,否则就要认为它是错的。你要为引用人工智能带来的所有错误负责。因此,最好在你理解某个主题的情况下使用人工智能工具。”
规定使用方式
如果教师允许学生在课程中使用生成式人工智能,就要说明在哪些情况下可以使用,以下是两位其他学校教师的观点。
德克萨斯大学教师金姆·坎贝尔(Kim Campbell)明确定义了学生可以要求人工智能执行的任务。比如写作前,可以用来研究主题、收集体裁样本、集思广益、拟定提纲等。写初稿时,可以支持某些内容的生成。写作后,可以用来修改风格、拼写、标点、语法等。
霍华德法学院教师霍华德·布鲁克纳(Howard Bruckner)告诉学生:“生成式人工智能对于产生想法、确定资料来源、综合文本以及开始了解某个主题的基本内容很有价值,但你必须构思、制作和验证你的内容,而不能不做思考地复制粘贴。”
如果允许学生使用人工智能工具,那么教师可能就要在每次作业中附上具体的使用原则。
加州大学伯克利分校
具体到生成式人工智能工具在教学中的应用,加州大学伯克利分校强调,ChatGPT并非本校所支持的工具,本校尚未审查可访问性、隐私和安全性。同时表示,使用决定权在于各院系和教师,若教师选择在教学中使用ChatGPT,就有责任审查这方面的问题。学校给教师提出了几个指导原则,一是要告诉学生,哪些行为属于对ChatGPT的使用不当。二是帮学生认识到独立思考、自主写作的意义。
同时,为了避免将学校、个人和信息置于风险中,加州大学伯克利大学伦理办公室发布了公告,对隐私情况进行了分级,指导全体成员安全使用。
首先是允许使用(保护级别为一级)的情况,即可自由使用ChatGPT的公开信息。一级内容指的是供公众查阅但要确保完整性的信息,如面向公众的信息网站内容、课程列表、公共活动日历、已发表的研究成果等,使用时应遵循学校的指导原则。
其次是禁止使用的情况,即不得使用任何个人、机密或其他敏感信息。一般来说,不应使用受家庭教育权利和隐私法(FERPA)保护的学生档案,以及任何其他被列为保护级别为二级、三级和四级的信息。其中,二级内容指的是机构信息和信息技术资源,通常不供公众访问。如考试卷和答案、使用公开数据的非公开研究、校职工编号、图书馆付费订阅的电子资源等。三级内容指的是未经授权使用可能导致罚款、处罚或民事诉讼的校园信息和IT资源,如安全摄像头记录、可识别个人身份的位置数据、IT安全信息和系统安全规划等。四级内容指的是在发生泄密事件时需要通知受影响各方的校园信息和IT资源,如身份证号、银行账号、个人医疗保险信息、财务信息、高风险出口管制数据或技术等。
再次,大学规定,不得使用ChatGPT生成被视为非公开的内容,包括未发表的研究、法律建议、招聘、人事或纪律决定、以导师不允许的方式完成学术任务、编制非公开教材、评级等。
最后,禁止将ChatGPT用于欺诈和非法活动。
普林斯顿大学
为了指导教师在课堂中使用人工智能,普林斯顿大学提供了一些建议,包括声明政策、告知学习的重要性和创新作业形式以防抄袭。
首先,无论是否支持使用,教师都要在教学大纲、作业任务中声明自己的政策。
其次,教师要让学生知道,自主完成作业有利于学习,并告知学生,保持原创的重要性。
再次,教师应该创新作业形式,防止学生抄袭。以下是作业任务的范例,供教师参考。
一、教师可在ChatGPT中输入作业提示词,了解学生使用它可能产生的结果类型。如有必要,修改作业任务。
二、布置需要批判性思维(分析、比较、应用)的作业,而非ChatGPT擅长的信息总结型作业。
三、要求学生在答题时引用课堂讨论或示例。
四、鼓励学生将课程内容与自己的观点和经历结合。
五、布置精读作业,要求学生分析特定文章节选。
六、要求学生展示思考过程,如给解决方案加注释,使用思维导图。
七、让学生以小组形式使用社交注释工具阅读和回复文章。
八、鼓励创造性思维,要求学生以制作图像、上传播客或视频等方式提交作业。
九、采用面对面的评估形式,如课堂写作练习或测验。
十、布置口头作业,如演讲、辩论或角色扮演。
十一、让学生逐步提交不同进度的作业,如提纲、半成品、初稿等,呈现思维脉络。
最后,如果教师认为学生应该在作业中使用人工智能工具,那么可以参考以下方式。一是要求学生在ChatGPT中输入提示词并思考,更换提示词是否改变了输出内容?有效提示词的特点是什么?二是在学生阅读并讨论了指定文本后,邀请他们分成小组,向ChatGPT询问有关文本的问题,并评估生成的答案。三是学生完成作业后,再用ChatGPT生成一份答案,要求学生评判后者。
康奈尔大学
康奈尔大学成立了人工智能委员会,陆续发布了教学、科研和行政管理使用指南。
康奈尔大学强烈鼓励教师将人工智能纳入学习成果,培养学生的批判性思维和面向未来的技能,要教学生认识技术的缺陷,还要明确传达课程关于使用人工智能的要求。
在教学指南中,委员会为写作,音乐、文学和艺术,社会科学,数学、物理与工程,编程和法律等专业制定了详尽的路线图。
写作课的目标是提升判断力和思辨力,培养写作技能。因此,使用工具将影响批判性思维的建立,阻碍写作水平的提升,导致同质化产出。因此,只有在教师的指导下,学生才能使用工具。比如可以让工具生成大纲,学生修改;工具集思广益,学生评判;工具生成资料来源清单,学生评估。
对于音乐、文学和艺术创作等专业,过度依赖工具会阻碍创新。为了让学生发展创意视角,培养设计意识,教师应明确禁止使用工具,可以在教学大纲中加入对构建大语言模型的数据源进行批判性讨论的环节。
社会科学领域侧重对文本的分析、阐释和写作,而写作是培养学生研究和分析能力的重要手段。因此,教师应禁止学生使用工具。可以要求学生提交对课堂材料的反思性总结,或要求学生整合某几节课的内容进行写作,提升学生使用工具完成作业的困难度。此外,还可以将人工智能纳入课程大纲,在课堂中讨论。
对于数学、物理和工程专业,人工智能可助力这些领域的教学。当前,人工智能最大的问题是幻觉和循环推理,教师要让学生了解人工智能的能力和局限性。需要培养学生的基础技能时,禁止使用工具;可以提高学习效率时,鼓励使用工具。
编程是最需要教师纳入未来规划的领域之一,然而如果学生产生依赖,将不利于充分释放编程潜力。因此,入门课可利用人工智能充当助手,帮学生改bug。在更注重应用的课程中,直接生成代码可激发学生的好奇心,让学生快速达到高水平。在更高级的课程中,学生要面对复杂的应用程序接口和框架,以及其他编程语言,人工智能可以成为“涡轮增压器”,减少查阅教程和文档的时间。
法学院一年级的课程主要传授法律知识、培养分析技能,应禁止学生使用工具做作业,并采取当堂考试的形式。随着生成式人工智能在法律实践中的应用越来越广泛,法学院应在二、三年级的课程中加入人工智能相关内容,帮助学生掌握技能。在法律执业中使用人工智能的道德和实践问题,应该在法学院里得到解决,为学生入行做好准备。
英国罗素大学集团
由包括剑桥大学和牛津大学等24所英国研究型大学组成的高校联盟——罗素大学集团制定了一套指导规则,承诺罗素大学集团将帮助师生成为日益人工智能化世界中的引领者,以下是指导原则的部分内容。
原则一,大学将支持师生建立良好的人工智能素养。全校师生要认识到人工智能工具的局限性,包括隐私和数据风险、偏见、信息不准确和曲解、道德和剽窃风险。
原则二,教师应帮助学生正确使用生成式人工智能工具。大学将在使用工具支持教学、评估和研究等方面对教师进行培训。对工具的使用情况可因学科而异,鼓励各学科根据实际情况应用。鼓励师生共同参与和对话,建立共识。
原则三,大学将调整教学和评估,确保合乎道德和平等使用。各大学和学科根据自身情况调整教学和评估方法。教师可以设计课程和评估方式,并酌情使用工具。随着技术发展和付费模式兴起,大学要努力确保全体师生对工具的平等获取,以支持教学和学习实践。
原则四,大学将确保学术诚信得到坚守。各大学均已审查和更新各自的学术行为政策指南,致力于保持政策的清晰透明度。要创造畅所欲言的环境,允许学生针对人工智能的使用提出问题,发起公开讨论而不必担心受到惩罚。
原则五,大学间将相互协作,分享实践成果。大学、学生、产业和专业机构要通力合作,不断审查和评估政策及其执行情况。采用跨学科方法促进合乎伦理地使用人工智能至关重要。
2023年5月联合国教科文组织的一项调查显示,在接受调查的450所学校中,只有不到10%的学校出台了有关人工智能的指导意见。在新技术面前,全球教育界的行动显得有些迟缓。应对日新月异的人工智能,大学要用敏捷和迭代的方法来制定政策,否则,将永远努力追赶技术创新的无情步伐。
来源:各大学官网
整理:余秀、陈茜