ChatGPT和新大学教育 - 华尔街日报
wsj
照片: lionel bonaventureGetty Images*编辑说明:在这个未来观中,学生们讨论了聊天机器人和学术不端行为。下周我们将问:“*最近的新闻报道称,社会保障面临2097年前的22万亿美元现金短缺,系统的信托基金目前预计只能覆盖到2034年所需支付的80%。你迄今为止的几乎所有工作都将从你的工资中收取社会保障金,而你大学毕业后的工作将收取更多。你希望在退休时能拿回其中的一部分吗?你希望能在有生之年领取社会保障福利吗?” 学生们应该在1月23日之前点击这里提交少于250字的意见。最好的回答将在当晚发表。
只是一个工具
ChatGPT只不过是一个语言模型。它无法创造新的想法。虽然它可以帮助人们写作和进行头脑风暴,但它无法创造任何实质性的东西。它会虚构证据(就像使用ChatGPT的律师发现它引用了不存在的案例)。它无法理解内容,经常出错。使用ChatGPT的学生因此面临着在提交可能完全错误的作业时犯抄袭的风险。
这些学生才是有错的,而不是ChatGPT。抄袭和虚假论文是学术界长达几个世纪的问题。要解决前者,学生需要检查他们的作业,确保它是原创的;要解决后者,教授们必须对学生提交的作业执行更严格的标准。
ChatGPT只是一个工具,它在能做的事情上基本上是有限的。自上世纪80年代以来,教师和教授们一直对计算器和作弊有类似的担忧,但我们越来越意识到它们的局限性。每年有成千上万的高中生使用计算器参加SAT和ACT考试,很少有STEM课程禁止使用计算器,许多课程要求使用计算器——因为计算器,就像ChatGPT一样,无法取代人类的思维。
—Evan Carlisle,俄亥俄大学,数学
法律工作助手
法学生迫不及待地利用人工智能来简化他们忙碌的生活。教授们已经开始起草新的人工智能政策并纳入教学大纲。一些教授甚至鼓励在课堂作业中使用人工智能——比如在每周的博客文章中。尽管听到了去年一位法官因使用带有人工智能生成的虚假引用的法律文件而对纽约律师处以制裁的警示故事,法学生们仍然看到了人工智能的价值。即使是我更谨慎的同学也信任人工智能来撰写单调的求职信或者复习简单的法律问题。我更不愿冒险的同学使用人工智能来辅助思路生成或者起草法律分析的草稿。
对于一些律师来说,这是一件好事。在大型语言模型爆发之前,人工智能已经开始取代法律工作中的大部分苦差事。通过人工智能,筛选成千上万页的发现材料或案例法,并生成机械的法律术语已经变得更快更容易。在一个使用人工智能的律师可以花更多时间处理困难的法律问题和客户关系的世界里,早期接受人工智能培训的法学生将比他们的反对科技进步的同事更有优势。话虽如此,法律上的苦差事通常不是由昂贵的哈佛律师来处理,而是由法律助理或者小型的地方律师事务所来处理。因此,当穿着白色运动鞋的律师们玩弄ChatGPT时,其他人可能会失业。
—阿伦·鲍姆,哈佛法学院
学术不诚实的便利性
几周前,在考试季期间,一个同学和我坐在一起听讲座。我看到她打开了ChatGPT,并直接将论文提示复制粘贴到程序中。起初,我感到沮丧。我觉得我的诚实学术努力被欺骗了。但讲座结束后,她关闭了笔记本电脑,我很快意识到我不知道她是否打算提交ChatGPT提供给她的论文,就像我不知道这样做的后果一样。
早在小学时,我就记得老师告诉我的同学和我关于剽窃以及给予应有的信用的重要性。人们普遍夸大了人工智能对教育的破坏风险,但我看到它确实为学术不诚实创造了新的机会。如果人工智能可以告诉你在论文中包括哪些观点或想法,那为什么还要上课呢?一半的工作是决定包括哪些观点。我们应该把人工智能视为作弊还是高效工作呢?
—露西·克雷斯韦尔,伦敦国王学院,政治学
我们必须适应
人工智能不会消失,我们需要适应。大多数大学,包括我的大学,已将人工智能使用政策交给了教师,这意味着剽窃的定义实质上并没有改变:未经归属的作品,实质上不是作者自己的,就是作弊。如果学生要作弊,关于聊天机器人的新规则不会解决问题。
一些教授担心作弊的可能性,开始全部用纸张进行考试,但这不是前进的方式。作为一门历史课的助教,我让我的学生使用聊天机器人写论文,然后标出错误并给予评分。大多数人发现这些论文基本正确,但缺乏深度。其他人发现聊天机器人的解释框架并不特别有用。虽然传记事实和简单比较在其能力范围内,但聊天机器人在拼凑来源方面遇到了困难。称这些论文为初出茅庐的是对大二学生的侮辱。
依然,学生们能够实时获得他们想法的反馈,通过与聊天机器人交流来塑造他们的论点。人工智能在定性分析方面表现不佳,但在翻译、模式检测和定量分析方面却表现出色。我们应该教导学生如何将聊天机器人作为工具来使用,而不是通过将研究的艰苦工作交给人工智能来欺骗自己。
—凯文·霍夫曼,耶鲁大学,历史学(博士)
点击这里提交下周未来观点的回应。