阅读提示:ChatGPT在解决问题时也存在一定的缺陷,诸如前沿性、创新性、逻辑性等,都还存在显著的不足。越是核心的知识创造,AI越是无能为力。ChatGPT目前的热度有新鲜感的因素,真正的学术研究和创新,还是需要真正的脚踏实地的科学探索。
一篇结构完整的学术论文也许只需要几分钟就可以完成,你相信吗?
不管你信不信,这已经成为现实。由美国人工智能实验室OpenAI于去年11月发布的AI工具ChatGPT,以令人目瞪口呆的速度在全球迅速走红,因为它除了可以回答问题,还让创作诗歌、编写代码、撰写论文这样人脑都觉得复杂的事情变得易如反掌。
随着其热度飙升,质疑和争议也随之而来,尤其是教育和学术界,对这种技术可能引发的滥用问题忧心忡忡,甚至开始下禁令来构筑“防火墙”。
“捉刀”论文作业引发担忧
这段日子,ChatGPT风靡海外教育圈,莘莘学子迅速就发现了这款人工智能工具带来的好处,用它来完成作业和论文,可以少死多少脑细胞,可以多睡多少囫囵觉。现状可以用一句话来形容就是:学生用得不亦乐乎,老师们“防不胜防”。
斯坦福大学校园媒体《斯坦福日报》的一项匿名调查显示,大约 17% 的受访斯坦福学生(4497名)表示,使用过 ChatGPT 来协助他们完成秋季作业和考试。
据海外媒体报道,由ChatGPT代写作业,已经成为美国大学的一种现象。在线课程供应商Study.com面向全球1000名18岁以上学生的一项调查显示,每10个学生中就有超过9个知道ChatGPT,超过89%的学生使用ChatGPT来完成家庭作业,48%的学生用ChatGPT完成小测验,53%的学生用ChatGPT写论文,22%的学生用ChatGPT生成论文大纲。
去年 12 月,弗曼大学哲学助理教授 Darren Hick 给学生们布置了一篇 500 字的课后文章。明明是一个没有难度的作业,他却发现居然有学生用 ChatGPT 来完成。Darren Hick表示,ChatGPT的免费和即时性,及其超强的自然语言处理能力,令很多学生动了“歪脑筋”,他们会将有关文字写作的作业,交由ChatGPT来完成,而一般人几乎难以分辨真人和机器所写的文章有何不同。他还表示:“可能在 ChatGPT 之后的升级优化中,这些痕迹将更难发现。”强大的 AI 生成,让 Darren Hick 感到极度恐惧。
据《纽约时报》1 月中旬报道,北密歇根大学的哲学教授 Antony Aumann 在为自己任教的一门世界宗教课程评分时,读到了一篇没有错别字和语法错误的“最佳论文”,简洁的段落、恰当的举例和严谨的论据,让教授倍感意外。不料最后发现,这篇论文是学生用 ChatGPT 完成的。事实上,美国已经有大学生用ChatGPT写论文,获得了第一名。
ChatGPT同样在某些考试中展示出惊人的能力。2022年12月发表于医学预印本资料库medRxiv上的论文显示,ChatGPT在一项实验中已经接近通过美国医学执照考试(USMLE),而普通的美国医学生需要四年的医学院教育和两年的临床轮转,才能通过这一考试。
上月,宾夕法尼亚大学沃顿商学院教授Christian Terwiesch发表了一篇名为《聊天工具ChatGPT会获得沃顿商学院的MBA吗?》的文章,介绍在其MBA课程的一节核心课程的考试中测试ChatGPT,结果发现ChatGPT获得了一个介于在B和B-之间的稳定分数,并超过了课程中的大多数学生。
多所美国名校的学生用ChatGPT“捉刀”代替自己写论文或完成考试,并表现出顶级水平。这意味着,ChatGPT已经可以从事初级的乃至更高水平的学术研究。
美国期刊《金融研究快报》上此前刊登了一篇有关 ChatGPT 的研究报告。报告显示它可以独立撰写出一篇金融论文,并且论文内容能被相关的学术期刊所接受。
果然,除了教学环节,学术界的科学文献中也已出现了ChatGPT的身影,并且竟然以作者身份出现在了学术论文中。
比如,2022年12月一篇由香港人工智能药物研发公司Insilico Medicine发表的利用ChatGPT推测雷帕霉素应用的文章中,ChatGPT被列为第一作者,引发业内争议。前述发表于医学预印本资料库medRxiv上,研究ChatGPT在美国医学执照考试中表现的论文中, ChatGPT也被列为作者。
再比如,2022年12月27日,美国西北大学的 Catherine Gao 等人在预印本资料库 bioRxiv 上发表的研究论文,研究团队通过使用ChatGPT 编写出了令人信服的研究论文摘要,原创分值100%,并通过剽窃检查,甚至人类科学家都难以分辨真假。
据权威学术期刊《自然》新闻部报道,截至目前,ChatGPT已经作为合著作者,出现在至少四篇已发表的论文和预印本中。
用AI写论文,太容易了。《自然》于去年12月进行的一项调研显示,293名受访的教授老师中,20%已经发觉或目睹学生在用ChatGPT完成作业或论文。对于这种现象,一位加拿大作家Stephen Marche痛心疾首地呼吁:大学的论文已死!
同时,许多科学家开始担忧ChatGPT杀入学术圈可能带来的学术混乱。虽然将ChatGPT列为作者的论文大多涉及人工智能,甚至内容本身就与ChatGPT相关,但还是引发了学术界的担忧和争议。
教育学术界祭出“封杀”大招
面对ChatGPT的“兴风作浪”和由此引发的学术界的担忧和争议。《自然》《科学》这样的顶级学术刊物终于坐不住了,纷纷开始对ChatGPT出台使用限制措施。
《科学》近日发表了一篇标题为《ChatGPT很有趣,但它不是作者》的文章明确指出,禁止在投稿论文中使用ChatGPT生成的文本。因为《科学》要求投稿论文必须是原创的,所以不能抄袭ChatGPT生成的文本,更不能将ChatGPT列为论文作者。
《科学》系列期刊的主编Holden Thorp则公开表示,在《科学》及其子刊中发表的学术文章,不允许将AI列为论文作者。他表示,在没有适当引用的情况下使用人工智能生成的文本,可能会被视为剽窃。目前,《科学》系列期刊正在更新相应的许可证和编辑政策,明确规定由ChatGPT(或任何其他人工智能工具)生成的文本不能在作品中使用。
《自然》则在更新的投稿规则中表示,可以在论文中使用大语言模型生成的文本,其中也包含ChatGPT。但大语言模型只是一种工具,应该在论文的方法部分适当介绍,不能将ChatGPT列为作者。
1月3日,国际机器学习会议(ICML)发布2023论文征稿公告,会议要求所有研究者,包括审稿人,禁止使用大型语言模型(LLM)编写论文,如ChatGPT。
目前,全球范围内的期刊编辑、研究人员和出版商正在争论这类人工智能工具在出版文献中的地位,以及将机器人列为论文作者是否合适。学术期刊出版商爱思唯尔(Elsevier)相关人士在接受英国《卫报》采访时表达了和《自然》相似的观点。
据《自然》新闻部援引多家出版商和预印本平台观点,由于无法对科学论文的内容和完整性负责,ChatGPT等人工智能不符合论文作者的标准。不过,有一些出版商表示,除了署名的问题外,人工智能对论文写作其他方面的贡献可以得到承认。
“在知情同意论文投稿,对论文负责,以及论文修改方面,我认为目前的AI是无法符合的。”在美国密歇根州一所公立研究型大学攻读博士学位的张森在接受国内界面新闻采访时表示,“这是学术共同体数百年来无数次博弈之后形成的一套比较固定的规则。鉴于AI目前还无法在这套规则下参与研究工作,我觉得比较合适的方法是把AI的贡献列入论文末尾的声明部分。”
根据国际医学杂志编辑委员会(ICMJE)的标准,确定为论文“作者”地位需要同时满足四个条件,包括对论文的构思或设计有实质性工作;或采集、分析或解释数据;起草或者深度修改论文重要的知识内容;最终版本的确定,并知情同意论文投稿;以及同意对工作内容负责,以确保能回复调查及解决与研究工作准确性及诚信有关的问题。
除了学术界拿出了限制规则,教育界也对ChatGPT启动了“封杀”措施。
美国纽约的教育部门也发现了ChatGPT可能带来的某种危害,在1月3日正式颁布了“ChatGPT禁令”,不管是老师还是学生,都无法在纽约市公立学校的网络和设备上使用ChatGPT。
针对学生们屡禁不止的用ChatGPT完成作业和论文的行为,斯坦福大学近日打响了对ChatGPT的“反击战”。斯坦福研究人员推出了 DetectGPT,旨在成为打击高等教育中机器生成文本的首批工具之一。DetectGPT同样是一款AI工具,可以检测出基于大型语言模型生成文本的特定倾向,从而可以判断文本是否是 AI 生成的。
华东师范大学元宇宙与数智人实验室首席专家、元宇宙与虚实交互联合研究院院长赵星告诉新民周刊记者,当前已经有一些评估查验手段来检测出使用ChatGPT的论文,思路是使用人工智能对抗人工智能。目前市面上已经有应用,甚至ChatGPT的发布公司OpenAI也已经开始推出AI检测工具,如OpenAl GPT-2 Detector,其他也包括Text Analysis Toolkit等。人生智能生成内容有痕迹可循,进行内容检测技术上是可行的。
此外,英国大学表示,它正在密切关注这一问题,但还没有积极解决。而澳大利亚高等教育独立监管机构TEQSA表示,各个院校需要明确定义自己的评估规则,并将信息传达给学生。
记者询问了上海的几家高校,均表示尚未对ChatGPT出台限制措施,这可能与ChatGPT在中国国内的使用条件有关。不过赵星透露,国内也有不少学术期刊和学者在开始讨论与研究这一课题。
上图:人工智能对抗人工智能是不是一种好办法?
正视技术的挑战与进步
一系列纷至沓来的“封杀”,在一定程度上证明了ChatGPT的强大。不过教育和学术界是否一定要将ChatGPT视为“洪水猛兽”,认为其有百害而无一利,有不少业内专家学者也发表了不同看法。
有学者表示,在知识门槛较高的高等教育行业,也被多场景广泛应用。如果将ChatGPT合理运用在正确场景,也可能提升科研工作者的生产力。
比如快速检索领域相关文献:ChatGPT可以快速检索某个特定领域的相关文献资料,或针对某个话题搜索相关的研究方向,这在所有论文的文献综述、研究者的科研方向探索层面会有一定助益。在阅读文献过程中,可能遇到篇幅较长的内容,此时也可利用ChatGPT进行要点总结。此外,基于期刊发表语言要求,ChatGPT也可以指导写作,润色语法,帮助作者减少在论文撰写中出现语法错误,优化文字表述。
当然,运用ChatGPT虽然可以快速生成回答,甚至超出预期响应你的需求,但不能保证信息正确,技术伦理问题也有待商榷,局限性依然存在。
宾夕法尼亚大学沃顿商学院教授Terwiesch表示,ChatGPT的用户体验和给出的答案让他感到敬畏。不过,他也指出,ChatGPT在一些相当简单的情况下犯了重大错误,在一道题目的答案中出现十倍的偏差,甚至低于一位中学生的学术能力。
“我们有很多理由相信,随着时间的推移,技术正在变得更好。但对于很多复杂的问题,我们仍然需要人类的参与。”Terwiesch教授认为作为教育者,应继续坚持教授学生基础的知识和技能,这是日后理解复杂问题的前提。
赵星教授也指出,ChatGPT在解决问题时也存在一定的缺陷,诸如前沿性、创新性、逻辑性等,都还存在显著的不足。越是核心的知识创造,AI越是无能为力。ChatGPT目前的热度有新鲜感的因素,真正的学术研究和创新,还是需要真正的脚踏实地的科学探索。
他不认为ChatGPT之类工具能在短期内对教育界产生很大的冲击,“教育的过程不仅仅是知识的交流,还需要在与人的交流中塑造人性。ChatGPT通过大量人工的标注,甚至能做到‘迎合’与‘油腻’,但也无法抹去所有对话者都知道它不是人的事实”。赵星说。
在历史上,教育和学术研究是支撑技术突破的两条大腿,但这次产业界实现ChatGPT技术突破,却砸到了教育界和学术界的根脚,这就是学术界和高教界高度警惕的原因。浙江大学马克思主义学院教授潘恩荣在《中国科学报》撰文指出,“人与机”关系重要性提升,未来将上升到和“人与人”关系同等重要的位置。正是由于这样的底层逻辑的变化,使得教育界和学术界关于人工智能及其社会影响的认知出现“误判”而惊慌失措。他表示,人机平权,协同进化。我们就应该承认且正视人工智能的能力。
赵星则认为,ChatGPT技术带来的机遇大于挑战,对教育和学术界而言,与其恐慌,不如思考:为什么我们会一次次被机器打败?他说:“对抗AI进化,不如人以更快的方式进化。教育没能够使得人类很快的进化,这是我们需要反思的问题。”撰稿|阿晖