ChatGPT火热“出圈”,我们如何应对新挑战( 二 )


ChatGPT带来惊喜的同时 , 也引发不少教育界人士的担忧 。 它能代写论文、代编程序、代发邮件 , 甚至可以代为参加线上考试……而眼下最紧迫的问题就是 , 学生开始用它来完成各种学习任务 。 高校中的论文尤其是本科生论文 , 在这一AI新工具的加持下变得“真假难分” 。 这一“作弊神器”的流行 , 也让多所欧美知名高校不得不发出禁令 。
对此 , 华东师范大学课程与教学系副系主任杨晓哲教授直言 , 对ChatGPT进行一刀切的“封杀” , 无异于做无用功 。 他的看法恰恰相反 , 不仅不该禁止 , 而是应该倡导并教会学生使用这一新技术、新工具 。
“如今 , 各行各业与人工智能的结合都更加深入 。 学会与AI合作 , 将是今后每个人必备的能力 , 也是未来的大势所趋 。 ”在即将到来的新学期 , 杨晓哲正计划把使用ChatGPT作为一项学习任务引入课堂教学 , 并鼓励学生们使用、挖掘它的更多功能 。
同为大学计算机学院的教授 , 彭鑫目前还不太担心学生作弊 。 他以软件工程为例 , ChatGPT确实可以帮忙编写部分代码 , 但软件工程项目的需求复杂多变 , 它目前还无法理解、也不擅长持续跟踪这些需求 。 “我比较重视的是过程——在编代码的过程中 , 学生每一步的表现如何 , 具体到设计、协作、测试 , 这些都需要人的思考 。 ”
知名学术期刊更新编辑规则:AI不能成为作者?
更多的学界人士认为 , ChatGPT的出现给现有的学术诚信体系造成了混乱 。 首要的问题是评价:借助这一“神器”而一秒生成的论文 , 是否属于抄袭或学术不端?未来 , 原创该如何定义?
近日 , 《科学》主编索普在题为《ChatGPT很好玩 , 但不能成为作者》的文章中直陈 , 在不到两个月的时间里 , ChatGPT已经成为一种文化轰动现象 , 且对科学界和学术界造成严重影响 。 他预计 , 今后这种借助AI工具生成的文本将会更多 。 但索普强调 , 人工智能程序不能成为作者 。 如有违反 , 将构成科学不端行为 , 这与篡改图像或抄袭无异 。 《自然》也发表文章指出 , ChatGPT等工具威胁着科学的透明度 。
针对使用ChatGPT撰写的学术论文 , 目前 , 《科学》《自然》《细胞》《柳叶刀》等一批知名学术期刊正在更新编辑规则 , 归结起来 , 主要内容大致是:任何AI工具都不能成为研究论文的署名作者 , 因为任何作者都要对所发表作品承担责任 , 而AI工具无法做到这点 。 同时 , 如果研究人员使用了有关程序 , 应该在方法或致谢部分加以说明 。
“AI是个聪明的助手 , 但它只是助手 。 虽然人和机器的分工发生了变化 , 但最终的决策和责任还是得由人来承担 。 ”为了说明这一点 , 彭鑫以AI绘画为例 。 目前 , 随着技术的发展 , AI已能集众家之长、以不违和的方式重新进行加工整合 , 生成一些插图或画作 , 甚至参赛获奖 。 普通人对此或许无法分辨 , 笼统地称之为创作 。 “但AI绘画和真正人类大师的创造 , 依旧不能相提并论 , 行家一眼能看出来是不是原创 。 ”与此同时 , 他也表示 , 随着AI不断迭代升级 , 真正替代人类进行创作的强人工智能说不定在未来的某一天会到来 。
当然 , 在当前的新形势下 , 人的独立思考和原创的价值也将更加凸显 。 杨晓哲直言 , 无论是AI写诗、AI绘画 , 或许 , 就一些具体作品来说 , 合成的作品和个人原创的边界正变得越来越模糊 。 但是 , 对AI生成内容的判断 , 以及最终生成作品的逻辑 , 包括观点提炼等 , 最终还是要由人来完成 。 而更加重要的是 , “AI始终是基于历史中的知识和经验生成答案 , 但它不具备在专业领域的推演能力 。 简单来说 , 就是针对新问题 , AI无法精准判断当下最需要什么” 。