小言_互联网的博客

假如大学无法分辨论文作者是人类还是AI,会发生什么?

505人阅读  评论(0)

全文共3076字,预计学习时长6分钟

图片来源: Caiaimage/Sam Edwards/Getty Images

不论你在学生时代成绩优异还是游手好闲,考场总能带来令人不快的回忆。考试不仅让大多数人感到痛苦,还会激发焦虑和其他精神疾病,且难以检验学生的批判性思维和创造力。有人认为,一些高薪职业和名牌大学不应该把时间紧迫的考试当作准入门槛。

鉴于这种情形,考试和测验逐渐退出历史舞台应该是件好事。校长和教授们提议用议论文和习作这类更加灵活、时间更宽松的评价方式来代替考试。新加坡拥有世界领先的应试教育体制,但它已经基本废除了考试评分制度(仅对小学阶段保留)。与此同时,线上教育大受欢迎。在过去的十五年间,修读线上课程的学生数量增长到原来的四倍。

然而,在线和写作测评的潮流遭遇了一个劲敌:人工智能。在不久的将来,学生们将能够使用复杂AI工具来代替他们“写”出高质量论文。

今年早些时候,OpenAI(一家由埃隆·马斯克和萨姆·阿特曼创办的人工智能研究公司)针对他们所研究的新的文本生成算法GPT-2的危险性提出了警告。当时,OpenAI对于GPT-2根据指令生成复杂文本的能力不太满意。他们使用8百万个Reddit页面训练了GPT-2(可怜的人工智能)。

如果学校无法分辨作业的作者是人类还是算法,现存的评分系统将丧失选拔人才的功能,并有违公平性。

当然,大多数学生无意以作弊的方式完成大学学业。但是作弊现象正变得越来越普遍。一项针对英国顶尖大学的研究发现,2016-2017年度发生了3721起学术不端行为,比两年前的调查结果高出40%。也许在未来,懒惰或不诚实的学生无需刻苦学习,也无需掌握知识,就能在人工智能的帮助下胜过其他学生。另一方面,成绩优异的学生可能也会被诱惑着作弊,在药学和法学这样竞争激烈的领域里争取更大的优势。

当今神经网络的能力

笔者对以下句子使用了GPT-2算法。

 

担心AI会被心术不正者滥用,OpenAI目前只发布了GPT-2的早期较弱版本。

下面是算法返回的结果:

 

目前,GPT-2使用二元查找算法。这意味着它的输出可被看作一系列“真实”的规则。如果OpenAI是对的,它最终可能开发出一个完全图灵程序,一个可以使用遇到的数据进行学习和自我改进的机器。这就是为什么OpenAI会威胁到IBM自身在机器学习和人工智能领域的目标,因为比起人类,它必然能制造出更好的模型用于改进未来机器的系统。但是有一点需要注意,并不是所有新的人工智能都能做到这一点。只有某种特殊的人工智能可以使用深度学习习得必要的规则、算法和数据,使得机器能够达到任何程度的人工智能水平。

不管读者相不相信,笔者完全没有编辑过这个结果。读者可以自行在Talk to Transformer网站上测试GPT-2算法(https://talktotransformer.com/)。诚然,上面的扩写样例并不惊人:它包含一些写作错误,经过检查之后会更加连贯。一名来自OpenAI的高级工程师Irene Solaiman向OneZero保证,现有的人工智能文本生成模型能力有限,难以完成长篇文本。Irene Solaiman认为,不经大幅修改,GPT-2难以产生合格的学术论文。

高级文本生成人工智能不可能一直被OpenAI这样可信赖的保管者掌控

然而,OpenAI关于GPT-2的报告(https://openai.com/blog/gpt-2-6-month-follow-up/)引用的研究证实,人类可能被AI生成的文本所欺骗。在一项研究中(https://www.foreignaffairs.com/articles/2019-08-02/not-your-fathers-bots),GPT-2生成的例文几乎和《纽约时报》的文章可信度相当(72%的受访者认为GPT-2生成的例文可信,而83%认为纽约时报的文章可信)。不难想象,即使是一个有缺陷的人工智能,比如GPT-2的升级版,也能比大学中沉迷社交、无心学习的学生们表现得更出色。

而且,复杂的文本生成人工智能不可能一直被OpenAI这样可信赖的保管者掌控。一方面,部分技术可能已经被一些计算机科学专业的大学毕业生们重现。另一方面,几个月之后OpenAI就将向全世界发布GPT-2的最先进版本。一份报告提到(https://openai.com/blog/gpt-2-6-month-follow-up/), OpenAI小心谨慎的发布行为值得表扬,但是迄今为止没有出现大规模的恶意使用并不能保证未来这项技术不被滥用。除了遭到大规模滥用的风险(比如攻击性的假情报宣传战),在相对小规模的作弊行为中使用类似GPT-2的工具也可能逃避监管。

鉴于学生群体对这类工具的潜在需求,具有商业头脑的程序员针对这一群体开发出复杂文本生成工具只是时间问题。目前大学使用的学术诚信检验工具无法识别人工智能写出的文本。TurnItIn这样的学术诚信检测机构仅仅判断抄袭,甚至无法找出枪手。人工智能可以大规模利用这一漏洞。尽管文本生成人工智能从数据库中获取资源,但它们并不抄袭,因此躲避了现有的反抄袭工具的监测。

幸好,目前这种滥用还仅仅是一种可能性。或许还需要很多年,人工智能才能对复杂问题给出可信的答案。同时,研究人员将致力于开发能够消除这一威胁的工具。哈佛和麻省理工的人工智能专家正在开发一种工具,它可以识别可预测的词语模式,以检测甚至能够骗过人类的人工智能生成文本。另一处于开发阶段的工具试图扫描诸如错误表达和未翻译的短语之类的常见机器错误,以识别出人工智能生成文本。

发明能够大规模应用于学校的高效检测工具非常重要——没有适当的防范措施,不断发展的文本生成人工智能就可能对教育领域造成损害。如果懒惰的学生只需购买人工智能工具就能写出优秀的论文,而学校无法分辨文章的作者,任何评分系统都将有失公允。结果是,学校不得不取消任何让A.I.工具有机可乘的习作。这意味着习作、论文和所有网上测评方式的终结。

然而,一名OpenAI公司的科学家Miles Brundage向OneZero提出了一种较为乐观的长期展望。Miles认为人工智能工具最后会像计算器一样融入课堂。

“如果不被违规使用,人工智能有助于生成更长、更有创造力的文本——就像计算器有助于培养需要的技能一样。”Brundage说。

计算器帮助数学和科学相关专业的学生解决了冗长的计算,并且使得一些需要计算器辅助的高级数学课程得以开设。同样地,学校也可能开设利用人工智能的课程。

对于大学而言,无论是反对还是接纳文本生成人工智能这一科技进步,都会面临很多风险,其后果比用更多考试来折磨学生们更可怕。如果受到人工智能的影响,所有在线作业都被怀疑是作弊产物,通过在线课程大规模普及高等教育的宏愿可能永远无法实现。

人工智能始终是一个装满挑战和机遇的潘多拉魔盒。一方面,GPT-2之类的文本生成模型可能辅助写作者,激发他们的创造力。但是与此同时,A.I.却对学术诚信产生威胁——它使得人们不再需要自己努力,损害了基于公平竞争的评分系统。新兴的文本生成人工智能将如何发展(以及学校将如何应对),将同时影响优等生和后进生。

留言 点赞 关注

我们一起分享AI学习与发展的干货
欢迎关注全平台AI垂类自媒体 “读芯术”

(添加小编微信:dxsxbb,加入读者圈,一起讨论最新鲜的人工智能科技哦~)


转载:https://blog.csdn.net/duxinshuxiaobian/article/details/102544022
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场