正文内容 评论(0)
没有公告,OpenAI悄然关闭了AI文本检测工具,页面直接404了。
官方对此没有公开回应,几天后才有人找到一则简短说明,藏在半年前工具发布的博客页面中。
……AI检测器由于准确率较低而不再可用……我们正在研究更有效的文本检测技术,并承诺开发音频和视觉检测技术。
对于CloseAIOpenAI不发公告就杀死一个产品这种行为,很多网友是不满意的。
但是对关闭AI检测器本身倒是有不少人表示赞同,特别是学生群体。
太多老师相信这玩意有效,大量冤枉学生用AI作弊,已经变成了一场猎巫运动。
准确率和瞎猜差不多
这个官方检测工具,准确率究竟有多低呢?
OpenAI自己给出的数据,只能正确识别26%的AI生成文本,同时冤枉9%的人类编写文本。
1月份刚发布时就被网友总结为“和瞎猜差不多”。
另外有人做过实验发现,市面上各种检测工具会把圣经、美国宪法等历史文本都被判定可能为AI编写,总不能写下这些内容的历史人物都是时间穿越者吧?
但还是有很多老师试图用各种检测方法来检查学生作业。
最著名的一次,得克萨斯农工大学一位教授差点判定半个班的学生延毕。
目前最新的趋势是,教师要求学生用在线文档写作业并检查编辑记录,但聪明的学生也能找到规避办法。
最终对于教育领域,有人提出可能大作业/课程论文将成为历史,闭卷考试或口语考试将成为主流。
目前的检测方法都能规避
网友指出,OpenAI同时开发生成和检测工具本身就是矛盾的。
如果一边做的好就意味着另一边没做好,同时还有可能存在利益冲突。
但是第三方开发的检测方法,可靠性也不高。
最早被称为“ChatGPT克星”的是普林斯顿本科生Edward Tian开发的GPTZero,用复杂性和长短句的变化来衡量文章是否由AI生成。
当时GPTZero计划专为教育工作者打造,老师可以把全班学生的作业丢进去检测。
但到了7月份,作者承认已放弃了检测学生作弊这个方向,计划下个版本的GPTZero将不再检测文本是否由AI生成,而是突出最像人写的部分。
另外一个很受关注的检测方法,是马里兰大学开发的水印法,要求大模型在生成文本的时候就藏下记号,并用统计方法识别。
但是规避的办法也很简单,比如有人开发了简单的同义词替换工具,就能破坏统计特征。
甚至有人开始怀疑,人们到底是为了什么非要区分这个。
就像数字到底是人计算的还是计算机完成的,早就没人在意了。
演讲者的稿是自己写的还是秘书写的,不是也没人在意吗。
人类行为学研究,正在用AI充当被试
无法区分AI和人类的内容,似乎也不全是坏事。
已经有心理实验用AI代替人类被试加速研究了。
Cell子刊上一篇文章指出,在精心设计的实验场景中,ChatGPT的反应与大约95%的人类参与者的反应呈相关性。
并且机器被试不会疲倦,使科学家能以前所未有的速度收集数据并测试有关人类行为的理论。
而在最近一篇Science主刊的观点文章上,滑铁卢大学心理学教授Igor Grossman认为:
“人工智能可以改变社会科学研究的游戏规则,谨慎的偏见管理和数据保真度是关键。”
参考链接:
[1]https://twitter.com/KevinAFischer/status/1683898199981928450
[2]https://www.reddit.com/r/ChatGPT/comments/159j8rc/openai_quietly_kills_its_own_ai_classifier_citing/
[3]https://news.ycombinator.com/item?id=36862850
[4]https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(23)00098-0
[5]https://www.science.org/doi/10.1126/science.adi1778
[6]https://theconversation.com/beyond-the-hype-how-ai-could-change-the-game-for-social-science-research-208086