站長之家(ChinaZ.com)4月6日 消息:據(jù)《 華盛頓郵報》報道,美國有多達(dá)210萬名教師正在使用 Turnitin 的一種新的人工智能檢測工具,試圖揪出哪些使用 ChatGPT 等工具在課堂上作弊的行為的學(xué)生。
不過,從結(jié)果來看,這款檢測工具并不是那么好用,可能存在誤判學(xué)生使用 AI 工具來完成論文和作業(yè)。
當(dāng)下,AI聊天機器人不斷改進(jìn)和升級,相比之下,能夠區(qū)分人工智能生成的文本和人類編寫的文本的工具卻遠(yuǎn)遠(yuǎn)落后。這意味著,其實老師很難通過AI檢測工具判斷出哪些作業(yè)和論文是使用 AI 工具來完成的。
Turnitin 聲稱其檢測器的準(zhǔn)確率為98%。,但在對Turnitin的測試中,記過使用的16個檢測樣本(包括人工撰寫的、人工智能生成的和混合來源的論文),該工具有一半以上檢測結(jié)果是錯誤的。
盡管該公司確實在其網(wǎng)站上指出,其工具的結(jié)果不應(yīng)該被用來指控學(xué)生作弊,但這并不能阻止老師現(xiàn)實中仍會借助這款工具來進(jìn)行判斷。如果你去看看reddit的ChatGPT版塊,會發(fā)現(xiàn)無數(shù)學(xué)生被指控在論文中使用人工智能的例子。
像Turnitin這種AI檢測器其實一直面臨著困擾,即使是OpenAI自家開發(fā)的AI檢測工具,檢測的結(jié)果也遠(yuǎn)遠(yuǎn)達(dá)不到完美的標(biāo)準(zhǔn)。
鑒于人工智能模型的最新進(jìn)展,這個問題注定會變得更加棘手。隨著GPT-4和谷歌Bard等AI聊天機器人的升級,它們逃避檢測的能力會越來越強。另外,聊天機器人和人類之間的界限越來越模糊。
曾在OpenAI和谷歌工作過的英偉達(dá)人工智能科學(xué)家吉姆·范(Jim Fan)告訴福勒:“我不認(rèn)為AI檢測工具是長期可靠的,人工智能會變得越來越強大,它的寫作方式會越來越像人類?!?/p>
(舉報)