米オープンAIには、自社の生成AI(人工知能)「チャットGPT」を使って書かれた作文や研究論文を確実に検知するツールがある。学生がAIを使って不正行為をしているのではないかという懸念が広がっているにもかかわらず、同社はそのツールを公開していない。このプロジェクトはオープンAIの社内で約2年間議論が続いているが、ウォール・ストリート・ジャーナル(WSJ)が入手した社内文書や関係者によると、ツールは約1年前から公開できる状態にある。ある関係者は「ボタンを押すだけだ」と述べた。オープンAIの社員は、透明性に対する同社の公約と、ユーザーを引き付けて維持したいという思いの間で揺れ動いてきた。同社がチャットGPTの熱心なユーザーを対象に実施したある調査では、約3分の1が不正行為を防止する技術に嫌悪感を示した。
学生のChatGPT不正、検知ツールあるのに未公開
オープンAI社内では、生成AIが書いた文章を99.9%の確率で検知できる技術が2年前から議論されている
有料会員限定
あなたにおすすめ