米オープンAIには、自社の生成AI(人工知能)「チャットGPT」を使って書かれた作文や研究論文を確実に検知するツールがある。学生がAIを使って不正行為をしているのではないかという懸念が広がっているにもかかわらず、同社はそのツールを公開していない。このプロジェクトはオープンAIの社内で約2年間議論が続いているが、ウォール・ストリート・ジャーナル(WSJ)が入手した社内文書や関係者によると、ツールは約1年前から公開できる状態にある。ある関係者は「ボタンを押すだけだ」と述べた。オープンAIの社員は、透明性に対する同社の公約と、ユーザーを引き付けて維持したいという思いの間で揺れ動いてきた。同社がチャットGPTの熱心なユーザーを対象に実施したある調査では、約3分の1が不正行為を防止する技術に嫌悪感を示した。