人工知能(AI)の問題は以前、学術的な議論やハイテク関連の会議における非公式の会話で取り上げられるだけだったが、ついに一般の注目を集めるようになった。「チャットGPT」や「DALL E2」、その他の新しいプログラムは、人間が作ったものに酷似した文章や画像をコンピューターが生成できることを実証した。AIの研究者たちが警鐘を鳴らしている。3月には、この分野で指導的立場にある幾人が、イーロン・マスク氏やスティーブ・ウォズニアック氏などハイテク業界の先駆者たちと共に、AIの実験を6カ月間中断するよう求めた。「高度なAIは地球上の生命の歴史に重大な変化をもたらす可能性があり、それ相応の配慮とリソースをもって計画され、管理されるべきだ」というのがその理由だという。チャットGPTを開発したオープンAIの経営陣は先月、「スーパーインテリジェンス(超知能)の取り組み」に対応するために、「IAEA(国際原子力機関)のようなもの」が必要だと訴えた。こうした規制機関は「システムを調査し、監査を求め、安全基準を満たしているかどうかをテストし、普及の程度とセキュリティーの水準に関して規制を設けるなど」の役割を担うという。もしAIがもたらすリスクに警鐘を鳴らす人たちの認識が正しく、IAEA式の解決策で修正を試みるなら、すでに失敗は目に見えている。
【寄稿】AI管理でIAEAモデルはすでに失敗
1957年の設立以来、核保有国は3倍に増加
有料会員限定
あなたにおすすめ