安全への取り組みで知られる人工知能(AI)大手の米アンソロピックが、その姿勢を後退させている。同社は24日、他のAI研究機関との競争力を維持すべく、安全方針の中核となる部分を緩和すると発表した。アンソロピックはこれまで、開発中のモデルが危険と分類される可能性がある場合、開発を一時停止していた。しかし今後は、競合他社が自社と同等あるいはより優れたモデルをリリースした場合、こうした措置を行わないとした。今回の決定は、新モデルの開発とテストに関する指針を公開し、AI分野で最も安全性を重視する1社としての地位を確立した2年半前から劇的な転換となる。アンソロピックはオープンAIやイーロン・マスク氏率いるxAI、グーグルといった定期的に最先端のツールを発表するライバル企業との激しい競争に直面している。また、自社のAIモデル「クロード」を巡り、米国防総省とも対立している。アンソロピックは国内監視や完全自律型兵器能力に関連する技術として、クロードの使用を認めないとしている。
アンソロピック、安全に対する姿勢を後退 方針緩和へ
特集
あなたにおすすめ







