米ツイッターは児童性的虐待に当たると特定されていた画像の投稿を阻止できていなかった。スタンフォード大学の調査で明らかになった。基本的対策に不備のある実態が浮き彫りになったという。スタンフォード大学インターネット観測所が、子供の安全性の観点から複数のプラットフォームを調査した。結果をツイッターに伝えたところ、問題は5月に解消されたとみられるという。同所は先週ツイッターから、検出システムの一部を改善したとの報告を受けたと明らかにした。ウォール・ストリート・ジャーナル(WSJ)はこの調査に関してツイッターに電子メールを送付したものの、コメントは得られなかった。同所の技術責任者で報告書の共同執筆者であるデービッド・ティール氏によると、3月12日から5月20日までの間にツイート約10万件を調べたところ、児童性的虐待に当たるコンテンツ(CSAM)だと過去に特定されていた画像40枚以上が含まれていた。
ツイッター、児童性的虐待の画像排除に不備=調査
マスク氏はこうした画像への対応が「最優先」だと述べていた
有料会員限定
あなたにおすすめ