Googleが開発したPerspective APIという会話を判定・評価するAPI(ここでは「アプリのようなもの」と理解してもらえれば良い)は、AIが無数の文に接したお勉強の成果をもとに、投稿のTOXICITY(有害性)などを測定し、場合によっては投稿の自動非表示といった措置を行う。
X、Facebook 、Instagram…
主要SNSの削除基準は?
このPerspective APIで「TOXICITY」とは「人々がディスカッションから離れる可能性の高い、粗暴、無礼、または理不尽なコメント」と定義されている。
有害コンテンツの削除基準はSNSごとに細かくは異なるが大枠では共通している。
ためしに X、Facebook、Instagram、主要SNSのコンテンツポリシーを見てみると、暴力や攻撃性、ヘイトスピーチ(特定の人種や団体・集団に対する差別など)、性的コンテンツなどが主だって警戒されているのがわかる(FacebookとInstagramはともにMeta社で、運用ポリシーが社内ガイドラインが参考にされて作られているのもあってだいぶ重なる部分がある)。
攻撃的、独善的かつ排他的、侮蔑などがネガティブ投稿が帯びやすい要素であり、これらを意識的に加工することでネガティブ投稿の建設的な部分を前面に出すことができるわけである。
たとえばある店で店員から理不尽な扱いを受けてそれをSNSに投稿する時、「あの店とあの店員はカス」と投稿するのは人格否定につながり攻撃的である。
そうではなく、自分がどのような仕打ちを受けどのような憤りを覚えたか――人への評価ではなく、行為への評価と自分の心情吐露にフォーカスすることで攻撃性を薄めることができる。「お前/あいつが悪い」とやると相手や第三者からの反発を招きやすいが、「私は悲しかった」と伝えると共感が得られやすいものである。
ヘイトスピーチなど、ベースになる思想がそもそも排他的である場合を除けば、つまるところ大抵の有害投稿は言い方の問題なのである。同じ内容のことを言い方を変えて伝えることはできるし、さらにいうなら言い方を変えた方が相手に深く刺さる(よく伝わる)ことすらある。