Twitterは火曜日、これまで以上に積極的に不適切なコンテンツに対処していると発表した。現在、強制執行されている不適切なコンテンツの38%は、ユーザーからの報告ではなく、Twitterのチームが発見したものだという。

停止中のユーザーを停止状態のままにする
同社のヘルス製品管理担当シニアディレクター、デビッド・ガスカ氏はブログ投稿で、報告後24時間以内に停止された迷惑アカウントの数が、昨年同時期と比べて3倍に増加したと述べた。さらに、2019年1月から3月の間に、Twitterはアカウント停止後に作成されたアカウント10万件を停止したと付け加えた。この数字は、昨年同時期と比べて45%増加している。
ブログでは、Twitterのチームが報告される前に不適切なコンテンツを発見する割合が38%増加したことが強調されています。昨年の同時期、不適切な可能性のあるコンテンツのうち、Twitterスタッフが積極的にレビュー対象としてフラグ付けしたコンテンツは0%でした。「スパム、プラットフォーム操作、その他のルール違反を追跡するために使用しているのと同じ技術が、不適切なツイートをチームにフラグ付けしてレビュー対象とするのに役立っています」とガスカ氏は記しています。
ガスカ氏は別のところで、Twitter について次のように書いている。
- 不正行為を報告した人がフォローしていないアカウントとのやり取り後の不正行為報告が16%減少
- 異議申し立ての回答率が60%向上
- 2.5倍の個人情報を削除