不適切な画像の自動検知システムの開発を開始

Pocochaでは、ユーザーの方々にコミュニティを安心・安全に感じていただくことを最重要と考え、そのために様々な対策を行っています。その一環として、2020年11月9日より、Amazon Rekognitionを活用した不適切な画像を自動検知するシステムの開発を開始しました。

不適切な画像を自動検知

Pocochaでは、ライブ配信のキャプチャーを取得し、Amazon Rekognitionを活用して構築した自動検知システムによって、不適切な画像に該当しないかを判定しています。自動検知システムには「暴力的」「性的」「不快」等のカテゴリーが設定してあり、それぞれのスコアを自動で算出。スコアが一定の値を超えると審査スタッフに通知される仕組みとなっています。

このシステムによって不適切な画像が検知された場合、2021年4月現在従来と比較して2倍以上の速度で対応することが可能になっています。今後も検知率向上をはじめとしたさらなる改善に向けて開発を継続いたします。

Pocochaでは、これからもコミュニティの安全性・健全性の維持・向上に取り組んでまいります。

米国AWS コンピュータービジョンチーム ゼネラルマネージャー兼ディレクター ロジャー・バーガ(Roger Barga)氏より

「DeNA様のPocochaでは毎分、数百万の映像がオンラインでシェアされていますが、不適切なコンテンツは、お客様の信頼を損ない、ユーザーがプラットフォームから離れてしまう可能性があります。素早くそういった不快なコンテンツを発見し取り除くことはDeNA様にとって重要でしたが、このような大規模なコンテンツ量でどうやって行うかが最大の課題でした。その解決を支援したのがAWSです。AWSのAmazon Rekognitionが持つ深層学習を活用したコンテンツ・モデレーション機能が、Pocochaのような大規模なプラットフォームにシェアされる不適切なコンテンツを、以前使っていた方法に比べて2倍の素早さで判別し、取り除けるよう支援できたことをうれしく思っています。Amazon Rekognitionを使えば、大量のライブストリーミングを素早く分析することができるため、適切かつエンドユーザーの期待に沿ったコンテンツを安心して配信することができます。」

"AWS helps customers with their biggest problems. Millions of images and videos are shared online every minute, and inappropriate content can erode trust and send users off platforms. It's important for our customers to be able to quickly identify and remove offensive content, and that's a difficult problem at scale," said Roger Barga, Director and General Manager of Computer Vision at AWS. "We are excited Amazon Rekognition's deep learning-powered content moderation capabilities are helping DeNA identify and remove inappropriate content on a large platform like Pococha at double the speed than their previous approach. Using Amazon Rekognition, they can quickly analyze large volumes of livestreams to ensure they're appropriate and provide content that aligns with their end-users' expectations."