コンテンツのモデレーション - Amazon Rekognition

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

コンテンツのモデレーション

Amazon Rekognition を使用して、不適切、望まない、または不快なコンテンツを検出できます。ソーシャルメディア、放送メディア、広告、電子商取引の状況で Rekognition モデレーション API を使用して、より安全なユーザーエクスペリエンスを作成し、広告主にブランド安全を保証し、ローカルおよびグローバル規制に準拠できます。

今日、多くの企業は、第三者またはユーザーが生成したコンテンツをレビューするために人間のモデレーターに完全に依存しており、他の企業はユーザーの苦情に単に反応して、攻撃的または不適切な画像、広告、動画を削除しています。しかし、人間のモデレーターだけでは十分な品質やスピードでこれらのニーズを満たすようにスケールすることはできず、ユーザーエクスペリエンスの低下、スケール達成のための高コスト、ブランドの評判の喪失につながります。Rekognition をイメージおよびビデオのモデレーションに使用することで、人間のモデレーターは、機械学習によってすでにフラグが付けられている総ボリュームの 1 - 5% のかなり小さいコンテンツセットを確認することができます。これにより、より価値ある活動に集中し、既存のコストの一部で包括的なモデレーションカバレッジを実現できます。人間の労働力をセットアップし、ヒューマンレビュータスクを実行するには、すでに Rekognition と統合されている Amazon Augmented AI を使用できます。

カスタムモデレーション機能を使用すると、モデレーションディープラーニングモデルの精度を高めることができます。カスタムモデレーションでは、画像をアップロードしてその画像に注釈を付けることで、カスタムモデレーションアダプターをトレーニングします。その後、DetectModerationLabelsトレーニング済みのアダプターをオペレーションに提供して、画像でのパフォーマンスを向上させることができます。詳細については、「カスタムモデレーションによる精度の向上」を参照してください。

イメージとビデオのモデレーション API の使用

Amazon Rekognition Image API では、DetectModerationLabels イメージ内の不適切または不快なコンテンツを検出するための操作。Amazon Rekognition Video API では、StartContentModeration および GetContentModeration オペレーションを使用して、安全でないコンテンツを非同期的に検出できます。

ラベルカテゴリ

Amazon Rekognition では、2 レベルの階層分類を使用して、不適切または不快なコンテンツのカテゴリにラベルが付けられます。最上位カテゴリごとに第 2 レベルカテゴリが複数あります。

最上位カテゴリ 第 2 レベルカテゴリ

Explicit Nudity (明示的なヌード)

Nudity (ヌード)

Graphic Male Nudity (男性のヌードイメージ)

Graphic Female Nudity (女性のヌードイメージ)

Sexual Activity (性的な行為)

明示的なヌード

Adult Toys (アダルト用玩具)

Suggestive (暗示的)

Female Swimwear Or Underwear (女性の水着または下着)

Male Swimwear Or Underwear (男性の水着または下着)

Partial Nudity (部分的なヌード)

上裸の男性

Revealing Clothes (露出の多い衣服)

性的状況

Violence (暴力)

Graphic Violence Or Gore (暴力または流血場面のグラフィック)

Physical Violence (身体的な暴力)

Weapon Violence (武器による暴力)

Weapons (武器)

Self Injury (自傷)

Visually Disturbing (視覚的に不快なもの)

Emaciated Bodies (痩せこけた身体)

Corpses (死体)

Hanging (首つり)

航空事故
爆発と爆発

失礼なジェスチャー

ミドルフィンガー

薬物

医薬品の製品

薬物使用

薬物

薬物道具類

たばこ

タバコ製品

喫煙

アルコール

飲酒

アルコール飲料

ギャンブル

ギャンブル

ヘイト記号

ナチ党

ホワイトスプレマシー

過激派

用途に合ったコンテンツであるかどうかはお客様が判断します。例えば、暗示的な性質のイメージは受け入れ、ヌードを含むイメージは拒否することができます。イメージをフィルタ処理するには、DetectModerationLabels (イメージ) および GetContentModeration (ビデオ) から返される ModerationLabel ラベル配列を使用します。

信頼度

MinConfidence 入力パラメータを指定することで、安全でないコンテンツを検出するために Amazon Rekognition によって使用される信頼度のしきい値を設定できます。検出された安全でないコンテンツの信頼度が MinConfidence よりも低い場合、そのコンテンツのラベルは返されません。

50% 未満の MinConfidence の値を指定すると、多数の誤検出が返される可能性があります。より低い精度での検出が許容される場合にのみ、50% 未満の値を使用することをお勧めします。MinConfidence の値を指定しない場合、 Amazon Rekognition は少なくとも 50% の信頼度で検出された安全でないコンテンツのラベルを返します。

ModerationLabel 配列には、上のカテゴリのラベルと検出されたコンテンツの精度を示す推定信頼度が含まれます。最上位ラベルは、識別された第 2 レベルラベルと共に返されます。例えば、Amazon Rekognition では「明示的なヌード」を最上位のラベルの高い信頼スコアと共に返すことができます。場合によりますが、フィルタ処理のニーズにはこれで十分です。ただし、必要に応じて、第 2 レベルラベル ([Graphic Male Nudity (男性のヌードイメージ)] など) の信頼スコアを使用して、よりきめ細かなフィルタ処理が可能です。例については、不適切なイメージの検出を参照してください。

バージョニング

Amazon Rekognition イメージと Amazon Rekognition Video は、両方とも、不適切なコンテンツの検出に使用されるモデレーション検出のバージョンを返します (ModerationModelVersion)。

並べ替えと集計

で結果を取得する場合 GetContentModeration、結果をソートして集計できます。

ソート順序 — 返されるラベルの配列は時間順にソートされます。ラベル別に並べ替えるには、GetContentModerationSortBy 入力パラメータに NAME を指定します。ラベルが動画に複数回表示される場合、ModerationLabelその要素のインスタンスは複数表示されます。

ラベル情報 — ModerationLabels 配列要素にはオブジェクトが含まれ、ModerationLabelそのオブジェクトにはラベル名と、検出されたラベルの精度に対する Amazon Rekognition の信頼度が含まれます。ModerationLabelタイムスタンプは検出された時間で、動画の開始から経過したミリ秒数として定義されます。SEGMENTS動画ごとに集計された結果では、セグメントの開始時間StartTimestampMillisEndTimestampMillis、終了時間、継続時間をそれぞれ定義する、、DurationMillis構造体が返されます。

集計 — 結果が返されたときの集計方法を指定します。デフォルトでは次の方法で集計されます。TIMESTAMPSまたSEGMENTS、一定期間にわたって結果を集計する集計方法を選択することもできます。セグメント中に検出されたラベルのみが返されます。

注記

Amazon Rekognitionは、不適切または不快なコンテンツに関する権威ではなく、また網羅的なフィルタリングであると主張するものではありません。さらに、画像や動画のモデレーション API は、CSAM などの違法なコンテンツが画像に含まれているかどうかを検出しません。