翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Amazon Rekognition には、2 つのタイプの API オペレーションがあります。1 つは Amazon Rekognition によって情報が保存されない非ストレージ型オペレーションで、もう 1 つは Amazon Rekognition によって特定の顔情報が保存されるストレージ型オペレーションです。
非ストレージ型オペレーション
Amazon Rekognition には、以下のイメージ用の非ストレージ型 API オペレーションがあります。
Amazon Rekognition には、以下のビデオ用の非ストレージ型 API オペレーションがあります。
これらは、[非ストレージ型] の API オペレーションと呼ばれます。この型のオペレーションを呼び出すと、Amazon Rekognition で入力イメージに関して検出された情報は保持されません。他のすべての Amazon Rekognition API オペレーションと同様に、非ストレージ型の API オペレーションでは入力イメージのバイトが保持されません。
以下のシナリオ例では、非ストレージ型の API オペレーションをアプリケーションに統合できることを示します。各シナリオでは、イメージのローカルリポジトリがあることを想定しています。
例 1: ローカルリポジトリ内で、特定のラベルを含むイメージを検索するアプリケーション
最初に、次に示すように Amazon Rekognition DetectLabels
オペレーションを使用してリポジトリ内のイメージごとにラベル (オブジェクトと概念) を検出し、クライアント側のインデックスを構築します。
Label ImageID
tree image-1
flower image-1
mountain image-1
tulip image-2
flower image-2
apple image-3
次に、このインデックスを検索することで、ローカルリポジトリ内で特定のラベルを含むイメージを見つけることができます。たとえば、樹木を含むイメージを表示します。
Amazon Rekognition で検出するラベルごとに、信頼値が関連付けられます。信頼値は、入力イメージにそのラベルが含まれている確率 (信頼度) を示します。この信頼値を使用して、検出の信頼度に関するアプリケーションの要件に応じて、ラベルに対するクライアント側の追加のフィルタリングを実行できます。たとえば、正確なラベルを必要とする場合は、信頼度の高い (95% 以上) ラベルに絞り込んで選択します。信頼値がそれほど高くなくてもよい場合は、信頼値が低い (50% 程度) ラベルに絞り込んで選択してください。
例 2: 強化した顔イメージを表示するアプリケーション
まず、Amazon Rekognition DetectFaces
オペレーションを使用してローカルリポジトリ内のイメージごとに顔を検出し、クライアント側のインデックスを構築できます。検出された顔ごとに、境界ボックス、顔の特徴 (口や耳の位置)、顔の属性 (性別など) を含むメタデータが返されます。次に示すように、このメタデータはクライアント側のローカルインデックスに保存できます。
ImageID FaceID FaceMetaData
image-1 face-1 <boundingbox>, etc.
image-1 face-2 <boundingbox>, etc.
image-1 face-3 <boundingbox>, etc.
...
このインデックスでは、プライマリキーは ImageID
と FaceID
の組み合わせです。
次に、このインデックス内の情報を使用して、アプリケーションでローカルリポジトリのイメージを表示するときのイメージを強化できます。たとえば、境界ボックスを顔の周囲に配置したり、顔の特徴を強調したりできます。
ストレージ型 API オペレーション
Amazon Rekognition Image は、イメージ内の顔を検出し、Amazon Rekognition コレクションで検出された顔の特徴の情報を保持するための IndexFaces オペレーションをサポートしています。サービスによって情報がサーバーに保持されるため、これは ストレージベース の API オペレーションの例です。
Amazon Rekognition Image に用意されているストレージ型 API オペレーションは次のとおりです。
Amazon Rekognition Video に用意されているストレージ型 API オペレーションは次のとおりです。
顔の情報を保存するには、まず、アカウントの AWS リージョンのいずれかで顔コレクションを作成する必要があります。この顔コレクションは、IndexFaces
オペレーションを呼び出すときに指定します。顔コレクションを作成して、すべての顔の特徴情報を保存すると、コレクション内で一致する顔を検索できます。たとえば、イメージ内で最も大きい顔を検出し、一致する顔がないかコレクションを検索するには、searchFacesByImage.
を呼び出します。
IndexFaces
によってコレクション内に保存された顔情報は、Amazon Rekognition Video オペレーションで利用することができます。例えば、StartFaceSearch を呼び出すと、既存コレクション内の顔と一致する顔の人物がいないか、ビデオを検索できます。
コレクションの作成および管理については、「コレクション内での顔の検索」を参照してください。
注記
コレクションには、顔の数学的表現である顔ベクトルが保存されます。コレクションには、顔の画像は保存されません。
例 1: ビルへの立ち入りを認証するアプリケーション
まず、IndexFaces
オペレーションを使用して、バッジのスキャンイメージを保存する顔コレクションを作成します。これにより、顔が抽出され、検索可能なイメージベクトルとして保管されます。次に、従業員が建物に入る際に従業員の顔のイメージが撮影されて SearchFacesByImage
オペレーションに送信されます。十分に高い類似度スコア (99% など) で顔が一致すると、この社員を認証できます。