境界ボックスの表示 - Amazon Rekognition

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

境界ボックスの表示

Amazon Rekognition Image オペレーションは、画像内で検出されたアイテムの境界ボックス座標を返すことができます。たとえば、DetectFaces オペレーションは、画像内で検出された各顔に境界ボックス (BoundingBox) を返します。境界ボックス座標を使用して、検出されたアイテムの周囲にボックスを表示できます。たとえば、次の図は、顔を囲む境界ボックスを示しています。

BoundingBox には以下のプロパティがあります。

  • Height – 画像全体の高さの比率としての境界ボックスの高さ。

  • Left – 画像全体の幅の比率としての境界ボックスの左座標。

  • Top – 画像全体の高さの比率としての境界ボックスの上端座標。

  • Width – 画像全体の幅の比率としての境界ボックスの幅。

各 BoundingBox プロパティの値は 0~1 です。各プロパティ値は全体の画像幅 (Left および Width) または高さ (Height および Top) の比率です。たとえば、入力イメージが 700 x 200 ピクセルの場合、境界ボックスの左上の座標は 350 x 50 ピクセルで、API は Left 値 0.5 (350/700) および Top 値 0.25 (50/200) を返します。

次の図は、各境界ボックスのプロパティがカバーする画像の範囲を示しています。

正しい位置とサイズの境界ボックスを表示するには、 BoundingBox 画像の幅または高さ (必要な値に応じて) を乗算してピクセル値を取得する必要があります。境界ボックスを表示するには、ピクセル値を使用します。たとえば、前の画像のピクセルのディメンションは、幅 608x 高さ 588 です。顔の境界ボックスの値は次のとおりです。

BoundingBox.Left: 0.3922065 BoundingBox.Top: 0.15567766 BoundingBox.Width: 0.284666 BoundingBox.Height: 0.2930403

顔の境界ボックスの位置 (ピクセル) は次のように計算されます。

Left coordinate = BoundingBox.Left (0.3922065) * image width (608) = 238

Top coordinate = BoundingBox.Top (0.15567766) * image height (588) = 91

Face width = BoundingBox.Width (0.284666) * image width (608) = 173

Face height = BoundingBox.Height (0.2930403) * image height (588) = 172

これらの値を使用して、面の周囲に境界ボックスを表示します。

注記

画像の向きはさまざまです。アプリケーションのなかには、画像を回転させて補正方向で表示する必要がある場合があります。境界ボックスの座標は、画像の向きに影響されます。正しい位置に境界ボックスを表示する前に、座標を変換する必要があるかもしれません。詳細については、「イメージの向きおよび境界ボックス座標の取得」を参照してください。

次の例は、DetectFaces を呼び出すことによって検出された顔の周囲に境界ボックスを表示する方法を示しています。例では、画像が 0 度に向けられていると仮定する。この例では、Amazon S3 バケットから画像をダウンロードする方法も示しています。

境界ボックスを表示するには
  1. まだ実行していない場合:

    1. AmazonRekognitionFullAccessAmazonS3ReadOnlyAccess のアクセス権限を持つユーザーを作成または更新します。詳細については、「ステップ 1: AWS アカウントを設定してユーザーを作成する」を参照してください。

    2. AWS CLI と AWS SDK をインストールして設定します。詳細については、「ステップ 2: AWS CLI と AWS SDK をセットアップする」を参照してください。

  2. 以下の例を使用して、DetectFaces オペレーションを呼び出します。

    Java

    bucket の値を、画像ファイルが保存される Amazon S3 バケットに変更します。photo の値は、イメージファイル (.jpg 形式または .png 形式) のファイル名に変更します。

    //Loads images, detects faces and draws bounding boxes.Determines exif orientation, if necessary. package com.amazonaws.samples; //Import the basic graphics classes. import java.awt.*; import java.awt.image.BufferedImage; import java.util.List; import javax.imageio.ImageIO; import javax.swing.*; import com.amazonaws.services.rekognition.AmazonRekognition; import com.amazonaws.services.rekognition.AmazonRekognitionClientBuilder; import com.amazonaws.services.rekognition.model.BoundingBox; import com.amazonaws.services.rekognition.model.DetectFacesRequest; import com.amazonaws.services.rekognition.model.DetectFacesResult; import com.amazonaws.services.rekognition.model.FaceDetail; import com.amazonaws.services.rekognition.model.Image; import com.amazonaws.services.rekognition.model.S3Object; import com.amazonaws.services.s3.AmazonS3; import com.amazonaws.services.s3.AmazonS3ClientBuilder; import com.amazonaws.services.s3.model.S3ObjectInputStream; // Calls DetectFaces and displays a bounding box around each detected image. public class DisplayFaces extends JPanel { private static final long serialVersionUID = 1L; BufferedImage image; static int scale; DetectFacesResult result; public DisplayFaces(DetectFacesResult facesResult, BufferedImage bufImage) throws Exception { super(); scale = 1; // increase to shrink image size. result = facesResult; image = bufImage; } // Draws the bounding box around the detected faces. public void paintComponent(Graphics g) { float left = 0; float top = 0; int height = image.getHeight(this); int width = image.getWidth(this); Graphics2D g2d = (Graphics2D) g; // Create a Java2D version of g. // Draw the image. g2d.drawImage(image, 0, 0, width / scale, height / scale, this); g2d.setColor(new Color(0, 212, 0)); // Iterate through faces and display bounding boxes. List<FaceDetail> faceDetails = result.getFaceDetails(); for (FaceDetail face : faceDetails) { BoundingBox box = face.getBoundingBox(); left = width * box.getLeft(); top = height * box.getTop(); g2d.drawRect(Math.round(left / scale), Math.round(top / scale), Math.round((width * box.getWidth()) / scale), Math.round((height * box.getHeight())) / scale); } } public static void main(String arg[]) throws Exception { String photo = "photo.png"; String bucket = "bucket"; int height = 0; int width = 0; // Get the image from an S3 Bucket AmazonS3 s3client = AmazonS3ClientBuilder.defaultClient(); com.amazonaws.services.s3.model.S3Object s3object = s3client.getObject(bucket, photo); S3ObjectInputStream inputStream = s3object.getObjectContent(); BufferedImage image = ImageIO.read(inputStream); DetectFacesRequest request = new DetectFacesRequest() .withImage(new Image().withS3Object(new S3Object().withName(photo).withBucket(bucket))); width = image.getWidth(); height = image.getHeight(); // Call DetectFaces AmazonRekognition amazonRekognition = AmazonRekognitionClientBuilder.defaultClient(); DetectFacesResult result = amazonRekognition.detectFaces(request); //Show the bounding box info for each face. List<FaceDetail> faceDetails = result.getFaceDetails(); for (FaceDetail face : faceDetails) { BoundingBox box = face.getBoundingBox(); float left = width * box.getLeft(); float top = height * box.getTop(); System.out.println("Face:"); System.out.println("Left: " + String.valueOf((int) left)); System.out.println("Top: " + String.valueOf((int) top)); System.out.println("Face Width: " + String.valueOf((int) (width * box.getWidth()))); System.out.println("Face Height: " + String.valueOf((int) (height * box.getHeight()))); System.out.println(); } // Create frame and panel. JFrame frame = new JFrame("RotateImage"); frame.setDefaultCloseOperation(JFrame.EXIT_ON_CLOSE); DisplayFaces panel = new DisplayFaces(result, image); panel.setPreferredSize(new Dimension(image.getWidth() / scale, image.getHeight() / scale)); frame.setContentPane(panel); frame.pack(); frame.setVisible(true); } }
    Python

    bucket の値を、画像ファイルが保存される Amazon S3 バケットに変更します。photo の値は、イメージファイル (.jpg 形式または .png 形式) のファイル名に変更します。Rekognition セッションを作成する行の profile_name の値を、自分のデベロッパープロファイル名に置き換えます。

    import boto3 import io from PIL import Image, ImageDraw def show_faces(photo, bucket): session = boto3.Session(profile_name='profile-name') client = session.client('rekognition') # Load image from S3 bucket s3_connection = boto3.resource('s3') s3_object = s3_connection.Object(bucket, photo) s3_response = s3_object.get() stream = io.BytesIO(s3_response['Body'].read()) image = Image.open(stream) # Call DetectFaces response = client.detect_faces(Image={'S3Object': {'Bucket': bucket, 'Name': photo}}, Attributes=['ALL']) imgWidth, imgHeight = image.size draw = ImageDraw.Draw(image) # calculate and display bounding boxes for each detected face print('Detected faces for ' + photo) for faceDetail in response['FaceDetails']: print('The detected face is between ' + str(faceDetail['AgeRange']['Low']) + ' and ' + str(faceDetail['AgeRange']['High']) + ' years old') box = faceDetail['BoundingBox'] left = imgWidth * box['Left'] top = imgHeight * box['Top'] width = imgWidth * box['Width'] height = imgHeight * box['Height'] print('Left: ' + '{0:.0f}'.format(left)) print('Top: ' + '{0:.0f}'.format(top)) print('Face Width: ' + "{0:.0f}".format(width)) print('Face Height: ' + "{0:.0f}".format(height)) points = ( (left, top), (left + width, top), (left + width, top + height), (left, top + height), (left, top) ) draw.line(points, fill='#00d400', width=2) # Alternatively can draw rectangle. However you can't set line width. # draw.rectangle([left,top, left + width, top + height], outline='#00d400') image.show() return len(response['FaceDetails']) def main(): bucket = "bucket-name" photo = "photo-name" faces_count = show_faces(photo, bucket) print("faces detected: " + str(faces_count)) if __name__ == "__main__": main()
    Java V2

    このコードは、 AWSドキュメント SDK サンプル GitHub リポジトリから取得されます。完全な例を こちら を参照してください。

    s3 AWS SDK Amazon S3 クライアントを参照し、rekClient AWS SDK Amazon Rekognition クライアントを参考することを注意ください。

    //snippet-start:[rekognition.java2.detect_labels.import] import java.awt.*; import java.awt.image.BufferedImage; import java.io.ByteArrayInputStream; import java.io.FileNotFoundException; import java.io.IOException; import java.io.InputStream; import java.util.List; import javax.imageio.ImageIO; import javax.swing.*; import software.amazon.awssdk.auth.credentials.ProfileCredentialsProvider; import software.amazon.awssdk.core.ResponseBytes; import software.amazon.awssdk.core.SdkBytes; import software.amazon.awssdk.regions.Region; import software.amazon.awssdk.services.rekognition.model.Attribute; import software.amazon.awssdk.services.rekognition.model.BoundingBox; import software.amazon.awssdk.services.rekognition.model.DetectFacesRequest; import software.amazon.awssdk.services.rekognition.model.DetectFacesResponse; import software.amazon.awssdk.services.rekognition.model.FaceDetail; import software.amazon.awssdk.services.rekognition.model.Image; import software.amazon.awssdk.services.rekognition.model.RekognitionException; import software.amazon.awssdk.services.s3.S3Client; import software.amazon.awssdk.services.rekognition.RekognitionClient; import software.amazon.awssdk.services.s3.model.GetObjectRequest; import software.amazon.awssdk.services.s3.model.GetObjectResponse; import software.amazon.awssdk.services.s3.model.S3Exception; //snippet-end:[rekognition.java2.detect_labels.import] /** * Before running this Java V2 code example, set up your development environment, including your credentials. * * For more information, see the following documentation topic: * * https://docs.aws.amazon.com/sdk-for-java/latest/developer-guide/get-started.html */ public class DisplayFaces extends JPanel { static DetectFacesResponse result; static BufferedImage image; static int scale; public static void main(String[] args) throws Exception { final String usage = "\n" + "Usage: " + " <sourceImage> <bucketName>\n\n" + "Where:\n" + " sourceImage - The name of the image in an Amazon S3 bucket (for example, people.png). \n\n" + " bucketName - The name of the Amazon S3 bucket (for example, myBucket). \n\n"; if (args.length != 2) { System.out.println(usage); System.exit(1); } String sourceImage = args[0]; String bucketName = args[1]; Region region = Region.US_EAST_1; S3Client s3 = S3Client.builder() .region(region) .credentialsProvider(ProfileCredentialsProvider.create("profile-name")) .build(); RekognitionClient rekClient = RekognitionClient.builder() .region(region) .credentialsProvider(ProfileCredentialsProvider.create("profile-name")) .build(); displayAllFaces(s3, rekClient, sourceImage, bucketName); s3.close(); rekClient.close(); } // snippet-start:[rekognition.java2.display_faces.main] public static void displayAllFaces(S3Client s3, RekognitionClient rekClient, String sourceImage, String bucketName) { int height; int width; byte[] data = getObjectBytes (s3, bucketName, sourceImage); InputStream is = new ByteArrayInputStream(data); try { SdkBytes sourceBytes = SdkBytes.fromInputStream(is); image = ImageIO.read(sourceBytes.asInputStream()); width = image.getWidth(); height = image.getHeight(); // Create an Image object for the source image software.amazon.awssdk.services.rekognition.model.Image souImage = Image.builder() .bytes(sourceBytes) .build(); DetectFacesRequest facesRequest = DetectFacesRequest.builder() .attributes(Attribute.ALL) .image(souImage) .build(); result = rekClient.detectFaces(facesRequest); // Show the bounding box info for each face. List<FaceDetail> faceDetails = result.faceDetails(); for (FaceDetail face : faceDetails) { BoundingBox box = face.boundingBox(); float left = width * box.left(); float top = height * box.top(); System.out.println("Face:"); System.out.println("Left: " + (int) left); System.out.println("Top: " + (int) top); System.out.println("Face Width: " + (int) (width * box.width())); System.out.println("Face Height: " + (int) (height * box.height())); System.out.println(); } // Create the frame and panel. JFrame frame = new JFrame("RotateImage"); frame.setDefaultCloseOperation(JFrame.EXIT_ON_CLOSE); DisplayFaces panel = new DisplayFaces(image); panel.setPreferredSize(new Dimension(image.getWidth() / scale, image.getHeight() / scale)); frame.setContentPane(panel); frame.pack(); frame.setVisible(true); } catch (RekognitionException | FileNotFoundException e) { System.out.println(e.getMessage()); System.exit(1); } catch (IOException e) { e.printStackTrace(); } } public static byte[] getObjectBytes (S3Client s3, String bucketName, String keyName) { try { GetObjectRequest objectRequest = GetObjectRequest .builder() .key(keyName) .bucket(bucketName) .build(); ResponseBytes<GetObjectResponse> objectBytes = s3.getObjectAsBytes(objectRequest); return objectBytes.asByteArray(); } catch (S3Exception e) { System.err.println(e.awsErrorDetails().errorMessage()); System.exit(1); } return null; } public DisplayFaces(BufferedImage bufImage) { super(); scale = 1; // increase to shrink image size. image = bufImage; } // Draws the bounding box around the detected faces. public void paintComponent(Graphics g) { float left; float top; int height = image.getHeight(this); int width = image.getWidth(this); Graphics2D g2d = (Graphics2D) g; // Create a Java2D version of g. // Draw the image g2d.drawImage(image, 0, 0, width / scale, height / scale, this); g2d.setColor(new Color(0, 212, 0)); // Iterate through the faces and display bounding boxes. List<FaceDetail> faceDetails = result.faceDetails(); for (FaceDetail face : faceDetails) { BoundingBox box = face.boundingBox(); left = width * box.left(); top = height * box.top(); g2d.drawRect(Math.round(left / scale), Math.round(top / scale), Math.round((width * box.width()) / scale), Math.round((height * box.height())) / scale); } } // snippet-end:[rekognition.java2.display_faces.main] }