Überprüfung unangemessener Inhalte mit Amazon Augmented AI - Amazon Rekognition

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Überprüfung unangemessener Inhalte mit Amazon Augmented AI

Mit Amazon Augmented AI (Amazon A2I) können Sie Workflows erstellen, die für die menschliche Überprüfung von Machine-Learning-Vorhersagen erforderlich sind.

Amazon Rekognition ist direkt in Amazon A2I integriert, so dass Sie die menschliche Überprüfung für den Anwendungsfall der Erkennung unsicherer Bilder einfach implementieren können. Amazon A2I bietet einen Workflow für die menschliche Überprüfung zur Bildmoderation. Auf diese Weise können Sie die Vorhersagen von Amazon Rekognition ganz einfach überprüfen. Sie können Konfidenzschwellenwerte für Ihren Anwendungsfall definieren und diese im Laufe der Zeit anpassen. Mit Amazon A2I können Sie einen Pool von Prüfern innerhalb Ihrer eigenen Organisation oder Amazon Mechanical Turk nutzen. Sie können außerdem Personaldienstleister einsetzen, die von AWS auf Qualität und Einhaltung der Sicherheitsverfahren vorab geprüft werden.

Die folgenden Schritte führen Sie durch die Einrichtung von Amazon A2I mit Amazon Rekognition. Zuerst erstellen Sie eine Flow-Definition mit Amazon A2I, die die Bedingungen aufweist, die menschliche Überprüfungen auslösen. Anschließend übergeben Sie den Amazon-Ressourcennamen (ARN) der Flow-Definition an den Amazon Rekognition Rekognition-VorgangDetectModerationLabel. In der DetectModerationLabel-Antwort können Sie sehen, ob menschliche Überprüfung erforderlich ist. Die Ergebnisse der menschlichen Überprüfung sind in einem Amazon S3 S3-Bucket verfügbar, der durch die Flow-Definition festgelegt wird.

Eine end-to-end Demonstration der Verwendung von Amazon A2I mit Amazon Rekognition finden Sie in einem der folgenden Tutorials im Amazon SageMaker Developer Guide.

DetectModerationLabels Wird mit Amazon A2I ausgeführt
Anmerkung

Erstellen Sie alle Ihre Amazon A2I- und Amazon Rekognition Rekognition-Ressourcen in derselben AWS-Region.

  1. Sie müssen die Voraussetzungen erfüllen, die in Erste Schritte mit Amazon Augmented AI in der SageMaker -Dokumentation aufgelistet werden.

    Denken Sie außerdem daran, Ihre IAM-Berechtigungen wie auf der Seite Berechtigungen und Sicherheit in Amazon Augmented AI in der SageMaker Dokumentation einzurichten.

  2. Befolgen Sie die Anweisungen zum Erstellen eines Workflows für die manuelle Überprüfung in der SageMaker-Dokumentation.

    Ein Workflow für die menschliche Überprüfung verwaltet die Verarbeitung eines Bildes. Es enthält die Bedingungen, die eine menschliche Überprüfung auslösen, das Arbeitsteam, an das das Bild gesendet wird, die UI-Vorlage, die das Arbeitsteam verwendet, und den Amazon S3 S3-Bucket, an den die Ergebnisse des Arbeitsteams gesendet werden.

    In Ihrem CreateFlowDefinition Anruf müssen Sie das auf „HumanLoopRequestSourceAWS/Rekognition/ /Image/V3DetectModerationLabels“ setzen. Danach müssen Sie entscheiden, wie Sie Ihre Bedingungen einrichten möchten, die eine menschliche Überprüfung auslösen.

    Mit Amazon Rekognition haben Sie zwei Optionen fürConditionType:ModerationLabelConfidenceCheck, und. Sampling

    ModerationLabelConfidenceCheck erstellt eine Schleife zur Prüfung durch Menschen (Human Loop), wenn die Zuverlässigkeit eines Moderations-Labels innerhalb eines bestimmten Bereichs liegt. Schließlich sendet Sampling einen willkürlichen Prozentsatz der verarbeiteten Dokumente an die Prüfung durch Menschen. Jeder ConditionType legt mittels eines anderen Satzes von ConditionParameters fest, welche Ergebnisse zu einer Prüfung durch Menschen führen.

    Für ModerationLabelConfidenceCheck gilt ConditionParameters ModerationLableName, wodurch der Schlüssel festlegt wird, bei dem eine Prüfung durch Menschen erforderlich ist. Darüber hinaus verfügt es über Confidence, wodurch der prozentuale Bereich für das Senden an eine menschliche Bewertung mit LessThan GreaterThan, und Gleich festgelegt wird. SamplinghatRandomSamplingPercentage, wodurch ein Prozentsatz der Dokumente festgelegt wird, die zur Überprüfung durch einen Mitarbeiter gesendet werden.

    Das folgende Codebeispiel ist ein Teilaufruf von CreateFlowDefinition. Es sendet ein Bild zur menschlichen Überprüfung, wenn es weniger als 98 % auf dem Label „Suggestive“ und mehr als 95 % auf dem Label „Female Swimwear or Underwear“ angibt. Dies bedeutet, dass das Bild nicht als unbedingt suggestiv betrachtet wird, aber eine Frau in Unterwäsche oder Bademode zeigt; Sie können das Bild überprüfen, indem Sie menschliche Überprüfung verwenden.

    def create_flow_definition(): ''' Creates a Flow Definition resource Returns: struct: FlowDefinitionArn ''' humanLoopActivationConditions = json.dumps( { "Conditions": [ { "And": [ { "ConditionType": "ModerationLabelConfidenceCheck", "ConditionParameters": { "ModerationLabelName": "Suggestive", "ConfidenceLessThan": 98 } }, { "ConditionType": "ModerationLabelConfidenceCheck", "ConditionParameters": { "ModerationLabelName": "Female Swimwear Or Underwear", "ConfidenceGreaterThan": 95 } } ] } ] } )

    CreateFlowDefinition gibt eine FlowDefinitionArn zurück, die Sie im nächsten Schritt beim Aufruf von DetectModerationLabels verwenden.

    Weitere Informationen finden Sie CreateFlowDefinitionin der SageMaker API-Referenz.

  3. Legen Sie beim Aufruf von DetectModerationLabels den Parameter HumanLoopConfig wie in Erkennen unangemessener Bilder gezeigt fest. In Schritt 4 finden Sie Beispiele für einen DetectModerationLabels Aufruf mit HumanLoopConfig set.

    1. Legen Sie innerhalb des HumanLoopConfig-Parameters den FlowDefinitionArn auf den ARN der Flow-Definition fest, die Sie in Schritt 2 erstellt haben.

    2. Einstellen Ihrer HumanLoopName. Dies sollte innerhalb einer Region eindeutig sein und muss aus Kleinbuchstaben bestehen.

    3. (Optional) Mit dieser Option können DataAttributes Sie festlegen, ob das Bild, das Sie an Amazon Rekognition weitergegeben haben, frei von personenbezogenen Daten ist. Sie müssen diesen Parameter festlegen, um Informationen an Amazon Mechanical Turk zu senden.

  4. Führen Sie DetectModerationLabels.

    Die folgenden Beispiele zeigen, wie Sie das AWS CLI und AWS SDK for Python (Boto3) zum Ausführen DetectModerationLabels mit dem HumanLoopConfig Set verwenden.

    AWS SDK for Python (Boto3)

    Das folgende Anforderungsbeispiel verwendet das SDK for Python (Boto3). Weitere Informationen finden Sie unter detect_moderation_labels in der API-Referenz zum AWS SDK for Python (Boto).

    import boto3 rekognition = boto3.client("rekognition", aws-region) response = rekognition.detect_moderation_labels( \ Image={'S3Object': {'Bucket': bucket_name, 'Name': image_name}}, \ HumanLoopConfig={ \ 'HumanLoopName': 'human_loop_name', \ 'FlowDefinitionArn': , "arn:aws:sagemaker:aws-region:aws_account_number:flow-definition/flow_def_name" \ 'DataAttributes': {'ContentClassifiers': ['FreeOfPersonallyIdentifiableInformation','FreeOfAdultContent']} })
    AWS CLI

    Im folgenden Anforderungsbeispiel wird die AWS-CLI verwendet. Weitere Informationen finden Sie unter detect-moderation-labels in der Referenz zum AWS CLI-Befehl.

    $ aws rekognition detect-moderation-labels \ --image "S3Object={Bucket='bucket_name',Name='image_name'}" \ --human-loop-config HumanLoopName="human_loop_name",FlowDefinitionArn="arn:aws:sagemaker:aws-region:aws_account_number:flow-definition/flow_def_name",DataAttributes='{ContentClassifiers=["FreeOfPersonallyIdentifiableInformation", "FreeOfAdultContent"]}'
    $ aws rekognition detect-moderation-labels \ --image "S3Object={Bucket='bucket_name',Name='image_name'}" \ --human-loop-config \ '{"HumanLoopName": "human_loop_name", "FlowDefinitionArn": "arn:aws:sagemaker:aws-region:aws_account_number:flow-definition/flow_def_name", "DataAttributes": {"ContentClassifiers": ["FreeOfPersonallyIdentifiableInformation", "FreeOfAdultContent"]}}'

    Wenn Sie DetectModerationLabels mit HumanLoopConfig aktivierter Option ausführen, ruft Amazon Rekognition den SageMaker API-Vorgang auf. StartHumanLoop Dieser Befehl nimmt die Antwort von DetectModerationLabels und überprüft sie anhand der Bedingungen der Ablaufdefinition im Beispiel. Wenn es die Bedingungen für die Überprüfung erfüllt, wird ein HumanLoopArn zurückgegeben. Das bedeutet, dass die Mitglieder des Arbeitsteams, das Sie in Ihrer Flow-Definition festgelegt haben, das Bild jetzt überprüfen können. Der Aufruf der Amazon Augmented AI-Laufzeitoperation DescribeHumanLoop stellt Informationen zum Ergebnis der Schleife bereit. Weitere Informationen finden Sie DescribeHumanLoopin der Referenzdokumentation zur Amazon Augmented AI API.

    Nachdem das Bild überprüft wurde, können Sie die Ergebnisse in dem Bucket sehen, der im Ausgabepfad der Flow-Definition angegeben ist. Amazon A2I benachrichtigt Sie auch über Amazon CloudWatch Events, wenn die Überprüfung abgeschlossen ist. Informationen darüber, nach welchen Ereignissen Sie suchen müssen, finden Sie in der SageMakerDokumentation unter CloudWatch Ereignisse.

    Weitere Informationen finden Sie unter Erste Schritte mit Amazon Augmented AI in der SageMaker-Dokumentation.