Ontologie, Verknüpfung, Batch-Analyse - Amazon Comprehend Medical

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Ontologie, Verknüpfung, Batch-Analyse

Verwenden Sie Amazon Comprehend Medical, um Entitäten in klinischem Text zu erkennen, der in einem Amazon Simple Storage Service (Amazon S3) -Bucket gespeichert ist, und um diese Entitäten mit standardisierten Ontologien zu verknüpfen. Sie können die Batch-Analyse zur Verknüpfung von Ontologien verwenden, um entweder eine Sammlung von Dokumenten oder ein einzelnes Dokument mit bis zu 20.000 Zeichen zu analysieren. Mithilfe der Konsole oder der Batch-API-Operationen zur Ontologie-Verknüpfung können Sie Operationen zum Starten, Stoppen, Auflisten und Beschreiben laufender Batch-Analyseaufträge ausführen.

Preisinformationen für Chargenanalysen und andere Abläufe von Amazon Comprehend Medical finden Sie unter Amazon Comprehend Medical Pricing.

Durchführung einer Chargenanalyse

Sie können einen Batch-Analyseauftrag entweder mit der Amazon Comprehend Medical-Konsole oder den Batch-API-Vorgängen von Amazon Comprehend Medical ausführen.

Durchführung einer Batch-Analyse mithilfe der API-Operationen

Voraussetzungen

Wenn Sie die Amazon Comprehend Medical API verwenden, erstellen Sie eine AWS Identity Access and Management (IAM) -Richtlinie und fügen Sie sie einer IAM-Rolle hinzu. Weitere Informationen zu IAM-Rollen und Vertrauensrichtlinien finden Sie unter IAM-Richtlinien und -Berechtigungen.

  1. Laden Sie Ihre Daten in einen S3-Bucket hoch.

  2. Um einen neuen Analysejob zu starten, verwenden Sie die Operationen startIcd10cmInferenceJob, startsNoMedCT oder die Operationen. InferenceJob StartRxNormInferenceJob Geben Sie den Namen des Amazon S3 S3-Buckets an, der die Eingabedateien enthält, und den Namen des Amazon S3 S3-Buckets, an den Sie die Ausgabedateien senden möchten.

  3. Überwachen Sie den Fortschritt des Jobs mithilfe von DescribeIcd10cmInferenceJob, DescribesNoMedCT oder operations. InferenceJob DescribeRxNormInferenceJob Darüber hinaus können Sie ListICD10CM, ListsNoMedCT und verwendenInferenceJobs, um den Status aller Ontologie-Link-Batch-Analyseaufträge zu überprüfen InferenceJobs. ListRxNormInferenceJobs

  4. Wenn Sie einen laufenden Job beenden müssen, verwenden Sie StopICD10CM, StopsNoMedCT oder, um die Analyse zu beenden. InferenceJob InferenceJob StopRxNormInferenceJob

  5. Die Ergebnisse Ihres Analysejobs finden Sie im S3-Ausgabe-Bucket, den Sie beim Start des Jobs konfiguriert haben.

Durchführen einer Batch-Analyse mithilfe der Konsole

  1. Laden Sie Ihre Daten in einen S3-Bucket hoch.

  2. Um einen neuen Analysejob zu starten, wählen Sie die Art der Analyse aus, die Sie durchführen möchten. Geben Sie dann den Namen des S3-Buckets an, der die Eingabedateien enthält, und den Namen des S3-Buckets, an den Sie die Ausgabedateien senden möchten.

  3. Überwachen Sie den Status Ihres Jobs, solange er noch läuft. Von der Konsole aus können Sie alle Batch-Analysevorgänge und ihren Status einsehen, einschließlich wann die Analyse gestartet und beendet wurde.

  4. Die Ergebnisse Ihres Analysejobs finden Sie im S3-Ausgabe-Bucket, den Sie beim Start des Jobs konfiguriert haben.

IAM-Richtlinien für Batch-Operationen

Die IAM-Rolle, die die Batch-API-Operationen von Amazon Comprehend Medical aufruft, muss über eine Richtlinie verfügen, die Zugriff auf die S3-Buckets gewährt, die die Eingabe- und Ausgabedateien enthalten. Der IAM-Rolle muss außerdem eine Vertrauensbeziehung zugewiesen werden, damit der Amazon Comprehend Medical Medical-Service diese Rolle übernehmen kann. Weitere Informationen zu IAM-Rollen und Vertrauensrichtlinien finden Sie unter IAM-Rollen.

Für die Rolle muss die folgende Richtlinie gelten:

{ "Version": "2012-10-17", "Statement": [ { "Action": [ "s3:GetObject" ], "Resource": [ "arn:aws:s3:::input-bucket/*" ], "Effect": "Allow" }, { "Action": [ "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::input-bucket", "arn:aws:s3:::output-bucket", ], "Effect": "Allow" }, { "Action": [ "s3:PutObject" ], "Resource": [ " arn:aws:s3:::output-bucket/*" ], "Effect": "Allow" } ] }

Die Rolle muss die folgende Vertrauensbeziehung haben. Es wird empfohlen, die Tasten aws:SourceAccount und aws:SourceArn Condition zu verwenden, um das Sicherheitsproblem Confused Deputy zu vermeiden. Weitere Informationen zum Problem mit dem verwirrten Stellvertreter und darüber, wie Sie Ihr AWS Konto schützen können, finden Sie in der IAM-Dokumentation unter Das Problem mit dem verwirrten Stellvertreter.

{ "Version":"2012-10-17", "Statement":[ { "Effect":"Allow", "Principal":{ "Service":[ "comprehendmedical.amazonaws.com" ] }, "Action":"sts:AssumeRole", "Condition": { "StringEquals": { "aws:SourceAccount": "account_id" }, "ArnLike": { "aws:SourceArn": "arn:aws:comprehendmedical:region:account_id:*" } } } ] }

Ausgabedateien für die Batch-Analyse

Amazon Comprehend Medical erstellt eine Ausgabedatei für jede Eingabedatei im Stapel. Die Datei hat die Erweiterung. .out Amazon Comprehend Medical erstellt zunächst ein Verzeichnis im S3-Ausgabe-Bucket mit dem Namen AwsAccountIdJobType- - JobIdund schreibt dann alle Ausgabedateien für den Batch in dieses Verzeichnis. Amazon Comprehend Medical erstellt dieses neue Verzeichnis, sodass die Ausgabe eines Jobs nicht die Ausgabe eines anderen Jobs überschreibt.

Ein Batch-Vorgang erzeugt dieselbe Ausgabe wie ein synchroner Vorgang.

Jeder Batchvorgang erzeugt die folgenden drei Manifestdateien, die Informationen über den Auftrag enthalten:

  • Manifest— Fasst den Job zusammen. Stellt Informationen über die für den Job verwendeten Parameter, die Gesamtgröße des Jobs und die Anzahl der verarbeiteten Dateien bereit.

  • Success— Stellt Informationen zu den Dateien bereit, die erfolgreich verarbeitet wurden. Beinhaltet den Namen der Eingabe- und Ausgabedatei sowie die Größe der Eingabedatei.

  • Unprocessed— Führt Dateien auf, die der Batch-Job nicht verarbeitet hat, mit Fehlercodes und Fehlermeldungen pro Datei.

Amazon Comprehend Medical schreibt die Dateien in das Ausgabeverzeichnis, das Sie für den Batch-Job angegeben haben. Die Übersichtsmanifestdatei wird zusammen mit einem Ordner mit dem Titel in den Ausgabeordner geschrieben. Manifest_AccountId-Operation-JobId Im Manifestordner befinden sich der success Ordner, der das Erfolgsmanifest enthält, und der failed Ordner, der das unverarbeitete Dateimanifest enthält. Die folgenden Abschnitte zeigen die Struktur der Manifestdateien.

Batch-Manifestdatei

Im Folgenden ist die JSON-Struktur der Batch-Manifestdatei dargestellt.

{"Summary" : {"Status" : "COMPLETED | FAILED | PARTIAL_SUCCESS | STOPPED", "JobType" : "ICD10CMInference | RxNormInference | SNOMEDCTInference", "InputDataConfiguration" : { "Bucket" : "input bucket", "Path" : "path to files/account ID-job type-job ID" }, "OutputDataConfiguration" : { "Bucket" : "output bucket", "Path" : "path to files" }, "InputFileCount" : number of files in input bucket, "TotalMeteredCharacters" : total characters processed from all files, "UnprocessedFilesCount" : number of files not processed, "SuccessFilesCount" : total number of files processed, "TotalDurationSeconds" : time required for processing, "SuccessfulFilesListLocation" : "path to file", "UnprocessedFilesListLocation" : "path to file", "FailedJobErrorMessage": "error message or if not applicable, The status of the job is completed" } }

Manifest-Datei für den Erfolg

Im Folgenden finden Sie die JSON-Struktur der Datei, die Informationen über erfolgreich verarbeitete Dateien enthält.

{ "Files": [{ "Input": "input path/input file name", "Output": "output path/output file name", "InputSize": size in bytes of input file }, { "Input": "input path/input file name", "Output": "output path/output file name", "InputSize": size in bytes of input file }] }

Unverarbeitete Manifestdatei

Im Folgenden finden Sie die JSON-Struktur der Manifestdatei, die Informationen zu unverarbeiteten Dateien enthält.

{ "Files" : [ { "Input": "file_name_that_failed", "ErrorCode": "error code for exception", "ErrorMessage": "explanation of the error code and suggestions" }, { ...} ] }