Ontologia che collega l'analisi in batch - Amazon Comprehend Medical

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Ontologia che collega l'analisi in batch

Usa Amazon Comprehend Medical per rilevare entità nel testo clinico archiviato in un bucket Amazon Simple Storage Service (Amazon S3) e collegare tali entità a ontologie standardizzate. Puoi utilizzare l'ontologia che collega l'analisi in batch per analizzare una raccolta di documenti o un singolo documento con un massimo di 20.000 caratteri. Utilizzando la console o l'ontology linking batch API, è possibile eseguire operazioni per avviare, interrompere, elencare e descrivere i processi di analisi in batch in corso.

Per informazioni sui prezzi per l'analisi dei lotti e altre operazioni di Amazon Comprehend Medical, consulta la pagina dei prezzi di Amazon Comprehend Medical.

Esecuzione di analisi in batch

Puoi eseguire un processo di analisi in batch utilizzando la console Amazon Comprehend Medical o le operazioni dell'API batch di Amazon Comprehend Medical.

Esecuzione di analisi in batch utilizzando le operazioni API

Prerequisiti

Quando utilizzi l'API Amazon Comprehend Medical, crea una policy AWS Identity Access and Management (IAM) e collegala a un ruolo IAM. Per ulteriori informazioni sui ruoli IAM e sulle policy di fiducia, consulta IAM Policies and Permissions.

  1. Carica i tuoi dati in un bucket S3.

  2. Per iniziare un nuovo processo di analisi, usa StartIcD10CM, StartSnomeDct InferenceJob o le operazioni. InferenceJob StartRxNormInferenceJob Fornisci il nome del bucket Amazon S3 che contiene i file di input e il nome del bucket Amazon S3 a cui desideri inviare i file di output.

  3. Monitora lo stato di avanzamento del lavoro utilizzando DescribeICD10CM, InferenceJob DescribesNomedCT o operations. InferenceJob DescribeRxNormInferenceJob Inoltre, è possibile utilizzare ListicD10CM, ListsNomeDCT e visualizzare lo stato di tutte le ontologie che collegano i InferenceJobs processi di analisi in batch InferenceJobs. ListRxNormInferenceJobs

  4. Se è necessario interrompere un processo in corso, utilizzare StopICD10CM, StopSnomeDct o per interrompere l'analisi. InferenceJob InferenceJob StopRxNormInferenceJob

  5. Per visualizzare i risultati del processo di analisi, guarda il bucket di output S3 che hai configurato all'avvio del processo.

Esecuzione dell'analisi in batch utilizzando la console

  1. Carica i tuoi dati in un bucket S3.

  2. Per iniziare un nuovo lavoro di analisi, seleziona il tipo di analisi che eseguirai. Quindi, fornisci il nome del bucket S3 che contiene i file di input e il nome del bucket S3 a cui desideri inviare i file di output.

  3. Monitora lo stato del tuo lavoro mentre è in corso. Dalla console è possibile visualizzare tutte le operazioni di analisi in batch e il relativo stato, incluso l'inizio e la fine dell'analisi.

  4. Per vedere i risultati del processo di analisi, guarda il bucket di output S3 che hai configurato all'avvio del lavoro.

Politiche IAM per le operazioni in batch

Il ruolo IAM che richiama le operazioni dell'API batch di Amazon Comprehend Medical deve avere una policy che garantisca l'accesso ai bucket S3 che contengono i file di input e output. Al ruolo IAM deve inoltre essere assegnata una relazione di fiducia in modo che il servizio Amazon Comprehend Medical possa assumere il ruolo. Per ulteriori informazioni sui ruoli IAM e sulle politiche di fiducia, consulta IAM Roles.

Il ruolo deve avere la seguente politica:

{ "Version": "2012-10-17", "Statement": [ { "Action": [ "s3:GetObject" ], "Resource": [ "arn:aws:s3:::input-bucket/*" ], "Effect": "Allow" }, { "Action": [ "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::input-bucket", "arn:aws:s3:::output-bucket", ], "Effect": "Allow" }, { "Action": [ "s3:PutObject" ], "Resource": [ " arn:aws:s3:::output-bucket/*" ], "Effect": "Allow" } ] }

Il ruolo deve avere la seguente relazione di fiducia. Si consiglia di utilizzare i tasti aws:SourceAccount e aws:SourceArn condition per evitare il confuso problema di Vice Security. Per saperne di più sul problema del vicesceriffo confuso e su come proteggere il tuo AWS account, consulta Il problema del vice confuso nella documentazione di IAM.

{ "Version":"2012-10-17", "Statement":[ { "Effect":"Allow", "Principal":{ "Service":[ "comprehendmedical.amazonaws.com" ] }, "Action":"sts:AssumeRole", "Condition": { "StringEquals": { "aws:SourceAccount": "account_id" }, "ArnLike": { "aws:SourceArn": "arn:aws:comprehendmedical:region:account_id:*" } } } ] }

File di output per l'analisi in batch

Amazon Comprehend Medical crea un file di output per ogni file di input nel batch. Il file ha l'estensione.out. Amazon Comprehend Medical crea innanzitutto una directory nel bucket di output S3 utilizzando AwsAccountIdJobType- JobId- come nome, quindi scrive tutti i file di output per il batch in questa directory. Amazon Comprehend Medical crea questa nuova directory in modo che l'output di un lavoro non sovrascriva l'output di un altro lavoro.

Un'operazione batch produce lo stesso output di un'operazione sincrona.

Ogni operazione batch produce i seguenti tre file manifest che contengono informazioni sul lavoro:

  • Manifest— Riassume il lavoro. Fornisce informazioni sui parametri utilizzati per il lavoro, la dimensione totale del lavoro e il numero di file elaborati.

  • Success— Fornisce informazioni sui file che sono stati elaborati correttamente. Include il nome del file di input e output e la dimensione del file di input.

  • Unprocessed— Elenca i file che il processo batch non ha elaborato con codici e messaggi di errore per file.

Amazon Comprehend Medical scrive i file nella directory di output specificata per il processo batch. Il file manifesto di riepilogo verrà scritto nella cartella di output, insieme a una cartella intitolataManifest_AccountId-Operation-JobId. All'interno della cartella manifest si trovano la success cartella, che contiene il manifesto di successo, e la failed cartella, che contiene il manifesto del file non elaborato. Le seguenti sezioni mostrano la struttura dei file manifest.

File manifesto Batch

Di seguito è riportata la struttura JSON del file manifesto batch.

{"Summary" : {"Status" : "COMPLETED | FAILED | PARTIAL_SUCCESS | STOPPED", "JobType" : "ICD10CMInference | RxNormInference | SNOMEDCTInference", "InputDataConfiguration" : { "Bucket" : "input bucket", "Path" : "path to files/account ID-job type-job ID" }, "OutputDataConfiguration" : { "Bucket" : "output bucket", "Path" : "path to files" }, "InputFileCount" : number of files in input bucket, "TotalMeteredCharacters" : total characters processed from all files, "UnprocessedFilesCount" : number of files not processed, "SuccessFilesCount" : total number of files processed, "TotalDurationSeconds" : time required for processing, "SuccessfulFilesListLocation" : "path to file", "UnprocessedFilesListLocation" : "path to file", "FailedJobErrorMessage": "error message or if not applicable, The status of the job is completed" } }

File manifesto di successo

Di seguito è riportata la struttura JSON del file che contiene informazioni sui file elaborati correttamente.

{ "Files": [{ "Input": "input path/input file name", "Output": "output path/output file name", "InputSize": size in bytes of input file }, { "Input": "input path/input file name", "Output": "output path/output file name", "InputSize": size in bytes of input file }] }

File manifesto non elaborato

Di seguito è riportata la struttura JSON del file manifest che contiene informazioni sui file non elaborati.

{ "Files" : [ { "Input": "file_name_that_failed", "ErrorCode": "error code for exception", "ErrorMessage": "explanation of the error code and suggestions" }, { ...} ] }