本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
指南和配额
使用 Amazon Comprehend Medical 时,请记住以下信息。
仅支持英语 (EN) 文档。
重要提示
Amazon Comprehend Medical 并不代替专业的医学意见、诊断或治疗。Amazon Comprehend Medical 提供置信度分数,该分数表明对检测到的实体的准确性的信心。为您的使用案例确定正确的置信度阈值,并在需要高准确度的情况下使用高置信度阈值。对于某些使用案例,结果应由经过适当培训的人力审核人员进行审核和验证。只有经过训练有素的医学专家审查结果的准确性和进行合理的医学判断后,才能在患者护理场景中使用 Amazon Comprehend Medical。
支持的 区域
有关提供 Amazon Comprehend Medical 的 AWS 区域的列表,请参阅 Amazon Web Services General Reference 中的 AWS Regions and Endpoints。
节流
有关 Amazon Comprehend Medical 的限制和配额以及如何请求增加配额的更多信息,请参阅 AWS Service Quotas。
整体配额
Amazon Comprehend Medical 的字符编码采用 UTF-8 格式。Amazon Comprehend Medical 操作的每秒事务数 (TPS) 或每秒字符数 (CPS) 的配额如下所示:
资源 | 默认 |
---|---|
DetectEntities-v2 、DetectEntities 、DetectPHI 、InferRxNorm 和 InferICD10CM 操作的每秒事务数 (TPS) |
100 TPS |
InferSNOMEDCT 操作的每秒事务数 (TPS) |
2 TPS |
DetectEntities-v2 、DetectEntities 、DetectPHI 、InferRxNorm 和 InferICD10CM 操作的每秒字符数 (CPS) |
40000 CPS |
InferSNOMEDCT 操作的每秒字符数 (CPS) |
5000 CPS |
StartEntitiesDetectionV2Job 、StartPHIDetectionJob 、StopEntitiesDetectionV2Job 、StopPHIDetectionJob 、StartICD10CMInferenceJob 、StartRxNormInferenceJob 、StopICD10CMInferenceJob 和 StopRxNormInferenceJob 操作的每秒事务数 (TPS)。 |
5 TPS |
StartSNOMEDCTnferenceJob 和 StopSNOMEDCTnferenceJob 操作的每秒事务数 (TPS) |
5 TPS |
ListEntitiesDetectionV2Jobs 、ListPHIDetectionJobs 、DescribeEntitiesDetectionV2Job 、DescribePHIDetectionJob 、ListICD10CMInferenceJobs 、ListRxNormInferenceJobs 、DescribeICD10CMInferenceJob 和 DescribeRxNormInferenceJob 操作的每秒事务数 (TPS) |
10 TPS |
ListSNOMEDCTnferenceJobs 和 DescribeSNOMEDCTnferenceJob 操作的每秒事务数 (TPS) |
10 TPS |
下表显示了文件的大小配额:
描述 | 限额 |
---|---|
DetectEntities 、DetectEntities-v2 和 DetectPHI 操作的最大文档大小(UTF-8 字符)。 |
20 KB |
InferICD10-CM 和 InferRxNorm 操作的最大文档大小(UTF-8 字符) |
10 KB |
文本分析最大批处理作业大小(批处理作业中提交的所有文件的总和) | 1 GB |
本体(ICD10、RxNNorm、SNOMEDCT)关联最大批处理作业大小(批处理作业中提交的所有文件的总和) | 1 GB |
批处理作业的最小大小(所有文件) | 1 字节 |
批处理作业的 InferICD10CM 最大单个文件大小 | 40 KB |
InferRxNorm 批处理作业的最大单个文件大小 | 40 KB |
作业中的 InferSNOMEDCT 最大单个文件大小。 |
5 KB |
作业中的 StartSNOMEDCTInferenceJob 最大单个文件大小。 |
5 KB |
如果您的文本大于字符配额,请使用 segment.py 创建可供分析的较小的分段。
仅支持英语 (EN) 文档。