Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Capa 3: Seguridad y gobernanza para plataformas de IA generativa en AWS
Un marco sólido de seguridad y gobierno es esencial para ampliar la adopción de la IA generativa en toda la empresa. Recomendamos un enfoque centrado en la plataforma. Este enfoque garantiza que todas las aplicaciones generativas impulsadas por la IA, independientemente del equipo que las cree, se beneficien de un conjunto predeterminado de protecciones de seguridad y de una IA responsable.
Esta sección contiene los siguientes temas:
Disciplinas fundamentales de seguridad
Las 10 principales aplicaciones LLM de OWASP describen consideraciones de seguridad adicionales para
-
Gobernanza y cumplimiento: cree las políticas, los procedimientos y los informes necesarios para potenciar la empresa y, al mismo tiempo, minimizar los riesgos. En el caso de las aplicaciones de IA generativa, esto incluye directrices para la selección de modelos, el uso de datos y la validación de los resultados.
-
Aspectos legales y de privacidad: cumpla con los requisitos normativos, legales y de privacidad específicos para usar o crear soluciones de IA generativa. Las organizaciones deben considerar cuidadosamente las leyes de protección de datos, los derechos de propiedad intelectual y las regulaciones específicas de la industria al implementar soluciones de IA generativa.
-
Gestión de riesgos: identifique las posibles amenazas a las soluciones de IA generativa y las medidas de mitigación recomendadas. Esto incluye abordar riesgos como el envenenamiento de datos, los ataques de inyección inmediata o los sesgos involuntarios en los resultados de los modelos.
-
Controles: implemente controles de seguridad que mitiguen el riesgo. En el caso de las aplicaciones de IA generativa, esto incluye la desinfección de las entradas, el filtrado de las salidas y los controles de acceso para el uso del modelo. Para obtener más información, consulte los controles de seguridad recomendados en esta guía.
-
Resiliencia: diseñe soluciones de IA generativas para mantener la disponibilidad y cumplir los acuerdos de nivel de servicio empresarial (). SLAs Esto incluye consideraciones sobre la redundancia de los modelos, los mecanismos alternativos y la escalabilidad en condiciones de carga variables.
Controles de seguridad recomendados
Defense-in-depth es un enfoque de ciberseguridad que utiliza capas de controles de seguridad para proteger un sistema, una red o una carga de trabajo. Las diferentes capas ayudan a detectar y detener los ataques en caso de que una capa falle. Como mínimo, recomendamos los siguientes controles para adoptar un defense-in-depth enfoque para las cargas de trabajo generativas de IA y sus entornos:
-
Administración de identidades y accesos: Servicios de AWS incluidas Amazon Bedrock y Amazon SageMaker AI, se integran de forma nativa con AWS Identity and Access Management (IAM). La IAM proporciona un control detallado sobre quién puede realizar acciones en sus recursos Cuentas de AWS y en los suyos, como suscribirse a modelos básicos o realizar inferencias sobre un modelo. Le recomendamos que cree varios roles de IAM con permisos detallados. Por ejemplo, puede crear los siguientes roles:
-
Función de evaluación: los usuarios con esta función pueden evaluar los modelos básicos en un entorno sandbox a medida que se añaden nuevos modelos a Amazon Bedrock. Estos usuarios deben coordinarse con sus equipos legales y de compras antes de activar las suscripciones que permiten un acceso más amplio.
-
Función de acceso general: los usuarios con esta función pueden acceder a los modelos fundamentales para un uso estándar.
-
Rol de acceso al modelo ajustado: los usuarios con este rol pueden acceder a modelos que se ajustan con precisión a sus datos patentados.
-
Función de acceso a modelos especializada: los usuarios con esta función pueden acceder a modelos vanguardistas y de alto coste para casos de uso específicos.
-
-
Acceso a la red privada a través de AWS PrivateLink: utilícelo AWS PrivateLinkcon Amazon Bedrock y Amazon SageMaker AI para invocar modelos desde su VPC y su red local. Esto ayuda a mantener los datos confidenciales dentro de su red privada.
-
Barandillas para Amazon Bedrock: implemente barandas para administrar y filtrar las solicitudes y respuestas hacia y desde los modelos básicos. Esto añade una capa de control adicional.
-
Almacene de forma segura los registros de invocación: para asegurarse de que su uso cumple con sus requisitos de conformidad, puede almacenar todas las solicitudes y respuestas en un bucket de Amazon S3 o en Amazon CloudWatch Logs. Para obtener más información, consulte Supervisar la invocación del modelo mediante CloudWatch Logs y Amazon S3 en la documentación de Amazon Bedrock.
-
Audita y rastrea el acceso a los modelos básicos: usa Amazon CloudWatch, un servicio que registra las acciones realizadas por un usuario, rol o un Servicio de AWS. CloudTrail captura todas las llamadas a la API de Amazon Bedrock como eventos. Para obtener más información, consulte Supervisar las llamadas a la API de Amazon Bedrock mediante CloudTrail y Registrar las llamadas a la API de Amazon SageMaker AI mediante AWS CloudTrail.
-
Siga los 10 principales riesgos de seguridad de OWASP para las aplicaciones LLM: consulte los 10 principales riesgos de seguridad de OWASP para las aplicaciones LLM y asegúrese de tener estrategias y controles de seguridad claramente identificados para diseñar defensas por capas. Para obtener más información, consulte Diseñe la defense-in-depthseguridad para aplicaciones de IA generativa utilizando las 10 mejores aplicaciones de OWASP (entrada del blog
). LLMs AWS
Matriz de alcance de seguridad
Los controles de seguridad específicos que necesita dependen de la naturaleza de su aplicación de IA generativa. La matriz AWS generativa de alcance de la seguridad de la IA
La matriz ayuda a las organizaciones a identificar los controles de seguridad adecuados en función de factores como:
-
Si la aplicación está orientada al consumidor o es interna de la empresa
-
El uso de modelos previamente entrenados en comparación con el ajuste fino
-
La sensibilidad de los datos que se están procesando
-
La importancia de la aplicación a las operaciones comerciales
Recomendaciones de implementación
Para implementar un marco integral de seguridad y gobierno para sus cargas de trabajo generativas de IA, tenga en cuenta las siguientes recomendaciones:
-
Establezca políticas y procedimientos claros para el acceso y el uso de los modelos.
-
Implemente controles de seguridad en varios niveles, como en las capas de red, aplicaciones y datos.
-
Realice evaluaciones de seguridad y auditorías de cumplimiento periódicas.
-
Mantenga una documentación detallada sobre las medidas y los controles de seguridad.
-
Imparta formación sobre concienciación sobre seguridad a los equipos que trabajan con IA generativa.
-
Revise y actualice periódicamente los controles de seguridad a medida que evolucionan las amenazas.