Caso de uso: gestionar y mejorar las competencias de su personal sanitario - AWS Guía prescriptiva

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Caso de uso: gestionar y mejorar las competencias de su personal sanitario

La implementación de estrategias de transformación del talento y mejora de las habilidades ayuda a la fuerza laboral a seguir siendo experta en el uso de las nuevas tecnologías y prácticas en los servicios médicos y de salud. Las iniciativas proactivas de mejora de las competencias garantizan que los profesionales de la salud puedan brindar una atención de alta calidad a los pacientes, optimizar la eficiencia operativa y cumplir con las normas reglamentarias. Además, la transformación del talento fomenta una cultura de aprendizaje continuo. Esto es fundamental para adaptarse al cambiante panorama sanitario y abordar los nuevos desafíos de salud pública. Los enfoques de formación tradicionales, como la formación presencial y los módulos de aprendizaje estáticos, ofrecen un contenido uniforme a un público amplio. A menudo carecen de rutas de aprendizaje personalizadas, que son fundamentales para abordar las necesidades específicas y los niveles de competencia de los profesionales individuales. Esta one-size-fits-all estrategia puede provocar una desvinculación y una retención de conocimientos subóptima.

En consecuencia, las organizaciones de atención médica deben adoptar soluciones innovadoras, escalables e impulsadas por la tecnología que puedan determinar la brecha de cada uno de sus empleados en su estado actual y potencial futuro. Estas soluciones deberían recomendar itinerarios de aprendizaje hiperpersonalizados y el conjunto adecuado de contenidos de aprendizaje. Esto prepara eficazmente a la fuerza laboral para el futuro de la atención médica.

En la industria de la salud, puede aplicar la IA generativa para comprender y mejorar las habilidades de su fuerza laboral. Mediante la conexión de modelos de lenguaje grandes (LLMs) y recuperadores avanzados, las organizaciones pueden comprender qué habilidades tienen actualmente e identificar las habilidades clave que podrían ser necesarias en el futuro. Esta información le ayuda a cerrar la brecha mediante la contratación de nuevos trabajadores y la mejora de las habilidades de la fuerza laboral actual. Con Amazon Bedrock y los gráficos de conocimiento, las organizaciones de atención médica pueden desarrollar aplicaciones de dominio específico que faciliten el aprendizaje continuo y el desarrollo de habilidades.

Los conocimientos que ofrece esta solución le ayudan a gestionar eficazmente el talento, optimizar el rendimiento de la fuerza laboral, impulsar el éxito de la organización, identificar las habilidades existentes y elaborar una estrategia de talento. Esta solución puede ayudarlo a realizar estas tareas en semanas en lugar de meses.

Información general de la solución

Esta solución es un marco de transformación del talento sanitario que consta de los siguientes componentes:

  • Analizador de currículum inteligente: este componente puede leer el currículum de un candidato y extraer con precisión la información del candidato, incluidas sus habilidades. Solución de extracción de información inteligente creada con el modelo Llama 2 ajustado de Amazon Bedrock en un conjunto de datos de formación patentado que incluye currículos y perfiles de talentos de más de 19 industrias. Este proceso basado en la LLM ahorra cientos de horas al automatizar el proceso de revisión manual de los currículos y asignar a los mejores candidatos a los puestos vacantes.

  • Gráfico de conocimiento: gráfico de conocimiento creado en Amazon Neptune, un repositorio unificado de información sobre talentos que incluye la taxonomía de funciones y habilidades de la organización y del sector, que captura la semántica del talento sanitario mediante definiciones de habilidades, funciones y sus propiedades, relaciones y restricciones lógicas.

  • Ontología de habilidades: el descubrimiento de las proximidades de habilidades entre las habilidades de los candidatos y las habilidades ideales del estado actual o futuro (recuperadas mediante un gráfico de conocimiento) se logra mediante algoritmos de ontología que miden la similitud semántica entre las habilidades de los candidatos y las habilidades del estado objetivo.

  • Itinerario y contenido de aprendizaje: este componente es un motor de recomendaciones de aprendizaje que puede recomendar el contenido de aprendizaje adecuado de un catálogo de materiales de aprendizaje de cualquier proveedor en función de las brechas de habilidades identificadas. Identificar las vías de mejora de competencias más óptimas para cada candidato mediante el análisis de las carencias de competencias y la recomendación de contenidos de aprendizaje priorizados, a fin de permitir un desarrollo profesional continuo y fluido para cada candidato durante la transición a un nuevo puesto.

Esta solución automatizada y basada en la nube se basa en servicios de aprendizaje automático LLMs, gráficos de conocimiento y recuperación aumentada (RAG). Puede ampliarse para procesar decenas o miles de currículums en un tiempo mínimo, crear perfiles de candidatos instantáneos, identificar brechas en su estado futuro actual o potencial y, luego, recomendar de manera eficiente el contenido de aprendizaje adecuado para cerrar estas brechas.

La siguiente imagen muestra el end-to-end flujo del marco. La solución se basa en LLMs Amazon Bedrock, optimizada con precisión. Estos LLMs recuperan datos de la base de conocimientos sobre talentos de la salud en Amazon Neptune. Los algoritmos basados en datos hacen recomendaciones sobre vías de aprendizaje óptimas para cada candidato.

Un marco de transformación para el talento sanitario.

La creación de esta solución consta de los siguientes pasos:

Paso 1: Extraer información sobre el talento y crear un perfil de habilidades

En primer lugar, debe ajustar un modelo de lenguaje grande, como Llama 2, en Amazon Bedrock con un conjunto de datos personalizado. Esto adapta el LLM al caso de uso. Durante la formación, extraes de forma precisa y coherente los atributos clave del talento de los currículums de los candidatos o de perfiles de talentos similares. Estos atributos de talento incluyen las habilidades, el cargo actual, los títulos de experiencia con períodos de tiempo, la educación y las certificaciones. Para obtener más información, consulte Personalice su modelo para mejorar su rendimiento para su caso de uso en la documentación de Amazon Bedrock.

La siguiente imagen muestra el proceso para ajustar un modelo de análisis de currículum mediante Amazon Bedrock. Tanto los currículos reales como los creados sintéticamente se envían a un LLM para extraer la información clave. Un grupo de científicos de datos valida la información extraída comparándola con el texto original sin procesar. Luego, la información extraída se concatena utilizando las chain-of-thoughtindicaciones y el texto original para obtener un conjunto de datos de entrenamiento para su ajuste. Luego, este conjunto de datos se pasa a un trabajo de personalización de Amazon Bedrock, que ajusta el modelo. Un trabajo por lotes de Amazon SageMaker AI ejecuta un marco de evaluación de modelos que evalúa el modelo ajustado con precisión. Si es necesario mejorar el modelo, el trabajo se vuelve a ejecutar con más datos o con distintos hiperparámetros. Una vez que la evaluación cumpla con los estándares, usted hospeda el modelo personalizado a través del rendimiento aprovisionado por Amazon Bedrock.

Arquitectura para extraer información sobre el talento y crear un perfil de habilidades.

Paso 2: Descubrir la role-to-skill relevancia a partir de un gráfico de conocimiento

A continuación, debe crear un gráfico de conocimiento que resuma la taxonomía de las habilidades y funciones de su organización y de otras organizaciones del sector de la salud. Esta base de conocimientos enriquecida proviene de datos agregados de talento y organización en Amazon Redshift. Puede recopilar datos sobre el talento de una variedad de proveedores de datos del mercado laboral y de fuentes de datos estructuradas y no estructuradas específicas de la organización, como los sistemas de planificación de recursos empresariales (ERP), un sistema de información de recursos humanos (HRIS), los currículos de los empleados, las descripciones de los puestos y los documentos sobre la arquitectura del talento.

Cree el gráfico de conocimiento sobre Amazon Neptune. Los nodos representan habilidades y funciones, y los bordes representan las relaciones entre ellos. Amplíe este gráfico con metadatos para incluir detalles como el nombre de la organización, el sector, la familia laboral, el tipo de aptitud, el tipo de función y las etiquetas del sector.

A continuación, desarrollará una aplicación Graph Retrieval Augmented Generation (Graph RAG). Graph RAG es un enfoque de RAG que recupera datos de una base de datos de gráficos. Los siguientes son los componentes de la aplicación Graph RAG:

  • Integración con un LLM en Amazon Bedrock: la aplicación utiliza un LLM en Amazon Bedrock para comprender el lenguaje natural y generar consultas. Los usuarios pueden interactuar con el sistema mediante el uso de un lenguaje natural. Esto lo hace accesible a las partes interesadas no técnicas.

  • Orquestación y recuperación de información: uso o LlamaIndexLangChainorquestadores para facilitar la integración entre el LLM y el gráfico de conocimiento de Neptune. Gestionan el proceso de conversión de consultas en lenguaje natural en consultas de OpenCypher. A continuación, ejecutan las consultas en el gráfico de conocimiento. Utilice la ingeniería rápida para instruir al LLM sobre las mejores prácticas para crear consultas de OpenCypher. Esto ayuda a optimizar las consultas para recuperar el subgráfico correspondiente, que contiene todas las entidades y relaciones pertinentes sobre las funciones y habilidades consultadas.

  • Generación de información: el LLM de Amazon Bedrock procesa los datos gráficos recuperados. Genera información detallada sobre el estado actual y proyecta estados futuros para el rol consultado y las habilidades asociadas.

La siguiente imagen muestra los pasos para crear un gráfico de conocimiento a partir de los datos de origen. Los datos de origen estructurados y no estructurados se transfieren a la canalización de ingesta de datos. La canalización extrae y transforma la información en una formación de carga masiva CSV compatible con Amazon Neptune. La API de carga masiva carga los archivos CSV que están almacenados en un bucket de Amazon S3 al gráfico de conocimiento de Neptune. Para las consultas de los usuarios relacionadas con el estado futuro del talento, las funciones relevantes o las habilidades, el perfeccionado LLM de Amazon Bedrock interactúa con el gráfico de conocimiento a través de un LangChain orquestador. El orquestador recupera el contexto relevante del gráfico de conocimiento y envía las respuestas a la tabla de información de Amazon Redshift. La LangChain Orchestrator, al igual que Graph QAChain, convierte la consulta del usuario en lenguaje natural en una consulta de OpenCypher para consultar el gráfico de conocimiento. El modelo ajustado de Amazon Bedrock genera una respuesta basada en el contexto recuperado.

Utilice Neptune para crear un gráfico de conocimiento y, a continuación, recuperar el contexto relevante en función de la consulta de un usuario.

Paso 3: Identificar las carencias de habilidades y recomendar la formación

En este paso, calcula con precisión la proximidad entre el estado actual de un profesional de la salud y las posibles funciones estatales futuras. Para ello, se realiza un análisis de afinidad entre las habilidades y se comparan los conjuntos de habilidades de la persona con el puesto de trabajo. En una base de datos vectorial de Amazon OpenSearch Service, se almacena información de taxonomía de habilidades y metadatos de habilidades, como la descripción de la habilidad, el tipo de habilidad y los grupos de habilidades. Utilice un modelo de incrustación de Amazon Bedrock, como los modelos Amazon Titan Text Embeddings, para incrustar la habilidad clave identificada en los vectores. Mediante una búsqueda vectorial, puede recuperar las descripciones de las habilidades del estado actual y las habilidades del estado objetivo y realizar un análisis ontológico. El análisis proporciona puntuaciones de proximidad entre los pares de habilidades actuales y del estado objetivo. Para cada par, se utilizan las puntuaciones ontológicas calculadas para identificar las brechas en las afinidades de las habilidades. Luego, recomiendas la ruta óptima para mejorar las habilidades, que el candidato puede tener en cuenta durante las transiciones de roles.

Para cada puesto, recomendar el contenido de aprendizaje correcto para mejorar o volver a capacitarse implica un enfoque sistemático que comienza con la creación de un catálogo completo de contenido de aprendizaje. Este catálogo, que se almacena en una base de datos de Amazon Redshift, agrega contenido de varios proveedores e incluye metadatos, como la duración del contenido, el nivel de dificultad y el modo de aprendizaje. El siguiente paso consiste en extraer las habilidades clave que ofrece cada contenido y, a continuación, asignarlas a las habilidades individuales requeridas para el puesto objetivo. Para lograr este mapeo, se analiza la cobertura que proporciona el contenido mediante un análisis de proximidad de habilidades. Este análisis evalúa en qué medida las habilidades que se enseñan en el contenido se alinean con las habilidades deseadas para el puesto. Los metadatos desempeñan un papel fundamental a la hora de seleccionar el contenido más apropiado para cada habilidad, ya que garantizan que los alumnos reciban recomendaciones personalizadas que se adapten a sus necesidades de aprendizaje. Úselo LLMs en Amazon Bedrock para extraer conocimientos de los metadatos del contenido, realizar ingeniería de características y validar las recomendaciones de contenido. Esto mejora la precisión y la relevancia del proceso de mejora o recalificación.

Alineación con el marco de AWS Well-Architected

La solución se alinea con los seis pilares del AWS Well-Architected Framework:

  • Excelencia operativa: una canalización modular y automatizada mejora la excelencia operativa. Los componentes clave de la canalización están desacoplados y automatizados, lo que permite actualizar los modelos más rápidamente y facilitar la supervisión. Además, los procesos de formación automatizados permiten lanzar modelos ajustados con mayor rapidez.

  • Seguridad: esta solución procesa información confidencial y de identificación personal (PII), como los datos de los currículums y los perfiles de talentos. En AWS Identity and Access Management (IAM), implemente políticas de control de acceso detalladas y asegúrese de que solo el personal autorizado tenga acceso a estos datos.

  • Fiabilidad: la solución utiliza Servicios de AWS, como Neptune, Amazon Bedrock y OpenSearch Service, que proporcionan tolerancia a errores, alta disponibilidad y acceso ininterrumpido a la información, incluso cuando hay una gran demanda.

  • Eficiencia del rendimiento: las bases de datos vectoriales ajustadas en LLMs Amazon Bedrock y OpenSearch Service están diseñadas para procesar grandes conjuntos de datos de forma rápida y precisa a fin de ofrecer recomendaciones de aprendizaje personalizadas y oportunas.

  • Optimización de costos: esta solución utiliza un enfoque RAG, lo que reduce la necesidad de una formación previa continua de los modelos. En lugar de ajustar todo el modelo de forma repetida, el sistema solo ajusta procesos específicos, como la extracción de información de los currículums y la estructuración de los resultados. Esto se traduce en un importante ahorro de costes. Al minimizar la frecuencia y la escala de los modelos de formación con un uso intensivo de recursos y al utilizar los servicios pay-per-use en la nube, las organizaciones sanitarias pueden optimizar sus costes operativos y, al mismo tiempo, mantener un alto rendimiento.

  • Sostenibilidad: esta solución utiliza servicios escalables nativos de la nube que asignan los recursos informáticos de forma dinámica. Esto reduce el consumo de energía y el impacto ambiental y, al mismo tiempo, respalda las iniciativas de transformación del talento a gran escala y con uso intensivo de datos.