Caso d'uso: gestione e miglioramento delle competenze del personale sanitario - AWS Guida prescrittiva

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Caso d'uso: gestione e miglioramento delle competenze del personale sanitario

L'implementazione di strategie di trasformazione e miglioramento delle competenze dei talenti aiuta la forza lavoro a rimanere abile nell'uso di nuove tecnologie e pratiche nei servizi medici e sanitari. Le iniziative proattive di miglioramento delle competenze assicurano che gli operatori sanitari possano fornire un'assistenza ai pazienti di alta qualità, ottimizzare l'efficienza operativa e rimanere conformi agli standard normativi. Inoltre, la trasformazione dei talenti promuove una cultura dell'apprendimento continuo. Questo è fondamentale per adattarsi al mutevole panorama sanitario e affrontare le sfide emergenti in materia di salute pubblica. Gli approcci formativi tradizionali, come la formazione in aula e i moduli di apprendimento statico, offrono contenuti uniformi a un vasto pubblico. Spesso mancano percorsi di apprendimento personalizzati, fondamentali per soddisfare le esigenze specifiche e i livelli di competenza dei singoli professionisti. Questa one-size-fits-all strategia può portare al disimpegno e alla conservazione non ottimale delle conoscenze.

Di conseguenza, le organizzazioni sanitarie devono adottare soluzioni innovative, scalabili e basate sulla tecnologia in grado di determinare il divario per ciascuno dei dipendenti nello stato attuale e in quello futuro potenziale. Queste soluzioni dovrebbero consigliare percorsi di apprendimento iperpersonalizzati e il giusto set di contenuti formativi. Ciò prepara efficacemente la forza lavoro per le future cure sanitarie.

Nel settore sanitario, puoi applicare l'intelligenza artificiale generativa per aiutarti a comprendere e migliorare le competenze della tua forza lavoro. Attraverso la connessione di modelli linguistici di grandi dimensioni (LLMs) e strumenti di recupero avanzati, le organizzazioni possono comprendere quali competenze possiedono attualmente e identificare le competenze chiave che potrebbero essere necessarie in futuro. Queste informazioni aiutano a colmare il divario assumendo nuovi lavoratori e migliorando le competenze della forza lavoro attuale. Utilizzando Amazon Bedrock e Knowledge Graphs, le organizzazioni sanitarie possono sviluppare applicazioni specifiche del dominio che facilitano l'apprendimento continuo e lo sviluppo delle competenze.

Le conoscenze fornite da questa soluzione ti aiutano a gestire efficacemente i talenti, ottimizzare le prestazioni della forza lavoro, promuovere il successo organizzativo, identificare le competenze esistenti e elaborare una strategia per i talenti. Questa soluzione può aiutarti a svolgere queste attività in settimane anziché mesi.

Panoramica della soluzione

Questa soluzione è un framework per la trasformazione dei talenti nel settore sanitario che comprende i seguenti componenti:

  • Analisi intelligente del curriculum: questo componente è in grado di leggere il curriculum di un candidato ed estrarre con precisione le informazioni sul candidato, comprese le competenze. Soluzione intelligente di estrazione delle informazioni creata utilizzando il modello Llama 2 ottimizzato in Amazon Bedrock su un set di dati di formazione proprietario che copre curriculum e profili di talenti di oltre 19 settori. Questo processo basato sul LLM consente di risparmiare centinaia di ore automatizzando il processo di revisione manuale dei curriculum e associando i migliori candidati ai ruoli vacanti.

  • Knowledge graph: un knowledge graph basato su Amazon Neptune, un archivio unificato di informazioni sui talenti che include la tassonomia dei ruoli e delle competenze dell'organizzazione e del settore, che cattura la semantica dei talenti sanitari utilizzando definizioni di competenze, ruoli e relative proprietà, relazioni e vincoli logici.

  • Ontologia delle competenze: la scoperta delle prossimità tra le competenze dei candidati e le competenze ideali dello stato attuale o futuro (recuperate utilizzando un grafico della conoscenza) viene ottenuta attraverso algoritmi ontologici che misurano la somiglianza semantica tra le abilità dei candidati e le abilità dello stato obiettivo.

  • Percorso e contenuti di apprendimento: questo componente è un motore di raccomandazione formativa in grado di consigliare i contenuti didattici giusti tra un catalogo di materiali didattici di qualsiasi fornitore in base alle lacune di competenze identificate. Identificazione dei percorsi di miglioramento delle competenze più ottimali per ciascun candidato analizzando le lacune nelle competenze e consigliando contenuti di apprendimento prioritari, per consentire uno sviluppo professionale continuo e senza interruzioni per ogni candidato durante la transizione verso un nuovo ruolo.

Questa soluzione automatizzata basata sul cloud è alimentata da servizi di machine learning, knowledge graphs e Retrieval Augmented Generation ( LLMsRAG). Può scalare per elaborare decine o migliaia di curriculum in un lasso di tempo minimo, creare profili istantanei dei candidati, identificare le lacune nel loro stato attuale o potenziale futuro e quindi consigliare in modo efficiente i contenuti formativi giusti per colmare queste lacune.

L'immagine seguente mostra il end-to-end flusso del framework. La soluzione è costruita e ottimizzata in LLMs Amazon Bedrock. Questi LLMs recuperano dati dalla knowledge base di talenti sanitari di Amazon Neptune. Gli algoritmi basati sui dati forniscono consigli per percorsi di apprendimento ottimali per ogni candidato.

Un framework di trasformazione per i talenti del settore sanitario.

La creazione di questa soluzione prevede i seguenti passaggi:

Fase 1: Estrazione di informazioni sui talenti e creazione di un profilo di competenze

Innanzitutto, ottimizzi un modello linguistico di grandi dimensioni, come Llama 2, in Amazon Bedrock con un set di dati personalizzato. Questo adatta l'LLM al caso d'uso. Durante la formazione, estrai in modo accurato e coerente gli attributi chiave dei talenti dai curriculum dei candidati o da profili di talento simili. Questi attributi di talento includono competenze, titolo di ruolo attuale, titoli di esperienza con intervalli di tempo, istruzione e certificazioni. Per ulteriori informazioni, consulta Personalizza il tuo modello per migliorarne le prestazioni per il tuo caso d'uso nella documentazione di Amazon Bedrock.

L'immagine seguente mostra il processo di ottimizzazione di un modello di analisi dei curriculum utilizzando Amazon Bedrock. Sia i curriculum reali che quelli creati sinteticamente vengono passati a un LLM per estrarre le informazioni chiave. Un gruppo di data scientist convalida le informazioni estratte confrontandole con il testo originale non elaborato. Le informazioni estratte vengono quindi concatenate utilizzando il chain-of-thoughtprompting e il testo originale per ricavare un set di dati di addestramento da perfezionare. Questo set di dati viene quindi passato a un processo di personalizzazione di Amazon Bedrock, che perfeziona il modello. Un processo batch di Amazon SageMaker AI esegue un framework di valutazione del modello che valuta il modello perfezionato. Se il modello necessita di miglioramenti, il processo viene eseguito nuovamente con più dati o iperparametri diversi. Dopo che la valutazione soddisfa gli standard, esegui l'hosting del modello personalizzato tramite il throughput fornito da Amazon Bedrock.

Architettura per l'estrazione di informazioni sui talenti e la creazione di un profilo di competenze.

Fase 2: Scoprire role-to-skill la rilevanza grazie a un grafico della conoscenza

Successivamente, creerai un grafico della conoscenza che racchiuda le competenze e la tassonomia dei ruoli della tua organizzazione e di altre organizzazioni del settore sanitario. Questa base di conoscenze arricchita proviene dai dati aggregati di talenti e organizzazioni in Amazon Redshift. Puoi raccogliere dati sui talenti da una serie di fornitori di dati sul mercato del lavoro e da fonti di dati strutturate e non strutturate specifiche dell'organizzazione, come sistemi di pianificazione delle risorse aziendali (ERP), un sistema informativo per le risorse umane (HRIS), curriculum dei dipendenti, descrizioni delle mansioni e documenti sull'architettura dei talenti.

Crea il knowledge graph su Amazon Neptune. I nodi rappresentano competenze e ruoli, mentre i bordi rappresentano le relazioni tra di essi. Arricchisci questo grafico con metadati per includere dettagli come il nome dell'organizzazione, il settore, la categoria professionale, il tipo di competenza, il tipo di ruolo e i tag del settore.

Successivamente, si sviluppa un'applicazione Graph Retrieval Augmented Generation (Graph RAG). Graph RAG è un approccio RAG che recupera i dati da un database grafico. I seguenti sono i componenti dell'applicazione Graph RAG:

  • Integrazione con un LLM in Amazon Bedrock: l'applicazione utilizza un LLM in Amazon Bedrock per la comprensione del linguaggio naturale e la generazione di query. Gli utenti possono interagire con il sistema utilizzando il linguaggio naturale. Ciò lo rende accessibile alle parti interessate non tecniche.

  • Orchestrazione e recupero delle informazioni: utilizzo o LlamaIndexLangChainorchestratori per facilitare l'integrazione tra LLM e il knowledge graph di Neptune. Gestiscono il processo di conversione delle query in linguaggio naturale in query OpenCypher. Quindi, eseguono le interrogazioni sul Knowledge Graph. Usa prompt engineering per istruire l'LLM sulle migliori pratiche per la creazione di query OpenCypher. Questo aiuta a ottimizzare le interrogazioni per recuperare il sottografo pertinente, che contiene tutte le entità e le relazioni pertinenti relative ai ruoli e alle competenze richiesti.

  • Generazione di informazioni: l'LLM di Amazon Bedrock elabora i dati del grafico recuperati. Genera informazioni dettagliate sullo stato attuale e proietta gli stati futuri per il ruolo richiesto e le competenze associate.

L'immagine seguente mostra i passaggi per creare un Knowledge Graph a partire dai dati di origine. I dati di origine strutturati e non strutturati vengono passati alla pipeline di inserimento dei dati. La pipeline estrae e trasforma le informazioni in una formazione di carichi di massa CSV compatibile con Amazon Neptune. L'API bulk loader carica i file CSV archiviati in un bucket Amazon S3 nel knowledge graph di Neptune. Per le domande degli utenti relative al talento, allo stato futuro, ai ruoli o alle competenze pertinenti, il LLM ottimizzato di Amazon Bedrock interagisce con il knowledge graph attraverso un LangChain orchestratore. L'orchestratore recupera il contesto pertinente dal knowledge graph e invia le risposte alla tabella degli approfondimenti in Amazon Redshift. Il LangChain orchestrator, come Graph QAChain, converte la query in linguaggio naturale dell'utente in una query OpenCypher per interrogare il knowledge graph. Il modello ottimizzato di Amazon Bedrock genera una risposta basata sul contesto recuperato.

Usa Neptune per creare un knowledge graph e quindi recuperare il contesto pertinente in base a una query dell'utente.

Fase 3: Identificare le lacune nelle competenze e consigliare la formazione

In questa fase, si calcola con precisione la prossimità tra lo stato attuale di un operatore sanitario e i potenziali ruoli statali futuri. A tal fine, si esegue un'analisi dell'affinità delle competenze confrontando le competenze individuali con il ruolo lavorativo. In un database vettoriale di Amazon OpenSearch Service, memorizzi le informazioni sulla tassonomia delle competenze e i metadati delle competenze, come la descrizione delle abilità, il tipo di abilità e i cluster di competenze. Utilizza un modello di incorporamento Amazon Bedrock, come i modelli Amazon Titan Text Embeddings, per incorporare l'abilità chiave identificata nei vettori. Tramite una ricerca vettoriale, recuperi le descrizioni delle competenze statali attuali e delle competenze dello stato target ed esegui un'analisi ontologica. L'analisi fornisce punteggi di prossimità tra le coppie di abilità dello stato attuale e dello stato bersaglio. Per ogni coppia, si utilizzano i punteggi ontologici calcolati per identificare le lacune nelle affinità di abilità. Quindi, consiglierai il percorso ottimale per il miglioramento delle competenze, che il candidato può prendere in considerazione durante le transizioni di ruolo.

Per ogni ruolo, consigliare i contenuti didattici corretti per il miglioramento delle competenze o la riqualificazione implica un approccio sistematico che inizia con la creazione di un catalogo completo di contenuti formativi. Questo catalogo, archiviato in un database Amazon Redshift, aggrega i contenuti di vari provider e include metadati, come la durata del contenuto, il livello di difficoltà e la modalità di apprendimento. Il passaggio successivo consiste nell'estrarre le competenze chiave offerte da ciascun contenuto e quindi mapparle alle competenze individuali richieste per il ruolo target. È possibile ottenere questa mappatura analizzando la copertura fornita dai contenuti attraverso un'analisi della prossimità delle competenze. Questa analisi valuta quanto strettamente le competenze insegnate dal contenuto siano in linea con le competenze desiderate per il ruolo. I metadati svolgono un ruolo fondamentale nella selezione dei contenuti più appropriati per ciascuna competenza, assicurando che gli studenti ricevano consigli personalizzati adatti alle loro esigenze di apprendimento. Utilizzalo LLMs in Amazon Bedrock per estrarre competenze dai metadati dei contenuti, eseguire l'ingegneria delle funzionalità e convalidare i consigli sui contenuti. Ciò migliora l'accuratezza e la pertinenza nel processo di miglioramento delle competenze o riqualificazione.

Allineamento al Well-Architected AWS Framework

La soluzione è in linea con tutti e sei i pilastri del Well-Architected AWS Framework:

  • Eccellenza operativa: una pipeline modulare e automatizzata migliora l'eccellenza operativa. I componenti chiave della pipeline sono disaccoppiati e automatizzati, il che consente aggiornamenti più rapidi dei modelli e un monitoraggio più semplice. Inoltre, le pipeline di formazione automatizzate supportano rilasci più rapidi di modelli ottimizzati.

  • Sicurezza: questa soluzione elabora informazioni sensibili e di identificazione personale (PII), come i dati contenuti nei curriculum e nei profili dei talenti. In AWS Identity and Access Management (IAM), implementa politiche di controllo degli accessi dettagliate e assicurati che solo il personale autorizzato abbia accesso a questi dati.

  • Affidabilità: la soluzione utilizza Servizi AWS, ad esempio, Neptune, Amazon Bedrock e Service OpenSearch , che forniscono tolleranza agli errori, alta disponibilità e accesso ininterrotto alle informazioni anche in caso di forte domanda.

  • Efficienza delle prestazioni: ottimizzati in LLMs Amazon Bedrock and OpenSearch Service, i database vettoriali sono progettati per elaborare in modo rapido e preciso set di dati di grandi dimensioni al fine di fornire consigli di apprendimento tempestivi e personalizzati.

  • Ottimizzazione dei costi: questa soluzione utilizza un approccio RAG, che riduce la necessità di un addestramento preliminare continuo dei modelli. Invece di perfezionare ripetutamente l'intero modello, il sistema perfeziona solo processi specifici, come l'estrazione di informazioni dai curriculum e la strutturazione degli output. Ciò si traduce in significativi risparmi sui costi. Riducendo al minimo la frequenza e la portata dei modelli di formazione ad alta intensità di risorse e utilizzando i servizi pay-per-use cloud, le organizzazioni sanitarie possono ottimizzare i costi operativi mantenendo prestazioni elevate.

  • Sostenibilità: questa soluzione utilizza servizi scalabili e nativi del cloud che allocano le risorse di elaborazione in modo dinamico. Ciò riduce il consumo di energia e l'impatto ambientale, pur continuando a supportare iniziative di trasformazione dei talenti su larga scala e ad alta intensità di dati.