GPT Editor's Assistant: intelligenza artificiale Intranet 80.20 Scopri di più.

Intranet e LLM: “un bel guazzabuglio moderno” e una soluzione chiamata RAG

21 ottobre 2024

Oggi i dati sono una delle risorse più preziose, se non la più preziosa, per le aziende. Per profilare e proteggere queste informazioni, i responsabili della comunicazione, le risorse umane e i team IT devono affrontare diverse sfide, rese ancora più complesse dalla recente adozione di modelli linguistici di grandi dimensioni (LLM), come ChatGPT.

Comunicazione, HR e IT: tutti i rischi della gestione delle informazioni aziendali

Ricordate Mago Merlino ritornato da Honolulu giudicare il XX secolo “un bel guazzabuglio moderno”? Beh... non aveva visto il XXI secolo e le sfide che gli attuali strumenti di AI ci spingono ad affrontare, sotto diversi punti di vista.

Per i responsabili della Comunicazione la condivisione delle informazioni è pane quotidiano e proprio per questo i dati diffusi devono essere accurati e sicuri. Una profilazione delle informazioni precisa serve a evitare errori che possono compromettere la fiducia all'interno dell'organizzazione. Sfruttare i LLM significa infatti avere tra le mani dei potenti strumenti di intelligenza artificiale, ma che potrebbero farci inciampare su:

  • informazioni false (un vizio dei LLM è quello di generare risposte errate quando non conoscono la risposta);
  • informazioni obsolete (possono fornire dati non aggiornati o generici);
  • fonti non autorevoli (ovvero fonti non verificate);
  • confusione terminologica (diverse fonti possono usare la stessa terminologia per concetti diversi).

Le Risorse Umane, invece, basano la loro credibilità sulle risposte personalizzate e sulla costruzione di un percorso lavorativo per ogni dipendente. Per loro, affidarsi ai LLM vuol dire correre il rischio di ottenere risposte generiche o non pertinenti, riducendo la soddisfazione del personale e aumentando il carico di lavoro per il team HR.

Infine, per i team IT la priorità assoluta rimane la sicurezza dei dati, e anche in questo campo i LLM possono fare danni: introducendo rischi di data leak e generando risposte basate su fonti non autorevoli, mettono a rischio la conformità alle normative e la protezione delle informazioni sensibili.

C’è una soluzione univoca a queste problematiche?
Sì, e si chiama RAG (Retrieval-Augmented Generation).

Cos'è la Retrieval-Augmented Generation?

La Retrieval-Augmented Generation (RAG) è un processo che ottimizza le risposte di un modello linguistico di grandi dimensioni. Prima di rispondere, il modello cerca informazioni aggiornate o specifiche da una fonte autorevole esterna (come un database o un insieme di documenti). Questo approccio estende le capacità dei LLM a domini specifici o alla knowledge base interna di un'organizzazione, senza la necessità di riaddestrare il modello. In pratica, è come se prima di rispondere a una domanda, il modello controllasse una biblioteca per assicurarsi di avere le informazioni più corrette o aggiornate.

La RAG, integrando la capacità di recupero delle informazioni da fonti autorevoli con la generazione di risposte personalizzate, non solo migliora la pertinenza e l'accuratezza delle risposte, ma sposta anche il problema di sicurezza sulla ricerca semantica, rendendo più facile il controllo e la gestione delle informazioni.
Ma come funziona esattamente?

Come funziona la RAG

Tutto inizia con la creazione di una base di dati esterni, come quelli provenienti da API, database o archivi di documenti. Questi dati vengono poi trasformati in un formato che il modello può interpretare, come delle rappresentazioni numeriche.

Successivamente, quando l'utente pone una domanda (query), il sistema la abbina con il database, cercando i documenti più rilevanti. I risultati della ricerca vengono poi aggiunti al prompt della domanda iniziale, arricchendo le informazioni che l'IA usa per generare una risposta più precisa e dettagliata.

Per garantire che le informazioni rimangano aggiornate e pertinenti, il sistema prevede anche un aggiornamento periodico dei dati esterni, assicurando che il modello continui a fornire risposte accurate nel tempo.

Vantaggi della RAG

Rispetto ai modelli tradizionali di intelligenza artificiale, la RAG offre una serie di vantaggi che ne fanno una soluzione ideale per molte applicazioni, soprattutto per quanto riguarda la gestione delle informazioni e la qualità delle risposte generate. Vediamone alcuni:

  1. Implementazione conveniente: non richiede la riqualificazione completa del modello, riducendo i costi;
  2. Informazioni attuali: permette di integrare dati aggiornati, migliorando la pertinenza delle risposte;
  3. Maggiore fiducia degli utenti: le risposte includono citazioni e riferimenti a fonti autorevoli, aumentando la fiducia;
  4. Maggiore controllo per gli editor: gli editor possono gestire e aggiornare le fonti di informazioni, garantendo risposte accurate e sicure.

Dal guazzabuglio all'ordine

Ora sappiamo che i rischi per l’utilizzo di LLM in azienda legati alla correttezza e sicurezza dei dati possono essere eliminati dalla RAG e dalla sua capacità di recuperare dati da fonti esterne. Il risultato è un maggiore controllo su ciò che viene comunicato da parte dei team aziendali.

Proprio come nel "guazzabuglio moderno" di cui parlava Mago Merlino, la chiave sta nel saper navigare tra complessità e innovazione, con un occhio sempre attento a ciò che è davvero utile e sicuro per l’azienda.

Se ti interessa sapere di più sulla RAG e sull’integrazione dell’AI negli strumenti di comunicazione interna, puoi leggere anche: