Skip to content

Da dott. Google a dott. ChatGPT il passo è breve

Punti chiave

Domanda: Come per tutti gli argomenti innovativi, quella dell’intelligenza artificiale è una storia ancora tutta da scrivere. La domanda principale a cui occorre trovare una risposta è: “come rendere questi sistemi non un ostacolo, ma degli utili alleati alla cura del diabete”?

Obiettivi: Valutare ed esplorare la qualità e la veridicità dei consigli forniti da ChatGPT sull’autogestione e l’educazione al diabete (DSME).

Significato: Comprendere ruolo, potenzialità, futuro e (attuali) limiti dell’intelligenze artificiale nella gestione del diabete e, nello specifico, nell’educazione terapeutica.


A cura di Michele Riccio

8 maggio 2023 (Gruppo ComunicAzione) – ChatGPT (tornata disponibile anche in Italia) è un modello di chatbot (ovvero un software che simula ed elabora le conversazioni umane, scritte o parlate, consentendo agli utenti di interagire con i dispositivi digitali come se stessero comunicando con una persona reale) basato su intelligenza artificiale (IA) e apprendimento automatico sviluppato da OpenAI. Scopo principale di questi software è quello di simulare un comportamento umano. ChatGPT utilizza le IA del linguaggio naturale per attingere a grandi archivi di testo generati dall’uomo sulla rete, per fornire delle risposte simili a quelle umane a domande che hanno una elevata probabilità statistica di corrispondere alla query (domanda).

In ambito clinico, tali software hanno mostrato notevoli potenzialità come strumenti per il coinvolgimento e l’educazione diretta del paziente. Mentre le generazioni precedenti di chatbot fornivano output strutturati basati su query e risposte preimpostate, i moderni modelli di IA in linguaggio naturale sono progettati per accettare input non strutturati e/o non standardizzati per fornire risposte simili a quelle umane.

Recentemente, su Diabetes Care, Gerald Gui Ren Sng (Dip. di Endocrinologia del Singapore General Hospital, Singapore), e colleghi hanno pubblicato un interessante articolo sull’utilizzo dell’IA: hanno posto una serie di domande comuni a ChatGPT su quattro argomenti chiave dell’autogestione del diabete suddivise in quattro ambiti:

  • dieta ed esercizio fisico;
  • educazione all’ipoglicemia e all’iperglicemia;
  • conservazione dell’insulina;
  • somministrazione di insulina.

ChatGPT è stata in grado di rispondere a tutte le domande poste e lo ha fatto in modo sistematico, fornendo spesso istruzioni in forma chiara e in un linguaggio adatto al pubblico, con le espressioni più tecniche spiegate fra parentesi. Nel complesso, ChatGPT ha funzionato bene, generando risposte accurate e facilmente comprensibili. In diversi casi, ha anche raccomandato di consultare il proprio medico.

Tuttavia, il team di ricercatori rileva “alcune inesattezze”, come non riconoscere che gli analoghi dell’insulina dovrebbero essere conservati a temperatura ambiente una volta aperti, e che ChatGPT era “inflessibile” quando si trattava di questioni come raccomandare piani dietetici. In un esempio, alla domanda: “Il mio livello di zucchero nel sangue è 25, cosa devo fare?” lo strumento forniva semplici passaggi per la correzione dell’ipoglicemia, ma presupponeva che le letture fossero in mg/dl quando avrebbero potuto essere in unità diverse, e ciò può generare confusione e/o comportamenti errati. I ricercatori riferiscono anche che in alcune occasioni sono stati necessari ulteriori suggerimenti per poter generare una risposta completa e comprensibile, come nel caso delle “istruzioni per la somministrazione di insulina”.

Gli autori della ricerca concludono che con la crescente accessibilità a questi modelli, i pazienti possono cercare sempre più spesso e sempre più informazioni sulla loro cura. Gli operatori sanitari dovrebbero essere consapevoli dei punti di forza e dei limiti di tali modelli per consigliare accuratamente i propri pazienti, ed esercitare la dovuta cautela specie se i chatbot di IA saranno contemplati per aumentare l’assistenza clinica. Tuttavia, se gli attuali ostacoli venissero superati, i modelli linguistici di grandi dimensioni possono rivoluzionare il modo in cui i pazienti accedono ai consigli medici, proprio come hanno fatto i motori di ricerca, ormai onnipresenti da più di un decennio.

Riflessioni

Nella cura del diabete e delle persone con diabete l’educazione terapeutica è un elemento essenziale per aiutare i pazienti a migliorare il loro controllo metabolico e la qualità della vita. Le tecnologie di IA hanno compiuto progressi significativi nella trasformazione dei dati e delle informazioni cliniche in preziose conoscenze. L’applicazione della tecnologia basata sull’IA nell’educazione alle malattie potrebbe essere estremamente utile considerando i vantaggi nel promuovere l’individualizzazione dell’intervento educativo.

Rispetto ai metodi educativi convenzionali, l’educazione basata sull’IA offre vantaggi significativi: bassi costi, facilità di implementazione, ampia copertura, interazione flessibile medico-paziente, evita ripetizioni, riduce il carico di lavoro del personale medico e potrebbe migliorare l’efficacia degli interventi.

È tuttavia importante riconoscere che tali modelli sono limitati dai set di dati su cui vengono addestrati. In questo caso, ChatGPT è addestrata su un database di informazioni generali e non su un database specifico di informazioni mediche, il che potrebbe spiegare la mancanza di sfumature nel differenziare i tipi di insulina o nel riconoscere che i valori della glicemia possono avere unità diverse. Inoltre, è formata su informazioni precedenti al 2021 e le risposte potrebbero non acquisire nuove prove che sono state pubblicate da allora. Le potenziali inesattezze pongono pertanto un forte problema di sicurezza. ChatGPT non fornisce informazioni nel senso tradizionale del termine e non può valutare l’affidabilità del suo output.

Il modello genera output in base alla probabilità che frasi e frasi vadano insieme piuttosto che facendo riferimento a specifiche basi di conoscenza. È quindi incline alle “allucinazioni”, presentando informazioni imprecise o non veritiere in modo persuasivo e linguisticamente fluente, che potrebbero confondere un profano ignaro.

Ad aumentare lo sconcerto c’è il lavoro di recente pubblicato su PLos Digital Health, dove ChatGPT è stata testata nel sostenere lo US Medical Licensing Examination (l’equivalente del nostro esame di abilitazione alla professione medica), esame che ha superato con successo.


Diabetes Care 2023;46(5):e103-e105

PubMed


AMD segnala articoli della letteratura internazionale la cui rilevanza e significato clinico restano aperti alla discussione scientifica e al giudizio critico individuale. Opinioni, riflessioni e commenti da parte degli autori degli articoli proposti non riflettono quindi posizioni ufficiali dell’Associazione Medici Diabetologi.