Referti medici e intelligenza artificiale: ci sono rischi?

Sin dagli anni 2000 era pratica comune cercare informazioni su malattie, sindromi e quanto altro era attinente alla (propria) salute. Non a caso, su Google, la parola più richiamata era “cancro”. Poi, sono sopraggiunge le piattaforme di intelligenza artificiale. E anche con queste, si assiste alla “sostituzione” del medico (almeno nei primi momenti). Chi non ha sentito di diagnosi presentate al medico di famiglia attribuite a “dottor Google”? Un vero e proprio incubo per i medici di famiglia che si vedevano quasi esautorati e anzi guardati con sospetto se la diagnosi ottenuta via web non era coincidente con quella del medico (in carne e ossa) stesso.

Cosa sta succedendo

Oggi si assiste a una evoluzione, visto come capiti spesso di chiedere a ChatGpt (e affini) delucidazioni su sfoghi cutanei, esami radiologici o su un determinato valore delle analisi del sangue che non convince il diretto interessato. La piattaforma di intelligenza artificiale dà infatti risposte alle domande formulate, ma queste non sempre sono esaustive e ancor meno scientificamente corrette.

Su questo modus operandi della medicina fai da te e che sta avendo sempre maggiore diffusione, interviene ora il Garante Privacy. Attraverso un comunicato ufficiale, questi esorta gli utenti a utilizzare con cautela e le dovute precauzioni le piattaforme di intelligenza artificiale riguardo possibili consulti medici. I motivi? Secondo il Garante Privacy potrebbero esserci rischi di un utilizzo scorretto dei dati personali del paziente virtuale che però corrisponde sempre a quello reale. E proprio la salvaguardia dei dati personali è l’elemento passato sotto la lente di ingrandimento del Garante.

Informativa della privacy

Secondo il Garante Privacy, la lettura dell’informativa della privacy è l’aspetto più delicato e vulnerabile riguardo l’utilizzo sicuro delle piattaforme AI da parte del paziente. Il motivo? Ogni esame diagnostico o referto che viene caricato online, potrebbe venir potenzialmente utilizzato per addestrare la stessa intelligenza artificiale, a meno che non sia specificato il contrario all’interno dell’informativa stessa.

I rischi che si corrono

Su questo aspetto, hanno concentrato la loro attenzione anche il Regolamento europeo sull’AI così come il Consiglio Superiore di Sanità. L’utilizzo dell’AI in ambito medico può quindi comportare gravi rischi per la sicurezza dei dati sanitari. Tutto questo perché i dati confluirebbero verso modelli linguistici di grandi dimensioni facendone derivare pericoli per i pazienti.

Non solo. Vi è poi anche il possibile pericolo per la salute dei pazienti stessi, i quali potrebbero cadere vittime di eventuali errori di valutazione oppure di indicazioni errate di intelligenze artificiali che, per quanto sempre più accurate e fini, possono comunque sbagliare. E possono sbagliare perché non sono progettate specificatamente per la medicina. O almeno così si tratta per le più comuni e conosciute come ChatGpt o Gemini, tanto per fare esempi.

Che fare

Per tutto questo, il Garante della Privacy ha stabilito che è sempre bene verificare e confutare le risposte fornite dalla piattaforma AI di turno con la supervisione di un professionista medico qualificato, in grado di confermare (o eventualmente confutare, a seconda del singolo caso) il ragionamento clinico elaborato dai modelli linguistici di grandi dimensioni.

Lascia un commento