Cinque medici artificiali pronti all'uso
- Alessandro Lombardo
- 21 mar
- Tempo di lettura: 7 min
![]() Ho passato le ultime settimane a studiare quello che Google ha costruito per la sanità. Non un modello. Cinque. Ognuno con un ruolo diverso, come i reparti di un ospedale. E se state pensando "sì, vabbè, un altro articolo sull'IA in medicina" — aspettate. Perché la cosa più interessante non è quello che questi modelli fanno. È quello che non fanno. E quello che questo racconta di noi. |
L'ospedale artificiale di Google |
Immaginate un ospedale. Non uno di quelli con le pareti scrostate e i turni da dodici ore, ma uno ideale — quello che esiste solo nelle slide dei convegni. In questo ospedale ogni specialista fa esattamente ciò per cui è stato formato. Nessuno manda il cardiologo a fare una psicoterapia. |
Google ha costruito qualcosa di simile. Cinque modelli di IA, ognuno specializzato in un pezzo diverso della medicina. La differenza è che qui i reparti si evolvono alla velocità di un aggiornamento software. Uno di questi modelli è già stato ritirato, un altro è appena passato dalle simulazioni ai pazienti veri, un terzo è diventato open source e gira sul portatile. |
Med-PaLM 2: il vecchio professore |
Tutto è iniziato qui, nel 2023. Med-PaLM 2 è stato il primo modello a superare l'esame di abilitazione medica americano (USMLE) a livello esperto: 86,5% di accuratezza. In un confronto diretto, i medici hanno preferito le sue risposte a quelle dei colleghi umani su otto criteri clinici su nove. |
Oggi è il nonno della famiglia. Non lo usa più nessuno direttamente, ma il suo DNA è dentro tutti gli altri. È come quei professori universitari che non fanno più clinica da vent'anni ma hanno formato un'intera generazione di terapeuti. Il loro pensiero è ovunque, anche quando non li nomini. |
MedLM: il pensionato che nessuno ha avvisato |
MedLM era il modello operativo. Quello che doveva fare il lavoro sporco negli ospedali: riassunti di cartelle cliniche, automazione dei flussi documentali, chatbot clinici. HCA Healthcare lo usava nei pronto soccorso, Augmedix ci trasformava le conversazioni medico-paziente in note cliniche, Apollo 24/7 in India ci ha costruito sopra un motore diagnostico. |
Poi, a settembre 2025, Google lo ha ritirato. Fine. Deprecato, come dicono gli ingegneri — che è un modo elegante per dire "lo abbiamo mandato in pensione senza fare un comunicato stampa". |
La cosa curiosa è che metà internet continua a citarlo come se fosse attivo. Articoli, infografiche, post LinkedIn. Questo vi dice qualcosa su come gira l'informazione nel nostro settore: velocissima nel rilancio, lentissima nella verifica. |
Med-Gemini: quello che vede tutto insieme |
Ed eccoci al presente. Med-Gemini è il modello multimodale di Google. "Multimodale" significa che non legge solo testo: guarda le TAC, le risonanze magnetiche, i vetrini di patologia, i dati genomici, gli elettrocardiogrammi e l'intera cartella clinica del paziente. Tutto insieme. Contemporaneamente. |
91,1% sugli esami medici americani. Primo posto su 10 dei 14 benchmark di IA medica esistenti. Med-Gemini-3D — una variante specializzata — è stato il primo modello a generare referti per le TAC, e in alcuni casi ha trovato patologie che il radiologo originale aveva mancato. |
Ora, un medico bravo fa esattamente questo: incrocia dati da fonti diverse, cerca pattern, li mette in relazione con la storia del paziente. Med-Gemini prova a fare lo stesso, ma a una scala e una velocità che nessun essere umano può raggiungere. Non è più intelligente di un radiologo esperto. Ma non si stanca, non ha fretta, e non salta un esame perché sono le tre di notte. |
Non è meglio o peggio di un medico. Cambia il tipo di errore possibile. E questo è un tema su cui torneremo. |
AMIE: il colloquio clinico condotto da un algoritmo |
Qui la faccenda si fa personale. Perché AMIE è il modello che dovrebbe togliere il sonno a chiunque faccia un mestiere che si basa sulla parola. |
AMIE sta per Articulate Medical Intelligence Explorer. È un'IA conversazionale progettata per fare una cosa sola: condurre un colloquio diagnostico. Raccogliere un'anamnesi. Formulare ipotesi. Comunicare con — e qui le virgolette sono obbligatorie — "empatia". |
Lo studio è stato pubblicato su Nature nell'aprile 2025. Non su un blog. Non su un preprint. Su Nature. Studio randomizzato, in cieco, 159 scenari clinici, 20 medici di base, attori-pazienti formati professionalmente, valutazioni indipendenti da parte di medici specialisti. |
Risultato: AMIE ha superato i medici di base su 30 assi di valutazione su 32 secondo gli specialisti. Su 25 su 26 secondo i pazienti. In un secondo studio parallelo, sempre su Nature, quando AMIE veniva dato come strumento di supporto ai medici, la loro accuratezza diagnostica saliva dal 36,1% al 51,7% sui casi complessi. |
Fermiamoci un momento qui. |
Perché questi numeri non raccontano tutta la storia. Lo studio usava chat testuale sincrona — cioè il formato naturale per un modello linguistico e innaturale per un medico abituato a guardare il paziente negli occhi. AMIE scriveva risposte più lunghe, più dettagliate, più strutturate. Ed è possibile — probabile — che i pazienti simulati abbiano interpretato quella verbosità come attenzione, come cura. |
Lo dicono gli stessi ricercatori di Google: i risultati vanno letti con cautela. Il formato svantaggiava i medici. Non sappiamo come si comporterebbe AMIE con pazienti veri, con storie confuse, con resistenze, con silenzi. |
Ma sappiamo qualcos'altro. |
Sappiamo che Google, dopo quello studio, non si è fermata. Ha avviato un trial clinico randomizzato su scala nazionale in collaborazione con Included Health. Pazienti veri. Cura virtuale reale. Standard di evidenza da ricerca medica tradizionale. Nel frattempo, AMIE ha acquisito capacità multimodali — ora può chiedere e interpretare foto di lesioni, documenti, referti durante la conversazione — e Google ha pubblicato ricerche sulla gestione longitudinale: AMIE non si limita più al primo colloquio, ma impara a seguire un paziente nel tempo, ragionando sulla progressione della malattia e adattando il trattamento secondo le linee guida cliniche. |
Dal laboratorio al letto del paziente. In meno di un anno. |
MedGemma: l'IA che puoi portarti a casa |
E poi c'è MedGemma, che è il pezzo più sottovalutato dell'intera storia. |
MedGemma è open source. Costruito su Gemma 3, aggiornato alla versione 1.5 a gennaio 2026, disponibile in tre varianti: un modello piccolo (4 miliardi di parametri) che gira su una singola GPU e potenzialmente anche su mobile; uno grande (27 miliardi) solo testo che raggiunge l'87,7% sugli esami medici; e uno grande multimodale capace di interpretare radiografie, TAC, risonanze e cartelle cliniche longitudinali. |
Open source significa: lo scarichi, lo modifichi, lo addestri sui tuoi dati, lo fai girare sui tuoi server. I dati dei pazienti non escono dall'ospedale. Non hai bisogno del cloud di Google. Non hai bisogno del permesso di nessuno. |
Per chi costruisce strumenti per professionisti sanitari, questo cambia tutto. Un piccolo team in un'università italiana, in una ASL, in una cooperativa sociale potrebbe prendere MedGemma, addestrarlo su dati clinici locali, e costruire qualcosa di utile. A gennaio Google ha anche lanciato un MedGemma Impact Challenge su Kaggle proprio per stimolare questo tipo di sviluppo. |
Ovviamente: MedGemma non è "clinical-grade" fuori dalla scatola. Richiede validazione, fine-tuning, competenza tecnica. Non è un prodotto finito, è un punto di partenza. Ma è un punto di partenza che fino a due anni fa non esisteva. |
Cosa sta cambiando davvero |
Dietro i nomi e i benchmark c'è un cambiamento strutturale che vale la pena leggere con attenzione. Perché non si tratta di tecnologia. Si tratta di come organizziamo la cura. |
Il primo cambiamento è il passaggio dalla diagnosi puntuale alla gestione longitudinale. I primi modelli rispondevano a una domanda alla volta, come un manuale interattivo. AMIE sta imparando a seguire un paziente nel tempo — ragionando sulla progressione, adattando il trattamento, usando le linee guida nel contesto di quella specifica storia clinica. Questo è un salto concettuale enorme. È la differenza tra Google Maps che ti dà una direzione e un navigatore che ricalcola il percorso mentre guidi. |
Il secondo è il passaggio dal laboratorio alla pratica clinica. Lo studio con Included Health non è un esperimento accademico. È un trial randomizzato con pazienti veri, in setting reali, con standard di evidenza paragonabili a quelli di un farmaco. Quando un'IA conversazionale viene testata con lo stesso rigore di un medicinale, qualcosa è cambiato nel modo in cui prendiamo sul serio questa tecnologia. |
Il terzo è il passaggio dall'IA proprietaria all'IA aperta. Con MedGemma, Google ha scelto una strategia contro-intuitiva: regalare i modelli. La logica è quella di Android: dai via il sistema operativo, controlli l'ecosistema. Ma per chi lavora nella sanità pubblica, in contesti a basse risorse, in paesi dove i dati sanitari non possono uscire dai confini nazionali, la conseguenza pratica è che per la prima volta i mattoni per costruire IA medica sono accessibili a tutti. |
Il quarto — e qui arriviamo al dunque — è il paradigma del supporto invece della sostituzione. Nessuno di questi modelli è progettato per rimpiazzare un medico. AMIE migliora le prestazioni dei clinici quando viene usato come secondo parere. Med-Gemini dà al radiologo un secondo paio di occhi. Il termine che Google usa è "augmented intelligence", e per una volta non è solo marketing: è una scelta progettuale precisa. |
Non è più il futuro |
MedLM è stato ritirato a settembre 2025 e metà internet non se n'è accorta. AMIE è passato da simulazione a trial clinico con pazienti veri in meno di un anno. MedGemma si aggiorna ogni pochi mesi e chiunque può scaricarselo. Un modello che un radiologo del Chang Gung Memorial Hospital a Taiwan sta già usando per leggere le radiografie è lo stesso che un team in una ASL italiana potrebbe adattare ai propri dati domani mattina. |
La sanità digitale non è più una slide a un convegno. Non è più una promessa, un pilota, un "proof of concept" da mostrare agli investitori. È un trial clinico randomizzato su scala nazionale. È un modello open source che gira in locale senza mandare i dati dei pazienti nel cloud. È un'IA che in uno studio su Nature ha superato i medici di base nella raccolta anamnestica — con tutti i limiti del caso, ma lo ha fatto, e quei dati sono lì. |
Quello che è cambiato non è la tecnologia in sé. Quello che è cambiato è la velocità con cui si passa dalla ricerca alla pratica. Fino a ieri il ciclo era: paper, replicazione, pilota, regolamentazione, adozione — dieci anni se andava bene. Oggi Google pubblica su Nature ad aprile e ad autunno ha già un trial su pazienti reali. Il tempo tra "l'arte del possibile" e "lo stiamo facendo" si è compresso in un modo che il sistema sanitario — quello fatto di commissioni, delibere, gare d'appalto e tempi amministrativi — non è attrezzato a gestire. |
Non è una questione di essere pro o contro l'IA in sanità. È una questione di chi decide come entra, dove entra, e a quali condizioni. Questi strumenti entreranno — stanno già entrando. Ci troveranno pronti con un pensiero, con una strategia, con competenze per governarli? O arriveranno come è arrivato tutto il resto della digitalizzazione sanitaria: tardi, male, e con qualcun altro che ha già preso le decisioni importanti. |
Lo strumento giusto nelle mani giuste non migliora solo l'efficienza. Ridefinisce il modo in cui ci prendiamo cura delle persone. Ma prima bisogna decidere quali mani, e per fare cosa. |




Commenti