Così l’intelligenza artificiale aiuta medici e pazienti

intelligenza artificiale

TORONTO – Oltre 1400 startup, quasi 23mila addetti. Il MaRS Discovery District di Toronto è un ecosistema dove nel raggio di poche centinaia di metri sono concentrati ricercatori, venture capitalist, piccole e grandi aziende, tutti con un solo obiettivo: trovare nuove idee per migliorare il mondo e il conto in banca. Qui l’Intelligenza artificiale è alla base di molte idee, iniziative, progetti. Ma come si declina nel settore sanitario? E quali rischi comporta? Lo abbiamo chiesto ad Amol Deshpande, Senior Director Health Sciences, Ecosystem and Capital del MaRs.

In che modo l’Intelligenza Artificiale può essere utile in medicina?

“L’Intelligenza Artificiale consente di alzare il livello dell’assistenza sanitaria. In medicina vengono generati molti dati, e gli algoritmi possono aiutare i medici delle piccole comunità rurali, quelli che hanno una utenza limitata e che, vedendo pochi pazienti, hanno anche poca esperienza. L’IA consente invece di accedere a enormi database e a un’ampia base di conoscenze per prendere le decisioni migliori. Ma questo è solo uno degli aspetti. Altri riguardano la capacità dei sistemi di Intelligenza Artificiale di ridurre i tempi di scoperta di nuove molecole. Per non parlare della capacità diagnostica dei sistemi di IA quando si tratta di interpretare le immagini mediche. O di ChatGPT che già oggi usiamo per scrivere i referti. Tutto questo cambierà radicalmente il quadro della situazione, anche se ci vorrà del tempo prima che se ne sfruttino tutte le potenzialità”.

Questi sono tutti aspetti positivi, ne vede anche di negativi? Penso alle preoccupazioni legate all’uso dei big data, alla privacy, alle questioni etiche

“Questi sono tutti temi da affrontare. In primo luogo la privacy, dunque il modo in cui sono raccolti e utilizzati i dati. Non dimentichiamoci che i dati raccontano quello che tu vuoi che raccontino. Pensiamo per esempio alla letteratura scientifica sull’Intelligenza Artificiale pubblicata sul New England Journal of Medicine, o su The Lancet. L’80% dei paper proviene da tre Stati americani: California, Massachusetts, New York. Che fine hanno fatto gli altri 48? Quando inseriamo nei modelli i dati dell’Ohio dell’Alabama o del Texas, funzionano lo stesso? Onestamente non lo so. Di questi aspetti dobbiamo essere consapevoli, e dobbiamo vigilare. Ricordo che un collega, fisico, mi disse: qualunque tecnologia presenta aspetti positivi e aspetti negativi. Il fuoco è buono o cattivo? Ci puoi cuocere il cibo, ma ci puoi anche bruciare una casa. Non è la tecnologia a essere intrinsecamente buona o cattiva, il punto è l’uso che ne fai”.

In quanto medico, ritiene che ci siano aree in cui l’IA non possa sostituire gli esseri umani? Penso per esempio al rapporto medico-paziente, che è una tessera molto importante di un percorso terapeutico.

“Non ho una risposta definitiva, ma penso che gli esseri umani faranno sempre parte del percorso terapeutico di un paziente. Non mi immagino un futuro fatto solo di Intelligenza Artificiale, robot, computer e cose così. Quale sarà il ruolo degli umani, però, non mi è ancora chiaro. I ruoli e le competenze cambiano con il passare degli anni, basta pensare a cosa facevano i genetisti qualche decina di anni fa e a quello che fanno oggi, con le possibilità aperte dal sequenziamento del genoma. Però so cosa può fare l’Intelligenza Artificiale oggi. E so che, per esempio, molti pazienti che hanno problemi di salute mentale sono più disposti a rivelare dettagli personali a un chatbot, allo schermo di un computer, che a un medico. Perché non si sentono giudicati, non hanno paura di quello che uno psichiatra in camice bianco, seduto alla scrivania con la penna in mano, potrebbe pensare di loro. E ci sono molti esempi di questo tipo”.

Lo abbiamo detto prima, un algoritmo non è neutro. Dietro c’è il lavoro di un programmatore, un essere umano con una propria cultura, e che probabilmente vive in California. Come possiamo diffondere il concetto che una macchina esprime un punto di vista molto specifico?

“E’ vero che un algoritmo non è neutro, ma se sono un paziente seduto davanti a un computer non penso ai cento programmatori che lo hanno sviluppato, vedo solo uno schermo vuoto con qualche icona sul desktop. D’altra parte, come mai pubblichiamo così tante informazioni personali su Facebook, cose che non confesseremmo di persona nemmeno al nostro migliore amico? Non pensiamo mai al fatto che dietro c’è un’azienda con 40 mila dipendenti cui stiamo regalando tutti i nostri dati. Pensiamo di essere soli, noi e il nostro pc o il nostro cellulare. Spostando questo discorso sull’assistenza sanitaria, però, dobbiamo fare attenzione alla sicurezza del paziente, e garantirgli una risposta empatica. Tutti questi aspetti devono essere tenuti presenti e integrati nel sistema. Ma in molti casi, grazie ai dati del paziente, l’intelligenza artificiale è in grado di fornire risultati migliori nel campo della diagnostica. So che è un terreno scivoloso, ma in generale più dati forniamo all’algoritmo, più accurata sarà la diagnosi. E questo rappresenta un vantaggio innegabile per l’assistenza sanitaria. Ovviamente ci sono dei passaggi di cui dobbiamo essere consapevoli per assicurarci che l’Intelligenza Artificiale non faccia più male che bene”.

Non crede che l’Intelligenza Artificiale sia uno strumento destinato esclusivamente ai paesi ricchi? Quali saranno i vantaggi di tutto questo progresso per i paesi a basso reddito?

“Questo è un aspetto importante. Al momento in effetti è un gioco per pochi. E il rischio è che le disparità di salute aumentino anziché diminuire. Se pensiamo a paesi come la Nigeria o il Pakistan – dove per altro ci sono ottimi programmatori – il problema è evidente. Ma come sempre accade per la tecnologia, a un certo punto i costi scenderanno, e forse saremo in grado di diffondere questi sistemi anche altrove. Ci vorrà del tempo? Certamente. Succederà in modo uniforme? No. Tutti ne trarranno benefici? Non credo. Eppure, se guardiamo al fenomeno sul lungo periodo, credo che alla fine staremo tutti meglio grazie all’Intelligenza Artificiale. Il punto è che la fase di transizione potrebbe non essere così positiva per diverse persone. Molti paesi non saranno in grado di gareggiare in questa corsa tecnologica nel campo della salute, e qualcuno resterà escluso. Questa è la sfida da affrontare”.

Cosa succede quando si cerca di far entrare l’Intelligenza Artificiale negli ospedali: i medici sono pronti ad adottare queste soluzioni?

“Ci sono diversi ostacoli, ma tutti si riducono a un problema principale: le persone. Che sono perfettamente consapevoli dei problemi di cui abbiamo parlato prima. E si chiedono: dove andranno a finire i dati dei pazienti? Con quali scopi verranno usati? Chi altro li userà? Tutti sono molto interessati alla privacy. Ovviamente alcuni di questi dubbi sono perfettamente legittimi. Altri invece sono solo dovuti al fatto di non conoscere bene questo settore. Le leggi sulla privacy ci sono, e alcune aziende le rispettano. Ma è anche vero che parlare di privacy in ospedale – lo dico perché ci ho lavorato – è abbastanza surreale. C’è un tale andirivieni di pazienti, con cartelle e fogli lasciati sui tavoli, che quasi chiunque può avere accesso a informazioni private. Eppure quando si parla di computer, dove i dati non sono visibili, improvvisamente la privacy diventa un problema gigantesco. Mi sembra un atteggiamento contraddittorio. D’altra parte, è vero che negli ultimi tempi gli ospedali sono diventati uno dei bersagli preferiti degli hacker che rubano i dati e poi chiedono un riscatto, quindi quello della cybersecurity è certamente un tema da affrontare”.

A frenare il mondo della sanità, oltre alla privacy, ci sono anche problemi di sicurezza o di responsabilità?

“Sì, possiamo immaginare situazioni estreme in cui qualcuno modifica l’algoritmo, e di conseguenza l’infermiera modifica il dosaggio dei farmaci. Di chi è la colpa? Cosa succede se l’Intelligenza Artificiale mi suggerisce una cosa sbagliata? Chi si assume la responsabilità dell’errore: l’ospedale, il medico, il computer? Alcuni ospedali invece la usano per migliorare l’organizzazione interna rendendola più efficiente. E se il sistema dice che è necessario licenziare parte del personale, con chi se la devono prendere i sindacati? Insomma, ci sono cose che non abbiamo ancora risolto del tutto. Questo ci fa capire quanto, in ogni decisione, abbiamo bisogno della validazione finale di un essere umano. Ma dev’essere un professionista, in grado di capire quali suggerimenti della macchina sono davvero utili e quali no. Per questo non penso che i medici scompariranno per colpa dell’IA, almeno non oggi o nel prossimo futuro. Perché, come sappiamo, le macchine non sono perfette. Sono programmate da esseri umani. Se inserisci informazioni sbagliate, avrai indicazioni sbagliate”.

Secondo lei quali saranno le aree terapeutiche per le quali l’IA avrà l’impatto maggiore?

“Penso che i maggiori benefici li avremo sulle malattie croniche, soprattutto nei paesi occidentali, dove i sistemi sanitari progettati trenta o quarant’anni fa erano destinati alla gestione dell’assistenza in acuto: un’appendicite, una polmonite, entri in ospedale, vieni operato o curato, torni a casa. Se invece hai il diabete il tuo percorso non finisce mai. Per questo i nostri sistemi sanitari stanno affondando. Per altro, la maggior parte dei percorsi clinici è basato su paradigmi stabiliti dalle aziende farmaceutiche. Cioè su una precisa tipologia di malato, di taglia unica, per il quale abbiamo a disposizione il farmaco migliore che siamo riusciti a produrre. Se sei diabetico e iperteso devi prendere un Ace inibitore. Questo va bene in linea generale, ma ci sono pazienti per i quali quella classe di farmaci non va bene. L’intelligenza artificiale ora consente agli operatori sanitari di capire quali pazienti risponderanno meglio a quel tipo di terapia”.

Sta dicendo che l’intelligenza artificiale è un supporto per la medicina personalizzata?

“Più che di medicina personalizzata parlerei di medicina di precisione, anche se spesso questi due termini sono usati impropriamente in modo intercambiabile. Per esempio questi sistemi possono essere utili nella selezione dei pazienti che devono essere sottoposti a biopsia, a seconda che abbiano una malattia infiammatoria dell’intestino o un tumore del colon-retto. Il prossimo passo sarà quello della medicina personalizzata, cioè tagliata sul singolo paziente. Ma per arrivarci abbiamo bisogno di dati che ancora non abbiamo nemmeno cominciato a raccogliere”.

A proposito di dati e di sicurezza: come facciamo ad essere sicuri che non ci sarà un uso distorto di tutte le informazioni che vengono raccolte sul nostro conto, anche da parte dei governi?

“Qui tocchiamo un tema filosofico, più che informatico. Nei paesi occidentali siamo più concentrati sui diritti individuali. Se guardiamo all’Asia, l’attenzione è rivolta soprattutto al benessere pubblico. Lo abbiamo visto con la pandemia di Covid-19: è meglio avere diritti e libertà individuali, e a quale prezzo, o puntare al bene comune? E’ un mio diritto non voler fare il vaccino? O il bene comune impone che io sia vaccinato per non diffondere il coronavirus? Queste sono scelte che prescindono dall’Intelligenza Artificiale, anche se gli algoritmi amplificano il problema e a breve dovremo prendere delle decisioni: via via che l’IA prende piede nell’assistenza sanitaria, dovremo prepararci a queste domande. E forse le risposte saranno diverse tra i paesi: a Est si preferirà il bene del paese in generale, e si utilizzeranno i dati in un certo modo, a Ovest si lascerà spazio alla libertà individuale e si stabiliranno delle altre regole rispetto ai dati”.

Anche perché ora i dati vengono raccolti in modo abbastanza frammentario, ma su numeri enormi di persone: penso per esempio a tutti i parametri monitorati dai dispositivi indossabili. Sono davvero utili?

“Si tratta di dati interessanti, ma perché diventino davvero utili ci vorrà ancora un po’, perché la loro qualità non è paragonabile a quella dei dati prodotti dagli strumenti clinici. Grazie ai dispositivi che monitorano il sonno, per esempio, gli algoritmi stanno scoprendo cose di cui non eravamo nemmeno a conoscenza. Il punto è che sono prodotti da milioni di individui, e questo ci dà un panorama sanitario impensabile fino a pochi anni fa. Non solo, possono individuare le anomalie – per esempio una fibrillazione atriale – e riferire direttamente al cardiologo, risparmiando tempo prezioso e liberando risorse. Questo significa che dovremmo tutti avere uno smartwatch? No, ma per alcuni pazienti questi strumenti rappresentano un miglioramento significativo della qualità di vita. Pensiamo anche al monitoraggio a distanza dei pazienti con malattia renale cronica: si può controllare il potassio, l’emoglobina, basta un cerotto “intelligente” e non c’è bisogno di fare le analisi del sangue in continuazione. Ovviamente ci sono anche alcuni aspetti critici: i costi, per esempio, che dovranno necessariamente abbassarsi per ridurre il gap economico tra i paesi. I medici dovranno imparare a usare questi strumenti. Però nel complesso penso che la direzione sia quella giusta”.

Parliamo di Intelligenza Artificiale in generale, ma in realtà si tratta di tanti sistemi diversi tra loro, che non necessariamente sono compatibili o in grado di scambiarsi informazioni. Pensa che sia necessario uno standard cui tutti dovrebbero uniformarsi? E in questo caso, non vede i rischi di un unico sistema globale?

“Questo è un punto importante. Il termine “Intelligenza Artificiale” è un po’ ambiguo, preferirei parlare di apprendimento automatico. Ad ogni modo, oggi come oggi gli algoritmi sono molto frammentati, ciascuno è in grado di fare una cosa singola, come il diabetologo che sa misurarti la glicemia, ma se hai bisogno di un elettrocardiogramma devi andare dal cardiologo, e così via. Ma le cose stanno evolvendo a grande velocità, e sarà interessante vedere quale strada prenderanno. Personalmente non sono un grande sostenitore degli standard, anche perché credo che definire una piattaforma comune comporti un lavoro enorme per portare tutti a sedere allo stesso tavolo. Però penso che organismi come la FDA o l’UE dovrebbero stabilire dei criteri di uniformità. D’altra parte, non penso che ogni singolo ospedale debba progettarsi il suo algoritmo. Il ruolo dei medici non è quello di programmare un codice, ma di supportare i programmatori per aiutarli a capire le esigenze dei pazienti. Il mio sospetto, però, è che alla fine ci sarà una sorta di monopolio da parte di un unico organismo, probabilmente un’azienda, che porrà l’asticella a un certo livello, cui tutti dovranno uniformarsi. Comunque, alla fine si tratta di stringhe di codice, che possono essere minimamente cambiate per ottenere risultati simili. Se questo lo vogliamo chiamare standard, ok. Ma avere un unico algoritmo che faccia tutto, no, siamo ancora lontani”.

Foto di Alexander Sinn su Unsplash