Intelligenza artificiale e medicina: possibili problemi etici?

Che si vogliano scoprire nuovi pianeti extrasolari o analizzare delle grosse basi di dati, il ricorso a sistemi legati all’intelligenza artificiale e al machine learning sta diventando via via più indispensabile. E a servirsene sempre più è anche la ricerca medica e i medici stessi aiutati in modo crescente nel prendere le decisioni migliori per i loro pazienti proprio dall’intelligenza artificiale. Tuttavia, in un articolo pubblicato sul The New England Journal of Medicine, gli autori – pur riconoscendo gli incredibili vantaggi che il machine learning può apportare sulla salute dei pazienti – sostengono che un completo beneficio derivante dall’uso di questi strumenti, utili per fare previsioni o prendere differenti decisioni, non può prescindere da attente considerazioni etiche.

“Alla luce dei molti potenziali benefici, ci sono forti spinte nella società affinché questi strumenti siano applicati nella sanità” – afferma Danton Char, autore dell’articolo e professore di anestesiologia e medicina del dolore alla Stanford University Medical Care. “Ma abbiamo cominciato a notare, in applicazioni al di fuori del sistema sanitario, che ci possono essere problemi con gli algoritmi di apprendimento quando questi sono impegnati su larga scala”.

A quanto pare il problema può risiedere nelle propensioni e nelle considerazioni di chi mette a punto un algoritmo, ma può trovarsi anche nelle valutazioni di chi ha condotto una ricerca o ha raccolto una base di dati. Inoltre, un algoritmo può essere messo a punto proprio per avere specifici risultati e, nel settore privato, uno degli esempi più famosi è rappresentato dal caso Volkswagen, i cui algoritmi – opportunamente settati nelle centraline delle auto –consentivano di ridurre le emissioni di monossido di azoto durante i test e quindi di passarli.

Gli autori, quindi, si interrogano su alcuni problemi, uno tra questi è rappresentato dal fatto che i dati usati per creare l’algoritmo possono contenere dei preconcetti che si riflettono nell’algoritmo e nelle predisposizioni cliniche che può generare. Al contrario, può capitare che l’algoritmo stesso sia creato per deviare i risultati in base a volontarie intenzioni dei programmatori, delle compagnie che operano nella sanità o dei sistemi sanitari stessi.

Per ovviare a queste eventualità i medici devono capire quanto basta come è stato messo a punto l’algoritmo, valutare criticamente la fonte dei dati usati per creare il modello statistico messo a punto per predire i risultati, comprendere come funziona il modello e quindi proteggersi dal diventare eccessivamente dipendenti da questo.

Su questa via, uno studio pilota della Stanford University sta permettendo a medici e progettisti di lavorare a stretto contatto per assicurare maggiori garanzie riguardo ai risultati delle equazioni, affinché il medico abbia piena consapevolezza per comprendere al meglio i problemi dei pazienti.

“Linee guida etiche possono essere create per guadagnare terreno nei confronti dell’era dell’intelligenza artificiale e del machine learning” – scrivono gli autori –, “e tali tecnologie, fra pochi anni, saranno sempre più presenti all’interno dei sistemi sanitari”.

Riferimenti: The New England Journal of Medicine