Il prof. Riccardo Bellazzi del Dipartimento di Ingegneria industriale e dell’Informazione dell’Università di Pavia è stato selezionato come componente del gruppo di lavoro della Sezione V del Consiglio Superiore di Sanità sul tema “Valutazione dei sistemi di Intelligenza Artificiale come strumento di supporto alla diagnostica”.

L’Intelligenza Artificiale (Artificial Intelligence, AI) si sta rapidamente diffondendo nella nostra Società, ad un ritmo probabilmente più veloce di ogni ottimistica previsione. Ogni giorno, anche inconsapevolmente, utilizziamo tecnologie basate sull’AI, che ci facilitano compiti, più o meno complessi, della vita quotidiana: dalla navigazione in automobile, alla ricerca di un ristorante o al suggerimento all’acquisto di un determinato bene di consumo.

Il mondo sanitario in generale, e quello della diagnostica in particolare, subisce, allo stesso modo, questo processo di sviluppo. Ad esempio, tecnologie basate sull’AI controllano già oggi le grandi apparecchiature di diagnostica per immagini (Tomografia Computerizzata o Risonanza Magnetica), con lo scopo di ridurre drasticamente i tempi di acquisizione degli esami, al fine di migliorare la compliance e il comfort dei Pazienti, mantenendo al contempo una ottimale qualità delle immagini. Esistono anche sistemi esperti in grado di supportare il diagnosta nell’identificazione di reperti, quali, ad esempio, gli algoritmi in grado di “leggere” esami mammografici o tomografie computerizzate del polmone e marcare reperti sospetti per neoplasia con alto grado di affidabilità. Infine, le ultime evidenze scientifiche riportano studi sull’uso di sistemi esperti “intelligenti”, in grado di classificare i reperti, determinare una prognosi e categorizzare il rischio del Paziente e, infine, supportare il medico nella decisione terapeutica.

Questo tumultuoso sviluppo rischia, d’altra parte, di essere incontrollato e fonte di potenziali rischi, derivanti, ad esempio, dalla mancanza di controllo sui dati processati dai sistemi esperti, da possibili violazioni della privacy degli utenti e da discriminazioni introdotte dalla programmazione dei software. Si aprono, quindi, nuove problematiche etiche e legali, inclusa la responsabilità professionale e il ruolo del Medico nell’interazione con gli algoritmi.

A livello internazionale, la Commissione Europea ha pubblicato un Libro bianco, basato sulla strategia europea per l’AI, presentata nel 2018¹, e significativamente intitolato “Libro bianco sull’Intelligenza Artificiale. Un approccio europeo all’eccellenza e alla fiducia”², che ribadisce l’importanza strategica della tecnologia dell’AI, in grado di offrire indubbi benefici ai cittadini, anche, ma non solo, nel campo della salute, purché si “segua un approccio antropocentrico, etico, sostenibile e rispettoso dei valori e dei diritti fondamentali”. A seguito della pubblicazione del Libro Bianco, la Commissione Europea, anche su esplicita richiesta del Parlamento Europeo, ha lanciato un’ampia consultazione con le parti interessate, al fine di armonizzare le leggi europee in tema di AI, che ha visto la pubblicazione nello scorso mese di aprile. L’obiettivo è quello di assicurare un mercato interno europeo dell’AI ben funzionante e nel quale siano adeguatamente valutati i benefici e i rischi dei software di AI, che devono essere sviluppati seguendo i principi di sicurezza, affidabilità ed etica propri dell’Unione Europea.

Il documento su “I sistemi di Intelligenza Artificiale come strumento di supporto alla diagnostica” ha lo scopo di analizzare in maniera critica e riportare le attuali evidenze scientifiche, regolatorie ed etiche riguardo alle applicazioni dell’Intelligenza Artificiale nel campo della Diagnostica.

¹AI for Europe, COM/2018/237 final
²WHITE PAPER. On Artificial Intelligence – A European approach to excellence and trust. https://ec.europa.eu/info/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en