News

I AM News

OCSE: come garantire un uso responsabile dell'IA in Sanità

16 febbraio 2024

Lo scorso 19 gennaio, l'OCSE (Organizzazione per la Cooperazione e lo Sviluppo Economico) ha pubblicato un documento intitolato "Collective action for responsible AI in health" - traducibile come "Azione collettiva per una Intelligenza Artificiale responsabile in Sanità". Il documento comprende una panoramica sulle applicazioni dell'IA in Sanità, analizzando le opportunità, i rischi e gli ostacoli associati all'introduzione di questa tecnologia potenzialmente rivoluzionaria. L'obiettivo del documento è indicare ai decisori politici quali aree necessitano di attenzione al fine di favorire la diffusione in Sanità di sistemi di Intelligenza Artificiale che siano adattabili, rispettino gli individui, supportino l'equità e migliorino la salute di tutti. Le aree identificate come più importanti sono relative allo sviluppo della fiducia nei sistemi IA da parte di operatori e cittadini, alla disponibilità delle necessarie risorse e opportune competenze, e alla collaborazione tra tutti i soggetti coinvolti.

La tabella qui in basso, tratta dall'articolo, riassume le principali barriere, rischi e possibile risultati associati all'introduzione dell'IA in Sanità.

Tabella

Il documento integrale è disponibile al seguente link:

I AM News

AMIE - un modello IA per aiutare medici e pazienti

09 febbraio 2024

Google Deepmind, il principale laboratorio di Intelligenza Artificiale del gigante americano della tecnologia, ha sviluppato un nuovo modello di Intelligenza Artificiale - chiamato AMIE (Articulate Medical Intelligence Explorer) - capace di conversare testualmente con i pazienti, acquisendo informazioni rilevanti, fornendo spiegazioni mediche e formulando ipotesi diagnostiche. Gli autori del nuovo modello sottolineano come AMIE non abbia l'obiettivo di sostituire il medico, ma possa risultare un utile strumento di supporto all'attività professionale, velocizzando alcuni processi e potenziandone altri.

I risultati delle prime sperimentazioni controllate sono incoraggianti. AMIE ha dimostrato di essere efficace nell'interazione con i pazienti e di generare diagnosi accurate (con frequenza comparabile ai professionisti umani). Future versioni di AMIE saranno in grado di gestire input e output in forma di audio, immagini e video (multimodalità).

L'articolo - in pre-print su arXiv - in cui sono stati presentati i risultati della sperimentazione:

I AM News

La Casa Bianca ha emanato il primo Ordine Esecutivo per mitigare i rischi associati all'IA

28 novembre 2023

Il 30 Ottobre 2023, il Presidente degli Stati Uniti Joe Biden ha firmato un Ordine Esecutivo finalizzato a garantire lo sviluppo di sistemi di Intelligenza Artificiale (IA) sicuri e affidabili. I principali elementi di questo importante atto legislativo, finalizzato a ridurre i rischi associati alla diffusione di sistemi IA sempre più potenti senza però limitare le potenzialità di innovazione di questa tecnologia rivoluzionaria, sono i seguenti:

  • Dare mandato al NIST (National Institute of Science and Technology) di sviluppare linee guida e buone pratiche per lo sviluppo di sistemi IA sicuri e affidabili
  • Dare mandato al NIST di sviluppare procedure e regole per lo svolgimento di test per identificare problemi di sicurezza e difetti tecnici nei sistemi IA
  • Dare mandato al Dipartimento dell'Energia di sviluppare modelli di validazione e sistemi di test per i sistemi IA con potenziali applicazioni in campo nucleare, biologico, chimico ed energetico
  • Dare mandato al Dipartimento del Commercio di definire i requisiti relativi alla condivisione di informazioni critiche con gli enti governativi che le aziende che sviluppano sistemi IA fondativi (ovvero con ampissima gamma di applicazioni, come i Large Language Model e i sistemi per la visione artificiale) devono rispettare
  • Dare mandato al Dipartimento del Commercio di svolgere una consultazione pubblica al fine di identificare i principi benefici, rischi e altre implicazioni associati allo sviluppo di sistemi IA fondativi con potenziali applicazioni civili e militari
  • Dare mandato al Dipartimento del Commercio di definire le regole con cui i provider di servizi Cloud devono informare gli enti governativi nel caso soggetti stranieri utilizzino tali servizi Cloud per sviluppare sistemi IA
  • Richiedere alle agenzie federali di compiere una analisi dei rischi che i sistemi IA pongono alle infrastrutture critiche sotto le rispettive giurisdizioni. In particolare, il Dipartimento del Tesoro deve emettere linee guida per la mitigazione dei rischi dovuti ai sistemi IA per le istituzioni finanziarie.
  • Richiedere al Dipartimento per la Sicurezza Interna (Homeland Security) di valutare le applicazioni dell'IA per il miglioramento della sicurezza cibernetica
  • Dare mandato a varie entità, inclusi il Dipartimento per la Sicurezza Interna, il Dipartimento della Difesa il Dipartimento dell'Energia, di studiare le implicazioni dei sistemi IA relativamente alle minacce chimiche, biologiche, radiologiche e nucleari (CBRN).

In aggiunta, l'Ordine Esecutivo fornisce indicazioni a tutta l'amministrazione federale affinchè vengano definite e applicate linee guida relativamente all'acquisto e all'uso di sistemi IA, inclusa la creazione di opportune strutture organizzative interne e l'acquisizione di personale dotato di adeguate competenze.

Infine, l'Ordine Esecutivo impegna l'amministrazione federale ad aumentare la competitività del sistema paese per quanto concerne lo sviluppo e l'applicazione dei sistemi IA: (1) dando mandato al Dipartimento per la Sicurezza Interna di identificare azioni per facilitare l'arrivo negli US di persone dotate di competenze tecniche rilevanti, (2) richiedendo alla National Science Foundation (NSF) e ad altre agenzie federali di avviare iniziative finalizzate a velocizzare la ricerca e lo sviluppo nel campo dell'IA, anche attraverso la creazione di nuove partnership pubblico-privato.

Maggiori dettagli relativamente all'Ordine Esecutivo possono essere trovati su questa pagina del sito della Casa Bianca:

I AM Fact

I sistemi IA consumano enormi quantità di energia con serie implicazioni per la sostenibilità

21 novembre 2023

I più potenti sistemi IA - come ChatGPT o Bard - sono basati sul machine learning. Questo vuol dire che il loro sviluppo avviene tramite l'elaborazione di enormi quantità di dati per prolungati periodi di tempo (numerose settimane) attraverso giganteschi supercomputer, costituiti da migliaia o decine di migliaia di processori che lavorano in parallelo. Il consumo di energia associato allo sviluppo dei modelli IA più complessi è stato stimato nell'ordine delle centinaia di MWh (circa 1300 MWh nel caso di ChatGPT 3). Come riferimento, 1 MWh è approssimativamente la quantità di energia necessaria per alimentare una macchina elettrica per 6000 km.

Una volta sviluppati, questi sistemi vengono utilizzati per rispondere alle richieste degli utenti. Ogni risposta generata da uno di questi sistemi, tecnicamente chiamata 'inferenza', richiede una quantità di energia significativamente inferiore rispetto alla fase di addestramento. Il problema è rappresentato dall'enorme quantità di richieste che sistemi come ChatGPT ricevono quotidianamente. Secondo alcune ricerche, ChatGPT consuma 564 MWh al giorno.

A prescindere dai numeri specifici, la questione centrale è che l'utilizzo dei sistemi IA è la causa principale del loro consumo di energia e non la fase di sviluppo. Questo vuol dire che con il diffondersi di tali sistemi, i loro consumi rischiano di crescere enormemente. Una ricerca ha stimato che se Google applicasse l'IA a tutte le ricerche fatte dagli utenti (Google gestisce una media di 9 miliardi di ricerche al giorno) consumerebbe 22.8 TWh di energia all'anno. Come riferimenti, l'Italia ha consuma circa 300 TWh nel 2021, l'Irlanda 33 TWh (data EIA).

Per ulteriori dettagli sull'hardware necessario per lo sviluppo e l'utilizzo dei sistemi IA (in particolare gli LLM) e i consumi di energia associati, è possibile consultare l'articolo originale a questo link su Joule (rivista associata a Cell).

I AM News

L'OMS ha pubblicato una raccolta di considerazioni su come regolamentare l'uso dell'IA in Sanità

13 novembre 2023

Grazie alla crescente disponibilità di dati sanitari e al costante e rapidissimo progresso delle tecniche di elaborazione degli stessi - come il machine learning - l'IA sta iniziando a trasformare i Sistemi Sanitari. L'OMS riconosce l'enorme miglioramento che l'IA può apportare in vari campi, quali: sperimentazione clinica, diagnosi e trattamento, cure personalizzate, integrazione delle competenze e conoscenze del personale sanitario. L'applicazione dell'IA in campo sanitario presenta, però, enormi rischi, quali: raccolta ed elaborazione dei dati personali non etica, problemi di cybersecurity, amplificazione delle discriminazioni ed esplosione della disinformazione.p

Regolamentare correttamente l'utilizzo dei sistemi IA in campo sanitario è fondamentale per massimizzare i benefici per il più ampio numero di soggetti, minimizzando al contempo gli impatti negativi per gli individui e la società.

La pubblicazione dell'OMS presenta sei aree particolarmente critiche per la corretta regolamentazione dell'IA in Medicina: trasparenza e documentazione in tutte le fasi di vita di un prodotto; gestione metodica del rischio; validazione dei dati da parte di terze parti; impegno per la qualità dei dati, al fine di prevenire bias e discriminazioni; rispetto dei requisiti normativi per la privacy e sicurezza dei dati; collaborazione sistematico tra tutte le parti coinvolte (industria, enti regolatori, professionisti, pazienti).

Il testo completo (in inglese) è disponibile al link sottostante.

I AM News

Alcuni sistemi IA diffondono informazioni medico-scientifiche errate, basate su stereotipi e preconcetti razzisti

30 ottobre 2023

Gli autori di un articolo recentemente pubblicato su npj Digital Medicine hanno analizzato le risposte fornite da quattro Large Language Models (LLM) - la tecnologia alla base di ChatGPT e degli altri sistemi IA in grado di generare risposte rilevanti e articolate alle richieste scritte degli utenti - a nove domande finalizzate a identificare la tendenza di questi modelli a fornire informazioni in campo medico-scientifico basate su distinzioni razziali errate e dannose. Gli autori dell'articolo hanno sottoposto ciascuna domanda per cinque volte a ciascun LLM, generando 45 risposte per modello. Tutti i modelli hanno inserito informazioni scientifiche errate - basate su stereotipi e preconcetti razzisti - nelle risposte fornite. L'uso degli LLM in Medicina è in continua crescita, il risultato di questo studio - e di altri analoghi - dimostra l'importanza di un approccio critico e controllato all'adozione dei sistemi IA in ambiti critici.

L'articolo completo è disponibile su Nature al link sottostante.

I AM News

Un nuovo sistema IA caratterizza i tumori cerebrali durante l'intervento chirurgico

12 ottobre 2023

Un gruppo di scienziati olandesi ha sviluppato un sistema di intelligenza artificiale per assistere i chirurghi nel corso degli interventi di asportazione di tumori cerebrali. Il sistema IA analizza segmenti del DNA dei campioni del tumore e - individuando specifiche mutazioni - riesce a determinare il tipo e il sottotipo del tumore cerebrale. La capacità di caratterizzare il tumore nel corso delle fasi iniziali dell'operazione può aiutare i chirurghi a decidere il grado di aggressività dell'intervento. In futuro, il metodo potrebbe anche indirizzare i medici verso trattamenti mirati per specifici sottotipi di tumore.

Il sistema IA - di tipo deep-learning - è stato battezzato Sturgeon. Sturgeon è stato inizialmente testato su 50 campioni di tumore cerebrale congelati, fornendo la diagnosi corretta in 45 casi e astenendosi da conclusioni per mancanza di informazioni nei rimanenti 5. Successivamente, Sturgeon è stato testato in 25 operazioni cerebrali dal vivo, in parallelo al metodo standard di analisi dei campioni di tessuto tramite microscopio. Il sistema IA ha fornito 18 diagnosi corrette e non ha raggiunto la soglia di sicurezza necessaria nei restanti 7 casi.

A differenza dei metodi 'tradizionali' di caratterizzazione dei campioni di tumore basati su sequenziamento genetico, che possono richiedere anche settimane, Sturgeon sfrutta tecniche di sequenziamento più rapide e le applica solo a piccole porzioni del genoma. In questo modo è possibile ottenere una diagnosi in meno di 90 minuti, in grado quindi di supportare le decisioni del neurochirurgo.

II sistema IA ha ancora dei limiti, ad esempio può avere difficoltà a individuare abbastanza marcatori specifici del tumore nel caso il campione includa percentuali significative di tessuto cerebrale sano.

L'articolo completo è disponibile su Nature al link sottostante.

I AM Fact

AlphaFold, un sistema di IA sviluppato da Google DeepMind, ha predetto la struttura tridimensionale di quasi tutte le proteine note

04 ottobre 2023

AlphaFold - addestrato utilizzando i dati sulle strutture 3D delle proteine ottenuti sperimentalmente - ha generato un database, disponibile pubblicamente, contenente le strutture 3D di 200+ milioni di proteine.

Google DeepMind, laboratorio di ricerca sull’IA che ha sviluppato anche AlphaGo - il sistemi di IA che ha battuto il campione mondiale di Go, ha utilizzato i dati sulle strutture 3D di 180.000 proteine ottenuto dalla comunità scientifica in anni di analisi sperimentale per addestrare il proprio sistema di intelligenza artificiale AlphaFold.

Il risultato di questa ricerca è stata la pubblicazione, in collaborazione con EMBL-EMI, dell’AlphaFold Protein Structure Database. Questo database contiene la predizione accurata della struttura 3D di tutte le proteine contenute in Uniprot (il più ampio database internazionale delle sequenze proteiche degli organismi viventi). Il database è disponibile pubblicamente e consultabile gratuitamente. Esso fornisce anche la possibilità di scaricare l’intero proteoma umano e di altri 47 organismi particolarmente rilevanti per la ricerca.

L’articolo di Nature (pubblicato nel 2021) che riporta i principali risultati del progetto di ricerca è consultabile al link sottostante.

I AM News

ChatGPT, il sistema di IA generativa sviluppato da OpenAI, ora può vedere, ascoltare e parlare

02 ottobre 2023

L’integrazione delle capacità di riconoscimento e sintesi del parlato e delle immagini promette di rivoluzionare il modo in cui interagiamo con i sistemi IA.

OpenAI - l’azienda americana che guida la rivoluzione dei Large Language Model (LLM), ossia i sistemi di Intelligenza Artificiale generativa in grado di interpretare il linguaggio umano e di rispondere in modo articolato e (molto spesso) rilevante alle richieste degli utenti - ha reso disponibili una nuova versione di ChatGPT che è in grado di interagire con l’utente attraverso il parlato e le immagini. In altre parole, la nuova versione del software è in grado di: (1) conversare con l’utente, ascoltando le richieste vocali e rispondendo a tono, (2) interpretare foto e immagini fornite dall’utente.

Queste due innovazioni alterano radicalmente la modalità di interazione tra ChatGPT e gli utenti, aprendo la strada a nuove forme di collaborazione uomo-macchina. Un possibile scenario d’uso futuro è il seguente: l’utente utilizza il proprio smartphone per fare la foto di un dispositivo elettronico che non conosce e poi la invia a ChatGPT chiedendo informazioni sul suo funzionamento, ChatGPT fornisce le informazioni richieste nella lingua dell’utente e genera immagini con indicazioni specifiche, frecce e quant’altro per chiarire eventuali dubbi.

Il comunicato ufficiale di OpenAI è disponibile al link sottostante.

Iscriviti alla Newsletter I AM

Iscriviti alla newsletter trimestrale del progetto I AM per ricevere news e aggiornamenti sulle iniziative del progetto