News

I AM News

I dati sintetici possono migliorare i modelli per la classificazione automatica delle immagini diagnostiche

12 aprile 2024

I risultati pubblicati in un recente articolo di Nature (apri ) suggeriscono che l'utilizzo di dati sintetici, ovvero di dati prodotti da appositi sistemi di Intelligenza Artificiale generativa, nel processo di addestramento di sistemi IA per la classificazione automatica delle immagini diagnostiche può portare a un miglioramento dei risultati degli stessi.

In particolare, i modelli di IA generativi sono utilizzati per compensare la ridotta disponibilità o completa mancanza di immagini rappresentati patologie rare e/o relative a pazienti appartenenti a gruppi sottorappresentati nei dataset di immagini diagnostiche reali utilizzati per l'addestramento dei modelli IA di supporto alle diagnosi. Questo tipo di integrazione dei dataset migliora la robustezza dei modelli IA e garantisce una maggior equità di trattamento poiché migliora l'accuratezza delle diagnosi all'interno dei gruppi sottorappresentati.

Lo studio pubblicato su Nature ha focalizzato la propria attenzione su tre differenti 'domini' di immagini diagnostiche: (1) immagini istopatologiche, (2) radiografie toraciche e (3) immagine dermatologiche. In tutti i casi, gli autori hanno dimostrato che utilizzare immagini sintetiche prodotte da modelli IA generativi appositamente addestrati (attraverso enormi quantità di immagini reali) migliora i risultati dei sistemi IA rispetto all'addestramento solo con immagini reali.

Come osservato dagli stessi autori, la quantità e la qualità dei dati utilizzati nell'addestramento dei modelli IA in campo diagnostico rimane un elemento assolutamente centrale, ma la generazione di dati sintetici è uno strumento estremamente promettente per generalizzarne maggiormente il funzionamento.

Apri l'articolo di Nature citato

I AM News

Nvidia accelera gli investimenti e le collaborazioni per sviluppare applicazioni IA in Sanità

25 marzo 2024

NVIDIA - il colosso americano di microelettronica che progetta la maggioranza dei processori utilizzati per addestrare i più potenti sistemi di Intelligenza Artificiale - continua a collaborare con e investire in startup e aziende impegnate nell'applicazione dell'IA alla medicina e alla ricerca farmaceutica.

Risale a metà marzo 2024 l'annuncio della collaborazione tra Nvidia e Johnson & Johnson MedTech per lo studio di applicazioni dei sistemi di IA generativa alla chirurgia. In particolare, le due aziende esploreranno come utilizzare l'IA per analizzare in modo automatico - e su scala 'industriale' - le riprese video eseguite durante gli interventi chirurgici e come automatizzare la generazione della documentazione relativa agli interventi chirurgici. Tra le prime applicazioni attese: l'anonimizzazione automatica dei pazienti presenti nelle riprese video e l'ottimizzazione automatica della qualità per poter usare tali video a scopo formativo.

Maggiori dettagli sulla collaborazione si trovano qui:
https://www.cnbc.com/2024/03/18/nvidia-and-johnson-johnson-to-build-ai-applications-for-surgery-.html (CNBC)

Sempre a metà marzo 2024, Nvidia ha reso disponibili su cloud 25 nuovi servizi IA per supportare aziende, medici e ricercatori in campo sanitario. Tra i servizi resi disponibili: MolMIM per la chimica generativa, ESMFol per la predizione delle strutture 3D delle proteine, DiffDock per studiare l'interazione tra le molecole dei farmaci e i loro target biologici.

Maggiori dettagli sui microservizi IA resi disponibili da Nvidia si trovano qui:
https://nvidianews.nvidia.com/news/healthcare-generative-ai-microservices (NVIDIA News)

I AM News

Non solo ChatGPT: i nuovi modelli di Google e Anthropic sono sempre più competitivi

12 marzo 2024

A febbraio Google ha reso disponibile al pubblico Gemini, il nuovo modello di Intelligenza Artificiale (IA) generativa progettato per competere con OpenAI ChatGPT. A inizio marzo Anthropic, startup creata da ex-ingegneri di OpenAI e Google, ha rilasciato Claude 3, ultima versione della propria IA generativa.

Le recensioni e i commenti disponibili sui siti specializzati suggeriscono che entrambi i sistemi IA presentino un netto miglioramento rispetto alla generazione precedente e si avvicinino, e in certi casi superino, le performance della versione più potente di ChatGPT (la 4). Interessante osservare come le tre aziende seguano un approccio commerciale sostanzialmente analogo: la versione più potente è a pagamento (il costo mensile in tutti e tre i casi si aggira sui 20€) , le versioni con funzionalità ridotte sono disponibili gratuitamente.

Le versioni gratuite dei 3 sistemi sono raggiungibili - previa registrazione - ai seguenti indirizzi:
OpenAI ChatGPT
Google Gemini
Anthropic Claude

Una differenza sostanziale tra i 3 chatbot rimane: ChatGPT è - al momento - l'unico modello veramente multimodale, ossia in grado di ricevere input e generare output in formati differenti (in particolare: testo, voce, immagini). Gemini è progettato per essere multimodale, ma la capacità di generare immagine è stata limitata per via di alcuni problemi emersi nelle scorse settimane ( approfondisci qui). Claude 3, nella sua versione corrente, è in grado di ricevere input sotto forma di immagini, ma non è in grado di generarne in output. In altre parole, Claude 3 è in grado di interpretare il contenuto di una immagine fornita dall'utente, ma non è in grado di creare una immagine sintetica a partire da una descrizione testuale.

A questo link alcune interessanti considerazioni su Claude 3 da parte di T.B. Lee (storico giornalista di tecnologia):
https://www.understandingai.org/p/claude-3-chatgpt-finally-has-a-serious

I AM News

IA in Medicina: un delicato equilibrio tra opportunità e rischi

04 marzo 2024

I sistemi IA promettono di rivoluzionare numerosi aspetti dei Sistemi Sanitari, dalla ricerca farmacologica ai percorsi di diagnosi, dalla gestione delle cronicità alla chirurgia robotica

Il mondo delle assicurazioni sanitarie è stato tra i primi ad 'abbracciare' questa tecnologia rivoluzionaria, introducendo - soprattutto negli Stati Uniti - strumenti basati sull'IA nel processo di analisi e approvazione delle richieste di rimborso. Non tutte le parti coinvolte sembrano soddisfatte dei risultati di questa innovazione. Due differenti gruppi di pazienti hanno intentato causa contro due colossi delle assicurazioni sanitarie, Humana and United Health, sostenendo che questi sistemi automatici hanno ingiustamente negato la copertura economica delle spese sanitarie sostenute per l'assistenza e la riabilitazione successive ai trattamenti ospedalieri. Le decisioni del modello IA utilizzato da entrambe le aziende - chiamato nH Predict e basato sulla correlazione tra i dati dello specifico paziente/caso e un database storico di 6 milioni di pazienti/casi - hanno in più casi ribaltato le indicazioni dei medici curanti sulle effettive necessità assistenziali dei pazienti.

Come per tutti gli strumenti estremamente potenti e flessibili, l'introduzione dell'IA in un settore complesso e delicato come la Sanità presenta numerosi e significativi rischi, che devono essere opportunamente monitorati e gestiti per massimizzare i benefici di questa tecnologia per la società. Nel caso specifico, sembrano di particolare rilievo la totale opacità del processo decisionale seguito dal modello IA nH Predit e la possibile presenza di significativi bias nei dataset utilizzati dal modello stesso.

Per maggiori dettagli:

I AM News

OCSE: come garantire un uso responsabile dell'IA in Sanità

16 febbraio 2024

Lo scorso 19 gennaio, l'OCSE (Organizzazione per la Cooperazione e lo Sviluppo Economico) ha pubblicato un documento intitolato "Collective action for responsible AI in health" - traducibile come "Azione collettiva per una Intelligenza Artificiale responsabile in Sanità". Il documento comprende una panoramica sulle applicazioni dell'IA in Sanità, analizzando le opportunità, i rischi e gli ostacoli associati all'introduzione di questa tecnologia potenzialmente rivoluzionaria. L'obiettivo del documento è indicare ai decisori politici quali aree necessitano di attenzione al fine di favorire la diffusione in Sanità di sistemi di Intelligenza Artificiale che siano adattabili, rispettino gli individui, supportino l'equità e migliorino la salute di tutti. Le aree identificate come più importanti sono relative allo sviluppo della fiducia nei sistemi IA da parte di operatori e cittadini, alla disponibilità delle necessarie risorse e opportune competenze, e alla collaborazione tra tutti i soggetti coinvolti.

La tabella qui in basso, tratta dall'articolo, riassume le principali barriere, rischi e possibile risultati associati all'introduzione dell'IA in Sanità.

Tabella

Il documento integrale è disponibile al seguente link:

I AM News

AMIE - un modello IA per aiutare medici e pazienti

09 febbraio 2024

Google Deepmind, il principale laboratorio di Intelligenza Artificiale del gigante americano della tecnologia, ha sviluppato un nuovo modello di Intelligenza Artificiale - chiamato AMIE (Articulate Medical Intelligence Explorer) - capace di conversare testualmente con i pazienti, acquisendo informazioni rilevanti, fornendo spiegazioni mediche e formulando ipotesi diagnostiche. Gli autori del nuovo modello sottolineano come AMIE non abbia l'obiettivo di sostituire il medico, ma possa risultare un utile strumento di supporto all'attività professionale, velocizzando alcuni processi e potenziandone altri.

I risultati delle prime sperimentazioni controllate sono incoraggianti. AMIE ha dimostrato di essere efficace nell'interazione con i pazienti e di generare diagnosi accurate (con frequenza comparabile ai professionisti umani). Future versioni di AMIE saranno in grado di gestire input e output in forma di audio, immagini e video (multimodalità).

L'articolo - in pre-print su arXiv - in cui sono stati presentati i risultati della sperimentazione:

I AM News

La Casa Bianca ha emanato il primo Ordine Esecutivo per mitigare i rischi associati all'IA

28 novembre 2023

Il 30 Ottobre 2023, il Presidente degli Stati Uniti Joe Biden ha firmato un Ordine Esecutivo finalizzato a garantire lo sviluppo di sistemi di Intelligenza Artificiale (IA) sicuri e affidabili. I principali elementi di questo importante atto legislativo, finalizzato a ridurre i rischi associati alla diffusione di sistemi IA sempre più potenti senza però limitare le potenzialità di innovazione di questa tecnologia rivoluzionaria, sono i seguenti:

  • Dare mandato al NIST (National Institute of Science and Technology) di sviluppare linee guida e buone pratiche per lo sviluppo di sistemi IA sicuri e affidabili
  • Dare mandato al NIST di sviluppare procedure e regole per lo svolgimento di test per identificare problemi di sicurezza e difetti tecnici nei sistemi IA
  • Dare mandato al Dipartimento dell'Energia di sviluppare modelli di validazione e sistemi di test per i sistemi IA con potenziali applicazioni in campo nucleare, biologico, chimico ed energetico
  • Dare mandato al Dipartimento del Commercio di definire i requisiti relativi alla condivisione di informazioni critiche con gli enti governativi che le aziende che sviluppano sistemi IA fondativi (ovvero con ampissima gamma di applicazioni, come i Large Language Model e i sistemi per la visione artificiale) devono rispettare
  • Dare mandato al Dipartimento del Commercio di svolgere una consultazione pubblica al fine di identificare i principi benefici, rischi e altre implicazioni associati allo sviluppo di sistemi IA fondativi con potenziali applicazioni civili e militari
  • Dare mandato al Dipartimento del Commercio di definire le regole con cui i provider di servizi Cloud devono informare gli enti governativi nel caso soggetti stranieri utilizzino tali servizi Cloud per sviluppare sistemi IA
  • Richiedere alle agenzie federali di compiere una analisi dei rischi che i sistemi IA pongono alle infrastrutture critiche sotto le rispettive giurisdizioni. In particolare, il Dipartimento del Tesoro deve emettere linee guida per la mitigazione dei rischi dovuti ai sistemi IA per le istituzioni finanziarie.
  • Richiedere al Dipartimento per la Sicurezza Interna (Homeland Security) di valutare le applicazioni dell'IA per il miglioramento della sicurezza cibernetica
  • Dare mandato a varie entità, inclusi il Dipartimento per la Sicurezza Interna, il Dipartimento della Difesa il Dipartimento dell'Energia, di studiare le implicazioni dei sistemi IA relativamente alle minacce chimiche, biologiche, radiologiche e nucleari (CBRN).

In aggiunta, l'Ordine Esecutivo fornisce indicazioni a tutta l'amministrazione federale affinchè vengano definite e applicate linee guida relativamente all'acquisto e all'uso di sistemi IA, inclusa la creazione di opportune strutture organizzative interne e l'acquisizione di personale dotato di adeguate competenze.

Infine, l'Ordine Esecutivo impegna l'amministrazione federale ad aumentare la competitività del sistema paese per quanto concerne lo sviluppo e l'applicazione dei sistemi IA: (1) dando mandato al Dipartimento per la Sicurezza Interna di identificare azioni per facilitare l'arrivo negli US di persone dotate di competenze tecniche rilevanti, (2) richiedendo alla National Science Foundation (NSF) e ad altre agenzie federali di avviare iniziative finalizzate a velocizzare la ricerca e lo sviluppo nel campo dell'IA, anche attraverso la creazione di nuove partnership pubblico-privato.

Maggiori dettagli relativamente all'Ordine Esecutivo possono essere trovati su questa pagina del sito della Casa Bianca:

I AM Fact

I sistemi IA consumano enormi quantità di energia con serie implicazioni per la sostenibilità

21 novembre 2023

I più potenti sistemi IA - come ChatGPT o Bard - sono basati sul machine learning. Questo vuol dire che il loro sviluppo avviene tramite l'elaborazione di enormi quantità di dati per prolungati periodi di tempo (numerose settimane) attraverso giganteschi supercomputer, costituiti da migliaia o decine di migliaia di processori che lavorano in parallelo. Il consumo di energia associato allo sviluppo dei modelli IA più complessi è stato stimato nell'ordine delle centinaia di MWh (circa 1300 MWh nel caso di ChatGPT 3). Come riferimento, 1 MWh è approssimativamente la quantità di energia necessaria per alimentare una macchina elettrica per 6000 km.

Una volta sviluppati, questi sistemi vengono utilizzati per rispondere alle richieste degli utenti. Ogni risposta generata da uno di questi sistemi, tecnicamente chiamata 'inferenza', richiede una quantità di energia significativamente inferiore rispetto alla fase di addestramento. Il problema è rappresentato dall'enorme quantità di richieste che sistemi come ChatGPT ricevono quotidianamente. Secondo alcune ricerche, ChatGPT consuma 564 MWh al giorno.

A prescindere dai numeri specifici, la questione centrale è che l'utilizzo dei sistemi IA è la causa principale del loro consumo di energia e non la fase di sviluppo. Questo vuol dire che con il diffondersi di tali sistemi, i loro consumi rischiano di crescere enormemente. Una ricerca ha stimato che se Google applicasse l'IA a tutte le ricerche fatte dagli utenti (Google gestisce una media di 9 miliardi di ricerche al giorno) consumerebbe 22.8 TWh di energia all'anno. Come riferimenti, l'Italia ha consuma circa 300 TWh nel 2021, l'Irlanda 33 TWh (data EIA).

Per ulteriori dettagli sull'hardware necessario per lo sviluppo e l'utilizzo dei sistemi IA (in particolare gli LLM) e i consumi di energia associati, è possibile consultare l'articolo originale a questo link su Joule (rivista associata a Cell).

I AM News

L'OMS ha pubblicato una raccolta di considerazioni su come regolamentare l'uso dell'IA in Sanità

13 novembre 2023

Grazie alla crescente disponibilità di dati sanitari e al costante e rapidissimo progresso delle tecniche di elaborazione degli stessi - come il machine learning - l'IA sta iniziando a trasformare i Sistemi Sanitari. L'OMS riconosce l'enorme miglioramento che l'IA può apportare in vari campi, quali: sperimentazione clinica, diagnosi e trattamento, cure personalizzate, integrazione delle competenze e conoscenze del personale sanitario. L'applicazione dell'IA in campo sanitario presenta, però, enormi rischi, quali: raccolta ed elaborazione dei dati personali non etica, problemi di cybersecurity, amplificazione delle discriminazioni ed esplosione della disinformazione.p

Regolamentare correttamente l'utilizzo dei sistemi IA in campo sanitario è fondamentale per massimizzare i benefici per il più ampio numero di soggetti, minimizzando al contempo gli impatti negativi per gli individui e la società.

La pubblicazione dell'OMS presenta sei aree particolarmente critiche per la corretta regolamentazione dell'IA in Medicina: trasparenza e documentazione in tutte le fasi di vita di un prodotto; gestione metodica del rischio; validazione dei dati da parte di terze parti; impegno per la qualità dei dati, al fine di prevenire bias e discriminazioni; rispetto dei requisiti normativi per la privacy e sicurezza dei dati; collaborazione sistematico tra tutte le parti coinvolte (industria, enti regolatori, professionisti, pazienti).

Il testo completo (in inglese) è disponibile al link sottostante.

I AM News

Alcuni sistemi IA diffondono informazioni medico-scientifiche errate, basate su stereotipi e preconcetti razzisti

30 ottobre 2023

Gli autori di un articolo recentemente pubblicato su npj Digital Medicine hanno analizzato le risposte fornite da quattro Large Language Models (LLM) - la tecnologia alla base di ChatGPT e degli altri sistemi IA in grado di generare risposte rilevanti e articolate alle richieste scritte degli utenti - a nove domande finalizzate a identificare la tendenza di questi modelli a fornire informazioni in campo medico-scientifico basate su distinzioni razziali errate e dannose. Gli autori dell'articolo hanno sottoposto ciascuna domanda per cinque volte a ciascun LLM, generando 45 risposte per modello. Tutti i modelli hanno inserito informazioni scientifiche errate - basate su stereotipi e preconcetti razzisti - nelle risposte fornite. L'uso degli LLM in Medicina è in continua crescita, il risultato di questo studio - e di altri analoghi - dimostra l'importanza di un approccio critico e controllato all'adozione dei sistemi IA in ambiti critici.

L'articolo completo è disponibile su Nature al link sottostante.

I AM News

Un nuovo sistema IA caratterizza i tumori cerebrali durante l'intervento chirurgico

12 ottobre 2023

Un gruppo di scienziati olandesi ha sviluppato un sistema di intelligenza artificiale per assistere i chirurghi nel corso degli interventi di asportazione di tumori cerebrali. Il sistema IA analizza segmenti del DNA dei campioni del tumore e - individuando specifiche mutazioni - riesce a determinare il tipo e il sottotipo del tumore cerebrale. La capacità di caratterizzare il tumore nel corso delle fasi iniziali dell'operazione può aiutare i chirurghi a decidere il grado di aggressività dell'intervento. In futuro, il metodo potrebbe anche indirizzare i medici verso trattamenti mirati per specifici sottotipi di tumore.

Il sistema IA - di tipo deep-learning - è stato battezzato Sturgeon. Sturgeon è stato inizialmente testato su 50 campioni di tumore cerebrale congelati, fornendo la diagnosi corretta in 45 casi e astenendosi da conclusioni per mancanza di informazioni nei rimanenti 5. Successivamente, Sturgeon è stato testato in 25 operazioni cerebrali dal vivo, in parallelo al metodo standard di analisi dei campioni di tessuto tramite microscopio. Il sistema IA ha fornito 18 diagnosi corrette e non ha raggiunto la soglia di sicurezza necessaria nei restanti 7 casi.

A differenza dei metodi 'tradizionali' di caratterizzazione dei campioni di tumore basati su sequenziamento genetico, che possono richiedere anche settimane, Sturgeon sfrutta tecniche di sequenziamento più rapide e le applica solo a piccole porzioni del genoma. In questo modo è possibile ottenere una diagnosi in meno di 90 minuti, in grado quindi di supportare le decisioni del neurochirurgo.

II sistema IA ha ancora dei limiti, ad esempio può avere difficoltà a individuare abbastanza marcatori specifici del tumore nel caso il campione includa percentuali significative di tessuto cerebrale sano.

L'articolo completo è disponibile su Nature al link sottostante.

I AM Fact

AlphaFold, un sistema di IA sviluppato da Google DeepMind, ha predetto la struttura tridimensionale di quasi tutte le proteine note

04 ottobre 2023

AlphaFold - addestrato utilizzando i dati sulle strutture 3D delle proteine ottenuti sperimentalmente - ha generato un database, disponibile pubblicamente, contenente le strutture 3D di 200+ milioni di proteine.

Google DeepMind, laboratorio di ricerca sull’IA che ha sviluppato anche AlphaGo - il sistemi di IA che ha battuto il campione mondiale di Go, ha utilizzato i dati sulle strutture 3D di 180.000 proteine ottenuto dalla comunità scientifica in anni di analisi sperimentale per addestrare il proprio sistema di intelligenza artificiale AlphaFold.

Il risultato di questa ricerca è stata la pubblicazione, in collaborazione con EMBL-EMI, dell’AlphaFold Protein Structure Database. Questo database contiene la predizione accurata della struttura 3D di tutte le proteine contenute in Uniprot (il più ampio database internazionale delle sequenze proteiche degli organismi viventi). Il database è disponibile pubblicamente e consultabile gratuitamente. Esso fornisce anche la possibilità di scaricare l’intero proteoma umano e di altri 47 organismi particolarmente rilevanti per la ricerca.

L’articolo di Nature (pubblicato nel 2021) che riporta i principali risultati del progetto di ricerca è consultabile al link sottostante.

I AM News

ChatGPT, il sistema di IA generativa sviluppato da OpenAI, ora può vedere, ascoltare e parlare

02 ottobre 2023

L’integrazione delle capacità di riconoscimento e sintesi del parlato e delle immagini promette di rivoluzionare il modo in cui interagiamo con i sistemi IA.

OpenAI - l’azienda americana che guida la rivoluzione dei Large Language Model (LLM), ossia i sistemi di Intelligenza Artificiale generativa in grado di interpretare il linguaggio umano e di rispondere in modo articolato e (molto spesso) rilevante alle richieste degli utenti - ha reso disponibili una nuova versione di ChatGPT che è in grado di interagire con l’utente attraverso il parlato e le immagini. In altre parole, la nuova versione del software è in grado di: (1) conversare con l’utente, ascoltando le richieste vocali e rispondendo a tono, (2) interpretare foto e immagini fornite dall’utente.

Queste due innovazioni alterano radicalmente la modalità di interazione tra ChatGPT e gli utenti, aprendo la strada a nuove forme di collaborazione uomo-macchina. Un possibile scenario d’uso futuro è il seguente: l’utente utilizza il proprio smartphone per fare la foto di un dispositivo elettronico che non conosce e poi la invia a ChatGPT chiedendo informazioni sul suo funzionamento, ChatGPT fornisce le informazioni richieste nella lingua dell’utente e genera immagini con indicazioni specifiche, frecce e quant’altro per chiarire eventuali dubbi.

Il comunicato ufficiale di OpenAI è disponibile al link sottostante.

Iscriviti alla Newsletter I AM

Iscriviti alla newsletter trimestrale del progetto I AM per ricevere news e aggiornamenti sulle iniziative del progetto