News

Il mondo dell’IA è in costante e rapidissima evoluzione. Questa pagina raccoglie le più significative novità relative a questa tecnologia rivoluzionaria, con attenzione particolare alle applicazioni in campo medico-sanitario, e brevi articoli sui momenti, i protagonisti e le tecnologie più rilevanti per comprendere l’Intelligenza Artificiale.

I AM News

OpenAI Whisper: rischi e opportunità dell'IA in Medicina

13 novembre 2024

I Large Language Models (LLM) - ovvero la rivoluzionaria classe di modelli di Intelligenza Artificiale progettati per la manipolazione del linguaggio naturale cui appartengono OpenAI ChatGPT e Google Gemini - sono notoriamente proni al fenomeno delle Allucinazioni (in inglese, Hallucinations). Questo termine è utilizzato per descrivere la tendenza - riscontrata in tutti gli LLM fino ad ora sviluppati - a generare risposte che contengono informazioni non corrette, inventate dal modello e presentate con la stessa forma e tono delle altre informazioni. Le Allucinazioni si manifestano in modo fondamentalmente imprevedibile. I modelli più recenti e sofisticati generano Allucinazioni con frequenza sostanzialmente limitata, ma il problema non è stato risolto. Le Allucinazioni rappresentano un limite enorme di questi modelli, soprattutto in campi di applicazioni in cui l'affidabilità e la completezza delle informazioni sono un elemento critico.

Un recente articolo dell'Associated Press presenta questo problema in tutta la sua rilevanza e attualità. OpenAI Whisper e altri LLM progettati per trascrivere le registrazioni audio in modo automatico (in inglese, text-to-speech) sono sempre più diffusi nelle strutture sanitarie americane, dove sono utilizzati per generare le trascrizioni di quanto detto da medici e pazienti durante le visite. Il risparmio di tempo offerto da questi strumenti può essere significativo, essi liberano il tempo degli operatori sanitari dagli obblighi di documentazione. Purtroppo, però, anche questi strumenti sono soggetti al fenomeno delle Allucinazioni. E' molto difficile studiare sistematicamente il problema, anche per gli aspetti relativi alla privacy, ma vari esperti riportano percentuali di errori significative nelle prove sistematiche da loro effettuate.

OpenAI e le altre aziende che stanno sviluppando questi applicativi riconoscono il problema e dichiarano di stare lavorando a versioni sempre più potenti e affidabili dei modelli. Rimane il fatto che in un campo delicato come la Medicina, l'introduzione di questi strumenti deve essere portata avanti con estrema cautela - nonostante gli evidenti benefici economici - viste le potenziali conseguenze per la salute dei pazienti.

L'articolo dell'Associated Press è consultabile qui:
Apri link.

I AM News

AI Hackathon: l'Intelligenza Artificiale al servizio dell'Oncologia

22 ottobre 2024

Il 3 Dicembre 2024 si svolgerà a Milano, presso la sede di Microsoft Italia, l'evento AI Hackathon: l'Intelligenza Artificiale al servizio dell'Oncologia , organizzato dall' IRCSS Humanitas (Rozzano), in collaborazione con Microsoft e Università di Bologna.

L'evento ha l'obiettivo di favorire lo scambio di conoscenze tra esperti di discipline differenti - sono coinvolti clinici, ingegneri, data scientist e imprenditori - al fine di generare nuove idee e opportunità di collaborazione nell'ambito della ricerca sul cancro.

Il programma dettagliato dei lavori, l'elenco degli speaker e la form per l'iscrizione gratuita sono disponibili sul sito dedicato all'evento:
Apri link.

I AM News

AlphaProteo: Google Deepmind progetta nuove proteine con l'IA

01 ottobre 2024

Google DeepMind, il laboratorio di ricerca sull'Intelligenza Artificiale del colosso delle ricerche online, ha pubblicato i primi risultati ottenuti con AlphaProteo, un sistema IA sviluppato per progettare nuove proteine capaci di legarsi a specifici target molecolari.

A partire dalla struttura della proteina target e dall'indicazione dei siti di legame preferiti, AlphaProteo è in grado di progettare nuove proteine che si legano a tali siti. Il sistema è stato testato con successo su 7 proteine target di particolare rilievo, tra cui 5 proteine coinvolte nei tumori e nelle malattie autoimmuni: IL-7Rɑ, PD-L1, TrkA, IL-17A e VEGF-A. Le proteine generate in-silico da AlphaProteo hanno dimostrato di legarsi con forza ai rispettivi target nei successivi test di laboratorio.

Tuttavia, AlphaProteo non è riuscito a generare una proteina in grado di legarsi a TNFɑ, una proteina associata a patologie autoimmuni, dimostrando di avere ancora limiti nella propria applicabilità.

AlphaProteo è stato addestrato utilizzando i dati della Protein Data Bank (PDB) (link ) e la struttura tridimensionale di 100 milioni di proteine prevista da AlphaFold (link ), il sistema IA sviluppato in precedenza da Google Deepmind per risolvere il problema del ripiegamento proteico.

Maggiori informazioni su AlphaProteo:
Apri link

L'articolo che descrive nel dettaglio in sistema IA si trova su Arxiv:
Apri link.

I AM News

Test e approvazione dell'IA in Medicina: un problema aperto

03 settembre 2024

L'Intelligenza Artificiale ha la potenzialità di rivoluzionare la medicina e i sistemi sanitari. La sua applicazione nella pratica clinica è al momento limitata, anche per la complessità legata ai test e all'approvazione di questi strumenti. Un articolo pubblicato recentemente su Nature (Link ) identifica vari problemi aperti e suggerisce possibili soluzioni.

Il principale tra questi è il fatto che la FDA (Federal Drug Administration - l'agenzia regolatoria americana) consideri molti strumenti basati sull'IA come semplici 'medical devices' e conseguentemente non richieda - per la loro approvazione - lo svolgimento di sperimentazioni cliniche analoghe a quelle richieste per i farmaci. La mancanza di dati scientifici di supporto rende particolarmente complessa la decisione sull'introduzione di questi strumenti da parte dei sistemi sanitari (peraltro caratterizzati da modelli economici che differiscono enormemente tra paese e paese) e dei singoli professionisti.

La soluzione identificata è l'introduzione di criteri più rigorosi per la valutazione e l'approvazione dei sistemi IA, appunto basati sui dati provenienti da opportune sperimentazioni cliniche. Ma come si evince dall'articolo, le sperimentazioni cliniche che riguardano l'IA devono essere definite con particolari attenzioni. L'esito dell'applicazione di strumenti IA dipende infatti da fattori specifici quali: (1) formazione degli operatori sanitari sull'uso degli strumenti IA (e.g. che procedura seguire quando un sistema IA 'prevede' un possibile scompenso cardiaco durante un intervento chirurgico), (2) formazione degli operatori sanitari sulla gestione del rapporto con il paziente (e.g. come comunicare una diagnosi supportata da strumenti IA), (3) sperimentazione dei sistemi IA su popolazioni analoghe a quelle target (i.e. per garantire la generalizzabilità dei risultati, ovvero identificare eventuali bias nei dati utilizzati per lo sviluppo).

A questo proposito è interessante osservare come già nel 2020 siano state proposte specifiche linee guida per la definizione dei protocolli per i 'clinical trials' relativi a strumenti IA (Link ) mirati a risolvere la maggior parte di questi problemi. Analogamente, sono state proposte specifiche linee guida per la rendicontazione dei 'clinical trials' relativi a strumenti IA (Link ).

I AM News

IA e Cancro alla Prostata: lo studio ARTICULATE PRO dell'Università di Oxford

24 luglio 2024

Lo studio ARTICULATE PRO, guidato dall'Università di Oxford e finanziato dal National Health Service (NHS), ha comunicato che l'integrazione dell'IA nel percorso diagnostico del cancro alla prostata è stata estesa a tre distinte strutture sanitarie. Le strutture coinvolte utilizzeranno un sistema IA di supporto alla diagnostica nei loro percorsi clinici standard.

La soluzione IA utilizzata nello studio - Paige Prostate Suite - è un sistema diagnostico composto da tre applicazioni progettate per aiutare i patologi a rilevare, classificare e misurare i tumori nei campioni di tessuto prostatico. I patologi valuteranno come questo sistema influisca sulle loro decisioni cliniche, sulla fornitura dei servizi di patologia e sull'uso delle risorse in un contesto reale.

L'obiettivo principale dello studio ARTICULATE PRO è una "valutazione del servizio clinico" attraverso l'analisi di tre aspetti principali: performance della tecnologia nella pratica clinica, miglioramento nell'accuratezza e nell'efficienza diagnostica, valutazione dell'esperienza dei clinici al fine di favorire l'adozione professionale di questo tipo di strumenti digitali.

Il coinvolgimento di tre strutture sanitarie differenti, caratterizzate da strumentazione, sistemi informativi e utenze differenti, permetterà uno studio sistematico dell'impatto di questo tipo di tecnologie.

Da segnalare, infine, i tre principi guida alla base di questo studio sull'applicazione alla pratica clinica di strumenti di IA commerciali:

  1. I dati dei pazienti sono soggetti a tutte le leggi e regolamenti applicabili, incluso il GDPR, e l'uso dei dati è ridotto al minimo possibile.
  2. Paige Prostate è utilizzato solo per l'analisi: il sistema di IA non viene modificato (addestrato) in alcun modo utilizzando le immagini dei tessuti dei pazienti.
  3. I patologi determinano e autorizzano la diagnosi e possono essere d'accordo o in disaccordo con i risultati di Paige Prostate. Paige Prostate non sostituisce il patologo, ma fornisce informazioni aggiuntive per aiutarlo.

Apri la pagina dello studio

I AM News

IA in digital pathology e diagnosi dei tumori cutanei: review della letteratura su Nature Digital Medicine

13 giugno 2024

Sono stati recentemente pubblicate su Nature Digital Medicine due review sistematiche relative all'applicazione dell'Intelligenza Artificiale nei campi della digital pathology (Link ) e della diagnosi dei tumori cutanei (Link ).

Relativamente alla digital pathology, gli autori affermano che gli studi analizzati nella review riportano una grande accuratezza diagnostica dei sistemi di Intelligenza Artificiale, ma sottolineano come quasi tutti gli studi siano caratterizzati da limiti metodologici o di applicabilità generale. L'articolo comprende una serie di indicazioni su come organizzare futuri studi al fine di generare le evidenze necessarie a rendere l'IA uno strumento di reale supporto alla patologia.

Nel secondo articolo, relativo all'utilizzo di sistemi IA per la diagnosi dei tumori cutanei, gli autori affermano che gli studi analizzati riportano un accuratezza diagnostica dell'IA superiore a quella di un medico generalista o di un dermatologo neofita, ma sostanzialmente comparabile a quella di un dermatologo esperto. Gli autori sottolineano come la quasi totalità degli studi siano però svolti in un setting sperimentale, rendendo necessari ulteriori studi in real-world setting per confermare l'efficacia di questi strumenti.

I AM News

I sistemi di Intelligenza Artificiale possono migliorare la collaborazione tra medici ed infermieri

28 maggio 2024

Le potenziali applicazioni dell'Intelligenza Artificiale in campo medico-sanitario sono numerosissimi: dalla ricerca di nuovi farmaci al supporto alla diagnosi per immagini, dalla personalizzazione delle terapie alla gestione efficiente della cartella clinica digitale. Un recente studio di Stanford ha esaminato l'impatto di un sistema IA sulla identificazione precoce del deterioramento dei pazienti ricoverati al fine di ridurre il rischio di peggioramento significativo delle condizioni cliniche e relative conseguenze (quali il passaggio in terapia intensiva).

Il sistema IA utilizzato nello studio monitora quasi in tempo reale (ogni 15 minuti) una serie di parametri vitali del paziente, integrati dalla storia clinica, esami recenti e altre informazioni rilevanti. Se il sistema individua una significativa probabilità di peggioramento, invia un allarme a medici e infermieri. Lo studio, che ha coinvolto quasi 10000 pazienti nell'arco di 2 anni, ha rilevato una riduzione del 10.4% del rischio composito di attivazione di un risposta di emergenza, trasferimento in terapia intensiva o arresto cardiorespiratorio durante l'ospedalizzazione.

Secondo uno dei responsabili dello studio, il risultato più interessante della sperimentazione consta nella capacità del sistema IA di stimolare - nel momento corretto - la discussione tra medici e infermieri sullo stato dei pazienti ricoverati. Gli alti carichi di lavoro e le condizioni organizzative spesso limitano questo tipo di confronto professionale e sistemi di questo genere possono indirizzare le limitate risorse sui pazienti più a rischio.

Il limite più grave del sistema sperimentato sono i falsi positivi, che possono portare a un riduzione della credibilità del sistema di allerta da parte del personale sanitario.

Risultati dello studio

Leggi l'articolo originale

I AM News

Alphafold 3, nuovo sistema IA di Google, è in grado di predire con accuratezza la struttura e i legami tra proteine

13 maggio 2024

Google Deepmind - il laboratorio di ricerca sull'Intelligenza Artificiale di Google - e la startup Isomorphic Labs hanno reso disponibile Alphafold 3, un nuovo sistema IA in grado di predire con un livello estremamente elevato di accuratezza non solo la struttura tridimensionale delle singole molecole proteiche ma anche le loro interazioni.

Alphafold 3 rappresenta un significativo passo in avanti rispetto ad Alphafold 2, il precedente sistema IA sviluppato da Google Deepmind che ha permesso di determinare la struttura tridimensionale di tutte le proteine note. La collaborazione tra Google Deepmind ed EMBL-EBI (l'Istituto Europeo di Bioinformatica, parte del Laboratorio Europeo di Biologia Molecolare) ha poi portato alla pubblicazione - nel 2021 - del AlphaFold Protein Structure Database , il database contenente la struttura di 200 milioni di proteine liberamente consultabile attraverso una comoda interfaccia web.

La capacità di predire con grande accuratezza le modalità di interazione tra molecole proteiche (incluso DNA, RNA, e ligandi) rende Alphafold 3 uno strumento di supporto alla ricerca medico-scientifica estremamente potente, particolarmente per quanto concerne lo sviluppo di nuovi farmaci. Alphafold 3 può essere utilizzato - con qualche limitazione - dai ricercatori di tutto il mondo attraverso il sito web AlphaFold Server . Isomorphic Labs sta, invece, collaborando con diverse aziende farmaceutiche per applicare questa nuova tecnologia in differenti ambiti di ricerca.

Il paper pubblicato su Nature relativo al funzionamento e alle performance di Alphafold 3
Apri link

Il paper pubblicato su Nature relativo al funzionamento e alle performance del precedente Alphafold 2
Apri link

News

Stanford ha pubblicato l'IA Index 2024

29 aprile 2024

Il laboratorio HAI (Human-Centered Artificial Intelligence) dell'Università di Stanford ha recentemente pubblicato l'edizione 2024 dell'AI Index, il report annuale che cerca di raccogliere, distillare e presentare i dati più importanti per comprendere l'evoluzione dell'Intelligenza Artificiale.

Il report è strutturato nei seguenti capitoli, ciascuno dedicato a un differente aspetto chiave dell'IA e del suo crescente impatto sulla società: Ricerca e sviluppo, Performance tecniche, IA responsabile, Economia, Scienza e medicina, Educazione, Politiche e gestione, Diversity, Opinione pubblica. Ogni capitolo è preceduto da una serie di take-home messages che riassumono in un formato molto efficace gli elementi più importanti trattati nel testo.

Il documento, frutto della collaborazione con studiosi di altre università, aziende e istituzione internazionali, è interamente in inglese ed è consultabile gratuitamente in versione online o scaricabile in formato PDF.

Visita il sito dell'IA Index 2024

I AM News

I dati sintetici possono migliorare i modelli per la classificazione automatica delle immagini diagnostiche

12 aprile 2024

I risultati pubblicati in un recente articolo di Nature (apri ) suggeriscono che l'utilizzo di dati sintetici, ovvero di dati prodotti da appositi sistemi di Intelligenza Artificiale generativa, nel processo di addestramento di sistemi IA per la classificazione automatica delle immagini diagnostiche può portare a un miglioramento dei risultati degli stessi.

In particolare, i modelli di IA generativi sono utilizzati per compensare la ridotta disponibilità o completa mancanza di immagini rappresentati patologie rare e/o relative a pazienti appartenenti a gruppi sottorappresentati nei dataset di immagini diagnostiche reali utilizzati per l'addestramento dei modelli IA di supporto alle diagnosi. Questo tipo di integrazione dei dataset migliora la robustezza dei modelli IA e garantisce una maggior equità di trattamento poiché migliora l'accuratezza delle diagnosi all'interno dei gruppi sottorappresentati.

Lo studio pubblicato su Nature ha focalizzato la propria attenzione su tre differenti 'domini' di immagini diagnostiche: (1) immagini istopatologiche, (2) radiografie toraciche e (3) immagine dermatologiche. In tutti i casi, gli autori hanno dimostrato che utilizzare immagini sintetiche prodotte da modelli IA generativi appositamente addestrati (attraverso enormi quantità di immagini reali) migliora i risultati dei sistemi IA rispetto all'addestramento solo con immagini reali.

Come osservato dagli stessi autori, la quantità e la qualità dei dati utilizzati nell'addestramento dei modelli IA in campo diagnostico rimane un elemento assolutamente centrale, ma la generazione di dati sintetici è uno strumento estremamente promettente per generalizzarne maggiormente il funzionamento.

Apri l'articolo di Nature citato

I AM News

Nvidia accelera gli investimenti e le collaborazioni per sviluppare applicazioni IA in Sanità

25 marzo 2024

NVIDIA - il colosso americano di microelettronica che progetta la maggioranza dei processori utilizzati per addestrare i più potenti sistemi di Intelligenza Artificiale - continua a collaborare con e investire in startup e aziende impegnate nell'applicazione dell'IA alla medicina e alla ricerca farmaceutica.

Risale a metà marzo 2024 l'annuncio della collaborazione tra Nvidia e Johnson & Johnson MedTech per lo studio di applicazioni dei sistemi di IA generativa alla chirurgia. In particolare, le due aziende esploreranno come utilizzare l'IA per analizzare in modo automatico - e su scala 'industriale' - le riprese video eseguite durante gli interventi chirurgici e come automatizzare la generazione della documentazione relativa agli interventi chirurgici. Tra le prime applicazioni attese: l'anonimizzazione automatica dei pazienti presenti nelle riprese video e l'ottimizzazione automatica della qualità per poter usare tali video a scopo formativo.

Maggiori dettagli sulla collaborazione si trovano qui:
Apri link

Sempre a metà marzo 2024, Nvidia ha reso disponibili su cloud 25 nuovi servizi IA per supportare aziende, medici e ricercatori in campo sanitario. Tra i servizi resi disponibili: MolMIM per la chimica generativa, ESMFol per la predizione delle strutture 3D delle proteine, DiffDock per studiare l'interazione tra le molecole dei farmaci e i loro target biologici.

Maggiori dettagli sui microservizi IA resi disponibili da Nvidia si trovano qui:
Apri link

I AM News

Non solo ChatGPT: i nuovi modelli di Google e Anthropic sono sempre più competitivi

12 marzo 2024

A febbraio Google ha reso disponibile al pubblico Gemini, il nuovo modello di Intelligenza Artificiale (IA) generativa progettato per competere con OpenAI ChatGPT. A inizio marzo Anthropic, startup creata da ex-ingegneri di OpenAI e Google, ha rilasciato Claude 3, ultima versione della propria IA generativa.

Le recensioni e i commenti disponibili sui siti specializzati suggeriscono che entrambi i sistemi IA presentino un netto miglioramento rispetto alla generazione precedente e si avvicinino, e in certi casi superino, le performance della versione più potente di ChatGPT (la 4). Interessante osservare come le tre aziende seguano un approccio commerciale sostanzialmente analogo: la versione più potente è a pagamento (il costo mensile in tutti e tre i casi si aggira sui 20€) , le versioni con funzionalità ridotte sono disponibili gratuitamente.

Le versioni gratuite dei 3 sistemi sono raggiungibili - previa registrazione - ai seguenti indirizzi:

OpenAI ChatGPT

Google Gemini

Anthropic Claude

Una differenza sostanziale tra i 3 chatbot rimane: ChatGPT è - al momento - l'unico modello veramente multimodale, ossia in grado di ricevere input e generare output in formati differenti (in particolare: testo, voce, immagini). Gemini è progettato per essere multimodale, ma la capacità di generare immagine è stata limitata per via di alcuni problemi emersi nelle scorse settimane ( approfondisci qui). Claude 3, nella sua versione corrente, è in grado di ricevere input sotto forma di immagini, ma non è in grado di generarne in output. In altre parole, Claude 3 è in grado di interpretare il contenuto di una immagine fornita dall'utente, ma non è in grado di creare una immagine sintetica a partire da una descrizione testuale.

A questo link alcune interessanti considerazioni su Claude 3 da parte di T.B. Lee (storico giornalista di tecnologia):
Apri link

I AM News

IA in Medicina: un delicato equilibrio tra opportunità e rischi

04 marzo 2024

I sistemi IA promettono di rivoluzionare numerosi aspetti dei Sistemi Sanitari, dalla ricerca farmacologica ai percorsi di diagnosi, dalla gestione delle cronicità alla chirurgia robotica

Il mondo delle assicurazioni sanitarie è stato tra i primi ad 'abbracciare' questa tecnologia rivoluzionaria, introducendo - soprattutto negli Stati Uniti - strumenti basati sull'IA nel processo di analisi e approvazione delle richieste di rimborso. Non tutte le parti coinvolte sembrano soddisfatte dei risultati di questa innovazione. Due differenti gruppi di pazienti hanno intentato causa contro due colossi delle assicurazioni sanitarie, Humana and United Health, sostenendo che questi sistemi automatici hanno ingiustamente negato la copertura economica delle spese sanitarie sostenute per l'assistenza e la riabilitazione successive ai trattamenti ospedalieri. Le decisioni del modello IA utilizzato da entrambe le aziende - chiamato nH Predict e basato sulla correlazione tra i dati dello specifico paziente/caso e un database storico di 6 milioni di pazienti/casi - hanno in più casi ribaltato le indicazioni dei medici curanti sulle effettive necessità assistenziali dei pazienti.

Come per tutti gli strumenti estremamente potenti e flessibili, l'introduzione dell'IA in un settore complesso e delicato come la Sanità presenta numerosi e significativi rischi, che devono essere opportunamente monitorati e gestiti per massimizzare i benefici di questa tecnologia per la società. Nel caso specifico, sembrano di particolare rilievo la totale opacità del processo decisionale seguito dal modello IA nH Predit e la possibile presenza di significativi bias nei dataset utilizzati dal modello stesso.

Per maggiori dettagli:

ARS TECHNICA: Humana also using AI tool with 90% error rate to deny care
Apri link

ARS TECHNICA: UnitedHealth uses AI model with 90% error rate to deny care
Apri link

I AM News

OCSE: come garantire un uso responsabile dell'IA in Sanità

16 febbraio 2024

Lo scorso 19 gennaio, l'OCSE (Organizzazione per la Cooperazione e lo Sviluppo Economico) ha pubblicato un documento intitolato "Collective action for responsible AI in health" - traducibile come "Azione collettiva per una Intelligenza Artificiale responsabile in Sanità". Il documento comprende una panoramica sulle applicazioni dell'IA in Sanità, analizzando le opportunità, i rischi e gli ostacoli associati all'introduzione di questa tecnologia potenzialmente rivoluzionaria. L'obiettivo del documento è indicare ai decisori politici quali aree necessitano di attenzione al fine di favorire la diffusione in Sanità di sistemi di Intelligenza Artificiale che siano adattabili, rispettino gli individui, supportino l'equità e migliorino la salute di tutti. Le aree identificate come più importanti sono relative allo sviluppo della fiducia nei sistemi IA da parte di operatori e cittadini, alla disponibilità delle necessarie risorse e opportune competenze, e alla collaborazione tra tutti i soggetti coinvolti.

La tabella qui in basso, tratta dall'articolo, riassume le principali barriere, rischi e possibile risultati associati all'introduzione dell'IA in Sanità.

Tabella

Il documento integrale è disponibile al link sottostante.

Apri link

I AM News

AMIE - un modello IA per aiutare medici e pazienti

09 febbraio 2024

Google Deepmind, il principale laboratorio di Intelligenza Artificiale del gigante americano della tecnologia, ha sviluppato un nuovo modello di Intelligenza Artificiale - chiamato AMIE (Articulate Medical Intelligence Explorer) - capace di conversare testualmente con i pazienti, acquisendo informazioni rilevanti, fornendo spiegazioni mediche e formulando ipotesi diagnostiche. Gli autori del nuovo modello sottolineano come AMIE non abbia l'obiettivo di sostituire il medico, ma possa risultare un utile strumento di supporto all'attività professionale, velocizzando alcuni processi e potenziandone altri.

I risultati delle prime sperimentazioni controllate sono incoraggianti. AMIE ha dimostrato di essere efficace nell'interazione con i pazienti e di generare diagnosi accurate (con frequenza comparabile ai professionisti umani). Future versioni di AMIE saranno in grado di gestire input e output in forma di audio, immagini e video (multimodalità).

L'articolo - in pre-print su arXiv - in cui sono stati presentati i risultati della sperimentazione:
Apri link

I AM News

La Casa Bianca ha emanato il primo Ordine Esecutivo per mitigare i rischi associati all'IA

28 novembre 2023

Il 30 Ottobre 2023, il Presidente degli Stati Uniti Joe Biden ha firmato un Ordine Esecutivo finalizzato a garantire lo sviluppo di sistemi di Intelligenza Artificiale (IA) sicuri e affidabili. I principali elementi di questo importante atto legislativo, finalizzato a ridurre i rischi associati alla diffusione di sistemi IA sempre più potenti senza però limitare le potenzialità di innovazione di questa tecnologia rivoluzionaria, sono i seguenti:

  • Dare mandato al NIST (National Institute of Science and Technology) di sviluppare linee guida e buone pratiche per lo sviluppo di sistemi IA sicuri e affidabili
  • Dare mandato al NIST di sviluppare procedure e regole per lo svolgimento di test per identificare problemi di sicurezza e difetti tecnici nei sistemi IA
  • Dare mandato al Dipartimento dell'Energia di sviluppare modelli di validazione e sistemi di test per i sistemi IA con potenziali applicazioni in campo nucleare, biologico, chimico ed energetico
  • Dare mandato al Dipartimento del Commercio di definire i requisiti relativi alla condivisione di informazioni critiche con gli enti governativi che le aziende che sviluppano sistemi IA fondativi (ovvero con ampissima gamma di applicazioni, come i Large Language Model e i sistemi per la visione artificiale) devono rispettare
  • Dare mandato al Dipartimento del Commercio di svolgere una consultazione pubblica al fine di identificare i principi benefici, rischi e altre implicazioni associati allo sviluppo di sistemi IA fondativi con potenziali applicazioni civili e militari
  • Dare mandato al Dipartimento del Commercio di definire le regole con cui i provider di servizi Cloud devono informare gli enti governativi nel caso soggetti stranieri utilizzino tali servizi Cloud per sviluppare sistemi IA
  • Richiedere alle agenzie federali di compiere una analisi dei rischi che i sistemi IA pongono alle infrastrutture critiche sotto le rispettive giurisdizioni. In particolare, il Dipartimento del Tesoro deve emettere linee guida per la mitigazione dei rischi dovuti ai sistemi IA per le istituzioni finanziarie.
  • Richiedere al Dipartimento per la Sicurezza Interna (Homeland Security) di valutare le applicazioni dell'IA per il miglioramento della sicurezza cibernetica
  • Dare mandato a varie entità, inclusi il Dipartimento per la Sicurezza Interna, il Dipartimento della Difesa il Dipartimento dell'Energia, di studiare le implicazioni dei sistemi IA relativamente alle minacce chimiche, biologiche, radiologiche e nucleari (CBRN).

In aggiunta, l'Ordine Esecutivo fornisce indicazioni a tutta l'amministrazione federale affinchè vengano definite e applicate linee guida relativamente all'acquisto e all'uso di sistemi IA, inclusa la creazione di opportune strutture organizzative interne e l'acquisizione di personale dotato di adeguate competenze.

Infine, l'Ordine Esecutivo impegna l'amministrazione federale ad aumentare la competitività del sistema paese per quanto concerne lo sviluppo e l'applicazione dei sistemi IA: (1) dando mandato al Dipartimento per la Sicurezza Interna di identificare azioni per facilitare l'arrivo negli US di persone dotate di competenze tecniche rilevanti, (2) richiedendo alla National Science Foundation (NSF) e ad altre agenzie federali di avviare iniziative finalizzate a velocizzare la ricerca e lo sviluppo nel campo dell'IA, anche attraverso la creazione di nuove partnership pubblico-privato.

Maggiori dettagli relativamente all'Ordine Esecutivo possono essere trovati su questa pagina del sito della Casa Bianca:
Apri link

I AM Fact

I sistemi IA consumano enormi quantità di energia con serie implicazioni per la sostenibilità

21 novembre 2023

I più potenti sistemi IA - come ChatGPT o Bard - sono basati sul machine learning. Questo vuol dire che il loro sviluppo avviene tramite l'elaborazione di enormi quantità di dati per prolungati periodi di tempo (numerose settimane) attraverso giganteschi supercomputer, costituiti da migliaia o decine di migliaia di processori che lavorano in parallelo. Il consumo di energia associato allo sviluppo dei modelli IA più complessi è stato stimato nell'ordine delle centinaia di MWh (circa 1300 MWh nel caso di ChatGPT 3). Come riferimento, 1 MWh è approssimativamente la quantità di energia necessaria per alimentare una macchina elettrica per 6000 km.

Una volta sviluppati, questi sistemi vengono utilizzati per rispondere alle richieste degli utenti. Ogni risposta generata da uno di questi sistemi, tecnicamente chiamata 'inferenza', richiede una quantità di energia significativamente inferiore rispetto alla fase di addestramento. Il problema è rappresentato dall'enorme quantità di richieste che sistemi come ChatGPT ricevono quotidianamente. Secondo alcune ricerche, ChatGPT consuma 564 MWh al giorno.

A prescindere dai numeri specifici, la questione centrale è che l'utilizzo dei sistemi IA è la causa principale del loro consumo di energia e non la fase di sviluppo. Questo vuol dire che con il diffondersi di tali sistemi, i loro consumi rischiano di crescere enormemente. Una ricerca ha stimato che se Google applicasse l'IA a tutte le ricerche fatte dagli utenti (Google gestisce una media di 9 miliardi di ricerche al giorno) consumerebbe 22.8 TWh di energia all'anno. Come riferimenti, l'Italia ha consuma circa 300 TWh nel 2021, l'Irlanda 33 TWh (data EIA).

Per ulteriori dettagli sull'hardware necessario per lo sviluppo e l'utilizzo dei sistemi IA (in particolare gli LLM) e i consumi di energia associati, è possibile consultare l'articolo originale a questo link su Joule (rivista associata a Cell).

Apri link

I AM News

L'OMS ha pubblicato una raccolta di considerazioni su come regolamentare l'uso dell'IA in Sanità

13 novembre 2023

Grazie alla crescente disponibilità di dati sanitari e al costante e rapidissimo progresso delle tecniche di elaborazione degli stessi - come il machine learning - l'IA sta iniziando a trasformare i Sistemi Sanitari. L'OMS riconosce l'enorme miglioramento che l'IA può apportare in vari campi, quali: sperimentazione clinica, diagnosi e trattamento, cure personalizzate, integrazione delle competenze e conoscenze del personale sanitario. L'applicazione dell'IA in campo sanitario presenta, però, enormi rischi, quali: raccolta ed elaborazione dei dati personali non etica, problemi di cybersecurity, amplificazione delle discriminazioni ed esplosione della disinformazione.p

Regolamentare correttamente l'utilizzo dei sistemi IA in campo sanitario è fondamentale per massimizzare i benefici per il più ampio numero di soggetti, minimizzando al contempo gli impatti negativi per gli individui e la società.

La pubblicazione dell'OMS presenta sei aree particolarmente critiche per la corretta regolamentazione dell'IA in Medicina: trasparenza e documentazione in tutte le fasi di vita di un prodotto; gestione metodica del rischio; validazione dei dati da parte di terze parti; impegno per la qualità dei dati, al fine di prevenire bias e discriminazioni; rispetto dei requisiti normativi per la privacy e sicurezza dei dati; collaborazione sistematico tra tutte le parti coinvolte (industria, enti regolatori, professionisti, pazienti).

Il testo completo (in inglese) è disponibile al link sottostante.

Apri link

I AM News

Un nuovo sistema IA caratterizza i tumori cerebrali durante l'intervento chirurgico

12 ottobre 2023

Un gruppo di scienziati olandesi ha sviluppato un sistema di intelligenza artificiale per assistere i chirurghi nel corso degli interventi di asportazione di tumori cerebrali. Il sistema IA analizza segmenti del DNA dei campioni del tumore e - individuando specifiche mutazioni - riesce a determinare il tipo e il sottotipo del tumore cerebrale. La capacità di caratterizzare il tumore nel corso delle fasi iniziali dell'operazione può aiutare i chirurghi a decidere il grado di aggressività dell'intervento. In futuro, il metodo potrebbe anche indirizzare i medici verso trattamenti mirati per specifici sottotipi di tumore.

Il sistema IA - di tipo deep-learning - è stato battezzato Sturgeon. Sturgeon è stato inizialmente testato su 50 campioni di tumore cerebrale congelati, fornendo la diagnosi corretta in 45 casi e astenendosi da conclusioni per mancanza di informazioni nei rimanenti 5. Successivamente, Sturgeon è stato testato in 25 operazioni cerebrali dal vivo, in parallelo al metodo standard di analisi dei campioni di tessuto tramite microscopio. Il sistema IA ha fornito 18 diagnosi corrette e non ha raggiunto la soglia di sicurezza necessaria nei restanti 7 casi.

A differenza dei metodi 'tradizionali' di caratterizzazione dei campioni di tumore basati su sequenziamento genetico, che possono richiedere anche settimane, Sturgeon sfrutta tecniche di sequenziamento più rapide e le applica solo a piccole porzioni del genoma. In questo modo è possibile ottenere una diagnosi in meno di 90 minuti, in grado quindi di supportare le decisioni del neurochirurgo.

II sistema IA ha ancora dei limiti, ad esempio può avere difficoltà a individuare abbastanza marcatori specifici del tumore nel caso il campione includa percentuali significative di tessuto cerebrale sano.

L'articolo completo è disponibile su Nature al link sottostante.

Apri link

I AM Fact

AlphaFold, un sistema di IA sviluppato da Google DeepMind, ha predetto la struttura tridimensionale di quasi tutte le proteine note

04 ottobre 2023

AlphaFold - addestrato utilizzando i dati sulle strutture 3D delle proteine ottenuti sperimentalmente - ha generato un database, disponibile pubblicamente, contenente le strutture 3D di 200+ milioni di proteine.

Google DeepMind, laboratorio di ricerca sull’IA che ha sviluppato anche AlphaGo - il sistemi di IA che ha battuto il campione mondiale di Go, ha utilizzato i dati sulle strutture 3D di 180.000 proteine ottenuto dalla comunità scientifica in anni di analisi sperimentale per addestrare il proprio sistema di intelligenza artificiale AlphaFold.

Il risultato di questa ricerca è stata la pubblicazione, in collaborazione con EMBL-EMI, dell’AlphaFold Protein Structure Database. Questo database contiene la predizione accurata della struttura 3D di tutte le proteine contenute in Uniprot (il più ampio database internazionale delle sequenze proteiche degli organismi viventi). Il database è disponibile pubblicamente e consultabile gratuitamente. Esso fornisce anche la possibilità di scaricare l’intero proteoma umano e di altri 47 organismi particolarmente rilevanti per la ricerca.

L’articolo di Nature (pubblicato nel 2021) che riporta i principali risultati del progetto di ricerca è consultabile al link sottostante.

Apri link

I AM News

ChatGPT, il sistema di IA generativa sviluppato da OpenAI, ora può vedere, ascoltare e parlare

02 ottobre 2023

L’integrazione delle capacità di riconoscimento e sintesi del parlato e delle immagini promette di rivoluzionare il modo in cui interagiamo con i sistemi IA.

OpenAI - l’azienda americana che guida la rivoluzione dei Large Language Model (LLM), ossia i sistemi di Intelligenza Artificiale generativa in grado di interpretare il linguaggio umano e di rispondere in modo articolato e (molto spesso) rilevante alle richieste degli utenti - ha reso disponibili una nuova versione di ChatGPT che è in grado di interagire con l’utente attraverso il parlato e le immagini. In altre parole, la nuova versione del software è in grado di: (1) conversare con l’utente, ascoltando le richieste vocali e rispondendo a tono, (2) interpretare foto e immagini fornite dall’utente.

Queste due innovazioni alterano radicalmente la modalità di interazione tra ChatGPT e gli utenti, aprendo la strada a nuove forme di collaborazione uomo-macchina. Un possibile scenario d’uso futuro è il seguente: l’utente utilizza il proprio smartphone per fare la foto di un dispositivo elettronico che non conosce e poi la invia a ChatGPT chiedendo informazioni sul suo funzionamento, ChatGPT fornisce le informazioni richieste nella lingua dell’utente e genera immagini con indicazioni specifiche, frecce e quant’altro per chiarire eventuali dubbi.

Il comunicato ufficiale di OpenAI è disponibile al link sottostante.

Apri link

I AM News

Alcuni sistemi IA diffondono informazioni medico-scientifiche errate, basate su stereotipi e preconcetti razzisti

30 ottobre 2023

Gli autori di un articolo recentemente pubblicato su npj Digital Medicine hanno analizzato le risposte fornite da quattro Large Language Models (LLM) - la tecnologia alla base di ChatGPT e degli altri sistemi IA in grado di generare risposte rilevanti e articolate alle richieste scritte degli utenti - a nove domande finalizzate a identificare la tendenza di questi modelli a fornire informazioni in campo medico-scientifico basate su distinzioni razziali errate e dannose. Gli autori dell'articolo hanno sottoposto ciascuna domanda per cinque volte a ciascun LLM, generando 45 risposte per modello. Tutti i modelli hanno inserito informazioni scientifiche errate - basate su stereotipi e preconcetti razzisti - nelle risposte fornite. L'uso degli LLM in Medicina è in continua crescita, il risultato di questo studio - e di altri analoghi - dimostra l'importanza di un approccio critico e controllato all'adozione dei sistemi IA in ambiti critici.

L'articolo completo è disponibile su Nature al link sottostante.

Apri link

Iscriviti alla Newsletter I AM

Iscriviti alla newsletter trimestrale del progetto I AM per ricevere news e aggiornamenti sulle iniziative del progetto