banner
Centro notizie
Vasta competenza nella vendita e nella produzione

Perché l'intelligenza artificiale deve comprendere le conseguenze

Sep 13, 2023

Neil Savage è uno scrittore freelance a Lowell, Massachusetts.

Puoi anche cercare questo autore in PubMed Google Scholar

Credito: Neil Webb

Hai pieno accesso a questo articolo tramite il tuo istituto.

Quando Rohit Bhattacharya iniziò il suo dottorato di ricerca in informatica, il suo obiettivo era quello di costruire uno strumento che potesse aiutare i medici a identificare le persone malate di cancro che avrebbero risposto bene all’immunoterapia. Questa forma di trattamento aiuta il sistema immunitario del corpo a combattere i tumori e funziona meglio contro le escrescenze maligne che producono proteine ​​a cui le cellule immunitarie possono legarsi. L'idea di Bhattacharya era quella di creare reti neurali in grado di profilare la genetica sia del tumore che del sistema immunitario di una persona, e quindi prevedere quali persone avrebbero potuto trarre beneficio dal trattamento.

Ma ha scoperto che i suoi algoritmi non erano all’altezza del compito. Poteva identificare modelli di geni correlati alla risposta immunitaria, ma ciò non era sufficiente1. "Non potrei dire che questo specifico modello di legame, o questa specifica espressione di geni, sia un determinante causale nella risposta del paziente all'immunoterapia", spiega.

Parte di Nature Outlook: Robotica e intelligenza artificiale

Bhattacharya è stato ostacolato dal vecchio detto secondo cui la correlazione non equivale alla causalità, un ostacolo fondamentale nell’intelligenza artificiale (AI). I computer possono essere addestrati a individuare schemi nei dati, anche schemi così sottili che gli esseri umani potrebbero non notarli. E i computer possono utilizzare questi modelli per fare previsioni, ad esempio che un punto su una radiografia polmonare indichi un tumore2. Ma quando si tratta di causa ed effetto, le macchine sono generalmente in perdita. Mancano di una comprensione basata sul buon senso di come funziona il mondo che le persone hanno semplicemente vivendoci dentro. I programmi di intelligenza artificiale addestrati a individuare le malattie in una radiografia polmonare, ad esempio, a volte sono andati fuori strada concentrandosi sui segni utilizzati per etichettare il lato destro dell’immagine3. È ovvio, almeno per una persona, che non esiste alcuna relazione causale tra lo stile e la posizione della lettera "R" su una radiografia e i segni di una malattia polmonare. Ma senza questa comprensione, qualsiasi differenza nel modo in cui tali segni vengono disegnati o posizionati potrebbe essere sufficiente a indirizzare una macchina sulla strada sbagliata.

Affinché i computer possano eseguire qualsiasi tipo di processo decisionale, avranno bisogno di una comprensione della causalità, afferma Murat Kocaoglu, ingegnere elettrico presso la Purdue University di West Lafayette, Indiana. "Tutto ciò che va oltre la previsione richiede una sorta di comprensione causale", afferma. "Se vuoi pianificare qualcosa, se vuoi trovare la politica migliore, hai bisogno di una sorta di modulo di ragionamento causale."

Incorporare modelli di causa ed effetto negli algoritmi di apprendimento automatico potrebbe anche aiutare le macchine mobili autonome a prendere decisioni su come navigare nel mondo. "Se sei un robot, vuoi sapere cosa succederà quando fai un passo qui con questo o quell'angolo, o se spingi un oggetto", dice Kocaoglu.

Nel caso di Bhattacharya, era possibile che alcuni dei geni evidenziati dal sistema fossero responsabili di una migliore risposta al trattamento. Ma la mancanza di comprensione della causalità significava che era anche possibile che il trattamento stesse influenzando l’espressione genetica – o che un altro fattore nascosto stesse influenzando entrambi. La potenziale soluzione a questo problema risiede in qualcosa noto come inferenza causale, un modo formale e matematico per accertare se una variabile ne influenza un’altra.

L'informatico Rohit Bhattacharya (sul retro) e il suo team del Williams College di Williamstown, Massachusetts, discutono dell'adattamento dell'apprendimento automatico per l'inferenza causale.Credito: Mark Hopkins

L’inferenza causale è stata a lungo utilizzata da economisti ed epidemiologi per testare le loro idee sulla causalità. Il premio Nobel per le scienze economiche 2021 è andato a tre ricercatori che hanno utilizzato l’inferenza causale per porre domande come se un salario minimo più elevato porti a una riduzione dell’occupazione o quale effetto abbia un anno in più di istruzione sul reddito futuro. Ora, Bhattacharya fa parte di un numero crescente di scienziati informatici che stanno lavorando per fondere la causalità con l’intelligenza artificiale per dare alle macchine la capacità di affrontare tali questioni, aiutandole a prendere decisioni migliori, apprendere in modo più efficiente e adattarsi al cambiamento.