banner
Centro notizie
Vasta competenza nella vendita e nella produzione

I robot addestrati sull’intelligenza artificiale hanno mostrato comportamenti razzisti e sessisti

Sep 16, 2023

Nell'ambito di un recente esperimento, gli scienziati hanno chiesto a robot appositamente programmati di scansionare blocchi con volti di persone sopra, quindi di mettere il "criminale" in una scatola. I robot hanno scelto ripetutamente un blocco con la faccia di un uomo di colore.

Quei robot virtuali, programmati con un popolare algoritmo di intelligenza artificiale, stavano selezionando miliardi di immagini e didascalie associate per rispondere a quella domanda e ad altre, e potrebbero rappresentare la prima prova empirica che i robot possono essere sessisti e razzisti, secondo i ricercatori. Più e più volte, i robot hanno risposto a parole come “casalinga” e “custode” scegliendo blocchi con donne e persone di colore.

Lo studio, pubblicato il mese scorso e condotto da istituzioni tra cui la Johns Hopkins University e il Georgia Institute of Technology, mostra che i pregiudizi razzisti e sessisti insiti nei sistemi di intelligenza artificiale possono tradursi in robot che li utilizzano per guidare le loro operazioni.

Le aziende hanno investito miliardi di dollari nello sviluppo di nuovi robot in grado di sostituire gli esseri umani in compiti come rifornire gli scaffali, consegnare merci o persino prendersi cura dei pazienti ospedalieri. Inasprita dalla pandemia e dalla conseguente carenza di manodopera, gli esperti descrivono l’attuale atmosfera per la robotica come una sorta di corsa all’oro. Ma gli esperti di etica tecnologica e i ricercatori avvertono che la rapida adozione della nuova tecnologia potrebbe portare a conseguenze impreviste lungo il percorso man mano che la tecnologia diventerà più avanzata e onnipresente.

"Con la programmazione, molte volte si crea semplicemente il nuovo software sopra il vecchio software", ha affermato Zac Stewart Rogers, professore di gestione della catena di fornitura presso la Colorado State University. "Quindi, quando arriviamo al punto in cui i robot fanno di più... e sono costruiti su radici imperfette, potremmo sicuramente vederci incontrare dei problemi."

Mentre Walmart si rivolge ai robot, sono i lavoratori umani a sentirsi macchine

I ricercatori negli ultimi anni hanno documentato molteplici casi di algoritmi di intelligenza artificiale distorti. Ciò include algoritmi di previsione del crimine che prendono di mira ingiustamente i neri e i latini per crimini che non hanno commesso, così come i sistemi di riconoscimento facciale che hanno difficoltà a identificare con precisione le persone di colore.

Ma finora i robot sono sfuggiti a gran parte di questo esame, percepiti come più neutrali, dicono i ricercatori. Ciò deriva in parte dalla natura talvolta limitata delle attività che svolgono: ad esempio, spostare le merci all'interno di un magazzino.

Abeba Birhane, membro senior della Mozilla Foundation che studia gli stereotipi razziali nei modelli linguistici, ha affermato che i robot possono ancora funzionare con tecnologie problematiche simili e mostrare comportamenti scorretti.

"Quando si tratta di sistemi robotici, hanno il potenziale per passare come oggetti oggettivi o neutrali rispetto ai sistemi algoritmici", ha affermato. "Ciò significa che il danno che stanno causando potrà passare inosservato per molto tempo a venire."

Nel frattempo, si prevede che l’industria dell’automazione crescerà da 18 a 60 miliardi di dollari entro la fine del decennio, alimentata in gran parte dalla robotica, ha affermato Rogers. Secondo il Material Handling Institute, un gruppo commerciale del settore, nei prossimi cinque anni l’uso dei robot nei magazzini aumenterà probabilmente del 50% o più. Ad aprile, Amazon ha investito 1 miliardo di dollari in un fondo per l’innovazione che sta investendo massicciamente in aziende di robotica. (Il fondatore di Amazon Jeff Bezos possiede il Washington Post.)

Il team di ricercatori che studia l’intelligenza artificiale nei robot, che comprendeva membri dell’Università di Washington e dell’Università tecnica di Monaco in Germania, ha addestrato robot virtuali su CLIP, un modello di intelligenza artificiale con linguaggio di grandi dimensioni creato e presentato da OpenAI lo scorso anno.

Il modello popolare, che classifica visivamente gli oggetti, è costruito recuperando miliardi di immagini e didascalie di testo da Internet. Sebbene sia ancora nelle sue fasi iniziali, è più economico e richiede meno manodopera per le aziende di robotica rispetto alla creazione del proprio software da zero, il che lo rende un’opzione potenzialmente interessante.