loader
menu
© 2024 Eddyburg
Giuliano Aluffi
Appello all'Onu: "Fermate i soldati-robot, sono un pericolo per l'umanità"
21 Agosto 2017
Capitalismo oggi
Non aprite il vaso di Pandora! Quando il progresso della tecnologia ha come motore la ricerca di profitto e di potere il rischio che corre l'umanità è la sua estinzione. L'accorata denuncia di una nuova catastrofe.

R.it scienze, online, 21 agosto 2017

Elon Musk (Tesla) e altri 116 fondatori di aziende di robotica e intelligenza artificiale chiedono di bloccare la corsa agli armamenti autonomi. Si rischiano conflitti destabilizzati da queste tecnologie

"Fermate i soldati-robot" è l'appello che 116 fondatori di aziende di robotica e intelligenza artificiale - tra cui Elon Musk, da sempre sensibile a questo tema e Mustafa Suleyman, fondatore di DeepMind (Google) - lanciano all'Onu da Melbourne, dove sono riuniti nella International Joint Conference on Artificial Intelligence (IJCAI).

La lettera è l'accorata reazione dell'industria dell'intelligenza artificiale alla notizia che il primo meeting del gruppo di esperti governativi (Gge) sui sistemi di armi letali autonome, che avrebbe dovuto aver luogo ieri, è stato rimandato a data da desinarsi. "Invitiamo i partecipanti ai lavori del GGE a sforzarsi di trovare modi per prevenire una corsa agli armamenti autonomi, per proteggere i civili dagli abusi e per evitare gli effetti destabilizzanti di queste tecnologie" recita la lettera aperta.
"Le armi letali autonome minacciano di essere la terza rivoluzione in campo militare. Una volta sviluppate, permetteranno ai conflitti armati di essere combattuti su una scala più grande che mai, e su scale temporali più veloci di quanto gli umani possano comprendere: sono armi che despoti e terroristi potrebbero rivolgere contro popoli innocenti, oltre che armi che gli hacker potrebbero riprogrammare per comportarsi in modi indesiderabili. Non abbiamo molto tempo per agire: una volta aperto il vaso di Pandora, sarà difficile richiuderlo"
Cosa cambia di più quando ad essere impiegati nei conflitti sono macchine in grado di prendere in autonomia decisioni letali quando hanno un nemico umano nel mirino? Innanzitutto c'è un incentivo all'azione militare perché si elimina il contraccolpo psicologico della guerra: "Se si usano i robot autonomi per le operazioni militari, il danno psicologico della guerra - pensiamo all'impatto sull'opinione pubblica della morte di un soldato - diventa un mero danno economico: la distruzione di un robot non è nulla di più che una perdita in un bilancio" spiega a Repubblica.it uno dei primi firmatari dell'appello: Alberto Rizzoli, fondatore di AIPoly, startup che ha lanciato un'app che grazie all'intelligenza artificiale permette ai ciechi di fruire di descrizioni audio di ciò che il loro smartphone inquadra. "Se si trattasse soltanto di robot contro robot, un conflitto sarebbe un'attività poco efficace, visto che è più semplice implementare delle sanzioni piuttosto che sprecare milioni di dollari in un "match" tra macchine intelligenti. Purtroppo è più probabile che i robot killer vengano utilizzati per attaccare esseri umani".

Un elemento di rischio in più è la sostanziale imprevedibilità delle decisioni prese da un'intelligenza artificiale sufficientemente sofisticata: "L'autonomia ha subito un importante cambiamento dal 2012: siamo passati da sistemi prevedibili e programmati manualmente all'uso di reti neurali. Ovvero una vasta serie di neuroni artificiali organizzati in matrici che possono essere addestrati a ripetere, comprendere e prevedere dati numerici in un modo ispirato alla corteccia visiva animale" spiega Alberto Rizzoli.

"Il problema è che le reti neurali sono probabilistiche di natura: un po' come la mente umana, una volta addestrate non possono essere analizzate in dettaglio per capire esattamente perché hanno preso una decisione - magari letale - invece di un'altra. Il cervello di questi robot è una "scatola nera" che compie decisioni, a volte anche sbagliate, che ancora non riusciamo ad analizzare bene. Se un drone autonomo è dotato di armi, bisogna essere certi che non colpisca civili e innocenti, e bisogna che qualcuno sia legalmente responsabile per il suo operato: non si può dar la colpa a un algoritmo". Siccome tutta questa possibilità di controllo appare ancora difficile da ottenere, la strada più praticabile è quella del bando e delle sanzioni per i Paesi trasgressori.

"Per fortuna siamo riusciti ad evitare la diffusione di armi chimiche e nucleari in maniera efficace negli ultimi 70 anni, con qualche eccezione seguita da pesanti sanzioni" osserva Rizzoli. "Forse con un trattato potremmo ottenere lo stesso auspicabile risultato con le armi autonome. Il rischio è comunque alto: il prezzo dei sistemi autonomi scenderà negli anni, e costruire un robot killer nel 2035, ad esempio, sarà come costruire un mortaio improvvisato ad Aleppo nel 2015. L'unica vera soluzione è quella di rendere la guerra obsoleta, cosa che comunque sta succedendo col tempo, dove ogni guerra regala sempre di meno ai vincitori perché il valore economico dei Paesi si è trasferito dalle risorse fisiche (ovvero quelle conquistabili) alle risorse mentali e operative dei loro abitanti".
ARTICOLI CORRELATI
12 Luglio 2019

© 2024 Eddyburg