116 fondatori di aziende di robotica e intelligenza artificiale chiedono all’ONU di bloccare la corsa agli armamenti autonomi. La cosa si fa decisamente seria
“Le armi letali autonome minacciano di essere la terza rivoluzione in campo militare. Una volta sviluppate, permetteranno ai conflitti armati di essere combattuti su una scala più grande che mai, e su scale temporali più veloci di quanto gli umani possano comprendere: sono armi che despoti e terroristi potrebbero rivolgere contro popoli innocenti, oltre che armi che gli hacker potrebbero riprogrammare per comportarsi in modi indesiderabili. Non abbiamo molto tempo per agire: una volta aperto il vaso di Pandora, sarà difficile richiuderlo”.
Questo si legge, tra le altre cose, nella lettera che 116 fondatori di aziende di robotica e intelligenza artificiale tra cui Elon Musk e Mustafa Suleyman, fondatore di DeepMind (Google), scrivono all’ONU. Parlano di vaso di Pandora che una volta aperto non potrà più essere chiuso. E se cervelli come questi e del notissimo fisico britannico Stephen Hawking si espongono per una cosa simile, penso che sia da prenderli seriamente.
2 sono le brevi riflessioni che vorrei fare:
1: la lettera di Einstein a Roosevelt
La prima è che questa lettera ricorda tantissimo quella di Einstein a Roosevelt, ma al contrario.
Quella di Albert avvisava il presidente americano che la Germania nazista avrebbe potuto condurre ricerche sulla possibilità di usare la fissione nucleare per creare bombe atomiche, e suggeriva che gli Stati Uniti avrebbero dovuto iniziare ricerche in tal senso.
In questa di Musk e soci si dice il contrario, ovvero che le tecnologie sviluppate potrebbero prendere il sopravvento, sfuggirci di mano ed essere addirittura usate da hacker e da terroristi. Un incredibile cambio di paradigma che ci evidenzia quanto il mondo sia cambiato.
2: eliminazione del contraccolpo psicologico della guerra
La seconda riflessione deriva da una parte stessa della lettera: con le armi automatiche c’è un incentivo all’azione militare perché si elimina il contraccolpo psicologico della guerra. Se si usano i robot autonomi per le operazioni militari, il danno psicologico della guerra diventa un mero danno economico: la distruzione di un robot non è nulla di più che una perdita in un bilancio. Se si trattasse soltanto di robot contro robot, un conflitto sarebbe un’attività poco efficace, visto che è più semplice implementare delle sanzioni piuttosto che sprecare milioni di dollari in un “match” tra macchine intelligenti. Purtroppo è più probabile che i robot killer vengano utilizzati per attaccare esseri umani.
Insomma, i Governi che hanno la possibilità di utilizzare e di creare armi del tutto automatizzate stanno andando incontro, secondo i firmatari, a una serie deplorevole e rischiosa di eventualità:
- La perdita del contraccolpo psicologico della guerra, rendendo la stessa una prassi di bilanci
- Il rischio che i sistemi vengano hackerati e girati contro i creatori (fa molto Terminator)
- Il rischio che le macchine, che “ragionano” su piani e a velocità diverse dagli uomini, prendano decisioni insondabili e a loro modo insindacabili. Il rischio che le macchine divengano autonome e imperscrutabili (molto Asimov misto Terminator)
Siamo pieni di problemi: i terremoti, il terrorismo internazionale, auto lanciate contro la folla, la recessione, la globalizzazione impazzita, l’immigrazione (o emigrazione, dipende dai punti di vista) fuori controllo e ci mancava pure questa delle macchine intelligenti.
Lo so che alcuni di voi penseranno che ci sono altri problemi prioritari ma io penso di no, penso che tutti i problemi lo siano e che se i problemi non vengono “presi in tempo” diventano, appunto, dei vasi di Pandora dai quali non si torna indietro.
L’opinione pubblica esiste e fa pressioni per questo, per cercare di arginare problemi in divenire.