Le scelte etiche e l’empatia sono ciò che per ora ci dividono dalle macchine, ma possiamo davvero sostenere che le macchine non siano in grado di fare scelte etiche?
Un esempio noto a tutti come quello delle macchine senza guidatore può essere l’occasione perfetta per riflettere sulle scelte che potenzialmente potrebbe fare una macchina. Soprattutto pensiamo:
noi in base a che cosa scegliamo? Cosa ci permette di fare una valutazione piuttosto che un’altra? Possiamo insegnare tutto questo alle macchine?
Di seguito, prima del video, la sbobinatura di quello che dirò nel video stesso, in modo che possiate leggere i sottotitoli oppure, se preferite, seguire direttamente dal post quello che dico nel video. Ci saranno delle imprecisioni “linguistiche”, ma se qualcuno riesce a fare dei video di 5 minuti senza copione, errori e tagli… beh mi dica come si fa :)
Le scelte etiche e l’empatia sono le due cose che ancora ci dividono, ci differenziano meglio dall’intelligenza artificiale. Ma come la mettiamo se un’intelligenza artificiale è in grado di prendere delle scelte etiche?
Cercate di capire quello di cui vi sto parlando, vi faccio un esempio: qualcuno di voi forse conoscerà il videogame Detroit: Become Human, secondo me un capolavoro assoluto. In pratica, si tratta, non faccio spoiler, di un videogioco in cui tu, bellissimo da vedere, in cui tu hai in gestione degli androidi che in qualche modo prendono coscienza.
Ora non voglio entrare nel discorso del gioco perché non mi sembra il caso, ma è ovvio che se un androide prende coscienza, si spalanca un universo etico completamente nuovo per noi. Perfetto. Durante questo gioco tu puoi muoverti nell’ambiente e trovare dei giornali del futuro, perché il gioco è ambientato nel futuro, e ho trovato due articoli che vi mostro durante questo video, due articoli in cui, nel gioco, si parla delle automobili che si guidano da sole e questi articoli dicono una cosa molto semplice. Dicono che le automobili che si trovano in una difficoltà oggettiva di scelta, ovvero qualcuno sta attraversando la strada fuori dalle strisce ma non esiste lo spazio fisico per poter frenare, un’auto che si guida da sola non può scomparire. Quindi l’automobile sa che non può frenare in tempo e può scegliere se andare a destra o a sinistra per scansare dei pedoni per esempio, ma sa che comunque qualcuno lo investirà, come fa a scegliere in che direzione andare?
Un uomo farebbe esattamente così spaventato e andrebbe a caso. Una macchina invece è in grado, sempre secondo questo articolo, ma siamo già a questi livelli, è in grado di individuare e analizzare le caratteristiche di ogni persona che ha davanti in pochi millisecondi attraverso che so, un catasto pubblico accessibile a tutti, e vedere per esempio se qualcuno è un buon samaritano, un prete che aiuta migliaia di persone e che ha 26 anni e uno che invece è un avanzo di galera uscito dopo tre omicidi per un periodo premio dopo trent’anni di prigione. Quindi la macchina dice “il buon samaritano che continua a salvare delle vite e l’avanzo di galera -sto esagerando- il buon samaritano ha maggiori possibilità di continuare ad aiutare altre persone, quindi devo salvare lui” e quindi investe l’avanzo di galera, è giusto o sbagliato?
Sempre in questo gioco, sempre nell’articolo, c’è un tizio che si finge un difensore del libero arbitrio e dice che le macchine non hanno il diritto di scegliere per noi, perché sono macchine e in quanto tali non hanno il diritto di scegliere e c’è un altro scienziato che risponde “si ma noi come scegliamo? In base a cosa scegliamo?”.
Quando noi facciamo delle scelte oggettive, le facciamo, quando scegliamo, non quando andiamo a caso, le facciamo in base all’informazione che abbiamo. Quindi tutte le nostre scelte sono dettate dalle nostre informazioni. Ora, se ammettiamo che una macchina possa avere una quantità di informazioni migliaia, milioni di volte superiore alle nostre come quantità e come capacità di elaborazione, perché non potrebbe scegliere?
Se ci pensate, è solo questione di individuare quali possono essere le scelte etiche più corrette, non il fatto che possano o non possano scegliere. Quindi questo qui è il grande tema del prossimo futuro, le macchine ad oggi sono già in grado di scegliere molto meglio di noi, il punto è, quali regole daremo loro per scegliere? Chi è che sarà considerato un buon sammaritano? Quello che aiuta molte persone o quello che è milionario e dà da lavorare a molte persone?
Complicato.
Rock & roll.
[mc4wp_form id=”19714″] Oppure seguimi sul canale Telegram da qui: se lo preferisci alla newsletter :)
Sono un docente, divulgatore, scrittore e TEDx speaker: insegno a persone ed aziende a non avere paura del digitale e a viverlo come un’opportunità, sia personale che di business.
Ho scritto 4 libri su tecnologia e digital: Web 3.0, Digital Carisma, Condivide et Impera e l’ultimo CREA contenuti efficaci.Per sapere chi è Rudy Bandiera, informazioni e contatti vai alla pagina info