Siamo arrivati al punto in cui servono regole etiche e morali per programmare l’intelligenza artificiale e non lo dico io ma l’Unione europea. Quali sono queste regole? Etica e intelligenza artificiale non sono più così distanti anzi, ormai ci interfacciamo sempre più con macchine, bot, tutte intelligenze artificiali a cui insegniamo e che sono programmate per fare scelte.
Possiamo insegnare ad un’intelligenza artificiale in modo che sia sempre migliore per noi, quindi se una macchina impara, se è in grado di fare delle scelte su quello che ha imparato, non possiamo dire che pensa?
Queste scelte che esercita devono certamente essere regolamentate, ma come?
Di seguito, prima del video, la sbobinatura di quello che dirò nel video stesso, in modo che possiate leggere i sottotitoli oppure, se preferite, seguire direttamente dal post quello che dico nel video. Ci saranno delle imprecisioni “linguistiche”, ma se qualcuno riesce a fare dei video di 5 minuti senza copione, errori e tagli… beh mi dica come si fa :)
Ogni volta che dico che l’intelligenza artificiale dovrebbe essere regolamentata eticamente, arriva qualche fenomeno che mi dice “l’intelligenza artificiale non esiste” ovvero una macchina non può pensare.
Bene, se diamo per assodato il fatto che una macchina non può pensare, dobbiamo anche dare assodato il fatto che comunque una macchina può imparare ok? E attraverso machine learning e attività di questo tipo è in grado una macchina, attraverso delle informazioni, di imparare e quindi a compiere delle azioni, queste azioni qui comportano delle scelte. Quindi se una macchina impara, se è in grado quindi di fare delle scelte su quello che ha imparato, non possiamo dire che pensa, ma queste scelte devono essere regolamentate, come?
L’Unione europea, non gli ultimi scappati di casa, ma l’Unione europea, ha cercato di tradurre in pratica delle regole etiche che dovranno essere trasmesse alle intelligenze artificiali del prossimo futuro, perché ripeto, non stiamo parlando di fantascienza, stiamo parlando di cose estremamente odierne, attuali.
Leggo, perché la mia memoria di anziano fatica ad arrivare e mantenere le informazioni. Leggo da key4biz.it, sono 7 gli elementi fondamentali per un’intelligenza artificiale affidabile e quali sono?
Azione e sorveglianza umana, cioè i sistemi di AI dovrebbero promuovere lo sviluppo di una società equa eccetera, limitandone o sviandone, cioè limitando l’autonomia che l’uomo ha in questa società, benissimo. Quindi le macchine ok, vanno benissimo, ma deve essere limitato, il loro utilizzo, dove è necessario.
Robustezza e sicurezza, cioè fidarsi di algoritmi che siano in grado di rendere queste macchine sicure e che quindi le loro scelte, per quanto indirizzate da noi, siano comunque certamente sicure cioè non possono essere hackerate, un’intelligenza artificiale non ci può sparare come Robocop.
Riservatezza dei dati, i cittadini dovrebbero avere il pieno controllo dei propri dati, potrebbero gestirli come vogliono, benissimo.
La trasparenza, la tracciabilità di tutti i dati e delle informazioni che arrivano alle intelligenze artificiali.
Diversità, non discriminazione ed equità. Tenere in considerazione l’intera gamma delle capacità, delle competenze eccetera, non dovrebbero essere intelligenze artificiali razziste.
Benessere sociale e ambientale, questa è bellissima, i sistemi di intelligenza artificiale dovrebbero essere utilizzati per promuovere i cambiamenti sociali positivi, dovrebbero essere dalla nostra parte.
E l’ultimo, sette, responsabilità intesa come? Se c’è un’intelligenza artificiale che provoca un danno, ci deve essere anche una responsabilità oggettiva da parte di qualcuno.
A questo aggiunge l’Unione europea che ha riunito oltre 50 specialisti per cercare di definire come dovrà essere l’AI di domani, si aggiunge anche il fatto che noi dovremmo sempre essere consapevoli di essere davanti ad una macchina piuttosto che non saperlo appunto, nel senso che se noi parliamo con un bot su Messenger, ci deve essere spiegato che è un bot su Messenger.
Quindi ragazzi siamo arrivati al punto in cui servono regole etiche e morali per poter programmare l’intelligenza artificiale, non stiamo parlando di futuro e di fantascienza, stiamo parlando di presente e chi mi viene ancora a dire che le macchine non possono pensare, deve fare un ragionamento su questa cosa: non possono pensare ma possono essere programmate per scegliere, non è pensare?
Rock & roll.
[mc4wp_form id=”19714″] Oppure seguimi sul canale Telegram da qui: se lo preferisci alla newsletter :)
Sono autore di libri su innovazione, tecnologia e comunicazione: power creator, docente e gamer, Rudy Bandiera è il mio VERO nome.
Per sapere chi è Rudy Bandiera, informazioni e contatti vai alla pagina info
I libri che ho scritto:
Giugno 2014: Rischi e opportunità del Web 3.0
Maggio 2015: Le 42 Leggi universali del digital carisma
Maggio 2017: Condivide et impera
Marzo 2019: CREA contenuti efficaci
Di seguito alcuni link per ascoltare altri miei contenuti, su canali un po’ meno consueti.
Audible: “Vita da web”: http://bit.ly/2Zze86B
Spotify: “Rudy Bandiera docet”: https://spoti.fi/31H7E7t