Tra Minority Report e il Garante della Privacy, OpenAI si è trovata nel punto in cui nessuno si vorrebbe trovare e ha scelto di sbagliare nel modo peggiore possibile, facendo finta che bastasse chiudere un account per disinnescare una persona pericolosa.
Secondo un’inchiesta del Wall Street Journal, OpenAI aveva intercettato mesi prima segnali molto chiari dei propositi violenti di Jesse Van Rootselaar su ChatGPT, ma ha scelto di fermarsi alla sospensione dell’account senza avvisare le autorità, ritenendo che non ci fosse un “rischio credibile e imminente” ai sensi delle proprie policy interne.
Questa storia mette in fila tre cose che ci devono entrare in testa, subito.
Primo: le AI oggi sono già in grado di intercettare pattern di rischio meglio di qualunque essere umano. Secondo: il problema non è l’algoritmo, ma chi decide cosa farne quando quel rischio emerge davvero. Terzo: se lasciamo che a decidere siano solo aziende private, con i loro legali e i loro dipartimenti PR, continueremo a vedere account chiusi, report interni perfetti e persone che ci lasciano le penne fuori dallo schermo.
Quando si tratta di monetizzare i nostri dati, la privacy diventa fluida, creativa, “ottimizzata per l’esperienza utente”; quando si tratta di chiamare una pattuglia perché qualcuno scrive per giorni di scenari di strage, improvvisamente la privacy torna sacra, intoccabile, scolpita nel marmo. Tipo quelli che sono garantisti a giorni alterni, qua da noi: legalmente è ineccepibile ma eticamente disastroso, e lo abbiamo visto.
Anche perché qui non parliamo di un unico segnale: la ragazza aveva precedenti per salute mentale, visite della polizia, armi sequestrate, contenuti violenti sui social, un simulatore di strage su Roblox. Era un gigantesco cartello lampeggiante con scritto “pericolo” che passava sopra la testa di tutti, umani e piattaforme.
La verità scomoda è che non abbiamo un problema di “AI troppo potente”, ma di governance ridicola rispetto alla potenza degli strumenti. Le macchine segnalano, gli umani scrollano le spalle.
Io credo che serva una sorta di supervisione pubblica, perché “chi controlla la narrazione, controlla il mondo”, e oggi la narrazione su cosa sia “rischio imminente” è in mano a pochissime aziende che decidono in modo arbitrario.
Dobbiamo uscire dall’incantesimo tecnologico: finché non mettiamo regole serie lasceremo alle piattaforme la cosa più pericolosa che possano avere ovvero la discrezionalità su quando intervenire nella vita delle persone.