• Home
  • Info e contatti
  • TEDx Rudy Bandiera
  • Home
  • Info e contatti
  • TEDx Rudy Bandiera
05 Marzo 2026

Il compromesso di OpenAI e l’etica di Anthropic

di Rudy Bandiera

La domanda scomoda è semplice: quando il cliente più grande del mondo ti chiede di scegliere tra fatturato e principi tu, cosa scegli?

Trump forse ha capito o forse no che l’intelligenza artificiale non è solo una corsa alla potenza di calcolo, ma una guerra di valori travestita da gara di appalti.
​
Nella breve, affascinante e impattante storia che ti sto raccontando il Pentagono non sta semplicemente scegliendo un fornitore, sta scegliendo quale idea di futuro accettare come “normale”: un’IA senza condizioni, pronta a tutto ciò che è “legale”, oppure un’IA che, come nel caso Anthropic, prova a mettere paletti su sorveglianza di massa e armi autonome.

Da una parte c’è Emil Michael, ex Uber, che tratta la tecnologia come pura infrastruttura di potere: l’IA è un acceleratore, e chi esita è un nemico della sicurezza nazionale.
Dall’altra c’è Dario Amodei (fondatore e CEO di Anthropic, l’azienda che ha sviluppato la famiglia di LLM nota come Claude) che dice una cosa inaccettabile per Washington: in alcuni casi l’IA può minare la democrazia invece che difenderla, soprattutto quando entra nel campo del monitoraggio sistematico delle persone.
In mezzo, come la mortadella nella rosetta, Sam Altman fa quello che il mercato ama (come la mortadella nella rosetta): media tra “tutto è permesso se legale” e “abbiamo dei principi etici”, accettando l’uso militare generalizzato, ma tenendosi il diritto di mettere qualche guardrail tecnico qui e là. Una scelta “democristiana” direbbe qualcuno.

Oggi, il momento chiave è il braccio di ferro sulla sorveglianza degli americani (e non solo) tramite dati commerciali non classificati: geolocalizzazione, cronologia web, tracce digitali che noi regaliamo ogni giorno. Il Pentagono vuole la libertà di usare l’IA per setacciare questo oceano di dati, Anthropic chiede almeno un vincolo legale chiaro su cosa non si può fare: non è una differenza semantica, è la linea rossa tra “sicurezza” e “società del controllo”.
​
Sul fondo di questo teatrino c’è un dato enorme: l’intelligence americana usa già Anthropic per i sistemi classificati e sta spingendo perché non si chiuda la porta a un accordo perché vuole evitare la possibilità di avere altri attori privati che dicano “no” a certe richieste.

Stiamo scoprendo se nella nuova economia dell’IA c’è spazio per aziende che mettano dei paletti al Pentagono, tipo “lavoriamo con voi ma certi usi dei nostri strumenti non li accettiamo” o se il modello vincente sarà quello di chi accetta tutto, e poi prova a ripulire la coscienza con qualche linea guida interna.
La domanda scomoda, per noi che stiamo qui a costruire contenuti e reputazione, è semplice: quando il cliente più grande del mondo ti chiede di scegliere tra fatturato e principi, cosa scegli?

gestoreblog



La newsletter TOP!
Iscriviti gratuitamente alla newsletter settimanale più bella e gratis dell'italico Web :)
Thank you for subscribing!

Denali hosting

Privacy policy

RudyBandiera.com © Copyright 2022