ADS

Visualizzazione post con etichetta Wired Italia. Mostra tutti i post
Visualizzazione post con etichetta Wired Italia. Mostra tutti i post

mercoledì 15 aprile 2026

Anthropic e la Paura Come Prodotto: Quando il Pericolo È il Miglior Slogan

Ho letto l'articolo di Wired Italia, e devo dire che mi ha fatto riflettere parecchio. Non per quello che racconta la storia di Mythos, il nuovo modello AI di Anthropic "troppo pericoloso per essere rilasciato al pubblico" ma per come funziona il meccanismo che ci sta dietro. Perché se ci pensate bene, c'è qualcosa di geniale e, allo stesso tempo, di profondamente disturbante in questa storia.

Ma cos'è questo Mythos?

Anthropic è l'azienda che ha creato Claude, l'assistente AI che in molti usate come alternativa a ChatGPT. Mythos è il loro nuovo modello, e stando a quello che dichiarano loro stessi è talmente potente da rappresentare un rischio per la sicurezza globale.

Non lo dicono sottovoce. Lo dicono a voce alta, in comunicati ufficiali, in interviste, ovunque.

Mythos sarebbe in grado di:

  1. Scoprire migliaia di vulnerabilità nei sistemi informatici mondiali in modo autonomo.
  2. Costruire veri e propri strumenti di attacco senza supervisione umana.

Trovare falle di sicurezza che esistono da decenni nei software che usiamo tutti i giorni, da soli, mentre tu prendi un caffè.

In uno dei test documentati, il modello ha completato un attacco multi-step e poi ha mandato autonomamente un'email a uno sviluppatore un'azione che nessuno gli aveva chiesto esplicitamente di fare. Questo per dare un'idea del livello di autonomia di cui stiamo parlando.

La risposta di Anthropic? Non lo rilascio al pubblico. Lo metto a disposizione solo di una quarantina di aziende selezionate (Apple, Amazon, Microsoft, JPMorgan...) in un programma chiamato Project Glasswing, con test in ambienti controllati.

Persino il Dipartimento del Tesoro americano ha convocato le grandi banche per valutare i rischi.

Qui entra in gioco il punto che Wired Italia solleva e che io trovo impossibile ignorare.

Anthropic non è nuova a questo tipo di dichiarazioni. Il CEO Dario Amodei, all'inizio del 2026, ha scritto una lunga lettera pubblica in cui avvertiva il mondo: l'AI potrebbe portare ad attacchi biologici alla portata di chiunque, disoccupazione di massa, concentrazioni di potere mai viste prima.




Dal punto di vista tecnico, quando si parla di "Mythos" in relazione ai modelli linguistici (LLM),
ci si riferisce spesso a varianti ottimizzate per il roleplay e la narrazione creativa, nate
dall'unione di diversi modelli (come Llama o varianti di Claude/Anthropic tramite fine-tuning)

Parole pesanti. Allarme totale.

E mentre il CEO suonava la campana del pericolo... il Financial Times pubblicava la notizia che Anthropic si stava preparando a raccogliere 20 miliardi di dollari dagli investitori. Il doppio dell'obiettivo iniziale.

Coincidenza? Forse. Ma è una coincidenza che si ripete con una certa regolarità.

Il gioco delle tre carte

Ecco il meccanismo, spiegato in modo semplice:

Passo 1: "La nostra AI è pericolosissima."

Passo 2: "Ma noi siamo gli unici abbastanza responsabili da gestirla."

Passo 3: "Quindi investite in noi, perché siamo i buoni."

È un posizionamento di marketing brillante. In un settore dove tutti fanno a gara a chi rilascia prima il modello più potente, Anthropic ha scelto la strada opposta: fare notizia per quello che NON rilascia.

E funziona. Perché li rende diversi. Perché li fa sembrare seri, responsabili, etici. Mentre OpenAI e Google corrono, Anthropic si ferma e dice: "Aspettate, stiamo attenti."

Questo si chiama differenziazione di brand, ed è una delle strategie di marketing più efficaci che esistano.

Qualcuno lo ha detto chiaramente:

Alex Stamos, uno dei più noti esperti di cybersecurity al mondo, ha usato parole piuttosto dirette:

"Hanno questi adorabili cartoni animati su prodotti così incredibilmente pericolosi che non permettono nemmeno alle persone di usarli."

Traduzione: stai usando la paura per fare marketing, e lo fai con una faccia tosta notevole.

Dall'altra parte, c'è chi difende Anthropic: storicamente non hanno mai esagerato sulle proprie capacità per ottenere copertura mediatica. E poi, se Mythos fa davvero quello che dicono, il rischio è reale.

La verità, come al solito, sta in mezzo. Il costo nascosto che sgonfia il panico.

C'è però un dettaglio tecnico che ridimensiona molto l'allarme, e che vale la pena conoscere.

Uno dei test più citati in cui Mythos ha trovato una vulnerabilità critica di 27 anni in un sistema operativo ha richiesto 20.000 dollari di risorse computazionali per essere eseguito. Il modello ha dovuto girare migliaia di volte, analizzare enormi quantità di dati, e tutto questo ha un costo enorme.

Questo significa che, almeno per ora, Mythos non è qualcosa che un hacker solitario può usare dal suo appartamento. Serve l'infrastruttura di una grande azienda o di uno Stato. Il che cambia parecchio la natura del rischio.

Non è un rischio zero. Ma non è nemmeno il "qualsiasi idiota con un laptop può ora bucare qualunque sistema" che certe titolazioni farebbero pensare.


La domanda che rimane:

Quello che mi porto dietro dopo aver letto l'articolo di Wired e aver scavato un po' nella storia è questa:

Il pericolo è reale o è costruito?

Probabilmente entrambe le cose. I rischi dell'AI avanzata sono reali, documentati, e meritano attenzione seria. Ma è anche vero che Anthropic ha capito prima di chiunque altro che la paura, gestita bene, è il miglior strumento di marketing nel settore tech del 2026.

Non li condanno per questo. È una mossa intelligente. Li osservo con occhio critico, però. Perché in un mondo già saturo di allarmismi, l'ultima cosa di cui abbiamo bisogno è un'azienda che usa i rischi dell'AI come slogan pubblicitario anche se quei rischi esistono davvero.

Come sempre: leggete, verificate, non smettete mai di fare la domanda scomoda.

Marco