Apertus segna il “momento Sputnik” europeo nell’IA

Quando comparve DeepSeek, in tanti parlarono di un “momento Sputnik” per l’intelligenza artificiale. Non tanto per la sua velocità o accuratezza, quanto perché mostrò che la partita non era più solo nelle mani della Silicon Valley. Un modello nato in Cina, con tecnologie diverse e consumi molto più bassi, dimostrò che i giganti americani potevano essere sfidati.

Oggi un’attenzione simile merita Apertus, il primo grande modello linguistico multilingue sviluppato in Svizzera e rilasciato in open source. Il suo valore, però, non sta nei benchmark: sta nella compliance integrata fin dall’inizio con l’AI Act europeo.

Apertus AI, il LLM open source dalla Svizzera: un salto in avanti per affidabilità e trasparenza
Apertus AI, il LLM open source dalla Svizzera: un salto in avanti per affidabilità e trasparenza

La parola “compliance” può sembrare astratta, o addirittura retrograda, se associata a un tema di innovazione come l’AI. La realtà è che invece riguarda la vita di tutti i giorni.

Un algoritmo che seleziona curriculum può escludere un candidato solo per il nome o per l’accento. Amazon dovette eliminare uno strumento interno che penalizzava le donne. Sistemi di credit scoring hanno attribuito rischi più alti a minoranze con identici profili finanziari.

L’AI Act definisce questi ambiti — lavoro, istruzione, credito — come ad alto rischio. Pretende quindi:

  • dati rappresentativi e senza bias;

  • documentazione chiara dei limiti;

  • supervisione umana sulle decisioni finali.

La fiducia nasce dalla trasparenza. Il team che ha sviluppato Apertus ha pubblicato tutto: codice, documentazione, dataset, persino i checkpoint intermedi dell’addestramento. Chiunque può verificare come è stato costruito e con quali dati.

Il modello è rilasciato con licenza open source permissiva, utilizzabile anche a fini commerciali. Non è appannaggio di pochi colossi: startup, PMI e ricercatori possono adottarlo e costruirci sopra nuove soluzioni.

Il corpus di addestramento è stato selezionato con criteri etici: solo fonti pubbliche, rispetto delle richieste di opt-out, eliminazione dei dati personali. Significa meno rischi legali per le imprese che vogliono costruire soluzioni basate sull’IA, e maggiore tutela per i cittadini.

Un DNA di compliance per Apertus AI, un vero salto in avanti per affidabilità e trasparenza
Un DNA di compliance per Apertus AI, un salto in avanti per affidabilità e trasparenza

Molti nuovi modelli (o le nuove versioni dei soliti noti) vengono annunciati con grandi promesse di precisione delle risposte, funzioni aggiuntive, e riduzione delle allucinazioni. Solo dopo, spesso sotto pressione dei regolatori, arrivano vaghe rassicurazioni riguardo la trasparenza o promesse di controlli sui contenuti tossici. È il classico approccio Silicon Valley: move fast and break things.

Apertus ribalta la logica. È stato costruito prendendo l’AI Act come progetto guida. E perché è open source, la sua compliance è verificabile. È la dimostrazione che la corsa all’IA si può giocare non solo con la potenza di calcolo, ma con una visione etica e giuridica.

Ha senso chiedersi se Apertus sia veloce quanto DeepSeek o preciso come GPT-4? No.

Non conta quanti parametri abbia o quante risposte esatte fornisca rispetto a Google. Conta una sola cosa: possiamo fidarci di questo sistema?

Senza equità e trasparenza, i numeri sono vuoti. Apertus è il primo modello a trasformare la compliance in un vero standard di leadership.


Quando apparve DeepSeek, capimmo che i giganti americani non erano imbattibili. Con Apertus, l’Europa dimostra che il vero salto in avanti è l’affidabilità.

È la prova che apertura e responsabilità possono convivere. Che l’intelligenza artificiale può essere potente e al tempo stesso affidabile. Che la regolamentazione, se pensata bene, è un acceleratore e non un ostacolo.

Se DeepSeek è stato lo Sputnik moment della competizione, Apertus lo è per l’affidabilità e la correttezza. Ed è forse il passo più importante per l’Europa.