Quando comparve DeepSeek, in tanti parlarono di un “momento Sputnik” per l’intelligenza artificiale. Non tanto per la sua velocità o accuratezza, quanto perché mostrò che la partita non era più solo nelle mani della Silicon Valley. Un modello nato in Cina, con tecnologie diverse e consumi molto più bassi, dimostrò che i giganti americani potevano essere sfidati.
Oggi un’attenzione simile merita Apertus, il primo grande modello linguistico multilingue sviluppato in Svizzera e rilasciato in open source. Il suo valore, però, non sta nei benchmark: sta nella compliance integrata fin dall’inizio con l’AI Act europeo.

La parola “compliance” può sembrare astratta, o addirittura retrograda, se associata a un tema di innovazione come l’AI. La realtà è che invece riguarda la vita di tutti i giorni.
Un algoritmo che seleziona curriculum può escludere un candidato solo per il nome o per l’accento. Amazon dovette eliminare uno strumento interno che penalizzava le donne. Sistemi di credit scoring hanno attribuito rischi più alti a minoranze con identici profili finanziari.
L’AI Act definisce questi ambiti — lavoro, istruzione, credito — come ad alto rischio. Pretende quindi:
-
dati rappresentativi e senza bias;
-
documentazione chiara dei limiti;
-
supervisione umana sulle decisioni finali.
La fiducia nasce dalla trasparenza. Il team che ha sviluppato Apertus ha pubblicato tutto: codice, documentazione, dataset, persino i checkpoint intermedi dell’addestramento. Chiunque può verificare come è stato costruito e con quali dati.
Il modello è rilasciato con licenza open source permissiva, utilizzabile anche a fini commerciali. Non è appannaggio di pochi colossi: startup, PMI e ricercatori possono adottarlo e costruirci sopra nuove soluzioni.
Il corpus di addestramento è stato selezionato con criteri etici: solo fonti pubbliche, rispetto delle richieste di opt-out, eliminazione dei dati personali. Significa meno rischi legali per le imprese che vogliono costruire soluzioni basate sull’IA, e maggiore tutela per i cittadini.

Molti nuovi modelli (o le nuove versioni dei soliti noti) vengono annunciati con grandi promesse di precisione delle risposte, funzioni aggiuntive, e riduzione delle allucinazioni. Solo dopo, spesso sotto pressione dei regolatori, arrivano vaghe rassicurazioni riguardo la trasparenza o promesse di controlli sui contenuti tossici. È il classico approccio Silicon Valley: move fast and break things.
Apertus ribalta la logica. È stato costruito prendendo l’AI Act come progetto guida. E perché è open source, la sua compliance è verificabile. È la dimostrazione che la corsa all’IA si può giocare non solo con la potenza di calcolo, ma con una visione etica e giuridica.
Ha senso chiedersi se Apertus sia veloce quanto DeepSeek o preciso come GPT-4? No.
Non conta quanti parametri abbia o quante risposte esatte fornisca rispetto a Google. Conta una sola cosa: possiamo fidarci di questo sistema?
Senza equità e trasparenza, i numeri sono vuoti. Apertus è il primo modello a trasformare la compliance in un vero standard di leadership.
Quando apparve DeepSeek, capimmo che i giganti americani non erano imbattibili. Con Apertus, l’Europa dimostra che il vero salto in avanti è l’affidabilità.
È la prova che apertura e responsabilità possono convivere. Che l’intelligenza artificiale può essere potente e al tempo stesso affidabile. Che la regolamentazione, se pensata bene, è un acceleratore e non un ostacolo.
Se DeepSeek è stato lo Sputnik moment della competizione, Apertus lo è per l’affidabilità e la correttezza. Ed è forse il passo più importante per l’Europa.