![Il canale ufficiale su WhatsApp di Adnkronos](/resources/0288-19aca72e4b34-3660eca8f7f7-1000/format/small/whatsapp_adnkronos.png)
Dopo DeepSeek R1, è Vitruvian-1 il “reasoner” che si proietta in cima alle classifiche dell’intelligenza artificiale. La ricetta segreta: frugalità, specializzazione e addestramento sull'italiano. Colloquio dell'Adnkronos con il fondatore e ceo di Asc27
L’intelligenza artificiale parla italiano. È questa la promessa che racchiude Vitruvian-1, un modello “ragionante” appena presentato dalla startup italiana Asc27 che secondo alcuni test ha già scalato le classifiche globali ed è secondo solo agli ultimi prodotti delle aziende leader OpenAI e DeepSeek. Un risultato conseguito con pochissime risorse rispetto ai rivali statunitensi, come sottolinea il fondatore e ceo dell’azienda, Nicola Grandis. Ma il vero segreto, spiega all’Adnkronos, è che Vitruvian-1 (o V1) ha imparato a “ragionare” in italiano. E questo sembra avergli dato una marcia in più.
“Un modello linguistico di ultima generazione con capacità avanzate di reasoning”, spiega Grandis. In poche parole, non ripete quello che ha “imparato”, ma come gli ultimi modelli di OpenAI, Google e DeepSeek è in grado di “ragionare” sulle risposte per aumentare la qualità. “L'idea di base è che noi esseri umani, quando mettiamo per iscritto i nostri pensieri, in qualche modo illustriamo un ragionamento”: V1 e i suoi pari compiono un processo parallelo, replicando una catena di passaggi logici intermedi (chain of thought) per arrivare a un risultato migliore.
Questo è il motivo per cui V1, pur essendo un modello di dimensioni relativamente contenute (14 miliardi di parametri contro i 600-1.500 miliardi dei rivali) riesce a rivaleggiare con i “cugini” molto più grandi: “dove non arriva con la conoscenza acquisita può arrivare con il ragionamento e può anche superare, come abbiamo visto nei test, anche diversi modelli molto più grandi”. E se applicato in ambito industriale V1 può risolvere problemi, prevedere scenari, analizzare delle situazioni.
Come i rivali reasoner anche V1 è basato su un modello foundational, o di base, nello specifico Phi-4 di casa Microsoft. “Ma possiamo tranquillamente passare a un concorrente come Llama di Meta: quella è la parte meno importante”, evidenzia Grandis. La parte di reasoning vera e propria è totalmente fatta in casa grazie alle professionalità di Asc27. “Seguiamo la ricerca internazionale, abbiamo già quattro pubblicazioni internazionali all'attivo e collaboriamo con università di tutto il mondo, tra cui Tokyo, Stanford, Columbia, Irvine, Mit. Quindi quando nell’ambito della ricerca si è iniziato a lavorare sulla chain of thought, noi c'eravamo”.
L’azienda ha applicato un processo particolare di “distillazione” che ha permesso a V1 di imparare da altri modelli e ha utilizzato 16 processori Nvidia H100 per l’addestramento. I risultati preliminari, pubblicati da Grandis stesso (95,5 su 100 su un test di calcolo matematico avanzato e 90,2 su 100 su una prova di comprensione linguistica e ragionamento applicata a una vasta gamma di materie accademiche e professionali) collocano V1 al quarto e terzo posto al mondo rispettivamente, a pochissima distanza dai migliori modelli di OpenAI e DeepSeek e sopra ai rivali di altri giganti come Google, Meta, Anthropic, Alibaba.
Il risultato è ancora più spettacolare se si considera che il 65% dei materiali usati per “addestrare” V1 erano in italiano, a fronte di test in lingua inglese. Infatti tra i piani di Asc27 c’è la pubblicazione di test basati sull’italiano, anticipa Grandis, secondo cui la nostra lingua è una componente fondamentale della forza del modello. “L’italiano è una cosa meravigliosa, è la lingua di Dante, ha raccolto l’eredità del mondo latino e indirettamente anche quello greco. Una persona impara l'inglese in una frazione del tempo che impiega per imparare l'italiano. Il linguaggio è un'espressione del corso del pensiero, del nostro ragionamento, di come comunichiamo, e il fatto di allenare un modello di reasoning su una lingua così complessa, secondo noi, è un vantaggio”.
“Le rivali statunitensi potevano aspettarselo: continuano a versare decine di miliardi di dollari in ricerca e sviluppo per modelli sempre più grandi, onniscienti. Da quando abbiamo letto il primo paper di OpenAI abbiamo sempre pensato che fosse una strada assolutamente impercorribile. Tecnicamente è fattibile ma non è sostenibile economicamente. Penso che l’abbiano dimostrato le ingenti perdite collegate a questo tipo di business”, chiosa Grandis. Asc27 ha preso un’altra strada: modelli ancora più frugali ed economici di quelli di DeepSeek, piccoli ma iper-specializzati, da usare anche in batteria ove ci fosse bisogno.
“Noi crediamo che anche i grandi player si orienteranno su questo tipo di soluzioni, e i chatbot che abbiamo imparato a conoscere andranno pian piano a scomparire”. Le applicazioni Ia, spiega Grandis, devono essere “come un vestito di Valentino: su misura. Quindi dal nostro punto di vista un modello multilingua è utile, ma poi un'azienda francese avrà bisogno di una soluzione verticalizzata sul francese, una realtà tedesca sul tedesco e così via”. Per non parlare dell’efficienza energetica: “è vero che ChatGPT parla duecento lingue, ma lo fa con un modello che utilizza la stessa quantità di elettricità che serve per alimentare la città di Milano”.
Poter contare su uno strumento come V1 è “importantissimo” a partire dal fatto che la stragrande maggioranza dei documenti e delle informazioni che scorrono attraverso un’azienda italiana sono in lingua madre. “Quindi poter disporre di un modello particolarmente efficace sulla nostra stessa lingua si traduce immediatamente in un vantaggio economico anche per le nostre aziende, una migliore capacità e anche un processo di adozione più semplice”, sottolinea Grandis.
Poi c’è l’aspetto strategico, continua il ceo: sviluppare in modello in Italia significa averne il completo controllo. “Quando qualcuno utilizza ChatGPT o si scarica Llama se li prende già con i guardrail, misure di sicurezza e tutta una serie di elementi che vanno bene per il consumatore normale. Però in certi contesti ci sono persone autorizzate per legge a trattare di armi, esplosivi, cadaveri, per esempio in ambito militare, medico e criminologico. Sono tantissimi gli aspetti per cui, secondo noi, è fondamentale avere la padronanza di questa tecnologia attraverso un'azienda italiana, che sia Asc27 o che sia un'altra entità”.
Asc27 non intende “aprire” V1 al consumatore normale perché la startup non ha risorse tali (leggi: batterie di processori) per rendere il sistema accessibile a chiunque, spiega il ceo. Ma del resto si tratta di un prodotto per l’industria: “dal nostro punto di vista non avrebbe tanto senso rilasciare una versione aperta a tutti perché è un reasoner, quindi è forte su certe tipologie di domande, sul business, sulla strategia. Non è un modello con cui passare il tempo”. Però l’accesso sarà disponibile “a brevissimo” tramite Api (il “ponte” tra il sistema e utilizzatori esterni) per le imprese, il mondo enterprise, le istituzioni e le organizzazioni di tutti i tipi, nonché a chi vorrà provarlo, tramite una lista d’attesa.
“A livello aziendale si sta ancora ragionando se renderlo open source (scaricabile e utilizzabile da chiunque, ovviamente con dei “guardrail” integrati) o meno”. A pesare sulla decisione c’è anche il panorama regolatorio europeo, dove spicca l’Ai Act, che tuttavia Grandis non considera affatto un ostacolo – in controtendenza rispetto a gran parte dell’industria. Dal 2020 Asc27 è coinvolta nel processo che è andato a informare la stesura dell’Ai Act, racconta il ceo, e non ci vede problemi metodologici o di principio. “Come sempre le leggi vanno calate nel loro contesto, ma credo che l’hype attorno all’Ia abbia generato anche molto hype sull’Ai Act. E questa risonanza ha creato molta confusione”.
“Non è un freno, è un framework legislativo europeo che rispetta la nostra mentalità, la nostra attitudine europea che riteniamo superiore rispetto alle alternative”. Il ceo, che possiede la totalità dell’azienda, non usa giri di parole sul tema: “ascoltiamo tutti, ma ovviamente conosciamo anche le dinamiche che ci sono dietro questi ragionamenti”. Nel mondo dell’Ia si intrecciano investimenti da centinaia di miliardi, vicinanza politica ai leader nazionali e lobbying aggressivo. Un fenomeno che del resto è trasversale, evidenzia: “basta pensare alla Fiat degli anni d’oro e alle richieste di fondi statali”.
Se paragonata alle leader nell’Ue, prima fra tutte la francese Mistral (sostenuta sia dal governo che da Microsoft), l’azienda parte meno indebitata, sorride Grandis. “Dal punto di vista scientifico li rispettiamo parecchio e abbiamo molti amici in Mistral, dal punto di vista aziendale non ci spaventano per niente. Nella classifica dei top 10 che abbiamo presentato i modelli di Mistral nemmeno compaiono. Ovviamente ora risponderanno, come tutte le altre, ma lo faremo anche noi”. Si competerà, dunque, costruendo modelli sempre migliori.
V1 ha un cuore europeo: il 35% di materiale d’addestramento non italiano era in inglese, francese, spagnolo e tedesco, le altre lingue più importanti del Vecchio continente. Il ceo non esclude di sviluppare altri reasoner specializzati su altre lingue in futuro. Nel mentre l’azienda seguirà le due strade parallele tracciate nel 2020: “da una parte la ricerca industriale applicata, quindi prodotti e soluzioni come Vitruvian-1, dall’altra la loro progressiva monetizzazione. Oggi offriamo una serie di soluzioni Ia di altissimo livello, che vanno dalla formazione alla gestione di testi e video e che già vendiamo a molte aziende europee”.
La differenza tra Asc27 e le concorrenti, spiega Grandis, è la mentalità italiana. “Siamo artigiani, un po’ come i motoristi della Ferrari negli anni ‘70. Per noi è importante vedere il prodotto finito perché altrimenti la ricerca che facciamo resta un algoritmo senza volto che segue un benchmark e che si usa tramite Api. Noi mettiamo figure diverse a lavorare lungo la stessa filiera e riteniamo importantissimo che il ricercatore veda che il suo miglioramento si trasforma in qualcosa che arriva fino al prodotto e all’utente finale, con il riconoscimento che ne consegue”.
Asc27 riceve richieste di investimento dal giorno in cui è nata e ha già dovuto rifiutare delle offerte per mantenere la divisione di ricerca alla scala desiderata, spiega Grandis. Altro il discorso per le linee di prodotti, dove “possiamo parlare con investitori che vogliono accelerare lo sviluppo di soluzioni. Dipende molto da chi incontriamo”. Nel mentre l’azienda è intenzionata a crescere in modo organico, nella consapevolezza che “continuare a sviluppare tecnologie applicate come V1 e magari portarle in altri settori richiede investimenti sostanziosi”. Una batteria di processori costa milioni di euro, l’utilizzo di energia (specie in Italia) aggiunge un carico da novanta, e i professionisti nel campo dell’Ia oggi hanno stipendi che raggiungono anche il milione e mezzo di euro all’anno, ricorda Grandis.
“Dalla presentazione dei risultati di V1 stiamo ricevendo decine di candidature di ragazzi italiani bravissimi che erano andati all'estero”: Stati Uniti, Inghilterra, Emirati Arabi, Cina. “Noi in Italia non abbiamo un equivalente di OpenAI o Mistral ma sforniamo tantissimi cervelli che poi fanno grandi queste organizzazioni straniere”, ma la forza d’attrazione dell’Italia negli ultimi è “completamente mancata perché le persone si spostavano immediatamente in Inghilterra e da lì negli Usa, che tra l'altro hanno creato una procedura di accesso ai visti facilitata per attrarre talenti in campo Ia”.
Sarebbe importante per il Paese poter disporre di un polo d’attrazione composto da università, enti di ricerca e aziende – “ma di quelle in grado di produrre qualcosa come V1 e non semplicemente presentazioni PowerPoint, perché altrimenti i ragazzi ce li perdiamo, e con loro perdiamo ricchezza nel nostro Paese”. Asc27 intende fare la sua parte, promette Grandis: “intendiamo sviluppare la nostra capacità, metterla a frutto e farla diventare business, perché questo ci consentirà di diventare un magnete che tiene attratti i professionisti che formiamo in Italia”. (Di Otto Lanzavecchia)