Un team di ricercatori di Stanford e Washington ha sviluppato s1, un modello di intelligenza artificiale per il ragionamento avanzato con un investimento di soli 50 dollari in crediti cloud. Basato sulla tecnica della distillazione, il modello raggiunge prestazioni simili a quelle di soluzioni ben più costose di OpenAI e DeepSeek
Un team di ricercatori dell’Università di Stanford e dell’Università di Washington ha sviluppato un modello di intelligenza artificiale dedicato al “ragionamento” per meno di 50 dollari in crediti di calcolo su cloud. Questo nuovo modello, chiamato s1, si avvicina alle prestazioni di modelli avanzati come o1 di OpenAI e R1 di DeepSeek nei test di matematica e programmazione. Un caso che dimostra che l’innovazione non è esclusiva dei grandi colossi.
Il modello s1 è disponibile su GitHub insieme ai dati e al codice utilizzati per addestrarlo. Il team ha utilizzato un modello di base preesistente, perfezionandolo attraverso una tecnica chiamata “distillazione”, che consiste nell’estrarre le capacità di ragionamento da un altro modello di intelligenza artificiale addestrato. In particolare, s1 è stato distillato da uno dei modelli di ragionamento di Google, Gemini 2.0 Flash Thinking Experimental. Questa stessa tecnica era stata adottata lo scorso mese da un gruppo di ricercatori di Berkeley per creare un modello simile con un investimento di circa 450 dollari.
L’esperimento evidenzia un fenomeno sempre più rilevante nel settore dell’intelligenza artificiale: la possibilità che modelli di ragionamento sofisticati possano essere replicati con costi estremamente contenuti. Questo solleva interrogativi sulla sostenibilità economica delle grandi aziende dell’intelligenza artificiale: se un piccolo team può ottenere risultati simili a quelli di modelli sviluppati con investimenti di milioni di dollari, dove si trova il vero vantaggio competitivo?
E infatti OpenAI, per esempio, ha accusato DeepSeek di aver utilizzato in modo improprio i dati delle sue API per finalità di distillazione. Google, dal canto suo, fornisce accesso gratuito al modello Gemini 2.0 Flash Thinking Experimental tramite la piattaforma Google AI Studio, ma con limitazioni giornaliere e divieti espliciti di reverse engineering per creare servizi concorrenti.
Per addestrare s1, i ricercatori hanno utilizzato un piccolo modello open-source sviluppato dal laboratorio di intelligenza artificiale cinese Qwen, di proprietà di Alibaba. Hanno creato un dataset di sole 1.000 domande attentamente selezionate, corredate delle relative risposte e del processo di ragionamento fornito dal modello di Google. Il training del modello ha richiesto meno di 30 minuti su 16 GPU Nvidia H100, con un costo stimato di circa 20 dollari per l’affitto della potenza di calcolo necessaria.
Una delle innovazioni più curiose dello studio riguarda un trucco utilizzato per migliorare l’accuratezza del modello: l’inserimento della parola “wait” (aspetta) nelle istruzioni. Questo semplice accorgimento ha permesso a s1 di “prendersi più tempo” per ragionare prima di fornire una risposta, migliorando così la sua precisione.