OpenAI ha appena compiuto un passo inaspettato. Ha rilasciato due modelli linguistici open source che si possono usare direttamente sul proprio computer, anche senza connessione a internet. Sono completamente gratuiti e utilizzabili anche per scopi commerciali. Una mossa che potrebbe cambiare il modo in cui interagiamo con l’intelligenza artificiale nella quotidianità.
I nuovi modelli si chiamano gpt-oss-120b e gpt-oss-20b. Nonostante i nomi poco accattivanti, portano capacità avanzate di ragionamento e assistenza direttamente sui computer personali. Non servono abbonamenti, API, né accessi a server esterni.
Un ritorno all’open source per OpenAI
Con questo annuncio, OpenAI torna a rilasciare modelli open-weight per la prima volta dopo GPT-2, pubblicato nel 2019. E lo fa con due modelli di fascia alta, pronti per essere scaricati, modificati e utilizzati localmente.
L’arrivo di concorrenti come DeepSeek e altri progetti open sempre più potenti ha probabilmente spinto OpenAI a rispondere con una proposta concreta e accessibile. Così nascono i due modelli gpt-oss, entrambi rilasciati con licenza Apache 2.0.
I due modelli differiscono principalmente per dimensioni e requisiti:
- gpt-oss-20b è pensato per l’uso personale. Richiede almeno 16 GB di memoria video (VRAM o unificata) e funziona su Windows, macOS e Linux. È già compatibile con strumenti come Ollama, llama.cpp e Microsoft AI Foundry Local, che offrono interfacce semplici o personalizzabili.
- gpt-oss-120b, invece, è pensato per sistemi professionali. Richiede almeno 80 GB di memoria e una workstation con GPU di fascia alta. Offre prestazioni vicine ai modelli GPT-4, ma non è adatto ai computer consumer.
Entrambi i modelli sono già stati integrati da partner come Microsoft, Hugging Face, Snowflake e altri, per essere utilizzati in ambienti locali o integrati in piattaforme professionali.
gpt-oss-20b funziona davvero sul tuo computer
Il modello da 20 miliardi di parametri è il più interessante per l’uso quotidiano. Può funzionare su laptop con Apple Silicon (M1 Pro, M2 Pro e successivi), PC da gaming e workstation leggere. Non è necessario essere sviluppatori esperti per iniziare.
Funziona anche senza connessione a internet. È perfetto per chi vuole maggiore controllo sulla privacy, sperimentare con l’intelligenza artificiale o semplicemente chattare con un modello potente senza limiti.
Tra le opzioni disponibili:
- Ollama è un’app gratuita e semplicissima da usare. Su macOS basta installarla, selezionare “gpt-oss:20b” e iniziare a conversare.
- Su Windows con GPU NVIDIA (minimo 16 GB VRAM), Ollama è disponibile anche in versione per PC. Altre alternative sono llama.cpp o Microsoft AI Foundry Local per chi cerca più controllo o ambienti professionali.
- Gli utenti esperti possono scaricare direttamente i modelli da Hugging Face e integrarli nei propri flussi di lavoro.
Per chi vuole solo dare un’occhiata, c’è anche una versione accessibile da browser, utile per test rapidi ma meno adatta per chi cerca privacy e prestazioni elevate.
Leggi o Aggiungi Commenti