gpt-oss-120b e gpt-oss-20b offrono prestazioni simili ai modelli AI più evoluti e puoi eseguirli e modificarli a piacimento su hardware più o meno casalingo.
OpenAI ha annunciato nelle scorse ore la disponibilità generale dei suoi primi modelli open-weight. Si tratta di prodotti simili nelle performance e nei punteggi agli LLM più recenti della società statunitense inclusi nell'API e in ChatGPT. In particolare, gpt-oss-120b, il primo dei due modelli open-weight in questione, è paragonabile per prestazioni a o4-mini, mentre gpt-oss-20b, il secondo, può anche superare nei punteggi assoluti l'efficiente o3-mini, sempre di OpenAI. gpt-oss-120b richiede device da almeno 80 GB di RAM per essere eseguito e modificato dagli sviluppatori, mentre il più piccolo gpt-oss-20b necessita di soli 16 GB di RAM, dunque può essere utilizzato tranquillamente su hardware casalingo.
I modelli open-weight di OpenAI possono essere acquisiti da chiunque con licenza Apache 2.0 e scaricati gratuitamente da Hugging Face, mentre saranno disponibili anche su servizi cloud come Azure e AWS, con Microsoft che includerà il modello più piccolo anche in Windows 11 per i potenti Copilot+ PC tramite la piattaforma Windows AI Foundry, come comunicato dal gigante del software in un post dettagliato che puoi trovare qui.
Want to see our open models in action?
— OpenAI (@OpenAI) August 5, 2025
Watch how gpt-oss builds a video game—using tools step-by-step within chain-of-thought reasoning 👾🍓 pic.twitter.com/WNeV0cpwM2
Abbiamo progettato questi modelli per essere flessibili e facili da eseguire ovunque: localmente, sul dispositivo o tramite provider di inferenza di terze parti. Per supportare questo obiettivo, abbiamo collaborato prima del lancio con le principali piattaforme di distribuzione come Azure, Hugging Face, vLLM, Ollama, llama.cpp, LM Studio, AWS, Fireworks, Together AI, Baseten, Databricks, Vercel, Cloudflare e OpenRouter per rendere i modelli ampiamente accessibili agli sviluppatori. Per quanto riguarda l'hardware, abbiamo collaborato con leader del settore, tra cui NVIDIA, AMD, Cerebras e Groq, per garantire prestazioni ottimizzate su una vasta gamma di sistemi.
Come parte della release odierna, Microsoft sta anche introducendo versioni ottimizzate per GPU del modello gpt-oss-20b sui dispositivi Windows. Basati su ONNX Runtime, questi modelli supportano l'inferenza locale e sono disponibili tramite Foundry Local e AI Toolkit per VS Code, semplificando la creazione di modelli aperti per gli sviluppatori Windows.
Per gli sviluppatori che desiderano modelli completamente personalizzabili, da poter ottimizzare e distribuire nei propri ambienti, gpt-oss è la soluzione ideale. Per chi cerca supporto multimodale, strumenti integrati e un'integrazione fluida con la nostra piattaforma, i modelli disponibili tramite la nostra piattaforma API rimangono l'opzione migliore. Continuiamo ad ascoltare attentamente il feedback degli sviluppatori e potremmo prendere in considerazione il supporto API per gpt-oss in futuro.
Puoi leggere e sapere di più sui primi modelli open-weight di OpenAI puntando il tuo browser qui.