Introduzione
Nel primo quadrimestre del 2026 il dibattito su quale sarà il salto successivo dell'IA si è concentrato su un nome informale: "Spud" — l'ipotesi di OpenAI per un modello di generazione successivo a GPT‑5.4. Molti segnali pubblici e leak indicano che il lavoro procede in modo aggressivo; tuttavia buona parte delle caratteristiche più radicali restano, al momento, rumor non confermati.
In questo articolo sintetizzo fonti pubbliche e reportage recenti per chiarire cosa è già ufficiale (o comunque verificabile) e cosa invece è speculazione: in particolare mi concentro su tre ambiti tecnici chiave che gli sviluppatori e le aziende attenderanno con più interesse: memoria a lungo termine, multimodalità estesa e capacità avanzate per il coding/agent.
Lo stato di fatto (punto di partenza)
- OpenAI ha rilasciato GPT‑5.4 il 5 marzo 2026: modello con capacità di "computer use" native, supporto sperimentale per contesti molto lunghi (fino a 1M di token in specifiche configurazioni) e miglioramenti sul coding e sulla visione. Questo è un riferimento importante per capire l'evoluzione attesa sulle generazioni successive. (openai.com)
- Parallelamente, OpenAI ha avviato (e sta espandendo) un grande programma infrastrutturale noto come "Stargate" con un sito flagship ad Abilene (Texas) e piani di espansione con partner come Oracle e SoftBank: questa infrastruttura è il contesto che renderebbe possibili training su scala ancora maggiore. (cnbc.com)
- Diversi reportage e analisti riferiscono che un modello interno con nome in codice "Spud" avrebbe completato la fase di pretraining intorno al 24 marzo 2026 e sarebbe ora in fase di valutazione/safety — ma questi elementi provengono da leak e dallo stesso ecosistema di informazione tecnica (non da un comunicato formale OpenAI). È quindi corretto trattarli come indicazioni plausibili ma non definitivamente confermate. (adam.holter.com)
Perché l'infrastruttura conta (Stargate)
L'espansione di datacenter e GPU ad alta densità cambia la conversazione: più GPU, più memoria e reti interne più veloci significano che OpenAI (e i partner) possono sperimentare design di reti e addestramenti che prima erano proibitivi — ad esempio training di modelli con parametri molto maggiori o con architetture speciali (MoE, sparse transformer, ecc.) e pipeline di fine‑tuning più lunghe. Questo è il presupposto tecnico che rende credibile la possibilità di aumentare finestra di contesto e capacità multimodale. (cnbc.com)
Memoria a lungo termine: cosa potrebbe significare tecnicamente
La «memoria» persistente è già un tema operativo: OpenAI ha introdotto nell'ecosistema ChatGPT funzionalità di memorizzazione/controlli fin dal 2024, con aggiornamenti successivi; ma l'esperienza pratica di utenti e sviluppatori ha evidenziato limiti e fragilità, e molte aziende stanno cercando soluzioni più robuste. (openai.com)
Se Spud dovesse incorporare davvero una "memoria a lungo termine" di nuova generazione, ci si può aspettare alcune caratteristiche tecniche probabilmente richieste dal mercato:
- memoria strutturata e gerarchica (non solo appunti testuali): indici semantici, vettori, metadata per valutare rilevanza, TTL (time to live) e regole di cancellazione;
- API di read/write sicure e transazionali per integrazione con database aziendali e vector DB (consenso esplicito, logging e auditability);
- meccanismi di "forgetting" selettivo per requisiti di privacy e compliance (EU AI Act, GDPR), e strumenti per audit e cancellazione definitiva;
- caching e compattazione del contesto: tecniche che permettono di tenere molte più informazioni utili attive senza esplodere i costi token.
Queste ipotesi sono coerenti con sia gli annunci storici di OpenAI sulla memoria sia con i bisogni che Anthropic e altri competitor hanno cercato di coprire con proprie soluzioni. (openai.com)
Multimodalità: verso audio, immagini ad alta fedeltà e (forse) video
GPT‑5.4 ha già alzato l'asticella sulla visione (supporto per immagini ad alta risoluzione, modalità "original" fino a milioni di pixel), quindi il passo verso una multimodalità ancora più nativa è tecnico e commerciale. Possibili evoluzioni che i rumor attribuiscono a Spud includono:
- contesti estremamente lunghi con streaming multimodale (testo + audio + immagini + eventuale video frame indexing),
- comprensione e generazione nativa di audio conversazionale e trasformazione testo→voce con controllo fine,
- pipeline per editing video basato su istruzioni (sebbene alcuni report suggeriscano che OpenAI abbia recentemente depotenzionato o chiuso parti dei suoi progetti video come Sora per riallocare risorse). (openai.com)
Importante: la generazione video è particolarmente costosa in termini di compute e rischiosa dal punto di vista di diritti/IP; diversi segnali mostrano che aziende stanno riconsiderando il rollout video massivo nel breve periodo. (tomsguide.com)
Coding, agenti e capacità "native" per automazione
GPT‑5.4 ha già integrato capacità di "computer use" e migliorato il Codex: ciò significa che la traiettoria naturale è un modello che coordina pianificazione, azione e verifica (agentic workflows) con migliore robustezza nel debugging e nella scrittura di software complesso. I rumor su Spud indicano guadagni significativi sui benchmark di coding (anche cifre come +30–40% vengono discusse nelle analisi non ufficiali), insieme all'obiettivo di ridurre il numero di iterazioni umane richieste per consegnare codice funzionante. (openai.com)
Tecniche plausibili per ottenere ciò:
- token window più ampia per mantenere contesti di progetto interi (issue, repo, test, log),
- integrazione nativa con ambienti di esecuzione e CI (strumenti che permettono al modello di eseguire test e correggere bug),
- migliori strategie di few‑shot/fine‑tuning orientate al comportamento agentico e alla sicurezza.
Rischi, costi e vincoli operativi
- Concentrazione del compute: grandi data center come Stargate riducono alcuni limiti tecnici ma aumentano dipendenza da pochi operatori e rischi geopolitici/energetici. (cnbc.com)
- Privacy e governance: memoria persistente e integrazione con dati aziendali richiedono controlli di auditing e cancellazione stretti; l'adozione aziendale dipenderà da garanzie legali e tecniche. (openai.com)
- Costi token/operativi: finestre contestuali enormi e multimodalità spingono i costi di servizio; ci aspettiamo schemi di pricing stratificati e meccanismi per ridurre token waste (compaction, caching). (openai.com)
Cosa dovrebbero preparare sviluppatori e aziende (raccomandazioni pratiche)
- progettare pipelines con versioning di prompt e dati di memoria; prevedere audit log e policy di retention;
- reingegnerizzare integrazioni per vantare compatibilità con contesti più lunghi (es. dividere progetti in chunk semantici, vector DB ottimizzati);
- testare scenari agent‑based in ambienti isolati: autorizzazioni, rollback di comandi eseguiti e simulazioni di failure;
- mantenere una strategia multivendor: la competizione tra OpenAI, Anthropic, Google ecc. farà emergere diversi trade‑off su performance, privacy e prezzo.
Per le aziende italiane interessate a integrare funzionalità avanzate (memoria, agenti, automazione), realtà come Bitora possono operare da partner tecnico per progettare integrazioni sicure e scalabili tra API modello e sistemi aziendali (ERP, CRM, pipeline CI/CD). Bitora offre consulenza tecnologica e sviluppo su misura per questi casi d'uso. (Riferimento contestuale per integrazione e consulenza).
Conclusione: cosa è probabile e cosa è ancora da verificare
- Probabile: Spud/il prossimo frontier model sarà progettato per migliorare reasoning, integrazione con agenti e supportare flussi di lavoro professionali grazie all'infrastruttura Stargate; molte aziende e analisti si aspettano una focalizzazione su produttività/automation più che su puro spettacolo generativo. (openai.com)
- Da verificare: numeri specifici (2M token, +40% su coding, disponibilità video nativa, data di rilascio). Queste cifre compaiono ripetutamente nei leak, ma fino a un annuncio ufficiale restano rumor. (adam.holter.com)
In definitiva, il salto tecnico che tutti chiamano GPT‑6/"Spud" appare plausibile sul piano infrastrutturale e sulla roadmap di prodotto; il ritmo e la qualità reale del miglioramento saranno però determinati da scelte di engineering, vincoli di sicurezza, regole di mercato e politiche di deployment. Per ora, la strategia più prudente per chi sviluppa è prepararsi tecnicamente (gestione memoria, testing agentico, tooling per contesti lunghi) e monitorare le comunicazioni ufficiali di OpenAI nelle prossime settimane.
Fonti
- OpenAI — Introducing GPT‑5.4 (official release), 5 mar 2026: https://openai.com/index/introducing-gpt-5-4/.
- OpenAI — Memory and new controls for ChatGPT (blog post), 13 feb 2024: https://openai.com/index/memory-and-new-controls-for-chatgpt.
- The Information — "OpenAI CEO Shifts Responsibilities, Preps ‘Spud’ AI Model" (reportage su Spud/organizzazione), aprile 2026: https://www.theinformation.com/articles/openai-ceo-shifts-responsibilities-preps-spud-ai-model.
- CNBC — copertura sul progetto Stargate e datacenter (Abilene): https://www.cnbc.com/2025/07/22/openai-oracle-stargate-texas.html.
- Tom's Guide — "OpenAI just killed Sora as company readies IPO and new 'Spud' model", 25 mar 2026: https://www.tomsguide.com/ai/openai-just-killed-sora-as-company-readies-ipo-and-new-spud-model.
- Adam Holter — analisi e raccolta rumor su "Spud" e benchmark (analisi non ufficiale), apr 2026: https://adam.holter.com/openai-spud-leaked-april-16-release-mythos-level-benchmarks-and-what-gpt-5-5-or-gpt-6-might-mean/.
- Axios — Anthropic aggiunge funzionalità di memoria (ott 2025): https://www.axios.com/2025/10/23/anthropic-claude-memory-subscribers.
- Ars Technica — articolo di contesto su sperimentazioni di memoria ChatGPT (feb 2024): https://arstechnica.com/information-technology/2024/02/amnesia-begone-soon-chatgpt-will-remember-what-you-tell-it-between-sessions/.
(Nota: ho basato l'analisi su reportage, blog tecnici e annunci ufficiali; dove ho riportato leak o cifre non ufficiali le ho esplicitamente qualificati come rumor e ho indicato la fonte primaria del leak).