08/10/2025Tre grandi novità da OpenAI, ma in Europa dovremo aspettare
Lunedì si è tenuto il DevDay, il momento annuale in cui OpenAI annuncia le novità per gli sviluppatori.
Ho guardato il Keynote, dove sono state annunciate diverse cose, e volevo fare il punto della situazione. 👀
Le novità del DevDay
OpenAI ha annunciato 3 novità principali, e sono tutte già disponibili (ma in Europa non ancora):
1) Apps SDK
2) AgentKit
3) Codex
Vediamole una per una, e ti lascio anche tutti i link per approfondire 🙌
1️⃣ Apps SDK: le app arrivano su ChatGPT
Immagina di essere su ChatGPT. Stai scrivendo la scaletta per una presentazione e, a un certo punto, pensi: “Mi servirebbe una mano con le slide.”
Prima dovevi aprire Canva, scegliere un template, caricare il testo, aggiustare i colori…
Ora ti basterà scrivere: “Canva, trasforma questa idea in una presentazione.”
Canva si apre dentro la chat, ti mostra un’interfaccia interattiva e puoi vedere tutto lì.

Questo è un esempio pratico di quello che puoi fare con la nuova funzionalità.
Ora, non essendo ancora disponibile da noi e non avendola provata, non posso dare un’opinione vera e propria sul funzionamento, ma non appena sarà disponibile e l’avrò testata ti farò sapere meglio che ne penso. 🙌
(Il rilascio è previsto a breve anche in UE.)
Ma nel concreto come funziona l'utilizzo delle app su ChatGPT? 🤔
L’Apps SDK è basato sullo standard open source MCP (Model Context Protocol).
Questo standard permette a ChatGPT di collegarsi a strumenti e dati esterni, mantenendo sempre il contesto della conversazione.
Questi sono gli step per usare un’app:
📌 Scrivi il nome dell’app e il comando.
📌 Al primo utilizzo, ChatGPT ti chiederà di connetterti all’app e approvare quali dati può usare.
📌 Dopo di che puoi continuare a chattare normalmente: ChatGPT sa cosa stai facendo e ti aiuta passo dopo passo.
Sembra che ci sarà la possibilità di sviluppare le proprie app e verso fine anno si potranno anche pubblicare ufficialmente e monetizzare.
2️⃣ AgentKit
“L’AI si è evoluta da sistema a cui chiedi cose, a sistemi a cui chiedi di fare cose per te.”
Questa è la frase con cui Sam Altman ha aperto la presentazione dell’AgentKit.
Si tratta di un editor per sviluppatori, basato su nodi.

Permette di creare agenti AI personalizzati collegando:
-nodi MCP e connettori (per integrare servizi esterni)
-logiche if/else
-e widget personalizzati. Include anche una libreria di widget già pronta per velocizzare la costruzione.
Immagina un canvas drag-and-drop. Puoi collegare “blocchi” logici, strumenti o prompt, vedere come si comportano e gestire il tutto insieme.
Ti faccio un esempio:
- Fai un agente che legge documenti da Google Drive
- chiede al modello di riassumerli
- e manda il risultato su Slack
Puoi vedere tutto il flusso in un diagramma, testarlo e aggiornarlo al volo.
Puoi anche aggiungere Guardrails, cioè “protezioni” che impediscono all’agente di dire cose sbagliate o divulgare dati sensibili.
Se, per esempio, un cliente chiede “dimmi il numero di carta di credito salvato”, il Guardrail blocca la risposta.
3️⃣ Codex
Codex ora è disponibile per tutti.
È l’assistente AI pensato per aiutare gli sviluppatori a scrivere, capire e migliorare codice ovunque lavorino, nel terminale, nell’IDE o direttamente nel cloud.
La novità principale con questa nuova versione è che puoi usare Codex direttamente su Slack: “@Codex, puoi sistemare il bug nel file login.js?”
Da lì puoi:
-Accettare le modifiche,
-Continuare a lavorare sul codice,
-O scaricare tutto sul tuo computer e finirlo in locale.

OpenAI ha rilasciato anche un SDK (Software Development Kit) che permette di integrare Codex ovunque: nei tuoi strumenti, nelle app interne, nei flussi CI/CD su GitHub, o persino in script da terminale.
La demo live fatta da Romain Huet (Head of Developer Experience in OpenAI) secondo me è stata super interessante.
In sostanza, ha usato Codex per controllare videocamera e microfoni con un joystick dell’xbox all’interno della sala.
Tramite la voice mode ha chiesto all’AI:
-cosa vedesse attraverso la fotocamera
-di accendere e spostare la luce sulle persone del pubblico
-di fare un intro di benvenuto
E tutto questo senza scrivere una linea di codice.
Questo è davvero impressionante.
Se vuoi vedere questa parte della demo, nel video di presentazione vai al minuto 42. 🙂
Altre novità sono queste:
-GPT-5 Pro è ora disponibile via API.
-GPT-Realtime Mini: un nuovo modello vocale, più economico del 70%, pensato per interazioni rapide in tempo reale.
-Sora 2 (preview) arriva nelle API: ora supporta audio, controllo della lunghezza del video, remix, e la gestione di aspect ratio e risoluzione.
Ci siamo, questo era un recap di tutte le cose importanti! ☘️
Non appena saranno disponibili anche da noi e le avrò testate, ti farò sapere più nel dettaglio cosa ne penso.
Un’ultima cosa...
Negli ultimi mesi, il nostro team Engineering ha lavorato tanto per sviluppare qualcosa di cui non posso ancora dirti molto.
Ma a breve ti racconterò meglio, questione di giorni. 👀
Nel frattempo, ti lascio un link dove puoi iniziare a dare un’occhiata e iscriverti alla waitlist per altri aggiornamenti…(e forse capisci già di cosa si tratta) 👉 https://bit.ly/teaser-nl