
Image by Choong Deng Xiang, from Unsplash
OpenAI lancia Codex: un assistente AI per sviluppatori
OpenAI ha appena introdotto Codex, un nuovo assistente AI basato sul cloud progettato per aiutare gli sviluppatori con compiti software.
Sei di fretta? Ecco i fatti essenziali:
- Codex è la nuova IA basata sul cloud di OpenAI per le attività di sviluppo software.
- Disponibile per gli utenti Pro, Team e Enterprise; Plus e versione per l’istruzione in arrivo.
- Esegue attività in un ambiente sicuro con registri in tempo reale e output di test.
È ora disponibile per gli utenti ChatGPT Pro, Team e Enterprise, con supporto per gli utenti Plus e dell’educazione in arrivo presto.
Codex funziona su codex-1, un modello appositamente addestrato per l’ingegneria del software. Può scrivere funzionalità, correggere bug, rispondere a domande sul codice e proporre richieste di pull, tutto in parallelo. Ogni compito viene eseguito all’interno di un ambiente sicuro caricato con il codice dell’utente, rendendolo sicuro e facile da monitorare.
Codex è facile da usare: basta digitare un prompt in ChatGPT, fare clic su “Codice” o “Chiedi” e inizia a lavorare. Modifica i file, esegue i test e mostra anche i progressi in tempo reale. I compiti possono richiedere da 1 a 30 minuti, a seconda della loro complessità.
“Codex fornisce prove verificabili delle sue azioni attraverso citazioni di log di terminal e output di test”, ha spiegato OpenAI. Gli utenti possono rivedere questi risultati, chiedere modifiche, o incorporarli direttamente nel loro codice.
Codex può anche leggere istruzioni speciali dai file AGENTS.md all’interno del tuo codice sorgente. Questi file lo aiutano a capire il tuo processo di test e gli standard di codifica. Tuttavia, “codex-1 mostra un’ottima performance anche senza i file AGENTS.md”, ha affermato OpenAI.
Codex ha recentemente corretto un bug nella funzione separability_matrix della libreria Astropy. Un utente ha notato: “Improvvisamente gli input e gli output non sono più separabili? Questo mi sembra un bug.” Codex ha identificato il problema e proposto una patch che è stata accettata, dimostrando così il suo valore pratico.
OpenAI definisce questo una “anteprima di ricerca”, il che significa che è ancora in fase di miglioramento. Sottolineano l’importanza della sicurezza, della trasparenza e della supervisione umana: “Rimane ancora essenziale per gli utenti rivedere manualmente e convalidare tutto il codice generato dall’agente prima dell’integrazione e dell’esecuzione.”