
Photo by 2H Media on Unsplash
Anthropic propone un Quadro di Trasparenza per lo Sviluppo del Modello di Intelligenza Artificiale
La società di intelligenza artificiale Anthropic ha proposto lunedì un quadro di trasparenza per modelli di AI avanzati e aziende che sviluppano sistemi AI di frontiera, destinato ad essere applicato a livello regionale o internazionale. La startup ha delineato misure di sicurezza, passaggi azionabili e standard minimi per migliorare la trasparenza dell’IA.
Sei di fretta? Ecco i fatti essenziali:
- Anthropic ha proposto un quadro di trasparenza per modelli AI avanzati e per le aziende che sviluppano sistemi AI di frontiera.
- La società tecnologica riconosce la rapida evoluzione dello sviluppo dell’IA e l’urgenza di concordare su framework di sicurezza per sviluppare prodotti sicuri.
- Il quadro proposto è rivolto alle grandi aziende del settore.
Anthropic ha spiegato in un annuncio sul suo sito web che lo sviluppo di modelli di IA è progredito più rapidamente della creazione di misure di sicurezza e accordi da parte di aziende, governi o accademia. L’azienda tecnologica ha esortato tutte le parti interessate a accelerare i loro sforzi per garantire lo sviluppo sicuro di prodotti di IA e ha offerto il suo quadro di trasparenza come modello o riferimento.
“Abbiamo bisogno di passaggi intermedi per garantire che l’IA molto potente sia sviluppata in modo sicuro, responsabile e trasparente”, afferma l’annuncio. “Stiamo quindi proponendo un quadro di trasparenza mirato, che potrebbe essere applicato a livello federale, statale o internazionale, e che si applica solo ai più grandi sistemi e sviluppatori di IA, stabilendo al contempo chiari requisiti di divulgazione per le pratiche di sicurezza”.
L’approccio di Anthropic è stato semplificato per mantenerlo flessibile e leggero. “Non dovrebbe ostacolare l’innovazione dell’IA, né dovrebbe rallentare la nostra capacità di realizzare i benefici dell’IA, tra cui la scoperta di farmaci salvavita, la rapida erogazione di benefici pubblici e le funzioni critiche per la sicurezza nazionale”, ha chiarito l’azienda.
L’azienda tecnologica ha riconosciuto che i rigidi schemi e standard possono rapidamente diventare obsoleti poiché la tecnologia continua a progredire a un ritmo rapido.
Anthropic suggerisce che i requisiti di trasparenza dell’IA dovrebbero applicarsi solo ai grandi sviluppatori di modelli di frontiera, per evitare di gravare su piccole startup e sviluppatori a basso impatto. La soglia proposta è di $100 milioni di entrate annuali o $1 miliardo di spese in capitale annue.
I grandi sviluppatori dovrebbero anche creare un Framework di Sviluppo Sicuro pubblico che includa come mitigare i rischi, compresi i danni causati da modelli non allineati e la creazione di armi chimiche, nucleari, biologiche o radiologiche.
Una delle proposte più severe è volta a proteggere i whistleblower. “Rendere esplicitamente una violazione della legge per un laboratorio mentire sulla sua conformità con il suo framework,” ha scritto Anthropic nel documento condiviso. L’azienda ha sottolineato che gli standard di trasparenza dovrebbero includere una base minima e rimanere flessibili, con requisiti leggeri per aiutare a raggiungere il consenso.
Anthropic si aspetta che l’annuncio e il proposto quadro di trasparenza fungano da linee guida per i governi da adottare in legge e promuovere una “pratica responsabile”.
Dopo aver rilasciato il suo ultimo modello di IA, Claude 4, Anthropic ha incluso un avviso di sicurezza—etichettando il modello Opus 4 al Livello di Sicurezza 3 a causa dei suoi potenziali rischi.