top of page
Cerca
  • infolobbyingitalia

Esclusivo: OpenAI ha fatto pressioni sull'UE per annacquare il regolamento sull'IA


Il CEO di OpenAI, Sam Altman, ha trascorso l'ultimo mese in tournée nelle capitali mondiali dove, in occasione di colloqui con folle esaurite e in incontri con capi di governo, ha ripetutamente parlato della necessità di una regolamentazione globale dell'IA.

Ma dietro le quinte, OpenAI ha fatto pressioni affinché elementi significativi della legislazione sull'IA più completa al mondo, l'AI Act dell'UE, venissero annacquati in modo da ridurre l'onere normativo per l'azienda, secondo i documenti sull'impegno di OpenAI con l'UE funzionari ottenuti da TIME dalla Commissione europea tramite richieste di libertà di informazione.

In diversi casi, OpenAI ha proposto modifiche che sono state successivamente apportate al testo finale della legge dell'UE, che è stato approvato dal Parlamento europeo il 14 giugno e ora procederà a un round finale di negoziati prima di essere finalizzato a gennaio.

Nel 2022, OpenAI ha ripetutamente sostenuto ai funzionari europei che l'imminente legge sull'intelligenza artificiale non dovrebbe considerare i suoi sistemi di intelligenza artificiale generici, tra cui GPT-3, il precursore di ChatGPT e il generatore di immagini Dall-E 2, come "ad alto rischio", un designazione che li sottoporrebbe a severi requisiti legali tra cui trasparenza, tracciabilità e supervisione umana.

Tale argomentazione ha portato OpenAI in linea con Microsoft, che ha investito 13 miliardi di dollari nel laboratorio di intelligenza artificiale, e Google, che in precedenza avevano entrambi esercitato pressioni sui funzionari dell'UE a favore dell'allentamento dell'onere normativo della legge sui grandi fornitori di intelligenza artificiale. Entrambe le società hanno sostenuto che l'onere di conformarsi ai requisiti più severi della legge dovrebbe ricadere sulle aziende che hanno esplicitamente deciso di applicare un'intelligenza artificiale a un caso d'uso ad alto rischio, non sulle aziende (spesso più grandi) che costruiscono sistemi di intelligenza artificiale generici.


"Di per sé, GPT-3 non è un sistema ad alto rischio", ha affermato OpenAI in un documento di sette pagine inedito inviato ai funzionari della Commissione e del Consiglio dell'UE nel settembre 2022, intitolato OpenAI White Paper on the European Union's Artificial Intelligence Act . "Ma [esso] possiede capacità che possono essere potenzialmente impiegate in casi d'uso ad alto rischio."


TIME sta pubblicando il Libro bianco per intero insieme a questa storia.


2 visualizzazioni0 commenti
Post: Blog2_Post
  • Black Icon LinkedIn
  • Twitter
bottom of page