Gli Europarlamentari hanno avvertito la Commissione Europea di non cedere a pressioni volte ad allentare le regole sulla regolamentazione dell’intelligenza artificiale, un’azione che potrebbe favorire le grandi aziende tecnologiche statunitensi come OpenAI e Google. La Commissione sta valutando modifiche che potrebbero rendere alcune parti della normativa facoltative, anziché obbligatorie, sollevando preoccupazioni tra i legislatori.
Pressioni per un codice di condotta meno stringente
La discussione si concentra sulla creazione di un “codice di condotta” che dovrebbe fornire linee guida su come applicare la legge a modelli di AI avanzati come Gemini di Google, Llama di Meta e GPT-4 di OpenAI. Tuttavia, alcuni europarlamentari temono che un’eccessiva flessibilità possa compromettere l’efficacia della normativa.
Secondo una lettera inviata alla Commissaria per il digitale, Henna Virkkunen, firmata da diversi parlamentari europei coinvolti nella regolamentazione dell’AI, accogliere le richieste delle big tech e dell’amministrazione Trump sarebbe “pericoloso, antidemocratico e creerebbe incertezza giuridica”. La lettera sottolinea i rischi di affidare alle aziende AI un’autoregolamentazione e avverte che la mancanza di regole rigide potrebbe facilitare interferenze elettorali, discriminazione e la diffusione di contenuti illegali.
L’intensa pressione delle big tech e degli Stati Uniti
Bruxelles ha subito un forte lobbying da parte delle aziende tecnologiche americane. Meta, per esempio, ha avvertito che le attuali regole dell’UE sulla privacy impediscono il lancio di alcuni dei suoi prodotti AI. Joel Kaplan, responsabile degli affari globali di Meta, ha definito il codice di condotta proposto “irrealizzabile e tecnicamente inattuabile”.
Anche altri colossi tecnologici come Google, nonché aziende europee come Spotify ed Ericsson, hanno criticato l’AI Act per il suo impatto sulle operazioni aziendali. Inoltre, il vicepresidente degli Stati Uniti JD Vance ha denunciato quella che ha definito “eccessiva regolamentazione dell’AI” in un recente intervento al summit sull’intelligenza artificiale di Parigi, sottolineando la necessità di un’intelligenza artificiale libera da “pregiudizi ideologici”.
Dibattito sul futuro della regolamentazione AI in Europa
La nuova Commissione Europea, in carica da dicembre 2023, ha mostrato una maggiore attenzione all’attrazione di investimenti nel settore dell’AI, decidendo di ritirare una proposta di direttiva sulla responsabilità dell’AI come parte di un più ampio programma di deregolamentazione.
Nonostante ciò, Henna Virkkunen ha ribadito che la Commissione rimane impegnata a garantire un ambiente digitale equo, sicuro e democratico. Tuttavia, l’approccio futuro dell’UE sulla regolamentazione dell’AI resta incerto: da un lato, la volontà di evitare un’eccessiva rigidità per favorire l’innovazione e gli investimenti; dall’altro, la necessità di regole chiare per prevenire abusi e garantire un utilizzo responsabile della tecnologia.
La decisione finale sul codice di condotta dell’AI Act è prevista per maggio e sarà un banco di prova per il futuro della regolamentazione europea in questo settore strategico.