Dopo mesi di rinvii per motivi regolatori, Meta avvia l’addestramento della propria intelligenza artificiale in Europa. La mossa riapre il dibattito su privacy, trasparenza e protezione dei dati nell’era dell’AI generativa.
Meta Platforms, la società madre di Facebook e Instagram, ha annunciato ufficialmente che utilizzerà le interazioni con la sua intelligenza artificiale e i contenuti pubblici condivisi dagli utenti adulti dell’Unione Europea per addestrare i suoi modelli di IA generativa. La comunicazione arriva dopo il lancio europeo di Meta AI, inizialmente previsto per giugno 2024, ma poi rinviato a causa delle forti perplessità sollevate dalle autorità regolatorie europee in materia di protezione dei dati e privacy.
Un lancio europeo tra vincoli normativi e nuove opportunità
Meta AI, già operativo negli Stati Uniti dal 2023, ha affrontato numerosi ostacoli nel suo approdo al mercato europeo. Le rigide norme del GDPR, combinate con una crescente attenzione pubblica al trattamento dei dati personali, hanno imposto a Meta di rivedere la propria strategia per evitare sanzioni e danni reputazionali.
A partire da questa settimana, gli utenti europei di Facebook, Instagram e altri servizi Meta riceveranno notifiche dedicate che spiegano nel dettaglio quali dati verranno utilizzati: si tratta, nello specifico, di post e commenti pubblici condivisi da utenti adulti, oltre alle interazioni dirette con Meta AI, come domande e richieste effettuate tramite la piattaforma.
Meta ha precisato che:
- Non verranno utilizzati messaggi privati
- I contenuti degli utenti minori di 18 anni saranno esclusi dall’addestramento
- Sarà possibile esercitare il diritto di opposizione compilando un modulo dedicato, in conformità con quanto previsto dal GDPR
Rischi e implicazioni legali: la sorveglianza delle autorità europee
L’annuncio arriva in un momento in cui il tema della tutela dei dati personali per lo sviluppo dell’AI è sotto esame in tutta Europa. Non a caso, l’Irish Data Protection Commission (DPC) – che svolge il ruolo di principale autorità di vigilanza per Meta nell’UE – aveva già obbligato la società a posticipare il lancio del progetto AI lo scorso anno. Contestualmente, l’organizzazione NOYB (None Of Your Business) ha chiesto un intervento immediato dei Garanti nazionali per impedire l’uso improprio dei dati pubblici degli utenti.
L’assenza di un commento ufficiale da parte della Commissione Europea non impedisce di intravedere un possibile scontro tra l’approccio pro-business delle big tech e la tutela normativa europea.
Google, X e il modello di regolazione europea
Meta non è l’unica grande azienda tecnologica a finire sotto la lente delle autorità europee per l’addestramento dei modelli di intelligenza artificiale. Alphabet (Google) e X (l’ex Twitter di Elon Musk) sono oggetto di indagini parallele da parte dell’Irish DPC. In particolare:
- X è sospettata di aver utilizzato dati personali degli utenti europei per addestrare il proprio modello Grok
- Google è sotto indagine da settembre per potenziali carenze nella protezione dei dati prima dell’addestramento dei suoi modelli AI
La crescente attenzione delle autorità segnala una chiara volontà dell’Unione Europea di mantenere alta la guardia sulle pratiche delle big tech, anche in vista dell’imminente applicazione dell’AI Act, il primo regolamento organico sull’intelligenza artificiale approvato dall’UE.
Un equilibrio difficile tra innovazione e diritti digitali
L’annuncio di Meta segna un passo significativo nel tentativo dell’azienda di entrare in modo competitivo nel mercato europeo dell’IA, oggi dominato da attori come OpenAI, Google DeepMind e Anthropic. Tuttavia, l’iniziativa riporta al centro il nodo cruciale dell’etica nell’addestramento dei modelli di IA: quanto è giusto utilizzare i dati pubblici – anche se tecnicamente disponibili – senza un consenso esplicito e informato?
In un’epoca in cui i dati sono la nuova moneta dell’economia digitale, la sfida dell’UE sarà quella di proteggere i diritti dei cittadini senza soffocare l’innovazione. Meta, come altri giganti tecnologici, dovrà imparare a operare in un contesto normativo più stringente e trasparente.