Intelligenza artificiale: il piano d’azione del CNIL
Di fronte alle recenti notizie sull’intelligenza artificiale, e in particolare sulle cosiddette IA generative come ChatGPT, la CNIL pubblica un piano d’azione per la diffusione di sistemi di IA che rispettino la privacy delle persone.
L’essenziale :
- La CNIL lavora da diversi anni per anticipare e rispondere alle questioni sollevate da AI.
- Nel 2023 estenderà la sua azione sulle fotocamere aumentate e desidera ampliare il suo lavoro all’IA generativa, ai modelli di linguaggio di grandi dimensioni e alle applicazioni derivate (in particolare i chatbot).
- Il suo piano d’azione si basa su 4 componenti:
- capire come funzionano i sistemi di intelligenza artificiale e il loro impatto sulle persone;
- consentire e regolamentare lo sviluppo dell’IA rispettosa della privacy;
- unire e supportare attori innovativi nell’ecosistema AI in Francia e in Europa;
- controllare e controllare i sistemi di intelligenza artificiale e proteggere le persone.
- Questo lavoro permetterà anche di preparare l’entrata in vigore della bozza di regolamento europeo sull’IA, attualmente in discussione.
La protezione dei dati personali, tema fondamentale nello sviluppo dell’AI
Lo sviluppo dell’intelligenza artificiale è accompagnato da questioni in termini di protezione dei dati e libertà individuali a cui la CNIL si impegna a rispondere ormai da diversi anni. Dalla pubblicazione nel 2017 del suo rapporto sulle questioni etiche degli algoritmi e dell’intelligenza artificiale , la CNIL si è espressa in diverse occasioni sulle questioni sollevate dai nuovi strumenti apportati da questa nuova tecnologia.
In particolare, le intelligenze artificiali generative (vedi riquadro sotto) si stanno sviluppando rapidamente da diversi mesi, sia nel campo del testo che della conversazione, tramite modelli di linguaggio di grandi dimensioni (LLM in inglese), come GPT-3, BLOOM o Megatron NLG e derivati chatbot (ChatGPT o Bard), ma anche nell’imaging (Dall-E, Midjourney, Stable Diffusion, ecc.) o persino nel parlato (Vall-E).
Questi modelli di fondazione e i mattoni tecnologici basati su di essi sembrano già trovare molte applicazioni in vari settori. Tuttavia, la comprensione del loro funzionamento, delle loro possibilità e dei loro limiti, nonché delle questioni legali, etiche e tecniche relative al loro sviluppo e al loro utilizzo sono ancora ampiamente oggetto di dibattito.
Considerando che la protezione dei dati personali è una questione importante per la progettazione e l’utilizzo di questi strumenti , la CNIL pubblica il suo piano d’azione sull’intelligenza artificiale che mira – tra le altre cose – a presidiare lo sviluppo dell’IA generativa.
Cos’è l’IA generativa?
Un’intelligenza artificiale generativa è un sistema in grado di creare testo, immagini o altri contenuti (musica, video, voce, ecc.) sulla base di un’istruzione di un utente umano . Questi sistemi possono produrre nuovi contenuti dai dati di addestramento. Le loro esibizioni oggi si avvicinano ad alcune produzioni realizzate da persone a causa della grande quantità di dati utilizzati per la loro formazione. Tuttavia, questi sistemi richiedono all’utente di specificare chiaramente le proprie query per ottenere i risultati attesi. Si sviluppa quindi un vero e proprio know-how attorno alla composizione delle richieste degli utenti ( prompt engineering ).
Ad esempio, l’immagine qui sotto, intitolata “Space Opera Theatre”, è stata generata dall’utente Jason M. Allen utilizzando lo strumento Midjourney sulla base di un’istruzione di testo che descrive le sue aspettative (sceneggiatura teatrale, abiti, ispirazioni pittoriche, ecc.).
Un piano d’azione su quattro fronti
Da diversi anni, la CNIL ha intrapreso un lavoro volto ad anticipare e rispondere alle sfide poste dall’intelligenza artificiale, alle sue varie forme (classificazione, previsione, generazione di contenuti, ecc.) e ai suoi vari casi d’uso. Il suo nuovo dipartimento di intelligenza artificiale sarà dedicato a queste domande e supporterà gli altri dipartimenti della CNIL che si trovano anch’essi di fronte all’uso di questi algoritmi in molti contesti.
Di fronte alle questioni relative alla tutela delle libertà, all’accelerazione dell’IA e all’attualità legata all’IA generativa, la regolamentazione dell’intelligenza artificiale è al centro dell’azione della CNIL.
Questo regolamento è strutturato attorno a quattro obiettivi:
- Comprendi come funzionano i sistemi di intelligenza artificiale e il loro impatto sulle persone
- Consentire e supervisionare lo sviluppo dell’IA che rispetti i dati personali
- Federare e supportare attori innovativi nell’ecosistema AI in Francia e in Europa
- Verifica e controlla i sistemi di intelligenza artificiale e proteggi le persone
1.Comprendi come funzionano i sistemi di intelligenza artificiale e il loro impatto sulle persone
Le tecniche innovative utilizzate per la progettazione e il funzionamento degli strumenti di intelligenza artificiale sollevano nuovi interrogativi sulla protezione dei dati, in particolare:
- la correttezza e la trasparenza del trattamento dei dati alla base del funzionamento di tali strumenti;
- la protezione dei dati pubblicamente accessibili sul Web contro l’uso della raccolta, o scraping, di dati per la progettazione di strumenti;
- la protezione dei dati trasmessi dagli utenti quando utilizzano questi strumenti, dalla loro raccolta (tramite un’interfaccia) al loro eventuale riutilizzo, inclusa la loro elaborazione mediante algoritmi di apprendimento automatico;
- le conseguenze sui diritti delle persone sui propri dati , sia per quanto riguarda quelli raccolti per i modelli di apprendimento, sia per quelli che possono essere forniti da questi sistemi, come i contenuti creati nel caso dell’IA generativa;
- protezione contro pregiudizi e discriminazioni che possono verificarsi;
- i problemi di sicurezza senza precedenti di questi strumenti.
Questi aspetti costituiranno una delle aree di lavoro prioritarie per il dipartimento di intelligenza artificiale e il laboratorio di innovazione digitale (LINC) della CNIL.
LINC FILE
Per evidenziare alcune di queste problematiche specifiche dell’IA generativa , il Laboratorio di Innovazione Digitale (LINC) della CNIL ha pubblicato un dossier ad esse dedicato . Composto da quattro sezioni, questo file:
- dettaglia il funzionamento tecnico dei recenti agenti conversazionali e ricorda il posto centrale dei dati per la costituzione dei modelli di fondazione sottostanti;
- delinea varie questioni giuridiche sollevate dall’elaborazione di tali modelli, sia per la proprietà intellettuale che per la protezione dei dati;
- specifica le questioni etiche dell’IA generativa per quanto riguarda l’affidabilità delle informazioni, gli usi dannosi nonché i modi per rilevare e avvertire il pubblico della presenza di contenuti così generati;
- illustra attraverso vari esperimenti gli usi positivi o negativi che si possono fare di questi strumenti.
Questo file integra le risorse offerte dalla CNIL sul suo sito Web per i professionisti e il pubblico in generale.
2. Consentire e supervisionare lo sviluppo dell’IA che rispetti i dati personali
Molti attori hanno informato la CNIL dell’incertezza che circonda l’applicazione del GDPR all’IA, in particolare per la formazione delle IA generative.
Al fine di supportare gli attori nel campo dell’intelligenza artificiale e preparare l’entrata in vigore del regolamento europeo sull’IA (in discussione a livello europeo e su cui la CNIL e le sue controparti europee avevano pubblicato un parere nel 2021 ), la CNIL offre già:
- i primi fogli sull’IA, pubblicati nel 2022 su cnil.fr, che includono in particolare contenuti educativi sui principi fondamentali dell’IA e una guida per supportare i professionisti nella loro compliance;
- una presa di posizione, anch’essa pubblicata nel 2022, sull’utilizzo della videosorveglianza “aumentata” che utilizza l’IA sulle immagini dello spazio pubblico.
Continua il suo lavoro dottrinale e pubblicherà presto diversi documenti. In tal modo :
- la CNIL presenterà presto per la consultazione una guida sulle norme applicabili alla condivisione e al riutilizzo dei dati. Questo lavoro includerà in particolare la questione del riutilizzo dei dati liberamente accessibili su Internet e attualmente utilizzati per l’apprendimento di molti modelli di intelligenza artificiale. Questa guida sarà quindi rilevante per tutta una parte del trattamento dei dati necessario per la progettazione di sistemi di IA, compresa l’IA generativa.
- continuerà inoltre il suo lavoro sulla progettazione di sistemi di intelligenza artificiale e sulla creazione di database per l’apprendimento automatico. Questi daranno vita a diverse pubblicazioni dall’estate del 2023 , a seguito della consultazione già organizzata con diversi attori, al fine di fornire raccomandazioni concrete, in particolare per quanto riguarda il design dell’IA come ChatGPT. Gradualmente verranno affrontati i seguenti argomenti:
- l’utilizzo del regime della ricerca scientifica per la costituzione e il riutilizzo delle banche dati della formazione;
- l’applicazione del principio di finalità alle IA di uso generale e ai modelli di fondazione come i modelli di linguaggi di grandi dimensioni;
- la spiegazione della ripartizione delle responsabilità tra le entità che costituiscono i database, quelle che sviluppano modelli a partire da questi dati e quelle che utilizzano questi modelli;
- le regole e le buone pratiche applicabili alla selezione dei dati per la formazione, nel rispetto dei principi di accuratezza e minimizzazione dei dati;
- la gestione dei diritti delle persone fisiche e in particolare i diritti di accesso, rettifica e opposizione;
- le norme applicabili in materia di periodo di conservazione, in particolare per le basi formative ei modelli più complessi da realizzare;
- infine, consapevole che le questioni sollevate dai sistemi di intelligenza artificiale non si fermano alla loro progettazione, la CNIL prosegue anche le sue riflessioni etiche sull’uso e la condivisione di modelli di apprendimento automatico, la prevenzione e correzione di pregiudizi e discriminazioni, o sulla certificazione di Sistemi di intelligenza artificiale.
3.Federare e supportare attori innovativi nell’ecosistema AI in Francia e in Europa
Il regolamento AI della CNIL mira a far emergere, promuovere e aiutare i giocatori a prosperare in un quadro fedele ai valori di protezione dei diritti e delle libertà fondamentali francesi ed europei. Questo sostegno, che è già stato avviato, assume tre forme:
- 2 anni fa, la CNIL ha lanciato una “sandbox” per sostenere progetti e attori innovativi, che l’ha portata a esaminare progetti basati sull’IA. Le “sandbox” sulla salute nel 2021 (12 progetti sostenuti) e sull’istruzione nel 2022 (10 progetti sostenuti) hanno così permesso di fornire una consulenza adeguata agli attori innovativi dell’IA in questi campi. La CNIL aprirà presto un nuovo bando per progetti per l’edizione 2023, che riguarderà in particolare l’uso dell’intelligenza artificiale nel settore pubblico;
- ha avviato uno specifico programma di sostegno ai fornitori di videosorveglianza “aumentata” nell’ambito della sperimentazione prevista dalla legge relativa ai Giochi Olimpici e Paralimpici del 2024 ;
- infine, la CNIL ha aperto nel 2023 un nuovo programma di “sostegno rafforzato” per assistere le imprese innovative nella loro conformità al GDPR: i primi vincitori di questo sostegno rafforzato sono le imprese innovative nel campo dell’IA.
Più in generale, la CNIL desidera impegnarsi in un dialogo vivace con gruppi di ricerca, centri di ricerca e sviluppo e aziende francesi che sviluppano o desiderano sviluppare sistemi di intelligenza artificiale in una logica di rispetto delle norme sulla protezione dei dati personali.
Questi team e aziende possono contattare la CNIL all’indirizzo ia@cnil.fr .
4. Verifica e controlla i sistemi di intelligenza artificiale e proteggi le persone
La definizione del quadro che consente lo sviluppo di sistemi di intelligenza artificiale nel rispetto dei diritti e delle libertà individuali implica, a valle, che la CNIL monitori la conformità. È quindi essenziale che la CNIL sviluppi uno strumento che le consenta di controllare i sistemi di IA che le vengono sottoposti, sia a priori che a posteriori.
Nel 2023 l’azione di controllo della CNIL si concentrerà in particolare su:
- rispetto della posizione sull’utilizzo della videosorveglianza “aumentata” , pubblicata nel 2022, da parte di soggetti pubblici e privati;
- l’utilizzo dell’intelligenza artificiale per il contrasto alle frodi , ad esempio per il contrasto alle frodi previdenziali, con riguardo alle problematiche connesse all’utilizzo di tali algoritmi;
- indagine sulle denunce presentate alla CNIL. Se è necessario chiarire il quadro giuridico per la formazione e l’uso delle IA generative, cosa che farà la CNIL, sono già state presentate denunce. La CNIL ha, in particolare, ricevuto diverse denunce contro la società OpenAI che gestisce il servizio ChatGPT, e ha aperto un procedimento ispettivo. Parallelamente, è stato creato un gruppo di lavoro dedicato all’interno del Comitato europeo per la protezione dei dati o GEPD , al fine di garantire un approccio coordinato da parte delle autorità europee e un’analisi armonizzata del trattamento dei dati attuato dallo strumento OpenAI.
La CNIL sarà particolarmente attenta a garantire che gli attori che trattano dati personali al fine di sviluppare, addestrare o utilizzare sistemi di intelligenza artificiale abbiano:
- ha effettuato una valutazione dell’impatto sulla protezione dei dati (DPIA) per documentare i rischi e ha adottato misure per mitigarli;
- adottato misure per informare le persone;
- prevedeva misure per l’esercizio dei diritti delle persone adattate a questo particolare contesto.
Grazie a questo lavoro collettivo ed essenziale, la CNIL desidera stabilire regole chiare che proteggano i dati personali dei cittadini europei al fine di contribuire allo sviluppo di sistemi di intelligenza artificiale rispettosi della privacy.