Navigazione

4 aree critiche da affrontare per la regolamentazione dell’IA

I responsabili legali e della conformità devono preparare le loro organizzazioni alle normative emergenti per la regolamentazione dell'IA.

immagine in evidenza

Con la proposta da parte di diversi legislatori in tutto il mondo di regolamenti e linee guida sugli strumenti di modelli linguistici di grandi dimensioni (LLM) come ChatGPT e Google Bard, Gartner ha identificato quattro aree critiche da affrontare per i general counsel (GC) e i leader legali. "I responsabili legali possono esaminare i punti in cui le varie proposte si sovrappongono per aiutare i dirigenti e il consiglio di amministrazione a prepararsi ai cambiamenti normativi durante lo sviluppo della strategia aziendale sull'IA" ha dichiarato Laura Cohn, senior principal research di Gartner. "Anche se in molte giurisdizioni le leggi non entreranno in vigore prima del 2025, i responsabili legali possono iniziare a lavorare già oggi nell'attesa che la regolamentazione definitiva prenda forma".

Gli esperti di Gartner hanno identificato quattro azioni per i leader legali per creare una supervisione dell'IA che permetta alle loro organizzazioni di andare avanti in attesa di indicazioni definitive.

Incorporare la trasparenza nell'uso dell'IA

"La trasparenza sull'uso dell'IA sta emergendo come elemento critico delle proposte di legge in tutto il mondo", ha affermato Cohn. "I responsabili legali devono pensare a come le loro organizzazioni renderanno chiaro a tutti gli esseri umani quando interagiscono con l'IA".

Ad esempio, con l'utilizzo dell'IA nei contenuti di marketing e nel processo di assunzione, i responsabili legali possono contribuire aggiornando le note sulla privacy e i termini delle condizioni sui siti web aziendali per l'utilizzo dell'IA. Tuttavia, è meglio creare una sezione separata nel Trust Center online dell'organizzazione. Oppure, l'organizzazione potrebbe pubblicare un avviso puntuale al momento della raccolta dei dati che illustri specificamente le modalità di utilizzo dell'IA da parte dell'organizzazione. I responsabili legali potrebbero anche prendere in considerazione l'aggiornamento del codice di condotta dei fornitori con l'obbligo di notifica se un fornitore intende utilizzare l'IA.

Assicurarsi che la gestione del rischio sia continua

"I responsabili GC e legali dovrebbero partecipare a uno sforzo interfunzionale per mettere in atto controlli di gestione del rischio che abbraccino il ciclo di vita di qualsiasi strumento di IA ad alto rischio", ha affermato Cohn. "Un approccio a questo proposito può essere una valutazione dell'impatto algoritmico (AIA) che documenti il processo decisionale, dimostri la dovuta diligenza e riduca il rischio normativo presente e futuro e altre responsabilità".

intelligenza artificiale

Oltre all'ufficio legale, il GC dovrebbe coinvolgere la sicurezza delle informazioni, la gestione dei dati, la scienza dei dati, la privacy, la conformità e le unità aziendali interessate per avere un quadro più completo dei rischi. Dal momento che i responsabili legali non sono in genere i proprietari dei processi aziendali per i quali creano i controlli, la consultazione delle unità aziendali interessate è fondamentale.

Creare una governance che includa la supervisione e la responsabilità umana

"Un rischio molto evidente nell'utilizzo degli strumenti di LLM è che possono sbagliare molto pur sembrando superficialmente plausibili", continua Cohn. "Per questo motivo le autorità di regolamentazione richiedono una supervisione umana che dovrebbe fornire controlli interni sui risultati degli strumenti di IA".

Le aziende potrebbero voler designare un responsabile dell'IA per aiutare i team tecnici a progettare e implementare i controlli umani. A seconda del dipartimento che ospita l'iniziativa sull'IA, questa persona potrebbe essere un membro del team con una profonda conoscenza funzionale, un membro del team di sicurezza o di privacy o, in caso di integrazioni con la ricerca aziendale, il responsabile dell'ambiente di lavoro digitale. Il GC potrebbe inoltre istituire un comitato consultivo sull'etica digitale composto da esperti legali, operativi, informatici, di marketing ed esterni per aiutare i team di progetto a gestire le questioni etiche e assicurarsi che il consiglio di amministrazione sia al corrente di eventuali risultati.

Proteggersi dai rischi legati alla privacy dei dati

"È chiaro che le autorità di regolamentazione vogliono proteggere la privacy degli individui quando si tratta di utilizzare l'IA", conclude Cohn. "Per i responsabili legali sarà fondamentale tenere sotto controllo le nuove pratiche vietate, come il monitoraggio biometrico negli spazi pubblici".

I responsabili legali e della compliance dovrebbero gestire i rischi legati alla privacy applicando i principi della privacy-by-design alle iniziative di IA. Ad esempio, richiedere una valutazione dell'impatto sulla privacy fin dalle prime fasi del progetto o assegnare ai membri del team privacy la valutazione dei rischi per la privacy.

Con le versioni pubbliche degli strumenti di LLM, le organizzazioni devono avvisare i dipendenti che tutte le informazioni inserite possono entrare a far parte del set di dati di formazione. Ciò significa che le informazioni sensibili o proprietarie utilizzate nei prompt potrebbero finire nelle risposte degli utenti esterni all'azienda. Per questo motivo è fondamentale stabilire delle linee guida, informare il personale dei rischi connessi e fornire indicazioni su come utilizzare in sicurezza questi strumenti.

Iscriviti gratuitamente e amplia il tuo bagaglio di conoscenze! Iscriviti al convegno

Dettagli

10/07/2023

Condividi via

News correlate

Robot collaborativi: innovazione e formazione a portata di PMI

ven 26 maggio 2023

Dal food alla moda all’ambito artistico, lo scenario delle applicazioni dei robot collaborativi è sempre più ampio. Secondo i dati...

immagine in evidenza

PMI italiane, la duplice transizione digitale e green favorisce il successo all’estero

mer 06 settembre 2023

Il 67% di PMI che investono in sostenibilità e digitalizzazione fanno export, contro il 28% di PMI che non hanno...

immagine in evidenza

Con un gruppo di sensori una paziente SLA ricomincia a parlare

mer 06 settembre 2023

Una paziente di 68 anni affetta da Sclerosi Laterale Amiotrofica (SLA) che l’ha colpita nel linguaggio accetta di farsi installare...

immagine in evidenza
Scoprile tutte