Saperi in Rete

Seguici sui nostri canali

Diario Digitale 2 – Le regole UE per l’intelligenza artificiale


Pubblicato il 6 Febbraio 2024

 

L’intelligenza artificiale (IA) sta rivoluzionando il mondo con il suo impatto in costante crescita. L’IA rappresenta l’uso della tecnologia digitale per creare sistemi in grado di compiere compiti tradizionalmente associati all’intelligenza umana. Sebbene questa tecnologia non sia una novità assoluta, negli ultimi tempi ha fatto passi da gigante grazie ai progressi nella potenza di calcolo dei computer e all’abbondanza di dati a disposizione. In pochi mesi, abbiamo assistito all’ascesa di notevoli innovazioni, tra cui la celebre CHAT GPT di OpenAI, che sta sfidando concorrenti del calibro di BING AI di Microsoft e BARD di Google. Ma non si tratta solo di assistenti virtuali. Strumenti sofisticati per la creazione di contenuti testuali, audio e video, come Mid Journey per le immagini e Pictory per i video, stanno emergendo, e le grandi aziende tech stanno investendo ingenti risorse per istruire supercomputer in grado di eseguire operazioni complesse in pochi istanti.

Tuttavia, con l’innovazione arrivano anche nuove sfide e domande etiche. Alla luce di questo, il Parlamento e il Consiglio europeo hanno lavorato instancabilmente per raggiungere un accordo storico sull’AI Act, la prima legge al mondo che affronta in modo completo lo sviluppo del settore. Questo posiziona l’Unione Europea all’avanguardia nella regolamentazione dell’intelligenza artificiale, superando gli Stati Uniti e la Cina.

L’AI Act si concentra sulla promozione di un’IA etica e responsabile, con principi chiave che includono sicurezza, trasparenza e rispetto dei diritti umani. Affronta questioni cruciali come la privacy, la non discriminazione, la trasparenza nelle decisioni algoritmiche e la sicurezza dei dati personali.

Il sistema di classificazione proposto suddivide gli applicativi di IA in quattro categorie di rischio, dall’uno al quattro, determinando il livello di regolamentazione necessario. Questo garantisce un equilibrio tra innovazione e protezione dei cittadini. Le pratiche vietate includono l’uso di caratteristiche sensibili per la categorizzazione biometrica, la raccolta non mirata di immagini del volto per scopi di riconoscimento, il monitoraggio delle persone sul posto di lavoro e nelle scuole, il social scoring e tecniche manipolative.

Sebbene l’UE stia dimostrando di essere un leader globale nell’approccio all’IA centrata sull’umano e responsabile, la sua implementazione potrebbe rappresentare una sfida per le piccole e medie imprese. Pertanto, l’armonizzazione delle regolamentazioni a livello internazionale rimane cruciale per garantire che l’innovazione e il commercio non subiscano ostacoli. Il Commissario UE al mercato, Thierry Brethon, non esagera nel definire questo passo storico nella regolamentazione dell’IA.