L'Intelligenza Artificiale (IA) utilizza la tecnologia digitale per creare sistemi in grado di svolgere compiti che richiedono tipicamente l'intelligenza umana. Questi compiti spaziano dalla risoluzione dei problemi e presa di decisioni alla comprensione del linguaggio e percezione visiva. L'implementazione dell'IA ha il potenziale di migliorare significativamente diversi settori, risultando in un'economia più sostenibile e competitiva, migliorando la sicurezza, l'istruzione e la sanità e contribuendo alla lotta contro il cambiamento climatico. Tuttavia, con l'avanzare della tecnologia IA, cresce anche il riconoscimento dei potenziali rischi, come le preoccupazioni sulla privacy e l’utilizzo improprio di questo strumento. Ciò ha portato a un consenso sull'importanza di regolare l'IA per promuovere un approccio etico e incentrato sull'uomo.
L'Unione Europea ha adottato un metodo comprensivo per l'IA, mirato a sfruttarne i benefici assicurando la protezione dei suoi cittadini e imprese, con l’obbiettivo di migliorare la sua competitività globale e di affermarsi come leader mondiale nell'innovazione e applicazione dell'IA. Nel mese di maggio, l'UE ha fatto significativi progressi nei campi dell'IA e del super-computing con due importanti annunci: il 21 maggio, il Consiglio ha dato l'approvazione finale all'Artificial Intelligence Act, segnando un passo fondamentale nell'istituzione di regolamentazioni complete, mentre il 23 maggio, ha raggiunto un consenso politico sull'uso delle tecnologie di Super-computing. Questi sforzi evidenziano l'impegno dell'UE a promuovere un ecosistema di IA regolamentato e innovativo.
Artificial Intelligence Act
L'Artificial Intelligence Act è la prima legislazione completa che regola la tecnologia IA al mondo. Il suo obiettivo principale è promuovere l'adozione di un’IA sicura e affidabile nel mercato unico europeo, garantendo il rispetto dei diritti fondamentali dei cittadini. Al centro dell'AI Act vi è l'impegno per una maggiore trasparenza nell'uso e nello sviluppo dei sistemi di IA. Questa legislazione adotta un approccio basato sul rischio (“risk-based”), il che significa che il livello di scrutinio regolamentare dipende dal potenziale rischio che un sistema di IA pone alla società.
L’Act classifica i sistemi IA in quattro livelli di rischio:
- Rischio minimo o nullo: i sistemi considerati a rischio minimo o nullo rimarranno non regolamentati e potranno continuare a essere utilizzati senza interferenze.
- Rischio limitato: i sistemi che presentano rischi limitati saranno soggetti a requisiti minimi di trasparenza.
- Alto rischio: i sistemi che presentano un alto rischio saranno ammessi sul mercato ma dovranno soddisfare requisiti e obblighi specifici per garantire sicurezza e confromità.
- Rischio inaccettabile: i sistemi identificati come comportanti rischi inaccettabili saranno vietati. Esempi di questi sono i sistemi utilizzati per la manipolazione comportamentale cognitiva, il riconoscimento delle emozioni e il social scoring. Inoltre, l'uso dei sistemi di identificazione biometrica, compreso il riconoscimento facciale, sarà vietato con eccezioni limitate.
Fonte
: https://www.trail-ml.com/blog/eu-ai-act-how-risk-is-classified
L'AI Act si applica esclusivamente alle aree all'interno della giurisdizione dell'UE, prevedendo esenzioni per i sistemi utilizzati esclusivamente per scopi militari, di difesa o di ricerca. Per garantire un'applicazione corretta, saranno istituiti diversi organi di governo, tra cui un Ufficio AI all'interno della Commissione Europea, un panel scientifico di esperti indipendenti, un Consiglio AI con rappresentanti degli stati membri e un forum consultivo. Inoltre, prima di implementare sistemi di IA per i servizi pubblici, sarà richiesta una valutazione del loro impatto sui diritti fondamentali.
Infine, l'Act introduce i “sandbox” regolatori per l'IA, ambienti controllati dove nuovi sistemi di IA possono essere sviluppati, testati e convalidati all'interno di un quadro legale che supporta l'innovazione.
Accordo politico sull'uso del super-computing per lo sviluppo dell'AI
La Joint Undertaking EuroHPC, istituita nel 2018, è una partnership pubblico-privata volta a coordinare gli sforzi degli stati membri dell'UE per l’avanzamento delle capacità di super-computing europee e, attualmente, supervisiona nove supercomputer strategicamente situati in tutta Europa. Gli obiettivi principali dell'iniziativa includono lo sviluppo e il mantenimento di un ecosistema robusto per il super-computing, il quantum computing e l'infrastruttura di dati all'interno dell'UE. Inoltre, si concentra sulla promozione dello sviluppo di componenti, tecnologie e conoscenze per i sistemi di super-computing.
Il 24 gennaio 2024, la Commissione Europea ha proposto una regolamentazione per modificare il quadro legale esistente, in particolare il Regolamento del Consiglio 2018 (UE) 2021/1173. Questa modifica mira a introdurre un nuovo obiettivo per la Joint Undertaking EuroHPC: supportare lo sviluppo di un ecosistema di IA nell'Unione attraverso l'istituzione e l'operazione delle “AI Factories”, che serviranno per fornire infrastrutture di servizio di super-computing orientate all'IA.
Il regolamento menziona esplicitamente che startup e piccole e medie imprese dovranno essere i principali beneficiari di queste tecnologie. Pertanto, mira a rendere quest’ultime più accessibili e a facilitarne l'addestramento e lo sviluppo dei modelli. A seguito dell'accordo politico, le entità ospitanti saranno idonee a ricevere contributi finanziari dall'Unione coprenti fino al 50% dei costi di acquisizione e operativi dei supercomputer AI. L'uso principale di questi supercomputer sarà quello di sviluppare, testare, valutare e convalidare modelli di addestramento di IA di grande scala, di uso generale e applicazioni emergenti, promuovendo così l'innovazione dell’IA all'interno dell'Unione.