Come gli USA regolamenteranno l'Intelligenza Artificiale e cosa faremo noi
Un commento personale all'articolo Regulating AI in the US: A Balancing Act pubblicato dal MIT Technology Review, per capire come l'intelligenza artificiale potrà essere regolamentata negli USA e fare qualche riflessione interna per il nostro Paese.
L'articolo di Tate Ryan-Mosley sul possibile quadro normativo dell'IA da parte del Congresso degli Stati Uniti fornisce un'interessante panoramica delle tendenze emergenti nel campo delle politiche tecnologiche.
È evidente che i legislatori statunitensi stanno considerando attivamente l'importanza di sviluppare normative adeguate per l'IA, tenendo conto di diversi fattori chiave.
Ci sono tre temi principali che emergono da questo dibattito e che contribuiranno a plasmare il futuro della regolamentazione dell'IA negli Stati Uniti.
Innovazione e competitività
Il primo tema di rilievo è l'attenzione rivolta all'innovazione e alla competitività degli Stati Uniti.
Come sottolineato da Schumer, la strategia di regolamentazione dell'IA dovrebbe mantenere l'innovazione come "punto di riferimento" fondamentale. È comprensibile che il Congresso statunitense cerchi di proteggere l'industria tecnologica del paese, soprattutto considerando che molte delle principali aziende di IA sono di origine statunitense. È probabile che i regolatori si avvicinino alle aziende tecnologiche per capire come preferiscono essere regolamentate.
Tuttavia, il bilanciamento tra innovazione e regolamentazione sarà una sfida cruciale, poiché sarà importante evitare che gli interessi commerciali compromettano la sicurezza e l'etica dell'IA.
Intelligenza artificiale e valori democratici
Il secondo tema di grande rilevanza è l'allineamento dell'IA con i "valori democratici".
Questo concetto è sostenuto da importanti figure politiche come Schumer e il presidente Biden.
È evidente il tentativo di presentare le aziende statunitensi di IA come diverse da quelle cinesi, con l'obiettivo di mantenere il vantaggio competitivo degli Stati Uniti nell'industria tecnologica.
La recente introduzione di linee guida in Cina che richiedono che l'IA generativa rifletta "i valori comunisti" ha ulteriormente enfatizzato questa distinzione. Tuttavia, sarà fondamentale che gli sforzi degli Stati Uniti per differenziarsi dalla Cina non si traducano in restrizioni eccessive alla libertà di espressione o in pratiche discriminatorie basate sull'origine geografica delle tecnologie dell'IA.
Protezione legale delle aziende tecnologiche
Infine, un tema di dibattito aperto riguarda la riforma della Sezione 230.
Questa legge, introdotta negli anni '90, fornisce alle aziende tecnologiche una protezione legale contro eventuali azioni legali relative ai contenuti presenti sulle loro piattaforme.
Tuttavia, con l'avvento dell'IA generativa, sorge la questione se questa protezione debba estendersi anche ai contenuti generati dall'IA. Questo dibattito è complesso e richiederà un'attenta considerazione dei rischi e delle implicazioni legali. Qualunque decisione venga presa avrà un impatto significativo sul panorama dell'IA negli Stati Uniti.
Che cosa è la sezione 230
La Sezione 230 negli USA è una legge che garantisce alle piattaforme online un'immunità legale per i contenuti generati dagli utenti. Questo significa che le piattaforme non possono essere ritenute responsabili per i materiali pubblicati dagli utenti stessi. La Sezione 230 ha favorito la crescita di Internet, permettendo alle piattaforme di ospitare una vasta gamma di contenuti senza la preoccupazione di essere perseguite legalmente per ogni singola pubblicazione. Tuttavia, la legge è stata oggetto di dibattito, con alcune richieste di riforma o abolizione per aumentare la responsabilità delle piattaforme riguardo ai contenuti dannosi o illegali.
Nonostante questa crescente attenzione verso la regolamentazione dell'IA, rimane da vedere se il Congresso passerà all'azione concreta.
Come sottolineato nell'articolo, la discussione su queste tematiche è ancora in corso e il Congresso statunitense si appresta a discutere e valutare diverse proposte e posizioni.
Sarà interessante osservare come si svilupperanno i gruppi di discussione a partire dall'autunno. Nel frattempo, potrebbero emergere dibattiti su temi specifici, come il divieto di determinate applicazioni dell'IA o il ripristino di proposte di leggi tecniche esistenti.
Come recita un antico adagio latino, "Festina lente" (Affrettati lentamente). La regolamentazione dell'IA negli Stati Uniti richiederà un equilibrio accurato tra l'incoraggiamento all'innovazione e la protezione dei cittadini e dei valori democratici.
È fondamentale che le normative adottate considerino attentamente le implicazioni sociali, etiche ed economiche dell'IA, evitando sia l'eccessiva restrizione dell'innovazione che l'ignorare i potenziali rischi associati all'uso indiscriminato della tecnologia. Sarà un processo complesso, ma fondamentale per garantire che l'IA continui a essere uno strumento di progresso per la società e non un mezzo per scopi dannosi o manipolativi.
Conclusioni: gli USA stanno procedendo, noi?
In conclusione, il dibattito sulla regolamentazione dell'IA negli Stati Uniti sta guadagnando slancio, con diverse proposte e posizioni che emergono nel panorama politico. È cruciale che le politiche adottate trovino un equilibrio tra l'incoraggiamento all'innovazione, la difesa dei valori democratici e la protezione dei cittadini.
E in Europa ? anche nel nostro continente si sta operando.
L'UE ha proposto nuove norme e azioni per l'IA con l'obiettivo di sfruttarne appieno il potenziale e i benefici.
Nel 2019 è stata formulata una prima proposta di legge sull'IA relativa a un quadro giuridico che disciplini gli usi specifici dell'intelligenza artificiale, mentre il piano coordinato sull'intelligenza artificiale promuove l'allineamento strategico, l'azione politica e l'accelerazione degli investimenti.
Insieme delineano un approccio europeo all'IA che mira a mettere le persone al primo posto.
L'obiettivo è che Le norme consentiranno di sviluppare l'intelligenza artificiale in modo da garantire fiducia, sicurezza e diritti fondamentali, incoraggiando nel contempo l'eccellenza nell'innovazione.
Piano coordinato sulla revisione dell'intelligenza artificiale
Gli obiettivi principali del piano coordinato sulla revisione dell'intelligenza artificiale 2021 sono accelerare gli investimenti nell'IA, agire su strategie e programmi di IA e allineare la politica in materia di IA per evitare la frammentazione.
In questi giorni nel Parlamento Europeo si sta discutendo su questi due provvedimenti sull'intelligenza artificiale.
Il Parlamento Ue ha infatti approvato l’“IA Act”, primo regolamento al mondo sul tema: ora dovrà essere ratificato da Commissione e Stati Membri.
Le norme proposte mirano a garantire che lo sviluppo e l'uso dell'intelligenza artificiale (IA) in Europa siano in linea con i diritti e i valori dell'Unione Europea.
Queste norme pongono l'accento su questioni cruciali come la supervisione umana, la sicurezza, la privacy, la trasparenza, la non discriminazione e il benessere sociale e ambientale. In base a un approccio basato sul rischio, le norme stabiliscono obblighi per i fornitori e gli operatori di sistemi di IA in base al livello di rischio che tali sistemi possono presentare.
La proposta di normativa vieta specificamente l'uso di sistemi di IA ad alto rischio che potrebbero minacciare la sicurezza delle persone, come quelli utilizzati per il punteggio sociale o per la categorizzazione biometrica basata su caratteristiche sensibili.
Inoltre, sono previsti divieti per l'uso intrusivo e discriminatorio della biometria, i sistemi di polizia predittiva e l'estrazione non mirata di dati biometrici. Questi divieti sono stati introdotti per proteggere i diritti umani, la privacy e prevenire abusi potenziali.
La proposta di normativa prevede anche che i sistemi di IA ad alto rischio siano soggetti a requisiti di trasparenza e che i fornitori di modelli di base debbano valutare e mitigare i potenziali rischi per la salute, la sicurezza, i diritti fondamentali, l'ambiente, la democrazia e lo stato di diritto. Inoltre, i modelli di IA generativa come ChatGpt dovrebbero essere trasparenti nel rivelare che il contenuto è stato generato da un'intelligenza artificiale, aiutando a prevenire l'uso di contenuti falsi o manipolati.
Per promuovere l'innovazione nell'IA e sostenere le piccole e medie imprese, sono previste esenzioni per le attività di ricerca e i componenti di IA forniti con licenze open source.
La proposta di normativa sarà ora oggetto di negoziati interistituzionali con il Consiglio dell'Unione Europea per definire le leggi definitive. L'obiettivo è creare uno standard globale per l'IA che metta al centro la tutela delle persone e dei loro diritti. Si prevede che gli accordi finali saranno raggiunti entro la fine del 2023, stabilendo un importante precedente per la regolamentazione dell'IA a livello mondiale.
AI - Intelligenza Artificiale
Con questo Topic raccogliamo per i nostri lettori tutti gli articoli, news, approfondimenti riguardanti l'evoluzione tecnica, le norme e regole, i casi applicativi sul tema dell'intelligenza artificiale
Digitalizzazione
News e approfondimenti che riguardano, in generale, l'adozione di processi e tecnologie digitali per la progettazione, la costruzione e la gestione dell'ambiente costruito.
Industria 4.0
Con questo Topic raccogliamo le news e gli approfondimenti riguardanti l’industria 4.0 sia da un punto di vista tecnologico che dei finanziamenti.
Condividi su: Facebook LinkedIn Twitter WhatsApp