Digitalizzazione | AI - Intelligenza Artificiale
Data Pubblicazione:

Intelligenza artificiale "superintelligente": si studiano AI che controllano le AI

OpenAI sta formando una nuova squadra per controllare l'intelligenza artificiale "superintelligente". L’obiettivo è quello di creare superintelligenze artificiali che controllino l’allineamento delle scelte “artificiali” ai valori umani. Ecco i dettagli.

OpenAI ha annunciato la creazione di una nuova squadra guidata da Ilya Sutskever, suo scienziato capo e uno dei co-fondatori dell'azienda, per sviluppare metodi per guidare e controllare i sistemi di intelligenza artificiale "superintelligenti".

In un articolo pubblicato oggi sul sito di OpenAI e ripreso da molte testate tecniche internazionali, Sutskever e Jan Leike, responsabile del team di allineamento di OpenAI, prevedono che entro il prossimo decennio potrebbero svilupparsi intelligenze artificiali con una capacità superiore a quella umana.

Queste intelligenze artificiali, se effettivamente sviluppate, potrebbero non essere per forza benevoli, rendendo necessaria la ricerca di modi per controllarle e limitarne il potenziale.

"Attualmente non disponiamo di una soluzione per guidare o controllare un'intelligenza artificiale potenzialmente superintelligente e prevenire che essa diventi fuori controllo", scrivono Sutskever e Leike.

"Le nostre attuali tecniche di allineamento dell'intelligenza artificiale, come il reinforcement learning basato sul feedback umano, dipendono dalla capacità degli esseri umani di supervisionare l'intelligenza artificiale. Ma gli esseri umani non saranno in grado di supervisionare in modo affidabile sistemi di intelligenza artificiale molto più intelligenti di noi".

Che cosa è il Superalignment AI

Il Superalignment AI, nell'ambito dell'intelligenza artificiale (AI), è una ricerca finalizzata a guidare i sistemi di intelligenza artificiale verso gli obiettivi, le preferenze o i principi etici degli esseri umani. Un sistema di intelligenza artificiale è considerato allineato se promuove gli obiettivi desiderati. Un sistema di intelligenza artificiale non allineato è in grado di raggiungere alcuni obiettivi, ma non quelli intenzionati.

Per avanzare nell'ambito dell'"allineamento della superintelligenza", OpenAI sta creando un nuovo team chiamato "Superalignment", guidato da Sutskever e Leike, che avrà accesso al 20% della potenza di calcolo che l'azienda ha garantito finora.

Il team, composto da scienziati e ingegneri provenienti dalla precedente divisione di allineamento di OpenAI e da ricercatori di altre organizzazioni all'interno dell'azienda, si concentrerà sulla risoluzione delle sfide tecniche principali nel controllo di un'intelligenza artificiale superintelligente nei prossimi quattro anni.

Ma come?

Costruendo ciò che Sutskever e Leike descrivono come un "ricercatore di allineamento automatico a livello umano".

L'obiettivo principale è addestrare i sistemi di intelligenza artificiale utilizzando il feedback umano, insegnare all'intelligenza artificiale ad assistere nella valutazione di altri sistemi di intelligenza artificiale e infine costruire un'intelligenza artificiale in grado di condurre ricerche sull'allineamento.

Qui, "ricerca di allineamento" si riferisce all'obiettivo di garantire che i sistemi di intelligenza artificiale raggiungano gli obiettivi desiderati e non vadano fuori controllo.

OpenAI ipotizza che l'intelligenza artificiale possa fare progressi più rapidi e migliori nella ricerca sull'allineamento rispetto agli esseri umani.

"Man mano che faremo progressi in questo campo, i nostri sistemi di intelligenza artificiale potranno prendere in carico sempre più compiti di allineamento e concepire, implementare, studiare e sviluppare tecniche di allineamento migliori di quelle attuali", avevano teorizzato Leike e i suoi colleghi John Schulman e Jeffrey Wu in un precedente articolo sul blog. "Lavoreranno insieme agli esseri umani per assicurarsi che le loro controparti future siano più allineate con gli esseri umani... I ricercatori umani si concentreranno sempre di più sulla revisione delle ricerche sull'allineamento svolte dai sistemi di intelligenza artificiale anziché sulla generazione di tali ricerche".

Naturalmente, nessun metodo è infallibile, e Leike, Schulman e Wu riconoscono le molte limitazioni di OpenAI nel loro articolo.

L'utilizzo dell'intelligenza artificiale per la valutazione potrebbe amplificare le incongruenze, i pregiudizi o le vulnerabilità presenti in quella stessa intelligenza artificiale. Inoltre, potrebbe rivelarsi che le parti più difficili del problema dell'allineamento non siano affatto legate all'ingegneria.

Tuttavia, Sutskever e Leike ritengono che valga la pena tentare. "L'allineamento della superintelligenza è fondamentalmente un problema di apprendimento automatico, e pensiamo che eccellenti esperti di apprendimento automatico - anche se non stanno già lavorando sull'allineamento - saranno fondamentali per risolverlo", scrivono. "Abbiamo intenzione di condividere ampiamente i risultati di questo sforzo e consideriamo il contributo all'allineamento e alla sicurezza dei modelli non-OpenAI una parte importante del nostro lavoro".

Etica dell’intelligenza artificiale controllata da … l’intelligenza artificiale

La notizia che si stia studiando una super intelligenza artificiale che sia allenate a controllare se le scelte fatte da altre intelligenze artificiali sono allineate ai valori umani si avvicina di fatto alla triologia di Matrix più di quanto sia successo finora. Una super intelligenza che interviene sul “virus/agente Smith” perchè di fatto sta corrompendo tutto il sistema e che per farlo ha bisogno di un binomio macchina/Neo, che con i superpoteri riesca a ricondurre tutto a uno nuovo ecosistema in cui l’uomo/batteria alimenta le macchine, ecco questo è quello che mi viene in mente.

Intelligenze artificiali buone sfidano intelligenze artificiali cattive, e non solo correggendo i testi, ma andando a operare sui processi controllati direttamente dalle macchine.

Un’intelligenza artificiale che controlla che quanto definito da un’altra intelligenza artificiale sulla base di sperimentazioni e ricerche in campo medico o farmaceutico per assicurare che i risultati siano allineati con i valori umani. Quali valori però? e se è la superintelligenza ad essere deviata ?

Sempre nel mondo dei film tutto ciò mi ricorda la sfida tra Ultron e Jarvis, l’assistente digitale di Ironman.

Torniamo così al concetto di Etica applicata all’intelligenza artificiale, un tema quanto mai difficile e sui cui si sta dibattendo a livello internazionale, sia nell’ambito scientifico che politico che sui social.

Big Tech dice che vuole la regolamentazione dell'IA, ma … mentre le aziende tecnologiche affermano di sostenere la regolamentazione, stanno respingendo gli sforzi dell'UE per imporre regole più severe intorno ai loro prodotti di intelligenza artificiale. (Fonte: Bloomberg)

Certo è che in un contesto di questo tipo assisteremo uno scontro tra segreti industriali e trasparenza.

Solo infatti una trasparenza sugli algoritmi che regolano sistemi di intelligenza artificiale sarà possibile valutare se vi sono punti di partenza sbagliati, non allineati con i valori umani. Ma questo contrasta con le scelte di businees di chi sviluppa questi sistemi - quanto conoscono gli algoritmi di Facebook, Linkedin, Instagram, Twitter, … - e con la necessità di mantenere in stato di sicurezza e non violabilità gli stessi.

Quindi quale passaggio sarà necessario perseguire?

Avremo dei sistemi di AI che “intervistano” e “analizzano” il comportamento di altri? E poi altri sistemi che controllano i controllori?

Di recente sono stati messi a punto dei programmi per controllare se i testi sono scritti da un umano o da ChatGPT. La notizia è che non funzionano.

“Entro poche settimane dal lancio di ChatGPT, c'erano timori che gli studenti avrebbero usato il chatbot per girare saggi passabili in pochi secondi. In risposta a queste paure, le startup hanno iniziato a realizzare prodotti che promettono di individuare se il testo è scritto da un essere umano o da una macchina. Si scopre che è relativamente semplice ingannare questi strumenti ed evitare il rilevamento” (Fonte MIT)

E poichè la velocità di diffusione dell’AI è pari a quella della luce, occorre trovare presto una risposta a questo problema dell’etica artificiale.

AI - Intelligenza Artificiale

Con questo Topic raccogliamo per i nostri lettori tutti gli articoli, news, approfondimenti riguardanti l'evoluzione tecnica, le norme e regole, i casi applicativi sul tema dell'intelligenza artificiale

Scopri di più

Digitalizzazione

News e approfondimenti che riguardano, in generale, l'adozione di processi e tecnologie digitali per la progettazione, la costruzione e la gestione dell'ambiente costruito.

Scopri di più

Leggi anche