24 Nov 2023

Q*, cos’è la nuova AI “pericolosa” dietro al caos di OpenAI – #838

Salva nei preferiti

Seguici su:

Dietro l’assurda vicenda di OpenAI, con il licenziamento e poi il reintegro del Ceo Sam Altman, potrebbe esserci una diatriba legata a un nuovo algoritmo di intelligenza artificiale sviluppato dall’organizzazione, che secondo alcuni potrebbe rappresentare una futura minaccia per la nostra specie. Parliamone. Parliamo anche del via libera europeo al finanziamento delle CER italiane e della versione molto annacquata del decreti imballaggi approvata ieri dal parlamento Ue. 

Se seguite INMR avrete seguito insieme a me l’assurda vicenda di OpenAI, la società che ha sviluppato ChatGPT, che negli ultimi giorni sta attraversando uno strano e abbastanza confuso terremoto interno. E che dagli ultimi risvolti, assume sempre più i contorni di una sorta di fantascienza distopico. Perlomeno di un ottimo incipit per un romanzo del genere.  

Per farvi un rapidissimo riassunto, tutto è iniziato circa una settimana fa quando il board ha licenziato il Ceo Sam Altman, la figura di gran lunga più in vista della società, un po il Mark Zuckerberg di OpenAI, in maniera brusca e inaspettata, dicendo che era un bugiardo e non c’era più fiducia nei suoi confronti. Quello che era trapelato fuori nei giorni successivi era che ci fosse una divergenza di vedute sugli sviluppi futuri, con una parte del board, almeno 4 persone, fra cui il direttore scientifico di OpenAI Ilya Sutskever (secondo molti la vera mente dietro ChatGPT), che erano per un approccio prudente, mentre Altman avrebbe spinto per un’espansione rapida sfruttando la risonanza mediatica avuta dall’azienda nell’ultimo anno. Due approcci che rispecchiano due linee di pensiero molto diffuse, da un lato il cosiddetto tecno-ottimismo, dall’altro il timore che la AI possa diventare un pericolo per la nostra specie.

Dopo il licenziamento di Altman, Microsoft, la società che è il primo investitore di OpenAI, ci ha investito circa 13 miliardi e ne possiede il 49%, ha storto il naso e ha detto che lo avrebbe assunto direttamente, ma poi quasi tutti i dipendenti di OpenAI hanno detto che se Altman non fosse stato reintegrato si sarebbero licenziati in massa, e a quel punto Altman è stato reintegrato e a venir fatto fuori è stato invece il resto del board. E qui è dove eravamo rimasti.

La notizia di ieri però mi ha lasciato a bocca aperta. La Repubblica titola: “La scoperta di OpenAI: cos’è il progetto Q* che “mette a rischio l’umanità”. Un titolo un filino allarmistico e acchiappa click, indubbiamente, ma comunque – mi sono detto – qualcosa sotto deve esserci. Visto che non voglio alimentare il giornalismo sensazionalistico però, vi riporto la notizia leggendovi direttamente qualche estratto di un articolo di Reuters, che ha diffuso la notizia.

Prima dei quattro giorni di esilio dell’amministratore delegato di OpenAI Sam Altman, diversi ricercatori dello staff hanno inviato al consiglio di amministrazione una lettera in cui avvertivano della scoperta di un nuovo algoritmo di intelligenza artificiale che, a loro dire, avrebbe potuto minacciare l’umanità. A dare questa notizia incredibile, sono state due fonti, che hanno preferito restare anonime, a Reuters.

Secondo le due fonti, questa lettera e l’algoritmo di intelligenza artificiale di cui parla, che si chiama Q*, sono stati il motivo principale che ha spinto il consiglio di amministrazione a estromettere Altman (il sottotesto è sempre il timore che Altman non avrebbe preso le precauzioni necessarie legate a una scoperta così importante e potenzialmente pericolosa). 

Le fonti comunque hanno anche affermato che la lettera in questione è stata solo uno dei fattori, quello scatenante, di un lungo elenco di lamentele da parte del consiglio di amministrazione che avrebbe portato al licenziamento di Altman. 

Ma che cos’è questa nuova AI di cui si parla nella lettera? Reuters non è stata finora in grado di esaminare una copia della lettera, e i ricercatori che hanno scritto la lettera non hanno risposto alle richieste di commento, così come i vertici di OpenAI.

Tuttavia, sempre secondo una delle fonti, Mira Murati, dirigente di lunga data, avrebbe parlato del nuovo progetto, chiamato Q*, ai dipendenti mercoledì e avrebbe detto che una lettera che riguardava questo progetto è stata inviata al consiglio di amministrazione prima degli eventi di questo fine settimana. 

Q* (pronunciato Q-Star) sarebbe questo nuovo algoritomo che secondo alcuni sviluppatori interni potrebbe rappresentare una svolta nella ricerca della superintelligenza, nota anche come intelligenza artificiale generale (AGI). La cosiddetta AGI sarebbe un sistema di intelligenza artificiale non pensata èper svolgere un compito specifico, ma appunto generale, e quindi in grado di replicare in tutto e per tutto, anzi di superare sotto ogni aspetto, l’intelligenza umana.

Questo nuovo modello, Q*, avrebbe vaste risorse di calcolo, e sarebbe già stato in grado di risolvere alcuni problemi matematici, questo ha dichiarato la fonte anonima. Per adesso si tratterebbe di calcoli a livello di studenti delle elementari, ma il superamento di questi test ha reso i ricercatori molto ottimisti sul futuro successo di Q*. 

Ora, penserete voi, un algoritmo che risolve calcoli di un bambino delle elementari non è poi un granché. Ma quello che dovete pensare è che, in questo caso, il sistema non è programmato per fare quello. Nessuno lo ha programmato per fare i calcoli. È come se avesse appreso da solo. Il che è molto interessante. E conoscendo la velocità con cui questi sistemi si migliorano, è anche potenzialmente dirompente.

Ammesso che tutto ciò sia vero, ovviamente, perché nessuno al momento è in grado di verificare le informazioni. Come mi suggerisce un amico e esperto del settore, tutta questa potrebbe anche essere una enorme operazione di marketing per accrescere ulteriormente il clamore, l’hype attorno a OpenAI. Una ipotesi possibile, a cui darei un 20-30% – così a spanne – di probabilità.

Se invece così non fosse e quanto riportato da Reuters fosse vero, abbiamo un discreto problema. E mi spiego, non credo che il problema sia per forza questa nuova tecnologia, Q*. Che magari è innocua. Ma quante tecnologie basate sulla AI stanno nascendo ogni giorno senza che noi nemmeno lo sappiamo?

Credo che l’aspetto pericoloso che ci mostra questa vicenda sia un altro – non che sia una novità, eh, ma ce lo mostra in maniera così chiara che è utile osservarlo. Non esiste nessuna forza in grado di bilanciare o frenare il mercato nello sviluppo delle nuove tecnologie. Pensate che OpenAI era nata con scopi almeno sulla carta filantropici. 

Vi rubo ancora qualche minuto per raccontarvi, con il Post, la storia di OpenAI, che è molto educativa, in questo senso. Fu fondata nel 2015 da Altman e da altri importanti imprenditori e ricercatori (tra cui Elon Musk e Peter Thiel) come un’associazione senza scopo di lucro che aveva il compito di sviluppare le tecnologie di intelligenza artificiale «in una maniera che possa essere di beneficio all’umanità nel suo complesso, e che non abbia la necessità di generare profitti economici». 

Poi, nel 2018, trovandosi a corto di denaro (tra le altre cose si disse che Elon Musk avesse cercato di prendere il controllo dell’azienda, non ci fosse riuscito e quindi avesse ritirato i suoi finanziamenti), OpenAI si divise in due unità: una rimase non profit e mantenne il suo obiettivo primario di sviluppare tecnologie di intelligenza artificiale non dannose per l’umanità, mentre l’altra divenne una società quasi pienamente for profit, che avrebbe operato come una normale azienda, avrebbe attratto investimenti, assunto programmatori talentuosi, commercializzato nuovi prodotti. 

La nuova unità for profit (che mantenne comunque il nome di OpenAI) ottenne un grosso investimento da Microsoft: inizialmente un miliardo di dollari, a cui poi se ne aggiunsero altri 12. In base alla nuova organizzazione, i guadagni della for profit sarebbero stati in parte distribuiti agli investitori ma soprattutto reinvestiti per la ricerca. Tra le due unità sarebbe comunque rimasto un rapporto di dipendenza: il consiglio di amministrazione della non profit, composto da quattro persone, avrebbe mantenuto il controllo totale sulla for profit, per monitorare che l’obiettivo generale di OpenAI – creare un’intelligenza artificiale non dannosa per l’umanità – fosse rispettato. 

Finché i soldi sono pochi e OpenAI è abbastanza sconosciuta, fila tutto liscio. Poi lo scorso anno OpenAI fa il botto, quando – su pressione dell’amministratore delegato Sam Altman – l’unità for profit della società ha reso pubblico ChatGPT. Grazie a ChatGPT e ai suoi sviluppi successivi, oggi OpenAI è una delle aziende tecnologiche più importanti del mondo, il cui valore stimato è di 86 miliardi di dollari.

Ma il successo di ChatGPT ha provocato all’interno della società una specie di spaccatura. Da un lato Sam Altman, sostenuto dagli investitori come Microsoft, ha fatto pressioni per velocizzare e intensificare la messa in commercio di nuovi prodotti che possano garantire nuove entrate e maggiore crescita a OpenAI; dall’altro altri dirigenti della società, come per esempio Ilya Sutskever, uno dei membri del consiglio di amministrazione, che ritenevano che la commercializzazione di nuovi prodotti e la ricerca dovessero essere rallentate e sottoposte a un controllo più rigoroso.

Ecco, tornando al punto che vi accennavo prima: in teoria qui tutta l’architettura era stata immaginata e pensata per far prevalere il principio di precauzione sugli aspetti economici. Poi però, in fin dei conti non è accaduto. Ogni tecnologia profittevole finisce in pasto al capitalismo di mercato, indipendentemente che possa essere pericolosa, persino una minaccia per la nostra specie. E questo meccanismo vale per ogni aspetto, anche per quelli ambientali. Per questo il capitalismo è un sistema che tende all’autodistruzione, e da cui dobbiamo cercare di uscire, o sarà lui a far uscire noi. 

Andiamo un po’ più veloci sulle altre notizie. C’era una notizia molto attesa, da mesi, nell’ambito delle comunità energetiche, che finalmente è arrivata. La Commissione europea ha dato il via libera al decreto italiano sulle comunità energetiche rinnovabili (Cer). Se non sapete cosa siano le CER, potete dare uno sguardo al nostro dossier che abbiamo realizzato lo scorso anno. Comunque si tratta della possibilità data a grupi di cittadini, ma anche aziende e organizzazioni, di consociarsi per produrre e consumare energia rinnovabile, installando o acquistando degli impianti di energia rinnovabile condivisi.

Su Avvenire Ilaria Solaini spiega che “La misura prevede incentivi per 5,7 miliardi – dei quali 2,2 finanziati con il Pnrr – tutti destinati ai territori per incentivare la produzione e la condivisione di energia rinnovabile. Secondo il ministro dell’Ambiente e della Sicurezza Energetica, Gilberto Pichetto Fratin «Ora le Comunità energetiche rinnovabili potranno diventare una realtà diffusa nel Paese, sviluppando le fonti rinnovabili e rendendo finalmente il territorio protagonista del futuro energetico nazionale. Grazie alle Comunità energetiche, infatti, ciascun cittadino potrà contribuire alla produzione di energia rinnovabile, e averne i benefici economici derivanti dall’autoconsumo».” 

Più nello specifico il decreto è incentrato su due misure, su due diverse linee di incentivo: una tariffa incentivante sull’energia rinnovabile prodotta e condivisa e un contributo a fondo perduto (credo per finanziare gli impianti, se ho ben capito). La potenza finanziabile è pari a cinque Gigawatt complessivi, con un limite temporale a fine 2027. È inoltre previsto per le Comunità realizzate nei comuni sotto i 5.000 abitanti, un contributo a fondo perduto fino al 40% dei costi ammissibili in relazione all’investimento effettuato per realizzare un nuovo impianto o per potenziarne uno esistente.

Un’ottima notizia, anche se resta però ancora da sciogliere il dubbio sui decreti attuativi e i tempi per l’applicazione del decreto.

Un’altra notizia, un po’ meno positiva, è quella che il Parlamento ue ha dato il via libera al decreto sugli imballaggi, ma l’ha fortemente rivisto al ribasso. Leggo da un articolo di Luisa Gaita sul Fatto Quotidiano che “L’Europarlamento dà il via libera al Regolamento europeo sugli imballaggi (Ppwr) che introduce nuovi divieti sul packaging monouso e impone target di riutilizzo. Ma il testo non è più quello proposto il 30 novembre 2022 dalla Commissione europea, contro cui tanto ha combattuto la stessa industria italiana. 

Anzi: quell’industria porta a casa il miglior risultato che avrebbe potuto ottenere, visti gli step degli ultimi mesi. La versione approvata dal parlamento infatti lascia intatti gli obiettivi ma elimina molti degli strumenti con cui si sarebbero dovuti raggiungere.

A subire un duro colpo è stato soprattutto l’allegato V dell’articolo 22, ossia l’elenco dei formati di imballaggio non necessari e quindi da vietare. Il testo vieta la vendita di sacchetti di plastica molto leggeri (inferiori a 15 micron), a meno che non siano necessari per motivi igienici o forniti come imballaggio primario per alimenti sfusi, per aiutare a prevenire lo spreco di cibo e propone di limitare l’uso di alcuni formati di imballaggio monouso, le confezioni in miniatura degli hotel per i prodotti da toilette e le pellicole termoretraibili per le valigie negli aeroporti. Dall’elenco dei divieti, però, scompaiono piatti e tazze usa e getta dei ristoranti, imballaggi monouso per frutta e verdura fresca (sotto 1,5 chilogrammi in origine, sotto un chilo nel testo che usciva dalla Commissione), salse, bustine di zucchero e altre bustine monouso.

Inoltre sono state inserite diverse deroghe agli obiettivi, soprattutto a quelli di riutilizzo. Ad esempio uno Stato membro può essere esentato dai target di riutilizzo di determinati imballaggi, qualora dichiari di aver raggiunto un tasso di riciclo superiore all’85% per quel tipo di packaging specifico. E così via.

Fra l’altro quella approvata è la posizione negoziale del Parlamento. Perché per la complessa architettura europea, le normative vengono approvate dopo una fase di dialogo a 3, detto trilogo, fra Parlamento, Consiglio Europeo e Commissione Europea. E spesso il Parlamento è l’organismo che parte più ambizioso. In questo caso, il Parlmaneto è stato il primo ad annacquare la sua posizione.

Veniamo alla consueta rubrica la Giornata di ICC. Oggi il nostro direttore Daniel Tarozzi ci racconta i suoi ultimi giorni trascorsi in Sardegna, fra presentazioni, incontri e interviste legate a Sardegna che Cambia. A te la parola Daniel.

Audio disponibile nel video / podcast

È venerdì, quindi sempre a proposito di Sardegna do la parola a Laura Fois èper farci raccontare in breve di cosa parla nella nuova puntata di INMR Sardegna

Audio disponibile nel video / podcast

Mappa

Newsletter

Visione2040

Mi piace


Gaza, la strage continua ma cresce il movimento pro-Palestina – #933

|

Zero Waste Italy: unire le forze per chiedere una legge per incentivare riparazione e riuso

|

Animago: due libri per esplorare il mondo a mente scalza

|

Greenatural, il marchio che unisce domanda e offerta di prodotti etici ed ecologici

|

Casa nome collettivo: parlare di Palestina, riflettere sulla guerra per chiedere la pace

|

Giorgio Cremaschi: “Su Gaza l’occidente usa un doppio standard”

|

Bombe di semi e draghi: è in partenza un cammino per seminare vita in nome di Fukuoka

|

I gelsi e la talpa, l’azienda agricola che vende “siciliano” e promuove il consumo critico

string(9) "nazionale"