Tech

Sam Altman chiede "un controllo incredibile" delle principali aziende di intelligenza artificiale, tra cui OpenAI e Microsoft

La partnership di OpenAI con Microsoft e le implicazioni della partecipazione del gigante tecnologico nella potenza dell'intelligenza artificiale sono state sollevate martedì durante un'audizione della sottocommissione giudiziaria del Senato degli Stati Uniti sull'intelligenza artificiale che ha visto la testimonianza del CEO di OpenAI Sam Altman e di altri attori del settore.
Altman, in netto contrasto con i leader tecnologici del passato, ha incoraggiato attivamente la supervisione legislativa e normativa del settore.
Inoltre, ha affermato che la supervisione dovrebbe concentrarsi fortemente sul piccolo numero di attori, tra cui OpenAI e Microsoft, con la capacità di addestrare e distribuire i modelli di linguaggio di grandi dimensioni che alimentano gli strumenti di intelligenza artificiale generativa.
"È assolutamente vero che il numero di aziende in grado di addestrare i veri modelli di frontiera sarà ridotto, proprio a causa delle risorse richieste", ha detto Altman verso la fine dell'udienza di tre ore, in risposta a una domanda del Sen Cory Booker (D., New Jersey).
"E quindi penso che ci debba essere un controllo incredibile su di noi e sui nostri concorrenti".
Altman ha aggiunto: “Penso che ci sia un settore ricco ed entusiasmante di ricerca incredibilmente buona e nuove startup che non solo utilizzano i nostri modelli, ma ne creano di propri.
E penso che sia importante assicurarsi che qualsiasi questione normativa accada, qualunque cosa possano o meno accadere nuove agenzie, preserviamo quel fuoco, perché è fondamentale.
PRENDI IL NOSTRO SONDAGGIO AIVogliamo la tua opinione su spostamento di posti di lavoro, impatto sulla società e storie da trattare Nella sua dichiarazione di apertura, Altman ha sottolineato che OpenAI è governato da un'organizzazione no profit, con una missione e uno statuto che ci impegnano a lavorare per garantire l'ampia distribuzione dei vantaggi dell'intelligenza artificiale e per massimizzare la sicurezza dei sistemi di intelligenza artificiale.
Tuttavia, Gary Marcus, professore emerito presso la New York University che si occupa di problemi di intelligenza artificiale, ha definito l'investimento di Microsoft in OpenAI come un problema con il potenziale per minare la sua dichiarata missione di altruismo.
“Sette anni dopo, sono in gran parte legati a Microsoft, coinvolti in un'epica battaglia di motori di ricerca che sistematicamente inventano cose.
E questo ha costretto [il genitore di Google] Alphabet a lanciare rapidamente i prodotti e a ridurre l'enfasi sulla sicurezza.
L'umanità ha preso un posto in secondo piano.
L'intelligenza artificiale si sta muovendo incredibilmente velocemente con un sacco di potenziale ma anche molti rischi", ha affermato Marcus.
Le osservazioni di Altman sembravano essere generalmente ben accolte dai membri della sottocommissione per la privacy, la tecnologia e la legge del comitato giudiziario del Senato degli Stati Uniti.
I suoi commenti riflettevano la sua etica di fondatore di startup che ha guidato l'acceleratore di startup Y Combinator nella Silicon Valley prima di prendere le redini come CEO di OpenAI nel 2020.
Rispondendo alle domande durante l'udienza, Altman ha riconosciuto i rischi che l'IA rappresenta per il lavoro e la società, e ha convenuto che i nuovi potenti motori di intelligenza artificiale dovrebbero essere sottoposti allo stesso livello di controllo normativo dei reattori nucleari.
Ma ha anche offerto una prospettiva più ampia a lungo termine.
"Credo che dall'altra parte ci saranno posti di lavoro molto più numerosi e che i posti di lavoro di oggi miglioreranno", ha affermato, aggiungendo: "Penso che sia importante capire e pensare a GPT-4 come a uno strumento, non una creatura, che è facile confondersi.
Ed è uno strumento su cui le persone hanno un grande controllo e su come lo usano.
Altman ha affermato che i primi utenti sembrano generalmente comprendere i limiti e i difetti inerenti all'IA nella sua forma attuale.
Tuttavia, ha anche espresso preoccupazione per ciò che accadrà quando l'IA diventerà più precisa e affidabile, perché potrebbe impedire agli utenti umani di essere scettici e prendere provvedimenti per verificare la tecnologia.
Il senatore Richard Blumenthal (D., Conn.), che presiede il sottocomitato, ha aperto l'udienza riproducendo una voce clone di se stesso che leggeva una sceneggiatura generata da ChatGPT quando Blumenthal ha chiesto al motore AI cosa avrebbe potuto dire il senatore Blumenthal per aprire tale un'udienza.
Ecco cosa diceva.
“Troppo spesso abbiamo visto cosa succede quando la tecnologia supera la regolamentazione, lo sfruttamento sfrenato dei dati personali, la proliferazione della disinformazione e l'approfondimento delle disuguaglianze sociali.
Abbiamo visto come i pregiudizi algoritmici possano perpetuare la discriminazione e il pregiudizio e come la mancanza di trasparenza possa minare la fiducia del pubblico.
Questo non è il futuro che vogliamo”.
Blumenthal ha definito la sceneggiatura e il ragionamento alla base "piuttosto impressionante".
Nello stesso spirito, ecco come ChatGPT ha riassunto la dichiarazione di apertura di Altman.
La dichiarazione di Sam Altman evidenzia diversi punti chiave: Potenziale dell'IA: Altman crede nel potenziale dell'IA per migliorare quasi ogni aspetto della nostra vita, dalla produttività al lavoro creativo, per affrontare sfide significative come il cambiamento climatico e il cancro.
Traccia un'analogia con l'impatto trasformativo della macchina da stampa.
Missione e struttura di OpenAI: OpenAI è governata da un'organizzazione senza scopo di lucro, con le sue attività guidate da una missione e da uno statuto impegnati a garantire l'ampia distribuzione dei vantaggi dell'IA e massimizzare la sicurezza.
Il loro scopo è costruire strumenti che possano contribuire in modo significativo all'umanità.
Sicurezza e responsabilità: prima di rilasciare qualsiasi sistema di intelligenza artificiale, OpenAI conduce test approfonditi, coinvolge esperti esterni per audit, migliora il comportamento del modello e implementa solide misure di sicurezza.
Altman ha notato che per il loro ultimo modello, GPT-4, hanno trascorso più di sei mesi a condurre valutazioni e test.
Regolamentazione e cooperazione con il governo: Altman suggerisce che l'intervento normativo da parte dei governi sarà fondamentale per mitigare i rischi di modelli di intelligenza artificiale sempre più potenti.
Propone una combinazione di requisiti di licenza e test per i modelli di intelligenza artificiale al di sopra di una certa soglia di capacità.
Altman esprime la volontà di cooperare con i governi per sviluppare e aggiornare le misure di sicurezza ed esplorare opportunità di coordinamento globale.
Ansia per l'IA: Altman riconosce l'ansia che molte persone provano per come l'IA potrebbe cambiare le nostre vite.
Crede che sia essenziale lavorare insieme per identificare e gestire potenziali aspetti negativi in modo che tutti possiamo goderne i vantaggi.
Importanza dei valori democratici: sottolinea che una potente intelligenza artificiale dovrebbe essere sviluppata tenendo presenti i valori democratici, sottolineando l'importanza della leadership statunitense in questo settore.
Looking Forward: Altman esprime ottimismo sulla capacità di mitigare i rischi dell'IA e crede nel suo potenziale per far crescere l'economia statunitense e mondiale.
Non vede l'ora di lavorare con le parti interessate per affrontare le sfide e le opportunità di questo momento tecnologico.

%d