Amazon

I leader tecnologici di Seattle lanciano un'organizzazione no-profit per promuovere una maggiore trasparenza nei dati di formazione sull'intelligenza artificiale

L’intelligenza artificiale è una tecnologia potente che promette di rimodellare il futuro, ma pone anche molte sfide e rischi.
Uno dei problemi più urgenti è la mancanza di regolamentazione e supervisione dei dati utilizzati per addestrare i modelli di intelligenza artificiale.
Una nuova organizzazione no-profit, la Transparency Coalition con sede a Seattle, mira ad affrontare questo problema.
I co-fondatori del gruppo, fondatori veterani di startup e leader tecnologici Rob Eleveld e Jai Jaisimha, si uniscono a noi in questo episodio del podcast GeekWire per discutere le ragioni per cui hanno avviato l'organizzazione e i loro obiettivi per contribuire a modellare la legislazione emergente e le politiche pubbliche in quest'area.
Ascolta di seguito e continua a leggere per le note sulla conversazione.
Iscriviti a GeekWire nei podcast Apple, Spotify o ovunque ascolti.
Origini e missione: la Coalizione per la Trasparenza è iniziata con una vera e propria chiacchierata davanti al caminetto.
Jaisimha ed Eleveld hanno discusso delle preoccupazioni sui problemi relativi alla trasparenza dell'IA e ai dati di addestramento non vincolati mentre erano in campeggio a Whidbey Island.
Hanno deciso di fondare la Coalizione per la Trasparenza come organizzazione senza scopo di lucro per affrontare questi problemi attraverso il sostegno politico e l’istruzione pubblica.
Il loro obiettivo è promuovere uno sviluppo più etico e responsabile dell’intelligenza artificiale aumentando la trasparenza sul modo in cui i modelli vengono addestrati e sui dati utilizzati per addestrarli.
Entrambi hanno una vasta esperienza come leader tecnologici e di startup: Eleveld, ex ufficiale sottomarino della Marina degli Stati Uniti, è stato CEO di Ekata, una società di verifica dell'identità acquisita da Mastercard nel 2021, dopo precedenti ruoli di leadership presso aziende tra cui Whitepages, Optify e Shiftboard.
Jaisimha, che ha conseguito il dottorato di ricerca in ingegneria elettrica e informatica presso l'Università di Washington, è un professore affiliato della UW che ha lavorato presso aziende come RealNetworks, Amazon, Microsoft e Medio.
Ha fondato e guidato la startup Appnique, che applica l'apprendimento automatico alle campagne pubblicitarie mobili.
"Sono sempre stato un sostenitore dell'applicazione dell'intelligenza artificiale a problemi limitati e a set di dati ben ponderati", ha spiegato Jaisimha.
“E cominciavo a preoccuparmi per la natura sciatta delle pratiche di raccolta dei dati e per le promesse esagerate su ciò che questi algoritmi potrebbero fare.
… Il cuore di tutto erano gli input dell’intelligenza artificiale.
Il loro obiettivo in questo momento è duplice: influenzare la politica e la legislazione a livello statale attraverso il sostegno, la testimonianza e l’educazione dei politici.
Hanno collaborato attivamente con i legislatori di Washington e della California.
Ampi sforzi educativi per aumentare la consapevolezza e la comprensione delle questioni legate all’intelligenza artificiale tra le parti interessate come i politici, i leader aziendali e il pubblico in generale interessato a questi argomenti.
Potenziali implicazioni: richiedere trasparenza sui dati di addestramento e sul modo in cui vengono utilizzati i modelli potrebbe modificare in modo significativo l’ambito dei modelli di intelligenza artificiale.
Se le aziende dovessero rivelare quali dati vengono utilizzati e ottenere il consenso, i set di dati dovrebbero probabilmente essere più mirati e limitati per evitare l’utilizzo di contenuti protetti da copyright o privati senza autorizzazione.
Un effetto sarebbe quello di restringere l’ambito delle applicazioni dell’IA per affrontare problemi specifici.
La trasparenza potrebbe anche rendere i risultati più prevedibili e responsabili poiché la relazione con i dati di addestramento sarebbe chiara.
"Se devi concedere in licenza i dati di formazione, questi diventano parte del costo delle merci", ha affermato Eleveld.
“Quindi i progetti diventano sempre più ristretti e più focalizzati sulla rilevazione del cancro al pancreas allo stadio 3 [per esempio], invece di cercare di rispondere a ogni domanda mai posta dall’umanità.
Riteniamo che un’intelligenza artificiale generativa più ristretta e più mirata sia molto migliore per la società.
È molto più controllato.
Puoi tracciare gli output… fino a quali erano gli input o i dati di addestramento.” La legislazione potenziale potrebbe includere: Definizioni standard di termini chiave come intelligenza artificiale, dati di formazione e trasparenza.
Requisiti di trasparenza su quali dati vengono utilizzati per addestrare i modelli.
Un meccanismo di controllo per verificare i dati utilizzati per addestrare i modelli.
Garantire l'uso dei dati personali e dei contenuti protetti da copyright è un'opzione di partecipazione anziché di rinuncia.
Finanziamenti: Eleveld ha detto che lui e sua moglie stanno fornendo il finanziamento iniziale per la Coalizione per la Trasparenza.
Si tratta di un'organizzazione no-profit 501(c)(4), che consente una maggiore flessibilità nelle attività di lobbying e sostegno politico rispetto a un tipico ente di beneficenza 501(c)(3).
Ora stanno cercando sovvenzioni da fondazioni, family office e altri interessati a influenzare la politica, poiché le donazioni a un 501 (c) (4) non sono deducibili dalle tasse come lo sarebbero per un 501 (c) (3).
Partenariati e prossimi passi: stanno collaborando con organizzazioni di ricerca sull’intelligenza artificiale come il gruppo Responsible AI Systems and Experiences dell’Università di Washington per contribuire a portare avanti le migliori pratiche dei ricercatori.
Parte dell’idea è quella di mettere in contatto i politici con gli esperti di intelligenza artificiale per aiutare ad affrontare le questioni chiave e identificare soluzioni.
"Questa non è solo una scatola magica", ha detto Eleveld riguardo ai modelli di intelligenza artificiale.
“Ci sono input e output come qualsiasi altro sistema, e dovrebbe essere scomposto e compreso a livello di base.
E se viene compreso, allora le persone inizieranno a porre il giusto tipo di domande e, si spera, ad arrivare a posizioni politiche migliori”.
Montaggio e produzione audio di Curt Milton.
Ascolta sopra o iscriviti a GeekWire nei podcast Apple, Spotify o ovunque ascolti.

%d