Civic

Cosa significa l'IA generativa per le città: i leader tecnologici municipali devono affrontare problemi politici e sul posto di lavoro unici

Se l'uso dell'IA generativa sul posto di lavoro non sembra già abbastanza complicato, basta considerare cosa significa per le grandi città e altre agenzie governative.
Le implicazioni dei comuni problemi di intelligenza artificiale come il pregiudizio algoritmico e l'attribuzione della proprietà intellettuale sono amplificate nel settore pubblico e ulteriormente complicate da sfide uniche come la conservazione e la produzione di registri pubblici.
Jim Loter, chief technology officer ad interim per la città di Seattle, ha affrontato questi problemi mentre lui e il suo team hanno prodotto la prima politica di IA generativa della città questa primavera.
Loter ha recentemente presentato l'argomento all'incontro annuale della Conferenza dei sindaci degli Stati Uniti a Columbus, Ohio.
Il sindaco di Seattle Bruce Harrell presiede il comitato per la tecnologia e l'innovazione del gruppo.
Come punto di partenza, la politica di Seattle richiede che i dipendenti della città ricevano l'autorizzazione dal dipartimento di tecnologia informatica di Seattle prima di utilizzare l'IA generativa come parte del loro lavoro.
La città descrive questo come la sua pratica operativa standard "per tutte le tecnologie nuove o non standard".
I registri pubblici sono una parte fondamentale della considerazione.
“Una delle conversazioni più comuni che abbiamo con il personale comunale che viene da noi e desidera iniziare a utilizzare un particolare strumento software, è chiedere loro qual è la vostra strategia per gestire i record che state producendo utilizzando questo strumento e per consentire il tuo responsabile della divulgazione al pubblico per accedervi quando richiesto?" Loter dice in un nuovo episodio del podcast GeekWire.
Non è una considerazione ipotetica, ha spiegato, osservando che la città ha già avuto una richiesta di registri pubblici per tutti gli usi dei dipendenti della città che interagiscono con ChatGPT.
Quali tipi di usi dell'IA stanno prendendo in considerazione i dipendenti della città? Ecco alcuni esempi forniti da Loter nel podcast.
Prime bozze di comunicazioni cittadine.
Analisi di documenti e report.
Traduzione in lingua per i cittadini.
Come descritto nella presentazione di Loter alla Conferenza dei sindaci degli Stati Uniti, l'IA generativa solleva una serie di nuovi rischi e preoccupazioni per i comuni.
Questo elenco è tratto dalla sua presentazione.
Mancanza di trasparenza sui dati di origine per i modelli Anche la trasparenza algoritmica è ancora un problema Responsabilità per le violazioni della proprietà intellettuale Difficile valutare la veridicità dell'output La distorsione nei dati di origine e gli algoritmi possono informare o distorcere gli output, reificare i pregiudizi esistenti I malintenzionati potrebbero "avvelenare" le fonti di dati con disinformazione, propaganda, ecc.
Nuove minacce alla sicurezza e alla protezione (voci che imitano, video falsi) Consolidamento della proprietà e del controllo della tecnologia AI "Quando guardiamo a questi strumenti di AI generativa, la fiducia, la comunità e la trasparenza non sono davvero lì”, ha detto Loter nel podcast.
“Non abbiamo informazioni sul livello dei dati, non abbiamo informazioni sul livello di base di queste applicazioni.
Non abbiamo accesso al livello del prodotto e non capiamo come vengono implementati.
Né esiste una comunità, una comunità fidata, coinvolta nella produzione o nel controllo di quegli strumenti.
Ha continuato: “Potrebbe non introdurre un nuovo rischio categorico.
Ma aumenta il livello di rischi che potrebbero già esistere quando le persone acquistano contenuti da terzi o da una fonte esterna.
In che modo le città possono avvicinarsi responsabilmente all'IA generativa? Ecco il riassunto della presentazione di Loter.
Richiedere responsabilità nella revisione dei contenuti generati Copyright/proprietà intellettuale Verità/verifica dei fatti Attribuzione: dire alle persone che l'IA ha scritto questo contenuto Screening per pregiudizi Raccomandare usi specifici controllati Dati: identificare modelli, non prendere decisioni Scrittura: produrre riepiloghi di rapporti/legislazione, non scriverli Ricerca: interrogare/interagire con dati controllati dalla città, non dati generali Codifica: aiutare a trovare bug o suggerire ottimizzazioni, non scrivere software Eseguire test A/B su prodotti noti Eseguire test A/B su prodotti noti -buon prodotto Sostenitore della trasparenza e della spiegabilità nei prodotti di intelligenza artificiale Quali sono le fonti di dati utilizzate per costruire il modello? Come vengono prese le decisioni? Come vengono selezionati, valutati e moderati i contenuti di origine? Come viene monitorata e controllata l'attività illegale? Se il fornitore concede in licenza i servizi di intelligenza artificiale, qual è l'accordo e in che modo il fornitore è preparato a far rispettare gli standard? Su quest'ultimo punto, la città di Seattle è un negozio Microsoft e Loter spiega che la necessità di salvaguardie è una delle questioni che la città sta discutendo con l'azienda in quanto incorpora le tecnologie basate su OpenAI in Microsoft 365 e altri prodotti Microsoft.
Parliamo anche nel podcast delle iniziative di equità digitale e degli sforzi per garantire che i comuni locali non siano preclusi dall'esercizio dell'autorità sui fornitori di servizi Internet per cercare di ottenere un accesso equo alla banda larga.
Ascolta sopra o iscriviti a GeekWire in Apple Podcasts, Google Podcasts, Spotify o ovunque tu ascolti.

%d