Tech

L'intelligenza artificiale è più una minaccia che una promessa? Gli sviluppatori di tecnologia si uniscono agli attivisti nel chiedere nuove garanzie

È molto peggio lasciare Darth Vader libero che tenere incarcerato Luke Skywalker.
Questa è l'argomentazione filosofica alla base di COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), un algoritmo predittivo di recidiva del crimine utilizzato dai sistemi di giustizia penale a livello nazionale e riguarda Shankar Narayan, ACLU del direttore del progetto Technology and Liberty di Washington.
Narayan ha utilizzato il riferimento di Star Wars venerdì alla Conferenza interattiva di Seattle.
Ha detto che la citazione, da un designer del creatore di COMPAS Equivant, illustra i pericoli di consentire all'intelligenza artificiale di sbagliare sul lato di rinchiudere qualcuno.
Ha descritto COMPAS come avere un "equilibrio avverso al rischio" tra "falsi positivi e negativi" che può avere conseguenze dannose nel mondo reale per le comunità emarginate.
"Considerata la sovrarappresentanza della comunità nera in quanto coinvolta nella giustizia penale", ha affermato, tali strumenti "porteranno a un maggior numero di quelle persone considerate" ad alto rischio ".
un pannello intitolato "La promessa e la minaccia dell'IA", in cui anche gli sviluppatori di tecnologia entusiasti del potenziale dell'IA stanno adottando sempre più garanzie.
Ad esempio, HTC offre la tecnologia di tracciamento del corpo per la sua piattaforma di realtà virtuale Vive, ma ha optato per la creazione di un sistema chiuso in cui i dati dell'utente non vengono condivisi pubblicamente.
Tale decisione ha bilanciato l'innovazione aziendale con la privacy dei consumatori, ha affermato Vinay Narayan, vicepresidente della strategia di piattaforma e relazioni con gli sviluppatori.
HTC, il produttore di elettronica di consumo di Taiwan noto per i suoi smartphone e la tecnologia VR, ha la sua sede nordamericana a Seattle.
"Dal punto di vista tecnologico, nessuno vuole farlo perché non si può iterare rapidamente se non sto riportando tutti i dati in un server centrale", ha affermato.
"Ci siamo resi conto di aver creato uno strumento davvero potente e mentre abbiamo introdotto molte garanzie tecnologiche, non sappiamo come qualcun altro lo utilizzerà." Mentre HTC è a conoscenza del potenziale uso improprio dei propri prodotti, la crescente pervasività di L'intelligenza artificiale nelle applicazioni software più quotidiane significa che altre aziende non sono così vigili.
“La maggior parte delle aziende che utilizzano questi strumenti, alla fine, non sono aziende di intelligenza artificiale.
Sono aziende di assistenza clienti che desiderano migliorare i tempi di risposta ", ha affermato Shankar (nessuna relazione con il collega panelist Vinay Narayan).
"Potresti anche non sapere che stai usando l'IA".
Una risposta comune all'IA scarsamente performante o distorta è quella di migliorare i set di dati, che Shankar Narayan respinge ampiamente.
"I tecnologi e gli scienziati dei dati sono sconfinatamente ottimisti riguardo alla tecnologia, ma in base alla prospettiva da cui provengo, avendo effettivamente visto il funzionamento del potere e quanto i dati siano distorti nel sistema di giustizia penale, sembra esserci un'impossibilità quasi impossibile di ripulire set di dati per riparare il tuo strumento ", ha detto.
In effetti, ha affermato Shankar Narayan, l'impulso di correggere l'IA con più dati è che crea incentivi per una raccolta ancora maggiore di dati.
"Raccogli, raccogli, raccogli, raccogli, anche se va ben oltre lo scopo dichiarato di quella tecnologia", ha dichiarato il funzionario ACLU, descrivendo l'approccio comune.
Un tale impulso gli dà una pausa in mezzo alla spinta per le cosiddette città intelligenti, che fanno molto affidamento sulla tecnologia di sorveglianza per ottimizzare i sistemi urbani come i flussi di traffico e il consumo di energia.
Preferisce un approccio più equilibrato come l'ex scienziato dei dati della città di Boston, Ben Green, delinea nel suo nuovo libro "La Smart Enough City".
"Esiste una storia molto lunga di praticamente ogni tecnologia di sorveglianza che ha un impatto sproporzionato sulle comunità emarginate e vulnerabili", ha detto Shankar Narayan, che fa parte delle task force del drone e della telecamera del corpo di Washington.
"Questo è il motivo per cui sono spesso sbalordito dall'atteggiamento di 'Lanciamolo e vediamo cosa succede'.
"Tali posizioni di principio si scontrano anche con i problemi del mondo reale che la tecnologia assistita dall'IA sta cercando di risolvere.
Ad esempio, la legislazione che avrebbe consentito a Seattle di utilizzare l'applicazione della fotocamera per i veicoli che bloccano le strisce pedonali e che viaggiano illegalmente in corsie di solo transito è deceduta in commissione durante la sessione legislativa di quest'anno.
Per Vinay Narayan di HTC, una tale decisione politica ritorna a uno status quo inefficiente in cui un numero limitato di agenti di polizia fa fatica a far rispettare le leggi sul traffico.
"Stiamo usando esseri umani per interfacce manuali per flussi di traffico su larga scala", ha detto.
"Questo è il punto in cui la visione artificiale e l'intelligenza artificiale possono davvero aiutare a risolvere i problemi".
Ma per Shankar Narayan, che ha visto la polizia e i pubblici ministeri richiedere dati dalle telecamere a luci rosse di Washington per altri crimini, l'efficacia della tecnologia è vinta da preoccupazioni più ampie.
"Non siamo contrari al concetto di telecamere, ma le protezioni non c'erano", ha detto, descrivendo "il problema del creep di missione: una volta che la telecamera è lì, vuoi usarla per più cose."

%d