Seguici sui social

Informatica

OASI, il primo motore di ricerca per trovare gli algoritmi che governi e aziende usano sui cittadini

SHARE:

Pubblicato il

on

Usiamo la tua registrazione per fornire contenuti nei modi in cui hai acconsentito e per migliorare la nostra comprensione di te. È possibile disdire in qualsiasi momento.

  • Creato da Fondazione Eticas, l'Osservatorio degli Algoritmi a Impatto Sociale, OASI, raccoglie informazioni da decine di algoritmi utilizzati dalle Pubbliche Amministrazioni e dalle aziende di tutto il mondo per saperne di più sul loro impatto sociale.
  • L'obiettivo è fornire al pubblico l'accesso alle informazioni sia sui governi che sugli algoritmi aziendali e sapere chi li utilizza, chi li sviluppa, quali minacce rappresentano e se sono stati controllati, tra le altre caratteristiche.
  • I pregiudizi e le discriminazioni degli algoritmi di solito si verificano in base all'età, al sesso, alla razza o alla disabilità, tra gli altri valori, ma a causa della generale mancanza di trasparenza, non è ancora possibile conoscere tutte le sue conseguenze sui gruppi interessati.

Fondazione Eticas, organizzazione no-profit che promuove l'uso responsabile di algoritmi e sistemi di Intelligenza Artificiale (AI), ha creato l'Osservatorio degli Algoritmi a Impatto Sociale (OASI). Questo Osservatorio introduce un motore di ricerca per saperne di più sugli strumenti che prendono importanti decisioni automatizzate su cittadini, consumatori e utenti di tutto il mondo.

Attualmente, sia le aziende che le Pubbliche Amministrazioni automatizzano le decisioni grazie ad algoritmi. Però, il suo sviluppo e messa in servizio non segue controlli di qualità esterni, né è trasparente come dovrebbe essere, il che lascia la popolazione senza protezione. Con questo motore di ricerca, chiunque può saperne di più su questi algoritmi: chi li ha sviluppati, chi li utilizza, il loro ambito di applicazione, se sono stati controllati, i loro obiettivi o il loro impatto sociale e le minacce che rappresentano.

Al momento, OASI raccoglie 57 algoritmi, ma prevede di arrivare a 100 nei prossimi mesi. Tra questi, 24 sono già applicati negli Stati Uniti da aziende governative e Big Tech. Ad esempio, ShotSpotter, uno strumento di algoritmo utilizzato dal dipartimento di polizia di Oakland per combattere e ridurre la violenza armata attraverso microfoni per il monitoraggio del suono e un algoritmo per prevedere potenziali abusi e negligenze sui minori utilizzato dalla contea di Allegheny, in Pennsylvania. Un altro esempio di un'azienda è Rekognition, il sistema di riconoscimento facciale di Amazon, che è stato verificato dal MIT Media Lab all'inizio del 2019 e ha riscontrato prestazioni sostanzialmente peggiori nell'identificare il genere di un individuo se fosse femmina o con la pelle più scura.

La discriminazione più comune è per motivi di età, sesso, razza o disabilità, prodotto involontariamente da sviluppatori che mancano di competenze socioeconomiche per comprendere l'impatto di questa tecnologia. In questo senso, questi ingegneri progettano gli algoritmi basandosi solo sulle competenze tecniche e, poiché non ci sono controlli esterni e sembra funzionare come previsto, l'algoritmo continua a imparare da dati carenti.

Data la mancanza di trasparenza sul funzionamento di alcuni di questi algoritmi, Fondazione Eticas, oltre al lancio di OASI, sta sviluppando un progetto di audit esterni. Il primo è VioGén, l'algoritmo utilizzato dal ministero dell'Interno spagnolo per assegnare il rischio alle donne che cercano protezione dopo aver subito casi di violenza domestica. Eticas condurrà un audit esterno attraverso dati amministrativi e di reverse engineering, interviste, report o script di progettazione, per raccogliere risultati su larga scala. Tutto questo con l'obiettivo di individuare opportunità di miglioramento nella tutela di queste donne.

“Nonostante l'esistenza di metodi algoritmici di controllo e audit per garantire che la tecnologia rispetti le normative vigenti e i diritti fondamentali, l'Amministrazione e molte aziende continuano a fare orecchie da mercante alle richieste di trasparenza da parte di cittadini e istituzioni”, ha dichiarato Gemma Galdon, fondatrice di Eticas Foundation . “Oltre all'OASI, dopo diversi anni in cui abbiamo sviluppato più di una dozzina di audit per aziende come Alpha Telefónica, Nazioni Unite, Koa Health o Inter-American Development Bank, abbiamo pubblicato anche una Guida all'Audit Algoritmico così che chiunque può eseguirli. L'obiettivo è sempre quello di sensibilizzare, fornire trasparenza e ripristinare la fiducia nella tecnologia, che di per sé non deve essere dannosa”.

In questo senso, algoritmi che vengono addestrati con tecniche di machine learning utilizzano una grande quantità di dati storici per "insegnare" loro a scegliere in base alle decisioni passate. Solitamente questi dati non sono rappresentativi della realtà socioeconomica e culturale su cui vengono applicati, ma in molte occasioni riflettono una situazione iniqua che non è destinata a perpetuarsi. In questo modo, l'algoritmo prenderebbe tecnicamente decisioni "corrette" in base al suo addestramento, anche se la realtà è che le sue raccomandazioni o previsioni sono distorte o discriminanti.

pubblicità

A proposito di Fondazione Eticas

Fondazione Eticas lavora per tradurre in specifiche tecniche i principi che guidano la società, come le pari opportunità, la trasparenza e la non discriminazione che sono nelle tecnologie che prendono decisioni automatizzate sulla nostra vita. Cerca un equilibrio tra il cambiamento dei valori sociali, le possibilità tecniche degli ultimi progressi e il quadro giuridico. A tal fine verifica gli algoritmi, verifica l'applicazione delle garanzie legali al mondo digitale, in particolare all'Intelligenza Artificiale, e svolge un'intensa attività di sensibilizzazione e diffusione della necessità di una tecnologia responsabile e di qualità.

Condividi questo articolo:

EU Reporter pubblica articoli da una varietà di fonti esterne che esprimono un'ampia gamma di punti di vista. Le posizioni assunte in questi articoli non sono necessariamente quelle di EU Reporter.

Trending