EU
Intelligenza artificiale: minacce e opportunità
La crescita e la ricchezza dell'Europa sono strettamente connesse al modo in cui utilizzerà i dati e le tecnologie connesse. L'intelligenza artificiale può fare una grande differenza per le nostre vite e società - nel bene e nel male - e il Parlamento europeo ha stabilito a comitato per esaminare l'impatto della tecnologia. Di seguito sono riportate alcune opportunità e minacce chiave connesse alle future applicazioni dell'IA.
Leggi di più su cos'è l'intelligenza artificiale e come viene utilizzata.
Vantaggi dell'IA
I paesi dell'UE sono già forti nell'industria digitale e nelle applicazioni business-to-business. Con un'infrastruttura digitale di alta qualità e un quadro normativo che protegge la privacy e la libertà di parola, l'UE potrebbe diventare un leader globale nell'economia dei dati e nelle sue applicazioni.
Vantaggi dell'IA per le persone
L'intelligenza artificiale potrebbe aiutare le persone con una migliore assistenza sanitaria, auto più sicure e altri sistemi di trasporto, prodotti e servizi personalizzati, più economici e di lunga durata. Può anche facilitare l'accesso alle informazioni, all'istruzione e alla formazione. La necessità di apprendimento a distanza è diventata più importante a causa del Pandemia di COVID-19. L'intelligenza artificiale può anche rendere il posto di lavoro più sicuro poiché i robot possono essere utilizzati per parti pericolose dei lavori e aprire nuove posizioni lavorative man mano che le industrie guidate dall'intelligenza artificiale crescono e cambiano.
Opportunità di intelligenza artificiale per le imprese
Per le imprese, l'IA può consentire lo sviluppo di una nuova generazione di prodotti e servizi, anche in settori in cui le aziende europee hanno già posizioni di forza: economia verde e circolare, macchinari, agricoltura, sanità, moda, turismo. Può aumentare le vendite, migliorare la manutenzione della macchina, aumentare la produzione e la qualità, migliorare il servizio clienti e risparmiare energia.
Opportunità di intelligenza artificiale nei servizi pubblici
L'intelligenza artificiale utilizzata nei servizi pubblici può ridurre i costi e offrire nuove possibilità nel trasporto pubblico, nell'istruzione, nell'energia e nella gestione dei rifiuti e potrebbe anche migliorare la sostenibilità dei prodotti. In questo modo l'IA potrebbe contribuire al raggiungimento degli obiettivi del Green Deal dell'UE.
Rafforzare la democrazia
La democrazia potrebbe essere rafforzata utilizzando il controllo basato sui dati, prevenendo disinformazione e attacchi informatici e garantire l'accesso a informazioni di qualità. L'IA potrebbe anche supportare la diversità e l'apertura, ad esempio mitigando la possibilità di pregiudizio nelle decisioni di assunzione e utilizzando invece dati analitici.
AI, sicurezza e protezione
Si prevede che l'intelligenza artificiale verrà utilizzata maggiormente nella prevenzione della criminalità e nel sistema di giustizia penale, poiché enormi set di dati potrebbero essere elaborati più rapidamente, i rischi di fuga dei prigionieri valutati in modo più accurato, crimini o persino attacchi terroristici previsti e prevenuti. È già utilizzato dalle piattaforme online per rilevare e reagire a comportamenti online illegali e inappropriati.
In materia militare, l'intelligenza artificiale può essere utilizzata per strategie di difesa e attacco nell'hacking e nel phishing o per prendere di mira i sistemi chiave nella guerra informatica, mentre il vantaggio chiave dei sistemi d'arma autonomi è il potenziale di impegnarsi in conflitti armati con il ridotto rischio di danni fisici.
Minacce e sfide dell'IA
Anche la crescente dipendenza dai sistemi di intelligenza artificiale pone potenziali rischi.
Sottoutilizzo e uso eccessivo dell'IA
Il sottoutilizzo dell'IA è considerato una delle principali minacce: le opportunità mancate per l'UE potrebbero significare una scarsa attuazione dei principali programmi, come il Green Deal dell'UE, la perdita di vantaggio competitivo nei confronti di altre parti del mondo, la stagnazione economica e scarse possibilità per le persone. Il sottoutilizzo potrebbe derivare dalla sfiducia del pubblico e delle imprese nei confronti dell'IA, della scarsa infrastruttura, della mancanza di iniziativa, dei bassi investimenti o, poiché l'apprendimento automatico dell'IA dipende dai dati, da mercati digitali frammentati.
L'uso eccessivo può anche essere problematico: investire in applicazioni di intelligenza artificiale che si dimostrano non utili o applicare l'intelligenza artificiale a compiti per i quali non è adatta, ad esempio utilizzandola per spiegare complesse questioni sociali.
Responsabilità: chi è responsabile dei danni causati dall'intelligenza artificiale?
Una sfida importante è determinare chi è responsabile dei danni causati da un dispositivo o servizio gestito dall'intelligenza artificiale: in un incidente che coinvolge un'auto a guida autonoma. Il danno deve essere coperto dal proprietario, dal produttore dell'auto o dal programmatore?
Se il produttore fosse assolutamente privo di responsabilità, potrebbe non esserci alcun incentivo a fornire un buon prodotto o servizio e potrebbe danneggiare la fiducia delle persone nella tecnologia; ma le normative potrebbero anche essere troppo rigide e soffocare l'innovazione.
Minacce dell'IA ai diritti fondamentali e alla democrazia
I risultati che l'AI produce dipendono da come è progettata e da quali dati utilizza. Sia il design che i dati possono essere intenzionalmente o non intenzionalmente distorti. Ad esempio, alcuni aspetti importanti di un problema potrebbero non essere programmati nell'algoritmo o potrebbero essere programmati per riflettere e replicare i pregiudizi strutturali. Inoltre, l'uso di numeri per rappresentare una realtà sociale complessa potrebbe far sembrare l'IA fattuale e precisa quando non lo è. Questo a volte è indicato come mathwashing.
Se non eseguita correttamente, l'intelligenza artificiale potrebbe portare a decisioni influenzate da dati su etnia, sesso, età al momento dell'assunzione o del licenziamento, dell'offerta di prestiti o persino nei procedimenti penali.
L'intelligenza artificiale potrebbe compromettere gravemente il diritto alla privacy e alla protezione dei dati. Può essere utilizzato ad esempio in apparecchiature di riconoscimento facciale o per il monitoraggio e la profilazione online di individui. Inoltre, l'intelligenza artificiale consente di unire le informazioni che una persona ha fornito in nuovi dati, il che può portare a risultati che la persona non si aspetterebbe.
Può anche rappresentare una minaccia per la democrazia; L'intelligenza artificiale è già stata accusata di aver creato camere di eco online basate sul precedente comportamento online di una persona, visualizzando solo i contenuti che una persona vorrebbe, invece di creare un ambiente per un dibattito pubblico pluralistico, ugualmente accessibile e inclusivo. Può anche essere utilizzato per creare video, audio e immagini fasulli estremamente realistici, noti come deepfakes, che possono presentare rischi finanziari, danneggiare la reputazione e sfidare il processo decisionale. Tutto ciò potrebbe portare alla separazione e polarizzazione nella sfera pubblica e manipolare le elezioni.
L'intelligenza artificiale potrebbe anche svolgere un ruolo nel danneggiare la libertà di riunione e di protesta in quanto potrebbe tracciare e profilare individui legati a determinate convinzioni o azioni.
Impatto dell'IA sui posti di lavoro
Si prevede che l'uso dell'IA sul posto di lavoro comporterà l'eliminazione di un gran numero di posti di lavoro. Sebbene l'IA dovrebbe anche creare e migliorare posti di lavoro, l'istruzione e la formazione avranno un ruolo cruciale nella prevenzione della disoccupazione di lunga durata e nel garantire una forza lavoro qualificata.
L'accumulo di informazioni potrebbe anche portare a una distorsione della concorrenza poiché le società con più informazioni potrebbero ottenere un vantaggio ed eliminare efficacemente i concorrenti.
Rischi per la sicurezza e la protezione
Le applicazioni di intelligenza artificiale che sono in contatto fisico con gli esseri umani o integrate nel corpo umano potrebbero comportare rischi per la sicurezza in quanto potrebbero essere progettate male, utilizzate in modo improprio o violate. Un uso scarsamente regolamentato dell'IA nelle armi potrebbe portare alla perdita del controllo umano sulle armi pericolose.
Sfide della trasparenza
Gli squilibri nell'accesso alle informazioni potrebbero essere sfruttati. Ad esempio, in base al comportamento online di una persona o ad altri dati e a sua insaputa, un fornitore online può utilizzare l'intelligenza artificiale per prevedere che qualcuno è disposto a pagare, oppure una campagna politica può adattare il proprio messaggio. Un altro problema di trasparenza è che a volte può non essere chiaro alle persone se stanno interagendo con l'IA o con una persona.
Condividi questo articolo:
-
Francia5 giorni fa
La Francia approva una nuova legge anti-sette nonostante l'opposizione del Senato
-
Conferenze5 giorni fa
I conservatori nazionali promettono di portare avanti l’evento di Bruxelles
-
Conferenze2 giorni fa
La conferenza on-off del NatCon è stata interrotta dalla polizia di Bruxelles
-
Sorveglianza di massa3 giorni fa
Perdita: i ministri degli Interni dell'UE vogliono esentarsi dal controllo della chat e dalla scansione collettiva dei messaggi privati