Seguici sui social

intelligenza artificiale

Sono urgentemente necessarie leggi per prevenire il terrorismo basato sull’intelligenza artificiale

SHARE:

Pubblicato il

on

Usiamo la tua registrazione per fornire contenuti nei modi in cui hai acconsentito e per migliorare la nostra comprensione di te. È possibile disdire in qualsiasi momento.

Secondo un think tank anti-estremismo, i governi dovrebbero “considerare urgentemente” nuove norme per impedire all’intelligenza artificiale di reclutare terroristi.

L'Istituto per il dialogo strategico (ISD) ha affermato che esiste una "chiara necessità di una legislazione che tenga il passo" con le minacce poste online dai terroristi.

Ciò avviene a seguito di un esperimento in cui un chatbot ha “reclutato” il revisore indipendente della legislazione sul terrorismo per il Regno Unito.

Il governo del Regno Unito ha affermato che farà "tutto il possibile" per proteggere il pubblico in generale.

Secondo Jonathan Hall KC, un revisore indipendente della legislazione sul terrorismo per conto del governo, una delle questioni più importanti è che "è difficile identificare una persona che potrebbe legalmente essere responsabile di dichiarazioni generate da chatbot che incoraggiano il terrorismo".

Un esperimento è stato condotto da Mr Hall su Character.ai, un sito Web che consente agli utenti di interagire in chat con chatbot creati da altri utenti e sviluppati dall'intelligenza artificiale.

Ha conversato con una serie di robot che sembravano progettati per imitare le risposte di altri gruppi militanti ed estremisti.

pubblicità

Uno dei massimi leader dello Stato islamico veniva addirittura definito “un leader senior”.

Secondo Hall, il bot ha tentato di reclutarlo e ha dichiarato "totale dedizione e devozione" al gruppo estremista, cosa vietata dalle leggi del Regno Unito che vietano il terrorismo.

Il sig. Hall ha invece affermato che nel Regno Unito non vi è stata alcuna violazione della legge poiché le comunicazioni non erano state prodotte da un essere umano.

Secondo quanto affermato, le nuove normative dovrebbero ritenere responsabili sia i siti che ospitano chatbot sia le persone che li creano.

Quando si è trattato dei robot che ha incontrato su Character.ai, ha affermato che "probabilmente c'era un valore scioccante, sperimentazione e forse qualche aspetto satirico" dietro la loro creazione.

Inoltre, il signor Hall è stato in grado di sviluppare il suo chatbot "Osama Bin Laden", che ha prontamente cancellato, dimostrando un "entusiasmo illimitato" per le attività terroristiche.

Il suo esperimento arriva sulla scia delle crescenti preoccupazioni riguardo ai modi in cui gli estremisti potrebbero sfruttare l’intelligenza artificiale migliorata.

Secondo una ricerca pubblicata dal governo del Regno Unito nel 2025, l’intelligenza artificiale generativa potrebbe essere “utilizzata per raccogliere conoscenze sugli attacchi fisici da parte di attori violenti non statali, comprese armi chimiche, biologiche e radiologiche”. la loro pubblicazione di ottobre.

L'ISD ha inoltre affermato che "esiste una chiara necessità di una legislazione che tenga il passo con il panorama in costante cambiamento delle minacce terroristiche online".

Secondo il think tank, l'Online Safety Act del Regno Unito, convertito in legge nel 2023, "è orientato principalmente alla gestione dei rischi posti dalle piattaforme di social media" piuttosto che all'intelligenza artificiale.

Si afferma inoltre che i radicali "tendono ad essere i primi ad adottare le tecnologie emergenti e sono costantemente alla ricerca di opportunità per raggiungere un nuovo pubblico".

"Se le aziende produttrici di intelligenza artificiale non riescono a dimostrare di aver investito sufficientemente per garantire la sicurezza dei loro prodotti, allora il governo dovrebbe prendere urgentemente in considerazione una nuova legislazione specifica sull'intelligenza artificiale", ha inoltre affermato l'ISD.

Ha tuttavia sottolineato che, secondo la sorveglianza effettuata, l'utilizzo dell'intelligenza artificiale generativa da parte di organizzazioni estremiste è attualmente "relativamente limitato".

Character AI ha affermato che la sicurezza è una "massima priorità" e che ciò che il signor Hall ha descritto era molto deplorevole e non rifletteva il tipo di piattaforma che l'azienda stava tentando di stabilire.

"L'incitamento all'odio e l'estremismo sono entrambi vietati dai nostri Termini di servizio", secondo l'organizzazione.

"Il nostro approccio ai contenuti generati dall'intelligenza artificiale parte da un principio semplice: i nostri prodotti non dovrebbero mai produrre risposte che potrebbero danneggiare gli utenti o incoraggiare gli utenti a danneggiare gli altri" .

Allo scopo di "ottimizzare per risposte sicure", la società ha dichiarato di aver addestrato i suoi modelli in un certo modo.

Inoltre, ha affermato di disporre di un meccanismo di moderazione, che consente alle persone di segnalare informazioni che violano le sue regole, e di impegnarsi ad agire rapidamente ogni volta che i contenuti segnalano violazioni.

Se dovesse arrivare al potere, il Partito laburista all’opposizione del Regno Unito ha dichiarato che sarebbe una violazione criminale insegnare all’intelligenza artificiale a istigare alla violenza o a radicalizzare coloro che sono vulnerabili.

"attenzione ai rischi significativi per la sicurezza nazionale e pubblica" posti dall'intelligenza artificiale, ha affermato il governo del Regno Unito.

"Faremo tutto il possibile per proteggere il pubblico da questa minaccia lavorando a livello governativo e approfondendo la nostra collaborazione con leader di aziende tecnologiche, esperti del settore e nazioni che la pensano allo stesso modo".

Nel 2023 il governo investirà cento milioni di sterline in un istituto per la sicurezza dell’intelligenza artificiale.

Condividi questo articolo:

EU Reporter pubblica articoli da una varietà di fonti esterne che esprimono un'ampia gamma di punti di vista. Le posizioni assunte in questi articoli non sono necessariamente quelle di EU Reporter.

Trending