Mini Droni Killer comandati da Intelligenza Artificiale - Italiador
Breaking news

Mini Droni Killer comandati da Intelligenza Artificiale

1+

The Future of Life Institute ha pubblicato un cortometraggio che mostra un futuro distopico con droni assassini alimentati dall’intelligenza artificiale. Il cortometraggio fa parte di una campagna di avvertimento sui pericoli dell’intelligenza artificiale armata ed è progettato per attirare l’attenzione sulla questione.

“Il nucleare è obsoleto. Elimina il tuo intero nemico praticamente senza rischi. Caratterizzalo, libera lo sciame e stai tranquillo.” Queste sono state alcune delle prime parole dette nel cortometraggio “Slaughterbots”.

Il cortometraggio inizia con un responsabile appaltatore della difesa che pubblicizza il nuovo prodotto della sua azienda: un Drone delle dimensioni di un palmo, pieno di esplosivo gestito da intelligenza artificiale che gli consente di trovare, mirare e uccidere le persone con una precisa detonazione alla testa.

L’oratore sfacciatamente asserisce: Puoi prendere di mira un’ideologia malvagia, proprio dove inizia, eliminarla, indicando la sua testa in mezzo a un massiccio giro di applausi.

Il cortometraggio è stato pubblicato alcuni anni fa, da Future of Life Institute, un’organizzazione no profit con sede a Boston dedicata a mostrare i pericoli dell’intelligenza artificiale e di altre tecnologie avanzate. 

Si teme che possa esserci una corsa agli armamenti per creare un’IA militarizzata completamente autonoma. Ricercatori, amministratori delegati e persone di alto profilo come Musk e Hawking hanno firmato una lettera aperta a luglio chiedendo il divieto dell’IA militare e avvertendo dei suoi pericoli per l’umanità.

Droni con intelligenza artificiale

I sistemi d’arma autonomi letali, a volte chiamati “robot killer”, sono sistemi d’arma che utilizzano l’intelligenza artificiale per identificare, selezionare e uccidere bersagli umani senza controllo umano. Ciò significa che la decisione di uccidere un bersaglio umano non è più presa dagli esseri umani, ma da algoritmi. Un malinteso comune è che queste armi siano “fantascienza” ma purtroppo fantascienza NON é.

Perché sono problematici?

I sistemi d’arma autonomi letali sono intrinsecamente amorali e rappresentano una grave minaccia per la sicurezza nazionale e globale, comprese le superpotenze.

Il Segretario generale delle Nazioni Unite ha affermato che “le macchine con il potere e la discrezione di togliere vite senza coinvolgimento umano sono politicamente inaccettabili, moralmente ripugnanti e dovrebbero essere proibite dal diritto internazionale”.

Al di là delle questioni etiche, sostituire il processo decisionale umano con algoritmi è altamente destabilizzante. La produzione di massa a buon mercato e / o la copia del codice degli algoritmi per armi autonome letali alimenterebbe la proliferazione di attori sia statali che non statali, compresi i terroristi nazionali e stranieri.

Inoltre, poiché possono operare a una velocità superiore all’intervento umano, introducono rischi significativi, come la rapida escalation dei conflitti, prestazioni inaffidabili e attribuzioni poco chiare.

Il potenziale utilizzo del software di riconoscimento facciale rende questi sistemi d’arma equipaggiati in modo univoco per mirare selettivamente a individui o gruppi specifici in base a sesso, etnia o altri dati biometrici.

Video da NON perdere

 

 

1+
Se ti é piaciuto, Condividi.

Lascia un Commento

L 'indirizzo email non verrà pubblicato. I campi richiesti sono contrassegnati *

*

diciassette − 9 =

WpCoderX