Sembra la sceneggiatura di un film di fantascienza, ma è una realtà concreta. E non si tratta di un futuro lontano, bensì di qualcosa di preoccupante che già sta seminando distruzione e causando morti in varie parti del mondo. I cosiddetti “robot assassini”, meglio noti come “Sistemi d’Armi Autonomi Letali”, sono tecnologie belliche in grado di selezionare e colpire obiettivi senza la necessità di intervento umano diretto. Questi dispositivi, basati sull’intelligenza artificiale, costituiscono una minaccia crescente non solo per la sicurezza mondiale, ma anche per i principi fondamentali dell’etica umana.
Il pericolo maggiore legato a tali armi risiede nella loro capacità di operare senza comprendere il contesto o le conseguenze delle loro azioni. I “robot assassini” non distinguono in modo affidabile tra civili e bersagli militari. Sono già utilizzati in ambito bellico, suscitando polemiche e preoccupazioni tra le istituzioni globali. Un ulteriore timore riguarda la possibilità che, in un futuro non lontano, queste tecnologie finiscano nelle mani di gruppi privati o organizzazioni criminali. La mancanza di un codice morale e di capacità di giudizio crea enormi problematiche riguardo all’opportunità di impiegare tali sistemi, che agiscono esclusivamente sulla base di algoritmi di intelligenza artificiale.
Al centro del dibattito vi è la loro capacità di rispettare le leggi internazionali che regolano i conflitti armati. L’assenza di un controllo umano sostanziale compromette la responsabilità morale e legale, aprendo la strada a possibili violazioni della dignità umana. Le armi autonome non sono una prospettiva futura, bensì una realtà già presente nei conflitti odierni. Dal 2022, in Ucraina sono stati segnalati droni dotati di capacità di targeting autonomo, utilizzati per colpire obiettivi senza intervento umano. Anche Israele ha fatto ricorso a tecnologie autonome nella Striscia di Gaza, con effetti devastanti sulla popolazione civile.
Sistemi come Habsora e Lavender processano rapidamente enormi quantità di dati per identificare bersagli, ma la riduzione degli esseri umani a semplici “punti dati” rappresenta una minaccia grave per la nostra specie. Sebbene alcune di queste tecnologie, come Habsora, non siano ancora completamente autonome, il loro impiego dimostra come il controllo umano stia gradualmente venendo meno nelle decisioni sull’uso della forza. L’utilizzo di queste tecnologie rende sempre più difficile per le forze armate valutare le implicazioni morali e strategiche delle loro azioni, contribuendo alla progressiva disumanizzazione del conflitto. Le principali potenze mondiali, tra cui Stati Uniti e Russia, continuano a competere nello sviluppo di queste armi, aumentando il pericolo per la sicurezza globale.
L’espansione dell’uso dei “robot assassini” solleva interrogativi cruciali sulla nostra capacità di mantenere un controllo umano significativo nelle operazioni belliche. Senza una supervisione da parte di esseri umani, non solo vengono messi a rischio i diritti dei civili, ma si minaccia anche la stabilità globale. Per questo motivo, in molti chiedono un intervento urgente da parte della comunità internazionale per regolamentare l’uso di tali armi e prevenire un futuro in cui le macchine decidano autonomamente chi vive e chi muore.