Dentro l'etica disordinata di fare la guerra alle macchine
CasaCasa > Blog > Dentro l'etica disordinata di fare la guerra alle macchine

Dentro l'etica disordinata di fare la guerra alle macchine

Jul 18, 2023

L’intelligenza artificiale si sta facendo strada nel processo decisionale in battaglia. Di chi è la colpa quando qualcosa va storto?

In una guerra del prossimo futuro – che potrebbe iniziare domani, per quanto ne sappiamo – un soldato prende posizione di tiro su un tetto vuoto. La sua unità ha combattuto isolato per isolato. Sembra che i nemici possano giacere in silenziosa attesa dietro ogni angolo, pronti a far piovere fuoco sui loro bersagli nel momento in cui hanno un colpo.

Attraverso il mirino, il soldato scruta le finestre di un edificio vicino. Nota la biancheria fresca stesa sui balconi. Alla radio arriva la voce che la sua squadra sta per spostarsi attraverso un pezzo di terreno aperto sottostante. Mentre escono, appare un riquadro rosso nell'angolo in alto a sinistra del mirino. Il sistema di visione artificiale del dispositivo ha segnalato un potenziale bersaglio: una figura stagliata in una finestra si sta avvicinando, a quanto pare, per scattare una foto.

Il soldato non ha una visione chiara, ma nella sua esperienza il sistema ha una capacità sovrumana di captare il più debole indizio di un nemico. Quindi punta il mirino sulla scatola e si prepara a premere il grilletto.

In altre guerre, forse anche appena oltre l'orizzonte, un comandante sta davanti a una serie di monitor. Viene visualizzato un avviso da un chatbot. Porta la notizia che i satelliti hanno rilevato un camion che entrava in un certo isolato che è stato designato come possibile area di sosta per i lanci di razzi nemici. Il chatbot ha già consigliato a un’unità di artiglieria, che secondo i suoi calcoli ha la “probabilità di uccisione” stimata più alta, di prendere di mira il camion e restare a guardare.

Secondo il chatbot, nessuno degli edifici vicini è una struttura civile, anche se rileva che la determinazione deve ancora essere corroborata manualmente. Un drone, inviato dal sistema per uno sguardo più da vicino, arriva sulla scena. Il video mostra il camion che fa retromarcia in uno stretto passaggio tra due complessi. L'opportunità di scattare la foto sta rapidamente giungendo al termine.

Per il comandante ormai tutto tace. Il caos, l'incertezza, la cacofonia, tutto ridotto al suono del ticchettio di un orologio e alla vista di un unico pulsante luminoso:

"APPROVARE L'ORDINE DI FUOCO."

Premere il grilletto o, a seconda dei casi, non premerlo. Per premere il pulsante o resistere. Legalmente – ed eticamente – il ruolo della decisione del soldato in questioni di vita e di morte è preminente e indispensabile. Fondamentalmente, sono queste decisioni che definiscono l’atto umano della guerra.

L’automazione può aiutarci a fare scelte difficili, ma non può farlo da sola.

Non dovrebbe sorprendere, quindi, che gli stati e la società civile abbiano considerato la questione delle armi autonome intelligenti – armi che possono selezionare e sparare su obiettivi senza alcun input umano – come una questione di seria preoccupazione. A maggio, dopo quasi un decennio di discussioni, le parti della Convenzione delle Nazioni Unite su alcune armi convenzionali hanno concordato, tra le altre raccomandazioni, che i militari che le utilizzano probabilmente dovranno “limitare la durata, la portata geografica e la portata dell’operazione” per conformarsi alle le leggi di guerra. La linea non era vincolante, ma era almeno un riconoscimento che un essere umano deve svolgere un ruolo – da qualche parte, in qualche momento – nel processo immediato che porta a un omicidio.

Ma le armi autonome intelligenti che sostituiscono completamente il processo decisionale umano devono (probabilmente) ancora vedere l’uso nel mondo reale. Anche i droni e le navi “autonomi” messi in campo dagli Stati Uniti e da altre potenze vengono utilizzati sotto stretta supervisione umana. Nel frattempo, i sistemi intelligenti che si limitano a guidare la mano che preme il grilletto stanno guadagnando terreno nella cassetta degli attrezzi del guerrafondaio. E sono diventati silenziosamente abbastanza sofisticati da sollevare nuove domande, a cui è più difficile rispondere rispetto alle ben note dispute sui robot assassini e, ogni giorno che passa, più urgenti: cosa significa quando una decisione è solo in parte umana e in parte umana? parte della macchina? E quando, se mai, è etico che quella decisione sia una decisione di uccidere?

Per molto tempo, l'idea di supportare una decisione umana con mezzi computerizzati non è stata una prospettiva così controversa. Il tenente generale in pensione dell'aeronautica Jack Shanahan afferma che il radar sull'aereo da caccia F4 Phantom con cui ha volato negli anni '80 è stato una sorta di aiuto decisionale. Lo ha avvisato della presenza di altri aerei, mi ha detto, in modo che potesse capire cosa fare al riguardo. Ma dire che l’equipaggio e il radar fossero complici alla pari sarebbe esagerato.