Isaac Asimov ha enunciato le tre famose leggi della robotica, che regolano il rapporto tra umani e robot all’insegna della protezione dei primi:
- Un robot non può recare danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
- Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.»
L’ampia applicazione dell’Intelligenza Artificiale nell’ambito militare ha largamente violato queste leggi, creando esattamente dei “killer robots” finalizzati a uccidere o danneggiare gli umani in battaglia.
Neppure il dibattito sulle “Autonomous Lethal Weapons”, o armi autonome che vengono impiegate anche contro le persone individuate come obiettivo militare, non è riuscito a ottenere una moratoria sulle armi alimentate da AI, che anzi sono diventate sempre più efficaci negli scenari bellici.
Papa Francesco ha osservato che «la possibilità di condurre operazioni militari attraverso sistemi di controllo remoto ha portato a una minore percezione della devastazione da essi causata e della responsabilità del loro utilizzo, contribuendo a creare un approccio ancora più freddo e distaccato all’immensa tragedia della guerra».
Questo è un altro degli ormai numerosi temi sull’impiego dell’AI che comportano e anzi sollecitano una riflessione profonda da parte dell’uomo.