robot militari

Robot militari autonomi: cosa dicono le linee guida sull’applicazione dell’intelligenza artificiale in campo militare?

I nuovi robot militari si fanno sempre più intelligenti e autonomi: grazie alla IA possono agire da soli e coordinandosi con altre macchine presenti sul campo. Ma cosa dice la relazione ordinata dal Dipartimento della Difesa sull’applicazione etica dell’Intelligenza artificiale in campo militare?

Man mano che i robot militari sono diventati sempre più sofisticati e soprattutto  “indipendenti”, il ventaglio di missioni a loro congeniali si è progressivamente allargato. Da poco più di un braccio telecomandato per disarmare le bombe, i robot militari si sono evoluti in macchine autonome in grado di gestire interi convogli di rifornimenti, pattugliare un’area designata e svolgere vere e proprie missioni di ricognizione. Parallelamente, i sistemi di comando e di controllo dei robot militari da combattimento sono passati da semplici joystick a ben più complesse reti cibernetiche radio in grado di permettere ad un singolo operatore di controllare intere squadre di robot autonomi.

Quanto autonomi?
Un esempio ne è proprio il nuovo Mission Master svelato dalla tedesca Rheinmetall. Equipaggiato con sensori elettro-ottici e infrarossi a lungo raggio, una fotocamera a 360 gradi, un telemetro con sistema di puntamento laser e, ovviamente, un mitragliatore Fieldranger Light 7.62 mm, il robot sfrutta un sistema di intelligenza artificiale che gli consente di mettersi in contatto con altri Mission Master o veicoli automatizzati presenti sul campo. L’intero “Wolf Pack”, cioè la suite che connette tra loro robot e base, viene gestita da un singolo operatore, che può concentrarsi sulla missione mentre i robot autonomi si occupano dei loro compiti individuali. 

Pubblicizzandone capacità e potenzialità, l’azienda produttrice evidenzia il proprio impegno “a mantenere l’uomo nel ciclo di tutte le operazioni cinetiche”, assicurando che “a decidere se aprire il fuoco sarà sempre un essere umano e mai una macchina”.

Quella sull’uso militare dell’intelligenza artificiale è una questione più etica che tecnica, riguardo la quale il Pentagono ha individuato specifiche linee guida. II Defense Innovation Board ha studiato l’etica applicata ai principi dell’IA chiamando a raccolta accademici, avvocati, informatici, filosofi e leader aziendali in un comitato presieduto dall’ex CEO di Google Eric Schmidt.
La relazione di 65 pagine individua in particolare 5 pilasti fondamentali per l’applicazione dell’intelligenza artificiale in campo militare (cioè responsabilità, equità, tracciabilità, affidabilità e governabilità) dimostrandosi  tuttavia assai carente sotto numerosi aspetti. Deficit dovuti, anche, alla mancanza di sufficienti conoscenze in un campo relativamente nuovo: “l’etica è un vero e proprio work in progressiha commentato Anders Sandberg, ricercatore presso il Future of Humanity Institute dell’Università di Oxford – I principi inizieranno ad avere effetto solo quando divenuti parte del DNA del settore, ci vorrà del tempo. Il problema – ha aggiunto – è che quando si tratta di utilizzare l’IA per scopi militari, il tempo non è qualcosa che possiamo permetterci”. 

Leggi anche: “Artificial intelligence and life in 2030

Condividi questo articolo
Share on Facebook
Facebook
Pin on Pinterest
Pinterest
Tweet about this on Twitter
Twitter
Share on LinkedIn
Linkedin

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *