robot militari

Robot militari autonomi: cosa dicono le linee guida sull’applicazione dell’intelligenza artificiale in campo militare?

Dai Talos greci ai Mission Master schierati sui moderni campi di battaglia, i robot militari si fanno sempre più intelligenti e autonomi. ma cosa dice la relazione ordinata dal dipartimento della difesa sull’applicazione etica dell’intelligenza artificiale in campo militare?

L’idea di usare macchine robotiche per condurre guerre invece di soldati in carne e ossa risale ben prima che al XX secolo. I Talos greci e i Golem ebraici sono i primi esempi di umanoidi non viventi usati per attaccare e combattere esseri umani. Si ispirarono a loro gli uomini di ferro “Talus” narrati da Edmund Spenser nel poema The Faerie Queene e gli uomini meccanici immaginati quasi 500 anni dopo nei romanzi di Frank Oz, Tin-Man e Tik-Tok. La storia più celebre è forse quella narrata nel romanzo di Edmond Hamilton The Metal Giants. Pubblicato nel 1926, racconta di un cervello elettronico che, forgiato il proprio esercito di robot assassini, si scaglia contro il genere umano. Uscendo dall’ambito puramente fantastico, l’idea di usare i robot come soldati comincia ad essere presa realmente in considerazione con lo scoppio della Grande Guerra, quando il mondo intero si rese testimone dell’immenso potere distruttivo dalle armi moderne. Numerosi articoli pubblicati su giornali e riviste del tempo discutevano sulla possibilità di applicare le neonate teorie sulla robotica all’ambito militare, creando soldati-robot e così evitare massacri come Verdun. I primi risultati saranno messi in pratica dal terzo Reich durante la Seconda Guerra Mondiale con le Goliath, mine controllate a distanza, e con i missili guidati V-2 nonchè dall’Armata Rossa con il carro armato RC “teletank” TT-26.

Antenati dei robot militari cominciarono poi ad invadere le sale cinematografiche a partire dagli anni ’60 in pellicole come The Earth Dies Screaming e Star Trek e, più avanti, con Doctor Who, Star Wars, The Terminator e I, Robot, recente cult tratto dalla serie di 9 racconti firmati Isaac Asimov

Parallelamente allo sviluppo dell’Intelligenza Artificiale (A.I.) crescono anche i timori legati alla possibilità che i robot, sempre più intelligenti, possano in qualche modo prendere il sopravvento e ribellarsi ai creatori umani. Riguardo le tre celeberrime leggi della robotica formulate da Asimov, Robert J. Sawyer ha fatto notare che, nel mondo reale, tali leggi sono attualmente difficili, se non impossibili da applicare. In particolare si ritiene siano necessari ancora progressi significativi nel campo dell’A.I. affinché i robot le possano effettivamente comprendere. Inoltre, poiché l’esercito rimane tutt’oggi una delle maggiori fonti di finanziamento per la ricerca robotica, è assai improbabile che queste vengano concretamente applicate. 

Ad oggi i robot militari sono diventati sempre più sofisticati e soprattutto  “indipendenti”: il ventaglio di missioni a loro congeniali si è progressivamente allargato, e così le loro potenzialità. Da poco più di un braccio telecomandato per disarmare le bombe, i robot militari si sono evoluti in macchine autonome in grado di gestire interi convogli di rifornimenti, pattugliare aree designate e svolgere vere e proprie missioni di ricognizione. Parallelamente, i sistemi di comando e di controllo dei robot militari da combattimento sono passati da semplici joystick a ben più complesse reti cibernetiche radio in grado di permettere ad un singolo operatore di controllare intere squadre di robot autonomi.

Quanto autonomi? 

Un esempio ne è il nuovo Mission Master svelato dalla tedesca Rheinmetall. Equipaggiato con sensori elettro-ottici e infrarossi a lungo raggio, una fotocamera a 360 gradi, un telemetro con sistema di puntamento laser e, ovviamente, un mitragliatore Fieldranger Light 7.62 mm, il robot sfrutta un sistema A.I. che gli consente di mettersi in contatto con altri Mission Master o veicoli automatizzati presenti sul campo. L’intero “Wolf Pack”, cioè la suite che connette tra loro robot e base, viene gestita da un singolo operatore, che può concentrarsi sulla missione mentre i robot autonomi si occupano dei loro compiti individuali.
Pubblicizzandone capacità e potenzialità, l’azienda produttrice evidenzia il proprio impegno “a mantenere l’uomo nel ciclo di tutte le operazioni cinetiche”, assicurando che “a decidere se aprire il fuoco sarà sempre un essere umano e mai una macchina”.

Quella sull’uso militare dell’intelligenza artificiale è una questione più etica che tecnica, riguardo la quale il Pentagono ha individuato specifiche linee guida. II Defense Innovation Board ha studiato l’etica applicata ai principi dell’A.I. chiamando a raccolta accademici, avvocati, informatici, filosofi e leader aziendali in un comitato presieduto dall’ex CEO di Google Eric Schmidt. 
La relazione di 65 pagine individua in particolare 5 pilastri fondamentali per l’applicazione dell’intelligenza artificiale in campo militare (responsabilità, equità, tracciabilità, affidabilità e governabilità), dimostrandosi  tuttavia assai carente sotto numerosi aspetti. Deficit dovuti, anche, alla mancanza di sufficienti conoscenze in un campo relativamente nuovo: “l’etica è un vero e proprio work in progressha commentato Anders Sandberg, ricercatore presso il Future of Humanity Institute dell’Università di Oxford – I principi inizieranno ad avere effetto solo quando divenuti parte del DNA del settore, ci vorrà del tempo. Il problema – ha aggiunto – è che quando si tratta di utilizzare l’A.I. per scopi militari, il tempo non è qualcosa che possiamo permetterci”. 


TI CONSIGLIAMO DI LEGGERE QUESTO LIBRO:

CyberUomo. Dall’intelligenza artificiale all’ibrido uomo-macchina di Enrica Perucchietti
Ordinalo sul Giardino dei Libri

Leggi anche: “Artificial intelligence and life in 2030

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *