Connect with us

Attualità

ROBOT, DRONI, INTELLIGENZA ARTIFICIALE GESTIRANNO ANCHE LE GUERRE?

Nascosti in piccole basi militari, senza equipaggio, saranno pronti a decollare, a scandagliare ogni angolo del territorio, ad analizzare le immagini raccolte, ad identificare e colpire ogni “attività nemica”, si tratti di armi, di soldati, di terroristi.

Saranno in grado di capire se nell’obiettivo preso di mira ci siano o meno civili innocenti, potranno sparare missili ad alta precisione, confermare in tempo reale la distruzione (o l’uccisione) del ‘nemico’ per poi tornare alla base senza che sia necessario alcun intervento umano.

La rivoluzione delle guerre

Le guerre del prossimo futuro si svolgeranno con l’intelligenza artificiale: droni, truppe ed armamenti saranno in prevalenza robot dotati di tecnologia sofisticata, in grado di decidere in modo ‘autonomo’ e in pochi centesimi di secondo cosa fare. Robot che diventeranno sempre più intelligenti, più precisi, più veloci  e più economici, auto-perfezionandosi con la stessa rapidità con cui sta avanzando l’intelligenza artificiale.

Capofila di questa rivoluzione della guerra sono gli Stati Uniti, prima potenza militare, tecnologica ed economica del pianeta, ma anche Cina e Russia (ed altri Paesi in misura minore) stanno investendo massicciamente nell’uso dell’intelligenza artificiale in campo militare.

Le armi autonome sono la terza grande rivoluzione nella storia dei conflitti dopo la polvere da sparo e le armi nucleari. Non sono una novità assoluta in quanto da decenni vengono usate armi senza il diretto controllo umano, ma ciò che è diverso nei sistemi di armi guidati dall’intelligenza artificiale è costituito dalla natura e dal potere del software decisionale. Fino a poco tempo fa tutti i programmi per computer che venivano inseriti nel sistema di controllo di un’arma dovevano essere predisposti da programmatori umani, fornendo indicazioni, passo dopo passo, per eseguire compiti semplici e limitati. Oggi il software si basa su algoritmi di “apprendimento automatico” che scrivono il proprio codice dopo aver analizzato migliaia di esempi reali (missioni portate a termine ma anche insuccessi) e che non assomiglia affatto alla programmazione convenzionale dei computer militari. Le armi autonome convenzionali devono essere puntate su obiettivi nemici isolati o facilmente riconoscibili, le armi guidate dall’intelligenza artificiale possono essere lasciate libere di sorvegliare o dare la caccia quasi ad ogni tipo di obiettivo, decidendo da sole quale attaccare e quando.

Questo aspetto preoccupa notevolmente scienziati, analisti politici e militanti per i diritti umani. Tra essi, molti, ritengono che i prossimi nuovi arsenali potranno essere troppo vulnerabili agli errori e agli hacker, cosa che finirebbe per minacciare persone innocenti. Per altri lasciare che le macchine inizino attacchi mortali da sole non è etico e pone un rischio morale inaccettabile. Altri, ancora, temono che le armi I.A. diano alle cosiddette “nazioni canaglia” e alle organizzazioni terroristiche la possibilità di modificare a loro vantaggio l’equilibrio globale del potere, portando a più conflitti e più guerre.

Problemi di natura etica

Altro problema (insieme militare ed etico) è che l’intelligenza artificiale è limitata dalla sua mancanza di ‘senso comune’ e dalla capacità di ragionamento della mente umana. Per quanto ‘addestrata’ non potrà mai comprendere pienamente le conseguenze delle sue azioni. Se nella seconda metà del secolo scorso la guerra nucleare è stata resa impossibile grazie alla deterrenza, in quanto qualsiasi Paese avesse iniziato un primo attacco atomico avrebbe rischiato la reciprocità e quindi l’autodistruzione, nel caso delle armi autonome il primo attacco a sorpresa potrebbe essere ‘non tracciabile’ innescando rapidamente una risposta e un’escalation molto veloce.

Al Dipartimento della Difesa degli Stati Uniti d’America sono innumerevoli gli scenari che vengono ipotizzati per la prima possibile “guerra con Intelligenza Artificiale”; si tratta di scenari molto diversi tra loro con un fattore in comune: le capacità delle armi autonome saranno limitate più dalle leggi della fisica che dai sistemi che le controllano.

Ovviamente, ad oggi, come le grandi potenze combatteranno le guerre del futuro rimane impossibile da prevedere.

ISCRIVITI
ALLA NOSTRA NEWSLETTER

Post di tendenza

Articoli recenti

Facebook

Connect
Newsletter