SA国际传媒

Papa Francesco durante il suo intervento al G7 Papa Francesco durante il suo intervento al G7

Intelligenza Artificiale e fattore umano

Nel 1983 un uomo salv貌 il mondo da una guerra nucleare che poteva innescarsi a causa dell鈥檈rrore di una macchina

di Andrea Tornielli

«I sistemi d鈥檃rma autonomi non potranno mai essere soggetti moralmente responsabili: l鈥檈sclusiva capacità umana di giudizio morale e di decisione etica è più di un complesso insieme di algoritmi, e tale capacità non può essere ridotta alla programmazione di una macchina che, per quanto 鈥渋ntelligente鈥, rimane pur sempre una macchina. Per questo motivo, è imperativo garantire una supervisione umana adeguata, significativa e coerente dei sistemi d鈥檃rma». Lo ha scritto Papa Francesco nel messaggio per la Giornata mondiale della Pace 2024.

C鈥è un episodio, accaduto quarant鈥檃nni fa, che dovrebbe diventare un paradigma ogni qual volta si parla di intelligenza artificiale applicata alla guerra, alle armi, agli strumenti di morte. Ed è la storia dell鈥檜fficiale sovietico che con la sua decisione, contravvenendo ai protocolli, ha salvato il mondo da un conflitto nucleare che avrebbe avuto conseguenze catastrofiche. Quell鈥檜omo si chiamava Stanislav Evgrafovich Petrov, era un tenente colonnello dell鈥檈sercito sovetico e il 26 settembre 1983 prestava servizio notturno nel bunker 鈥淪erpukhov 15鈥 monitorando le attività missilistiche degli Stati Uniti. La Guerra Fredda era ad una svolta cruciale, il presidente americano Ronald Reagan stava investendo somme ingentissime negli armamenti e aveva appena definito l鈥橴RSS «impero del male», la Nato era impegnata in esercitazioni militari che ricreavano scenari di guerra nucleare. Al Cremlino sedeva Jurij Andropov che da poco aveva parlato di un «acuirsi senza precedenti» della crisi e il 1° settembre i sovietici avevano abbattuto un aereo di linea della Korean Air Lines sulla penisola di Kamchatka provocando 269 vittime.

Quella notte del 26 settembre Petrov vide che l鈥檈laboratore Krokus, il cervellone considerato infallibile nel monitorare l鈥檃ttività nemica, aveva segnalato da una base del Montana la partenza di un missile diretto in Unione Sovietica. Il protocollo prevedeva che l鈥檜fficiale avvertisse immediatamente i superiori, i quali avrebbero dato il via libera per la risposta lanciando missili verso gli Stati Uniti. Ma Petrov prese tempo, anche perché 鈥 gli era stato detto 鈥 un eventuale attacco sarebbe stato massiccio. Considerò dunque quel missile solitario un falso allarme. E fece lo stesso per i quattro successivi che poco dopo apparvero sui suoi monitor, chiedendosi perché dai radar di terra non arrivasse alcuna conferma. Sapeva bene che i missili intercontinentali impiegavano meno di mezz鈥檕ra per arrivare a destinazione ma decise di non lanciare l鈥檃llarme, lasciando impietriti gli altri militari presenti.

In realtà il cervellone elettronico aveva sbagliato, non c鈥檈ra stato alcun attacco missilistico. Krokus era stato tratto in inganno da un fenomeno di rifrazione della luce solare a contatto con le nubi ad alta quota. Insomma, l鈥檌ntelligenza umana aveva visto oltre quella della macchina. La provvidenziale decisione di non decidere era stata presa da un uomo, il cui giudizio aveva saputo guardare oltre i dati e i protocolli.

La catastrofe nucleare fu evitata, anche se allora nessuno seppe dell鈥檃ccaduto fino agli inizi degli anni Novanta. Petrov, scomparso nel settembre 2017, così aveva commentato quella notte nel bunker 鈥淪erpukhov 15鈥: «Che ho fatto? Niente di speciale, solamente il mio lavoro. Ero l鈥檜omo giusto al posto giusto al momento giusto». Era stato l鈥檜omo in grado di valutare il possibile errore della macchina considerata infallibile, l鈥檜omo capace 鈥 per tornare alle parole del Papa 鈥 «di giudizio morale e di decisione etica», perché una macchina, per quanto 鈥渋ntelligente鈥, rimane pur sempre una macchina.

La guerra, ripete Francesco, è una pazzia, una sconfitta dell鈥檜manità. La guerra è una grave violazione della dignità umana. Fare la guerra nascondendosi dietro gli algoritmi, affidarsi all鈥檌ntelligenza artificiale per stabilire i bersagli e la modalità di colpirli, e così sgravarsi la coscienza perché alla fine ha scelto la macchina, è ancora più grave. Non dimentichiamoci di Stanislav Evgrafovich Petrov.

Grazie per aver letto questo articolo. Se vuoi restare aggiornato ti invitiamo a iscriverti alla newsletter cliccando qui

14 giugno 2024, 15:30