02:47 2024-01-27
extpolitic - citeste alte articole pe aceeasi tema
Comentarii Adauga Comentariu _ Ar putea AI să declanșeze războiul nuclear?Am acoperit o mare varietate de potențiale crize de-a lungul anilor. Acestea includ dezastre naturale, pandemii, tulburări sociale și colaps financiar.Aceasta este o listă descurajantă. Un lucru pe care nu l-am făcut este să acopăr cea mai mare calamitate potențială dintre toate-războiul nuclear.Din motivele explicate mai jos, acum este momentul să o luați în considerare. Luptele nucleare sunt din nou în aer. Subiectul primește mai multă atenție astăzi decât oricând de la Criza rachetelor din Cuba din 1962 și a consecințelor acesteia.Există trei motive pentru aceasta. Prima sunt acuzațiile americane că Rusia ar escalada pentru a folosi arme nucleare pe măsură ce a devenit mai disperată în conducerea războiului din Ucraina.Aceste acuzații au fost întotdeauna false și sunt ridicole acum, când Rusia câștigă în mod clar războiul cu arme convenționale. Totuși, amenințările și contra-amenințările au fost suficiente pentru a pune subiectul în joc. Al doilea motiv este războiul dintre Israel și Hamas.Din nou, escaladarea este preocuparea.Un scenariu deloc plauzibil are ca Hezbollah din sudul Libanului să deschidă un al doilea front la granița de nord a Israelului cu bombardamente intense cu rachete. Rebelii Houthi din Yemen s-ar alătura atacului.Deoarece Hezbollah și Houthii sunt atât musulmani șiiți, cât și mandatari iranieni, Israelul ar putea ataca Iranul ca sursă a escaladării. Israelul este o putere nucleară.Cu un grup de luptă al portavionului american și un submarin de atac nuclear în regiune și cu puterile nucleare Rusia și Pakistanul pregătit pentru a ajuta Iranul, perspectiva escaladării către un schimb nuclear este reală. Tensiunile crescânde dintre Iran și Pakistan chiar în această săptămână adaugă și mai mult combustibil incendiului. Al treilea motiv este inteligența artificială și rezultatul GPT.Deși inteligența artificială poate oferi oportunități profitabile investitorilor din multe sectoare ale pieței, AI/GPT poate fi, de asemenea, cea mai mare amenințare la adresa escaladării nucleare, deoarece are o logică internă care este în contradicție cu logica umană care a menținut pacea nucleară în ultimii 80 de ani.. Am acoperit pe larg Ucraina și Israelul și sunt acoperite pe scară largă în știri.Dar astăzi, abordez riscurile războiului nuclear din AI/GPT.Este o amenințare despre care nu auziți nimic, dar trebuie abordată. Să începem cu un film fictiv.Reprezentarea paradigmatică a unui război nuclear accidental este filmul din 1964 Fail Safe.În film, radarul american detectează o intruziune în spațiul aerian al SUA de către o aeronavă neidentificată, dar potențial ostilă. Forțele Aeriene ale S.U.A.stabilesc în curând că aeronava este un avion de linie civil în afara cursului.Între timp, un computer care răspunde la intruziune ordonă în mod eronat unui grup de bombardieri strategici din SUA condus de colonelul Jack Grady să înceapă un atac nuclear asupra Moscovei. S.U.A.eforturile de a anula ordinul și de a rechema bombardierii eșuează din cauza bruiajului sovietic al canalelor radio.Președintele ordonă armatei să doboare bombardierele și avioanele de luptă sunt amestecate în acest scop. Luptătorii folosesc postcombustibile pentru a prinde bombardierele, dar eșuează, iar consumul crescut de combustibil îi determină să se cufunde în Marea Arctică. Președintele comunică apoi cu premierul sovietic care acceptă să oprească bruiajul.Președintele vorbește cu liderul grupului de bombardieri pentru a anula atacul, dar echipajul a fost antrenat să ignore astfel de cereri precum un stratagem sovietic. SUA oferă apoi asistența tehnică a sovieticilor pentru a ajuta la doborârea bombardierelor.Avioanele sunt aproape toate doborâte, dar unul trece.Președintele o pune pe soția col.Grady la radio; el ezită, dar este în curând preocupat să evite rachetele sovietice.Apoi decide că vocea soției sale este o altă înșelăciune. Anticipând ce este mai rău și căutând să evite un război nuclear pe scară largă, președintele ordonă unui bombardier nuclear american să survoleze New York City știind că prima doamnă se află la New York. În final, Moscova este distrusă de o armă nucleară americană, iar președintele ordonă să fie aruncată o bombă nucleară asupra orașului New York, folosind Empire State Building ca punct zero.Se așteaptă ca sacrificiul New York-ului în schimbul Moscovei să pună capăt escaladării, dar acest lucru nu este descris în film. Următorul pas este lăsat sub îndoială. Deși Fail Safe are 60 de ani, problemele pe care le ridică și unele dintre răsturnările intrigii sunt izbitor de contemporane.Eroarea computerului care a provocat atacul din film nu este niciodată explicată din punct de vedere tehnic, dar nu este foarte relevantă. Erorile de computer apar tot timpul în infrastructura critică și pot provoca daune reale, inclusiv întreruperi de curent și epave ale trenurilor.Astfel de erori de computer reprezintă esența dezbaterii despre AI în sistemele strategice de astăzi. Citiți mai departe pentru a vedea de ce... Ar putea AI să declanșeze un război nuclear?AI într-un context de comandă și control poate fie să funcționeze defectuos și să emită ordine eronate ca în Fail Safe sau, mai probabil, să funcționeze așa cum este proiectat, dar să emită prescripții mortale bazate pe erori de inginerie, seturi de antrenament distorsionate sau proprietăți ciudate emergente din corelații pe care oamenii abia le pot percepe. Poate că cele mai cunoscute publicului contemporan sunt eforturile eșuate ale președintelui și ale soției colonelului Grady de a-l convinge pe comandantul bombardierului să anuleze atacul.Grady fusese antrenat să se aștepte la astfel de eforturi și să le trateze ca pe niște înșelăciuni. Astăzi, astfel de înșelăciuni ar fi realizate cu transmisii video și audio deepfake.Probabil că pregătirea comandantului și respingerea cererilor ar fi aceleași, în ciuda tehnologiei mai sofisticate din spatele lor.Tehnologia avansează, dar aspectele comportamentului uman rămân neschimbate. O altă neînțelegere, aceasta adevărată nu fictivă, care a fost aproape de a provoca un război nuclear a fost un incident din 1983 cu numele de cod Able Archer. Rădăcinile lui Able Archer datează din mai 1981, când pe atunci secretarul general al Partidului Comunist al Uniunii Sovietice, Leonid Brejnev, și șeful KGB, Iuri Andropov mai târziu secretar general, le-au dezvăluit înalților lideri sovietici opinia lor că SUA se pregătește în secret să lanseze o lovitură nucleară asupra Uniunii Sovietice. Andropov a anunțat apoi un efort masiv de colectare a informațiilor pentru a urmări persoanele care ar fi responsabile pentru lansarea și implementarea unui astfel de atac împreună cu facilitățile și canalele lor de comunicații. În același timp, administrația Reagan a început o serie de operațiuni militare secrete care au sondat agresiv apele sovietice cu mijloace navale și au zburat direct către spațiul aerian sovietic cu bombardiere strategice care s-au retras doar în ultima clipă. Aceste progrese au fost aparent pentru a testa apărarea sovietică, dar au avut efectul de a respecta percepția sovietică că SUA plănuiau un atac nuclear. Analiștii sunt de acord că cel mai mare risc de escaladare și război nuclear real apare atunci când percepțiile celor două părți variază în așa fel încât să facă imposibilă evaluarea rațională a dinamicii escaladării.Cele două părți sunt pe căi diferite făcând calcule diferite. Tensiunile au crescut și mai mult în 1983, când Marina SUA a zburat cu avioane de luptă F-14 Tomcat deasupra unei baze militare sovietice din Insulele Kurile, iar sovieticii au răspuns zburând peste Insulele Aleutine din Alaska.La 1 septembrie 1983, avioanele de luptă sovietice au doborât zborul 007 al Korean Air Lines deasupra Mării Japoniei.La bord se afla un congresman al SUA. La 4 noiembrie 1983, aliații SUA și NATO au început un joc de război extins cu numele de cod Able Archer.Acesta era menit să simuleze un atac nuclear asupra Uniunii Sovietice în urma unei serii de escalade. Problema a fost că escaladarea a fost scrisă în cărțile de informare a jocului de război, dar nu au fost de fapt simulate.Tranziția de la războiul convențional la jocul de război nuclear a fost simulata. Acest lucru a avut loc într-un moment în care sovieticii și KGB-ul căutau în mod activ semnele unui atac nuclear.Simulările care au implicat protocoalele de comandă, control și comunicații ale NATO au fost extrem de realiste, incluzând participarea cancelarului german Helmut Kohl și a prim-ministrului britanic Margaret Thatcher.Sovieticii credeau în mod plauzibil că jocul de război era de fapt acoperire pentru un atac real. Convinzând că SUA plănuiau o primă lovitură nucleară, sovieticii au stabilit că singurul lor curs de supraviețuire a fost să lanseze o primă lovitură preventivă.Ei au ordonat amplasarea focoaselor nucleare asupra bombardierelor strategice ale Armatei Aeriene Sovietice și a pus în alertă maximă avioanele de atac nuclear în Polonia și Germania de Est. Această viață reală din apropierea războiului nuclear a avut o poveste de fundal care este și mai înfricoșătoare.Sovieticii au construit anterior un sistem radar de avertizare timpurie cu conexiuni cu computere, folosind un tip primitiv de IA cu numele de cod Oko. Pe 26 septembrie 1983, cu doar două luni înainte de Able Archer, sistemul a funcționat defectuos și a raportat cinci ICBM-uri care intrau din Statele Unite.Alarmele Oko au sunat și ecranul computerului a afișat intermitent "LAUNCH”.Conform protocoalelor, afișajul de lansare nu era un avertisment, ci un ordin generat de computer de a riposta. Lt.Colonelul Stanislov Petrov de la Forțele Sovietice de Apărare Aeriană a văzut comanda computerizată și a trebuit să aleagă imediat între a trata ordinul ca pe o defecțiune a computerului sau să-și alerteze ofițerii superiori care probabil ar începe un contraatac nuclear. Petrov a fost co-dezvoltator al Oko și știa că sistemul a făcut greșeli.De asemenea, a estimat că, dacă atacul ar fi real, SUA ar folosi mult mai mult de cinci rachete.Petrov avea dreptate.Computerul a interpretat greșit reflexia soarelui de pe niște nori ca fiind rachete primite. Având în vedere tensiunile din acea zi și credința KGB că un atac nuclear ar putea avea loc în orice moment, Petrov a riscat ca viitorul Uniunii Sovietice să depășească sistemul Oko.S-a bazat pe o combinație de inferență, experiență și instinct pentru a dezactiva lanțul de ucidere. Incidentul a rămas secret până cu mult după încheierea Războiului Rece.În timp, Petrov a fost lăudat drept "Omul care a salvat lumea.” Amenințarea războiului nuclear din cauza IA nu vine doar de la puterile armate nucleare, ci de la terți și actori nestatali care folosesc IA pentru a crea ceea ce se numesc dezastre nucleare catalitice.Termenul catalitic se referă la agenți chimici care provoacă reacții volatile între alți compuși, fără a fi ei înșiși parte a reacției. Așa cum se aplică în relațiile internaționale, se referă la agenții care ar putea provoca un război nuclear între marile puteri fără a fi implicați în război.Acest lucru l-ar putea lăsa pe agentul slab într-o poziție relativ puternică odată ce marile puteri s-au autodistrus. Sistemele AI/GPT și-au găsit deja drumul în procesul de luptă nucleară.Va depinde de oameni să-și mențină rolul marginal și orientat spre date, nu orientat spre decizii.Având în vedere istoria tehnologiei în război, de la sulițe de bronz la rachete hipersonice, este dificil de concluzionat că AI/GPT vor fi atât de limitate.Dacă nu, vom plăti cu toții prețul. Ucraina, Gaza și IA cresc toate șansele unui război nuclear considerabil. Implicațiile financiare ale acestui lucru pentru investitori sunt simple.În caz de război nuclear, acțiunile, obligațiunile, numerarul și alte active financiare vor fi fără valoare.Bursele și băncile vor fi închise.Singurele bunuri valoroase vor fi pământul, aurul și argintul. Este o idee bună să le aveți pe toate trei — pentru orice eventualitate. _ Ar putea AI să declanșeze războiul nuclear?
Linkul direct catre PetitieCitiți și cele mai căutate articole de pe Fluierul:
|
|
|
Comentarii:
Adauga Comentariu