G4Media.ro

Israelul, sub o presiune tot mai puternică pentru a justifica utilizarea inteligenței…

Sursa foto: G4Media (generata AI)

Israelul, sub o presiune tot mai puternică pentru a justifica utilizarea inteligenței artificiale în atacurile din Gaza

Israelul folosește pe scară largă tehnologii noi și sofisticate de inteligență artificială în cadrul ofensivei sale în Gaza. Și, pe măsură ce numărul de morți în rândul civililor crește, grupurile regionale pentru drepturile omului se întreabă dacă sistemele de alegere a țintelor cu inteligență artificială ale Israelului au suficiente bariere de protecție, transmite Politico.

Este o presiune pentru responsabilitate care ar putea forța Washingtonul să se confrunte cu unele întrebări incomode cu privire la măsura în care SUA își lasă aliatul să scape de răspundere pentru utilizarea războiului cu ajutorul inteligenței artificiale.

În loviturile sale în Gaza, armata israeliană s-a bazat pe un sistem cu inteligență artificială numit Gospel pentru a ajuta la determinarea țintelor, care au inclus școli, birouri ale organizațiilor de ajutorare, lăcașuri de cult și unități medicale. Oficialii Hamas estimează că peste 30.000 de palestinieni au fost uciși în acest conflict, inclusiv multe femei și copii.

Nu este clar dacă vreuna dintre victimele civile din Gaza este un rezultat direct al utilizării de către Israel a țintelor stabilite de AI. Dar activiștii din regiune cer mai multă transparență – subliniind potențialele erori pe care le pot face sistemele de inteligență artificială și susținând că sistemul de țintire rapidă a AI este cel care a permis Israelului să bombardeze părți mari din Gaza.

Grupul palestinian pentru drepturile digitale 7amleh a susținut într-un document de poziție recent că utilizarea armelor automate în război „reprezintă cea mai nefastă amenințare pentru palestinieni”. Iar cea mai veche și cea mai mare organizație israeliană pentru drepturile omului, Asociația pentru drepturile civile din Israel, a înaintat în decembrie o cerere pentru libertatea de informare către divizia juridică a Forțelor de Apărare israeliene, cerând mai multă transparență în ceea ce privește alegerea automată a țintelor.

Sistemul Gospel, despre care IDF a oferit puține detalii, folosește învățarea automată pentru a analiza rapid cantități mari de date pentru a genera potențiale ținte de atac.

Forțele de Apărare israeliene au refuzat să comenteze cu privire la utilizarea bombelor ghidate de inteligența artificială în Gaza sau orice altă utilizare a inteligenței artificiale în conflict. Un purtător de cuvânt al IDF a declarat public în februarie că, deși Gospel este folosit pentru a identifica țintele potențiale, decizia finală de a lovi este întotdeauna luată de o ființă umană și aprobată de cel puțin o altă persoană din lanțul de comandă.

Cu toate acestea, IDF a precizat în noiembrie că, pe lângă creșterea preciziei, sistemul Gospel „permite utilizarea de instrumente automate pentru a produce ținte într-un ritm rapid”. Aceeași declarație spunea că Israelul a lovit peste 12.000 de ținte în primele 27 de zile de luptă.

Presiunea pentru mai multe răspunsuri despre războiul cu inteligență artificială al Israelului are potențialul de a reverbera în SUA, creând cereri pentru ca SUA să supravegheze tehnologia aliaților săi din străinătate și creând o zonă politică delicată pentru legislatorii americani care doresc să folosească inteligența artificială pe viitoarele câmpuri de luptă.

Unii dintre cei care urmăresc politica de război cu inteligență artificială din SUA susțin că Israelul denaturează scopul tehnologiei, folosindu-o pentru a extinde listele de ținte, mai degrabă decât pentru a proteja civilii.

„A fost clar că Israelul a folosit IA pentru a avea ceea ce ei numesc „ținte de putere”, astfel încât o folosesc în mod intenționat – spre deosebire de ceea ce ar trebui să fie, care este de a ajuta în ceea ce privește gradul de precizie – pentru a ținti civili”, a declarat Nancy Okail, președintele think tank-ului progresist de politică externă Center for International Policy. Ea a spus că IDF pare să permită o definiție largă a acestor „ținte de putere” – pe care ramura de informații a armatei le definește ca fiind „ținte cu semnificație de securitate sau de percepție pentru Hamas sau Jihadul Islamic Palestinian”.

„Cu peste 30.000 de victime în Gaza, este greu de spus dacă IDF folosește inteligența artificială de înaltă tehnologie pentru a identifica țintele sau aruncă săgeți pe o hartă”, a declarat Shaan Shaikh, director adjunct și membru al proiectului de apărare antirachetă de la Centrul pentru Studii Strategice și Internaționale. „Statele Unite ar trebui să își folosească pârghiile neexploatate pentru a modela aceste operațiuni, dar până acum, administrația Biden nu a fost dispusă să facă acest lucru”.

Cu toate acestea, până în prezent, utilizarea AI de către Israel în ofensiva sa militară nu a atras prea mult atenția în discuțiile de la Washington privind conflictul Israel-Hamas.

Grupurile pentru drepturile omului din SUA spun că se concentrează mai mult pe decizia Israelului de a viza infrastructura civilă, decât pe tehnologia folosită în acest scop. După cum a relatat POLITICO, organizațiile umanitare și unitățile medicale au fost lovite chiar și după ce coordonatele GPS ale acestora au fost furnizate autorităților israeliene. Iar Israelul a declarat că consideră că infrastructura civilă, cum ar fi spitalele și școlile, este o țintă corectă, deoarece Hamas a ascuns luptători și arme în aceste clădiri.

Oficialii americani au evitat, de asemenea, în mare parte, să aducă în discuție utilizarea AI de către Israel.

„Am participat la o serie de întâlniri cu oameni foarte preocupați de drepturile omului, în cadrul unor întâlniri cu administrația, și nu am auzit ca AI să fie abordată în mod special”, a declarat Khaled Elgindy, director de program pentru Palestina și afaceri palestiniene-israeliene la Middle East Institute.

Întrebată despre amploarea utilizării de către Israel a țintelor de inteligență artificială în război, Anne Neuberger, consilier adjunct al Casei Albe pe probleme de securitate națională pentru tehnologie cibernetică și tehnologii emergente, s-a grăbit să se axeze pe pericolele pe care le prezintă această tehnologie în război în general.

„Suntem foarte îngrijorați de sistemele de inteligență artificială”, a declarat Neuberger într-un interviu. „De aceea, președintele a lucrat atât de repede pentru a scoate ordinul său executiv privind AI și pentru a porni de acolo. Absolut.”

Ordinul executiv la care a făcut referire – emis în octombrie – oferă orientări pentru utilizarea inteligenței artificiale de către armata americană și agențiile de informații, făcând totodată presiuni pentru a contracara înarmarea AI de către adversarii străini.

Un alt motiv pentru care această tehnologie ar putea să nu primească atât de multă atenție la Washington: natura opacă a operațiunilor militare ale Israelului.

„Nimeni nu are nicio perspectivă, inclusiv, aș spune, factorii de decizie politică din SUA, asupra modului în care Israelul conduce acest război”, a declarat Sarah Yager, director la Washington la Human Rights Watch.

Dar există semne că Israelul ar putea să nu folosească supravegherea la nivelul pe care și l-ar dori SUA. Israelul nu a semnat un tratat susținut de SUA care să promoveze utilizarea responsabilă a AI în război. Printre cei peste 50 de semnatari se numără Regatul Unit, Germania și Ucraina – celălalt aliat al SUA aflat într-un război activ.

„Îngrijorarea mea este că tehnologia AI a deschis practic cutia Pandorei”, a declarat într-un interviu Ron Reiter, cofondator și director de tehnologie al firmei cibernetice Sentra cu sediul în Israel și fost ofițer de informații israelian.

Sistemul israelian de direcționare a inteligenței artificiale, Gospel, este folosit de agenția sa de elită Unitatea 8200 de informații cibernetice și de semnale pentru a analiza „comunicațiile, imaginile și informațiile de pe internet din rețelele mobile pentru a înțelege unde se află oamenii”, a declarat Reiter, fost ofițer al Unității 8200.

„8200 furnizează semnalul pentru ceea ce cred ei în ceea ce privește nivelul de încredere – cât de încrezători sunt că ținta nu conține civili”, a spus el. În timp ce Reiter a spus că nu poate vorbi despre potențialele greșeli ale Gospel, el a spus că, în general, sistemele de țintire israeliene sunt „foarte, foarte precise și că sunt făcute cu acuratețe cu unicul scop de a minimiza victimele civile”.

Dar experții susțin că orice sistem de țintire cu inteligență artificială implică riscuri ridicate.

„Având în vedere istoricul ratelor de eroare ridicate ale sistemelor de inteligență artificială”, a declarat Heidy Khlaaf, director de inginerie în domeniul învățării automate la firma de securitate cibernetică Trail of Bits, cu sediul în Marea Britanie, „Automatizarea imprecisă și părtinitoare a țintelor nu este într-adevăr departe de țintirea fără discriminare”.

Statele Unite folosesc inteligența artificială pentru a ajuta la gestionarea navigației și supravegherii dronelor în zonele de conflict și dezvoltă sisteme care ar folosi țintirea cu ajutorul inteligenței artificiale pentru lovituri ofensive. Pentagonul a publicat o strategie privind AI la sfârșitul anului trecut, în care a prezentat modul în care intenționează să integreze în siguranță tehnologiile AI în operațiunile sale.

SUA testează, de asemenea, o varietate de tehnologii de inteligență artificială care au fost dezvoltate în Israel pentru a fi utilizate de forțele americane – unele cu finanțare americană.

Statele Unite oferă Israelului 3,3 miliarde de dolari pe an sub formă de granturi pentru finanțare militară externă, la care se adaugă 500 de milioane de dolari pe an pentru programe de apărare antirachetă, în cadrul unui pact de un deceniu privind ajutorul militar.

Israelul a folosit aceste fonduri în parte pentru a-și consolida capacitățile de înaltă tehnologie de luptă, antirachetă și de supraveghere – deși nu există indicii că banii merg către Gospel. În plus față de sistemele de atac, aceasta include vizoare de pușcă de asalt cu precizie AI, cum ar fi SMASH de la Smart Shooter – care utilizează algoritmi avansați de procesare a imaginilor pentru a se concentra asupra unei ținte. Utilizarea sa a fost înregistrată atât în Gaza, cât și în Cisiordania ocupată.

În octombrie, Pentagonul și-a deschis propria școală de luptă cu drone la Fort Sill, în Oklahoma, unde studenții se antrenează cu ajutorul dispozitivului SMASH.

Unii membri ai Congresului au încercat să impună mai multe reguli în ceea ce privește modul în care SUA utilizează tehnologia AI. Senatorul Ed Markey (D-Mass.) și deputații. Ted Lieu (D-Calif.), Donald Beyer (D-Va.) și Ken Buck (R-Colo.) au introdus anul trecut un proiect de lege care ar lua măsuri pentru a se asigura că tehnologiile de inteligență artificială nu se ocupă de sistemele de comandă și control nuclear.

Dar puțini sunt cei care susțin renunțarea la armamentul cu AI, fie în SUA, fie de către aliații americani din străinătate.

„Este folosită pentru a decide țintirea și cea mai bună utilizare a munițiilor și poate fi folosită, sincer, pentru a încerca să minimizeze sau să evite victimele civile și consecințele neintenționate”, a declarat președintele Comisiei pentru Informații din Senat, Marco Rubio (R-Fla.).

Andrew Borene, director executiv pentru securitate globală la Flashpoint și fost ofițer senior în domeniul contraterorismului la Biroul Directorului de Informații Naționale, a susținut că războaiele de astăzi sunt, în mod implicit, locurile de testare pentru a afla ce tehnologie de inteligență artificială poate funcționa în război și care ar trebui să fie regulile.

„Aceste evenimente din Ucraina, precum și din Gaza”, a spus el, „sunt ca niște laboratoare care, din păcate, fac o parte din munca tragică și cinetică necesară pentru a ne ajuta să dezvoltăm o politică mai bună în materie de inteligență artificială și considerații etice la nivel global”.

Susține-ne activitatea G4Media logo
Donație Paypal recurentă

Donează lunar pentru susținerea proiectului G4Media

Donează prin Transfer Bancar

CONT LEI: RO89RZBR0000060019874867

Deschis la Raiffeisen Bank
Donează prin Patreon

Donează

Citește și...