G4Media.ro

OpenAI, compania producătoare a ChatGPT, susține că a oprit cinci încercări de…

Sursa foto: Unsplash / Jonathan Kemper

OpenAI, compania producătoare a ChatGPT, susține că a oprit cinci încercări de utilizare abuzivă a inteligenței sale artificiale pentru „activități înșelătoare”/ Rețele legate de Rusia și China folosesc instrumentele OpenAI pentru a răspândi dezinformarea

OpenAI a dezvăluit că operațiuni legate de Rusia, China, Iran și Israel au folosit instrumentele sale de inteligență artificială pentru a crea și răspândi dezinformarea, în timp ce tehnologia devine o armă puternică în războiul informațional într-un an cu multe alegeri, scrie Financial Times.

Producătorul chatbot-ului ChatGPT, cu sediul în San Francisco, a declarat joi, într-un raport, că cinci operațiuni secrete de influență au folosit modelele sale de inteligență artificială pentru a genera texte și imagini la scară largă, cu mai puține greșeli de limbă decât până acum, precum și pentru a genera comentarii sau răspunsuri la propriile postări. Politicile OpenAI interzic utilizarea modelelor sale pentru a înșela sau induce în eroare alte persoane.

Conținutul s-a axat pe subiecte precum „invazia Rusiei în Ucraina, conflictul din Gaza, alegerile din India, politica din Europa și Statele Unite și criticile aduse guvernului chinez de către disidenții chinezi și guvernele străine”, a precizat OpenAI în raport.

Rețelele au folosit, de asemenea, inteligența artificială pentru a-și spori propria productivitate, aplicând-o la sarcini precum repararea codurilor sau efectuarea de cercetări privind activitatea publică din social media, a precizat acesta.

Platformele de socializare, inclusiv Meta și YouTube, deținut de Google, au încercat să limiteze proliferarea campaniilor de dezinformare în urma victoriei lui Donald Trump în alegerile prezidențiale americane din 2016, când anchetatorii americani au găsit dovezi că o fermă de troli ruși a încercat să manipuleze votul.

Presiunea este din ce în ce mai mare asupra companiilor de inteligență artificială în creștere rapidă, precum OpenAI, deoarece progresele rapide în tehnologia acestora înseamnă că este mai ieftin și mai ușor ca niciodată pentru autorii dezinformării să creeze deepfakes realiste și să manipuleze mass-media, iar apoi să răspândească acest conținut în mod automat.

În timp ce aproximativ două miliarde de persoane se îndreaptă spre urne anul acesta, factorii de decizie politică au îndemnat companiile să introducă și să aplice măsuri de protecție adecvate.

Ben Nimmo, cercetător principal pentru informații și investigații la OpenAI, a declarat, în cadrul unei convorbiri cu reporterii, că echipele de campanie ale politicienilor nu par să își fi sporit „în mod semnificativ” implicarea sau ajungerea la un public mai larg ca urmare a utilizării modelelor OpenAI.

Dar, a adăugat el, „nu este momentul să ne complacem. Istoria arată că operațiunile de influență care au durat ani de zile fără a ajunge nicăieri pot izbucni brusc dacă nimeni nu le caută”.

OpenAI, susținută de Microsoft, a declarat că s-a angajat să descopere astfel de campanii de dezinformare și că își construiește propriile instrumente bazate pe inteligență artificială pentru a face detectarea și analiza „mai eficiente”. Aceasta a adăugat că sistemele sale de siguranță au îngreunat deja activitatea autorilor, modelele sale refuzând în mai multe cazuri să genereze textul sau imaginile solicitate.

În raport, OpenAI a dezvăluit că mai mulți actori de dezinformare bine-cunoscuți, afiliați la stat, au folosit instrumentele sale. Printre aceștia se numără o operațiune rusă, Doppelganger, care a fost descoperită pentru prima dată în 2022 și care încearcă în mod obișnuit să submineze sprijinul pentru Ucraina, și o rețea chineză cunoscută sub numele de Spamouflage, care susține interesele Beijingului în străinătate. Ambele campanii au folosit modelele sale pentru a genera texte sau comentarii în mai multe limbi înainte de a le posta pe platforme precum X a lui Elon Musk.

Ea a semnalat o operațiune rusă neraportată anterior, denumită Bad Grammar, spunând că a folosit modelele OpenAI pentru a repara codul de funcționare a unui bot Telegram și pentru a crea comentarii politice scurte în rusă și engleză care au fost apoi postate pe platforma de mesagerie Telegram.

Telegram și X au fost contactate pentru comentarii.

De asemenea, a declarat că a zădărnicit un efort de dezinformare pro-Israel pentru angajare, care ar fi fost condus de o afacere de gestionare a campaniilor politice cu sediul la Tel Aviv, numită STOIC, care a folosit modelele sale pentru a genera articole și comentarii pe Instagram, Facebook și X de la Meta.

Meta a publicat miercuri un raport în care afirmă că a eliminat conținutul STOIC. Conturile legate de aceste operațiuni au fost închise de OpenAI.

 

Urmărește mai jos producțiile video ale G4Media:

Susține-ne activitatea G4Media logo
Donație Paypal recurentă

Donează lunar pentru susținerea proiectului G4Media

Donează prin Transfer Bancar

CONT LEI: RO89RZBR0000060019874867

Deschis la Raiffeisen Bank
Donează prin Patreon

Donează

Citește și...