
O imagine falsă a unei explozii la Pentagon devine pentru scurt timp virală
O imagine falsă care arată o explozie la Pentagon a devenit pentru scurt timp virală luni pe Twitter, provocând o ușoară scădere a burselor timp de zece minute și reaprinzând dezbaterea în jurul riscurilor asociate cu inteligența artificială (AI), scrie Le Figaro.
Urmărește cele mai noi producții video G4Media
- articolul continuă mai jos -
Fotografia falsă, aparent realizată cu ajutorul unui program de inteligență artificială generativă (capabil să producă texte și imagini pornind de la o simplă interogare în limbajul cotidian), a forțat Departamentul american al Apărării să reacționeze.
Earlier today an apparent AI-generated photo showed a fake explosion near the US Pentagon. The news was shared by Russian state-media RT on Twitter, which helped it go viral.
It was also tweeted by a verified Twitter account called “BloombegFeed” which has now been suspended.… pic.twitter.com/KN1wOptlRb
— Ed Krassenstein (@EdKrassen) May 22, 2023
Sursă necunoscută
„Putem confirma că este vorba de o informație falsă și că Pentagonul nu a fost atacat astăzi”, a declarat un purtător de cuvânt.
Pompierii din zona în care se află clădirea (în Arlington, în apropiere de Washington D.C.) au intrat și ei pe Twitter pentru a spune că nu au avut loc explozii sau incidente, nici în Pentagon, nici în apropiere. Imaginea a părut să trimită piețele în ușoară scădere pentru câteva minute, S&P 500 pierzând 0,29% față de vineri, înainte de a-și reveni.
„A existat o scădere legată de această informație falsă atunci când computerele au detectat-o”, a notat Pat O’Hare de la Briefing.com, referindu-se la softurile automate de tranzacționare care sunt programate să reacționeze la postările de pe rețelele sociale. Un cont al mișcării conspiraționiste QAnon a fost printre primele care a transmis imaginea falsă, a cărei sursă nu este cunoscută.
Incidentul survine după ce mai multe fotografii false produse cu ajutorul inteligenței artificiale generative au fost difuzate pe scară largă pentru a arăta capacitățile acestei tehnologii, cum ar fi cea a arestării fostului președinte american Donald Trump sau cea a Papei cu o geacă de lux. Programe precum DALL-E 2, Midjourney și Stable Diffusion permit amatorilor să creeze imagini false convingătoare fără a fi nevoie să stăpânească programe de editare precum Photoshop.
Dar, în timp ce IA generativă facilitează crearea de conținuturi false, problema difuzării și a viralității acestora – cele mai periculoase componente ale dezinformării – aparține platformelor, ne reamintesc periodic experții. „Utilizatorii folosesc aceste instrumente pentru a genera conținuturi mai eficient decât înainte (…), dar acestea se răspândesc în continuare prin intermediul rețelelor sociale”, a subliniat Sam Altman, șeful OpenAI (DALL-E, ChatGPT), în cadrul unei audieri în Congres la jumătatea lunii mai.
Donează lunar pentru susținerea proiectului G4Media
Donează suma dorită pentru susținerea proiectului G4Media
CONT LEI: RO89RZBR0000060019874867
Deschis la Raiffeisen Bank