G4Media.ro

Raport: Pedofilii folosesc inteligența artificială ca să transforme celebritățile în copii

sursa foto: Unsplash/ Andriyko Podilnyk

Raport: Pedofilii folosesc inteligența artificială ca să transforme celebritățile în copii

Pedofilii se folosesc de inteligența artificială (AI) pentru a crea imagini cu celebrități în timp ce sunt copii. Fundația Internet Watch Foundation (IWF) a declarat că imaginile unei cunoscute cântărețe reimaginate ca un copil sunt împărtășite de prădători. Pe un forum de pe dark web, organizația caritabilă spune că imaginile cu copii actori sunt, de asemenea, manipulate pentru a le face sexuale. Sute de imagini ale unor victime reale ale abuzurilor sexuale asupra copiilor sunt, de asemenea, create în prezent cu ajutorul unor generatoare de imagini personalizate, scrie BBC.

Detaliile provin din cel mai recent raport al IWF privind această problemă în creștere, în timp ce încearcă să sensibilizeze opinia publică cu privire la pericolele pe care le reprezintă utilizarea de către pedofili a sistemelor de inteligență artificială care pot crea imagini pornind de la simple instrucțiuni text.

De când aceste sisteme puternice de generare a imaginilor au intrat în domeniul public, cercetătorii au avertizat că acestea au potențialul de a fi folosite în mod abuziv pentru a genera imagini ilicite.

În luna mai, ministrul de interne Suella Braverman și secretarul pentru securitate internă al SUA, Alejandro Mayorkas, au emis o declarație comună prin care se angajează să abordeze „creșterea alarmantă a imaginilor josnice generate de inteligența artificială cu copii exploatați sexual de pedofili”.

Raportul IWF detaliază modul în care cercetătorii au petrecut o lună de zile înregistrând imaginile AI pe un singur site darknet de abuzuri asupra copiilor și au găsit aproape 3.000 de imagini sintetice care ar fi ilegale în conformitate cu legislația britanică.

Analiștii au declarat că există o nouă tendință a prădătorilor de a lua fotografii unice ale unor victime cunoscute ale abuzurilor asupra copiilor și de a recrea multe altele în diferite contexte de abuz sexual.

Unul dintre dosarele pe care le-au găsit conținea 501 imagini ale unei victime din lumea reală, care avea aproximativ 9-10 ani când a fost supusă abuzului sexual. În acest dosar, prădătorii au partajat, de asemenea, un fișier cu un model de inteligență artificială bine pus la punct, pentru a permite altora să genereze mai multe imagini cu ea.

IWF spune că unele dintre imagini, inclusiv cele cu celebrități în copilărie, sunt extrem de realiste și ar fi imposibil de distins pentru ochii neexperimentați.

Analiștii au văzut imagini cu cântărețe și vedete de cinema, în majoritate femei, care au fost de-îmbătrânite cu ajutorul software-ului de imagistică pentru a le face să arate ca niște copii.

Raportul nu a identificat ce celebrități au fost vizate.

Organizația caritabilă a declarat că împărtășește cercetările pentru ca această problemă să fie inclusă pe ordinea de zi a summitului guvernamental britanic privind inteligența artificială, care va avea loc săptămâna viitoare la Bletchley Park.

Într-o singură lună, IWF a investigat 11 108 imagini de IA care au fost distribuite pe un forum de abuzuri asupra copiilor de pe internet.

  • Dintre acestea, 2 978 au fost confirmate ca fiind imagini care nu respectă legislația britanică – ceea ce înseamnă că reprezentau abuzuri sexuale asupra copiilor.
  • Mai mult de una din cinci dintre aceste imagini (564) a fost clasificată ca fiind de categoria A, cel mai grav tip de imagini
  • Mai mult de jumătate (1.372) dintre aceste imagini reprezentau copii de vârstă școlară primară (între șapte și zece ani).
  • În plus, 143 de imagini înfățișau copii cu vârste cuprinse între trei și șase ani, în timp ce două imagini înfățișau bebeluși (sub doi ani).
  • În iunie, IWF a avertizat că prădătorii încep să exploreze utilizarea inteligenței artificiale pentru a realiza imagini depravate cu copii, dar acum IWF spune că temerile sunt o realitate.

„Cele mai mari coșmaruri ale noastre au devenit realitate”, a declarat Susie Hargreaves,, directorul executiv al IWF.

„La începutul acestui an, am avertizat că imaginile cu IA ar putea deveni în curând imposibil de distins de imaginile reale cu copii care suferă abuzuri sexuale și că am putea începe să vedem aceste imagini proliferând într-un număr mult mai mare. Acum am depășit acest punct”.

Raportul IWF reiterează răul din lumea reală al imaginilor IA. Deși copiii nu sunt răniți în mod direct în realizarea conținutului, imaginile normalizează comportamentul de prădător și pot irosi resursele poliției, care investighează copii care nu există.

În unele scenarii, sunt explorate și noi forme de infracțiune, ceea ce creează noi complexități pentru agențiile de aplicare a legii.

De exemplu, IWF a găsit sute de imagini cu două fete ale căror fotografii de la o ședință foto la o agenție de modele nud au fost manipulate pentru a le plasa în scene de abuz sexual de categoria A.

În realitate, ele sunt acum victimele unor infracțiuni de categoria A care nu s-au întâmplat niciodată.

Susține-ne activitatea G4Media logo
Donație Paypal recurentă

Donează lunar pentru susținerea proiectului G4Media

Donează prin Transfer Bancar

CONT LEI: RO89RZBR0000060019874867

Deschis la Raiffeisen Bank
Donează prin Patreon

Donează

1 comentariu

  1. Poate imi explica cineva care e problema?
    Pornografia infantila este rea pentru ca implica victime, copii care sunt abuzați și filmați. Deci problema este indirect filmarea si distribuția, problema directa si majora este abuzul.
    Folosirea AI (sau unei alte tehnici de procesare vizuale) elimina abuzul, nu? Nu mai sunt victime reale, totul e ficțiune. Si atunci cum e asta o problema și nu o soluție?