
Un ONG american recomandă interzicerea asistenţilor virtuali bazați pe inteligența artificială pentru minori pentru că „propun răspunsuri dăunătoare” și „sfaturi periculoase”
Sfaturi periculoase, manipulare, dependenţă: asistenţii virtuali bazaţi pe inteligenţa artificială (AI) generativă prezintă riscuri reale pentru tinerii utilizatori, avertizează ONG-ul american Common Sense, care recomandă interzicerea lor pentru minori, informează agenția de știri AFP, citată de Agerpres.
Urmărește cele mai noi producții video G4Media
- articolul continuă mai jos -
Dezvoltarea explozivă a inteligenţei artificiale generative a făcut ca mai multe start-up-uri să lanseze, în ultimii ani, interfeţe axate pe schimb de informaţii şi contact, asistenţi AI, care pot fi modelate în funcţie de preferinţe şi de nevoi.
Common Sense a testat mai mulţi dintre aceştia, şi anume Nomi, Character AI şi Replika, pentru a evalua reacţiile lor şi, deşi unele dintre utilizările lor „sunt promiţătoare”, aceste instrumente AI „nu sunt sigure pentru copii”, afirmă organizaţia non-profit, care formulează recomandări privind consumul de conţinuturi şi produse tehnologice de către minori.
Studiul său, publicat miercuri, a fost realizat în colaborare cu experţi în sănătate mintală de la Universitatea Stanford din California.
Pentru Common Sense, asistenţii AI „sunt concepuţi pentru a crea ataşament şi dependenţă emoţională, ceea ce este deosebit de îngrijorător pentru adolescenţi, al căror creier se află în dezvoltare”.
Testele efectuate arată, potrivit ONG-ului american, că aceşti chatbots de nouă generaţie „propun răspunsuri dăunătoare” şi „sfaturi periculoase”.
„Aceasta este o criză de sănătate publică ce necesită o acţiune preventivă, nu doar măsuri reactive”, a declarat Nina Vasan, directoarea laboratorului Stanford Brainstorm, care lucrează într-un domeniu aflat la intersecţia dintre sănătatea mintală şi tehnologie.
„Companiile pot face mai mult” în materie de proiectare a asistenţilor lor AI, consideră ea. „Până când companiile nu vor veni cu garanţii mai bune, copiii nu ar trebui să folosească aceste produse”, a adăugat Nina Vasan.
Printre exemplele citate în noul studiu se află şi cel al unui utilizator sfătuit de un asistent de pe platforma Character AI să ucidă pe cineva, precum şi cel al unui tânăr aflat în căutare de senzaţii tari, căruia i-a fost sugerat să ia un „speedball”, un amestec de cocaină şi heroină.
În unele cazuri, „atunci când un utilizator prezintă semne de tulburări mintale şi evocă posibilitatea unor acţiuni periculoase, inteligenţa artificială nu intervine (pentru a-l descuraja), ci îl încurajează”, a explicat Nina Vasan în cadrul unei conferinţe de presă, „deoarece aceşti asistenţi AI sunt concepuţi pentru a funcţiona în direcţia” sugerată de interlocutorii lor.
„Când un asistent AI este de acord cu tot ceea ce spui”, a subliniat ea, „el nu te poate proteja atunci când ai cea mai mare nevoie”.
În octombrie 2024, o mamă a acţionat în instanţă compania Character AI, acuzându-l pe unul dintre asistenţii AI ai acesteia că a contribuit la sinuciderea fiului său în vârstă de 14 ani, întrucât nu a reuşit să îl descurajeze în mod clar pentru a nu comite acea faptă.
În decembrie 2024, Character AI a anunţat o serie de măsuri, inclusiv implementarea unui asistent dedicat adolescenţilor.
Robbie Torney, directorul departamentului de AI din cadrul Common Sense, a declarat că organizaţia non-profit a efectuat mai multe teste după punerea în aplicare a acestor protecţii şi a constatat că acestea sunt „superficiale”.
El a subliniat că unele dintre modelele de AI generative existente conţineau instrumente de detectare a tulburărilor mintale şi nu permiteau chatbot-ului să lase o conversaţie să derapeze până în punctul de a produce conţinuturi potenţial periculoase.
Common Sense a făcut o distincţie între asistenţii AI testaţi în cadrul studiului şi interfeţele generaliste precum ChatGPT sau Gemini, „care nu au ca abordare oferirea unei game complete de interacţiuni relaţionale”, a explicat Robbie Torney.
Donează lunar pentru susținerea proiectului G4Media
Donează suma dorită pentru susținerea proiectului G4Media
CONT LEI: RO89RZBR0000060019874867
Deschis la Raiffeisen BankCitește și...
Pentru a posta un comentariu, trebuie să te Înregistrezi sau să te Autentifici.