
Este Superinteligența Artificială o amenințare pentru umanitate? Semnalul de alarmă tras de 800 de experți și celebrități, de la Richard Branson la Prințul Harry
Trebuie oare oprită cursa către superinteligența artificială? Peste 800 de oameni de știință, personalități politice, antreprenori din domeniul tehnologiei și celebrități au lansat miercuri, 22 octombrie, un apel pentru oprirea lucrărilor care vizează dezvoltarea unei inteligențe artificiale (IA) capabile să depășească capacitățile umane, având în vedere riscurile pe care acest lucru le-ar implica pentru umanitate, potrivit boursorama.com.
Urmărește cele mai noi producții video G4Media
- articolul continuă mai jos -
“Solicităm oprirea dezvoltării superinteligenței, atâta timp cât nu există un consens științific că aceasta poate fi construită în mod controlat și sigur și atâta timp cât nu există sprijin din partea populației”, se arată pe pagina inițiativei lansate de Future of Life Institute, o organizație non-profit cu sediul în Statele Unite, care avertizează în mod regulat asupra efectelor negative ale IA.
Printre semnatari se numără mai mulți părinți ai IA moderne, precum Geoffrey Hinton, laureat al Premiului Nobel pentru fizică în 2024, Stuart Russell, profesor de informatică la Universitatea din California, Berkeley, sau Yoshua Bengio, profesor la Universitatea din Montreal.
Lista include, de asemenea, personalități din domeniul tehnologiei, precum Richard Branson, fondatorul grupului Virgin, și Steve Wozniak, cofondator al Apple; personalități politice precum Steve Bannon, fost consilier al președintelui american Donald Trump, și Susan Rice, consilier pentru securitate națională în timpul mandatului lui Barack Obama; lideri religioși precum Paolo Benanti, consilier al Papei și principalul expert al Vaticanului în domeniul IA, dar și vedete precum cântărețul american will.i.am sau prințul Harry și soția sa, Meghan Markle.
Majoritatea actorilor importanți din domeniul IA urmăresc să dezvolte inteligența artificială generală (AGI), stadiul în care IA ar egala toate capacitățile intelectuale ale oamenilor, dar și superinteligența, care ar depăși aceste capacități. Liderii din acest sector au astfel în vizor o IA cu capacități cognitive superioare celor umane, capabilă să facă descoperiri științifice și să inventeze singură tehnologii.
La jumătatea lunii iulie, șeful Meta, Mark Zuckerberg, și-a afișat intenția de a investi „sute de miliarde de dolari” pentru a construi „superinteligența”. La sfârșitul lunii septembrie, gigantul american al cipurilor electronice Nvidia a anunțat că intenționează să investească 100 de miliarde de dolari în construirea de centre de date gigantice pentru OpenAI, cu același obiectiv.
Pentru Sam Altman, șeful OpenAI, care a creat ChatGPT, obiectivul superinteligenței ar putea fi atins în cinci ani, a explicat el în septembrie, în cadrul unui eveniment al grupului media Axel Springer.
„Indiferent dacă va fi peste doi sau cincisprezece ani, construirea unui astfel de lucru este inacceptabilă”, a declarat pentru AFP Max Tegmark, președintele Future of Life Institute, în opinia căruia companiile nu ar trebui să se ocupe de acest tip de lucrări „fără niciun cadru de reglementare”.
„Se poate fi în favoarea creării de instrumente de inteligență artificială mai puternice, pentru a vindeca cancerul, de exemplu, și în același timp să fii împotriva superinteligenței”, a adăugat el.
Această acțiune face ecou unei scrisori a cercetătorilor și a cadrelor din sectorul IA, publicată în urmă cu o lună în cadrul Adunării Generale a Națiunilor Unite, care solicita instituirea de „acorduri internaționale privind limitele IA” pentru a preveni efectele devastatoare asupra umanității.
Donează lunar pentru susținerea proiectului G4Media
Donează suma dorită pentru susținerea proiectului G4Media
CONT LEI: RO89RZBR0000060019874867
Deschis la Raiffeisen BankPentru a posta un comentariu, trebuie să te Înregistrezi sau să te Autentifici.