G4Media.ro

Fost vicepremier britanic și actual director la Meta spune că inteligența artificială…

Sursa Foto: Pexels.com

Fost vicepremier britanic și actual director la Meta spune că inteligența artificială este ”destul de proastă” în acest moment și că nu există riscuri pentru umanitate

Modelele actuale de inteligență artificială (AI) sunt „destul de proaste”, a declarat Nick Clegg, președintele pentru afaceri globale al Meta, proprietarul Facebook. El a minimizat riscurile acestei tehnologii.

Fost vicepremier britanic, el a declarat că „hype-ul a luat-o oarecum înaintea tehnologiei”. Modelele actuale sunt „departe” de avertismentele în care AI dezvoltă autonomie și gândește de una singură, a spus el. „În multe privințe, sunt destul de proaste”, a declarat el în cadrul emisiunii Today de la BBC.

El a vorbit după ce Meta a declarat că modelul său de limbaj de mari dimensiuni, cunoscut sub numele de Llama 2, va fi gratuit pentru toată lumea, cunoscut sub numele de open source.

Modelele lingvistice mari – platformele care alimentează chatbots precum ChatGPT – unesc practic puncte în seturi enorme de date de text și ghicesc următorul cuvânt dintr-o secvență, a spus el. El a adăugat că avertismentele de amenințare existențială emise de unii experți în inteligență artificială se referă la sisteme care nu există încă.

Decizia Meta de a face Llama 2 disponibil pe scară largă pentru a fi utilizat de întreprinderile comerciale și de cercetători a divizat comunitatea tehnologică. Într-un fel, mâna sa a fost deja forțată – prima generație, Llama, a fost dezvăluită online la o săptămână de la lansare.

Open-source este o cale bine cunoscută pentru o cantitate enormă de date gratuite de testare a utilizatorilor, identificând pe parcurs bug-uri, probleme și îmbunătățiri. Dar riscul aici este că acesta este un instrument foarte puternic, orice ar spune Sir Nick.

Iterațiile anterioare ale roboților de chat au fost manipulate pentru a lansa discursuri de ură, pentru a genera informații false și pentru a da instrucțiuni dăunătoare. Sunt suficient de puternice parapeții de protecție pentru ca Llama 2 să nu fie folosit în mod abuziv în mediul natural și ce va face Meta dacă se întâmplă acest lucru?

Un alt lucru interesant de remarcat este decizia Meta de a încheia un parteneriat cu Microsoft în acest sens – Llama 2 va fi disponibil și utilizabil prin intermediul platformelor Microsoft, cum ar fi Azure – întrucât Microsoft a investit, de asemenea, miliarde de dolari în OpenAI, creatorul ChatGPT.

Acesta este un gigant cu ochii bine fixați pe AI și cu buzunarele adânci pentru a-și cumpăra intrarea în rândul jucătorilor cheie. Riscul este ca bazinul de inteligență artificială să devină în curând plin de câțiva pești foarte mari – și este acest lucru sănătos pentru concurență în această industrie încă destul de tânără?, se întreabă BBC.

Sursele deschise

Llama 2 marchează un parteneriat între Microsoft și Meta. Spre deosebire de Llama 2, GPT-4 și rivalul Palm – LLM de la Google, care alimentează robotul de chat Bard – nu pot fi utilizate gratuit în scopuri comerciale sau de cercetare.

Această decizie vine la o săptămână după ce comedianta americană Sarah Silverman a anunțat că a dat în judecată atât OpenAI, cât și Meta, susținând că drepturile sale de autor au fost încălcate la antrenarea sistemelor de inteligență artificială ale acestor firme.

Dame Wendy Hall, profesoară de informatică la Universitatea din Southampton, a declarat pentru BBC că permiterea accesului liber la inteligența artificială a ridicat probleme legate de legislație. „Îngrijorarea mea în legătură cu sursele deschise este că așa le vom reglementa”, a spus ea. „Se poate avea încredere în industrie să se autoreglementeze sau vor lucra cu guvernele pentru a reglementa? Este un pic ca și cum le-ai da oamenilor un șablon pentru a construi o bombă nucleară.”

Sir Nick a spus că comentariile ei au fost o „hiperbolă” și a precizat că sistemul open-source al Meta nu poate genera imagini, cu atât mai puțin „construi o armă biologică”. Dar el a fost „ferm de acord” cu faptul că inteligența artificială trebuie să fie reglementată.

„Modelele sunt deja în permanență în sursă deschisă. Nu se pune problema dacă va avea loc sau nu un open sourcing al acestor modele lingvistice mari, întrebarea este cum se poate face acest lucru cât mai responsabil și mai sigur posibil. Simt că pot afirma, fără nicio teamă de contradicție, că LLM-urile pe care le oferim în mod deschis sunt mai sigure decât oricare dintre celelalte LLM-uri AI care au fost oferite în mod deschis.”

Urmărește mai jos producțiile video ale G4Media:

Susține-ne activitatea G4Media logo
Donație Paypal recurentă

Donează lunar pentru susținerea proiectului G4Media

Donează prin Transfer Bancar

CONT LEI: RO89RZBR0000060019874867

Deschis la Raiffeisen Bank
Donează prin Patreon

Donează