G4Media.ro

CEO-ul Google a transmis angajaţilor că greşelile serviciului Gemeni sunt „inacceptabile” /…

Sursa foto: Unsplash/ Pawel Czerwinski

CEO-ul Google a transmis angajaţilor că greşelile serviciului Gemeni sunt „inacceptabile” / Chatbotul a plasat o persoană de culoare între părinții fondatori ai SUA și o femeie asiatică și un bărbat de culoare între soldații germani din Al Doilea Război Mondial

CEO-ul Google, Sundar Pichai, a abordat greşelile companiei în materie de inteligenţă artificială, care au determinat compania să-şi retragă offline funcţia de generare de imagini Gemini, pentru teste suplimentare, afirmând, într-o notă de marţi seară, că acestea sunt ”inacceptabile”, transmite CNBC, preluat de News.ro.

Pichai a numit inexactităţile ca fiind ”problematice” şi a spus că ”i-au ofensat pe utilizatorii noştri şi au arătat părtiniri”.

Informaţia a fost publicată pentru prima dată de Semafor.

Google a lansat pe piaţă generatorul de imagini la începutul acestei luni, prin Gemini, principalul grup de modele AI al companiei.

Instrumentul permite utilizatorilor să introducă solicitări pentru a crea o imagine.

În ultima săptămână, utilizatorii au descoperit inexactităţi istorice care au devenit virale online, iar compania a retras funcţia săptămâna trecută, spunând că o va relansa în săptămânile următoare.

Potrivit BBC, o postare virală a arătat că Gemini a creat o imagine a părinților fondatori ai SUA care includea în mod inexact un bărbat de culoare. Gemini a generat, de asemenea, soldați germani din cel de-al Doilea Război Mondial, care prezentau în mod incorect un bărbat de culoare și o femeie asiatică.

Google și-a cerut scuze și a „pus imediat pe pauză” instrumentul, scriind într-o postare pe blog că acesta „nu a atins ținta”.

Dar nu s-a terminat aici – răspunsurile sale prea corecte din punct de vedere politic au continuat să apară, de data aceasta din versiunea text. Gemini a răspuns că „nu există un răspuns corect sau greșit” la o întrebare dacă postarea de meme-uri pe X de către Elon Musk este mai rea decât uciderea a milioane de oameni de către Hitler.

”Ştiu că unele dintre răspunsurile sale au ofensat utilizatorii noştri şi au arătat părtinire – pentru a fi clar, este complet inacceptabil şi am înţeles greşit. Nicio AI nu este perfectă, mai ales în această etapă emergentă a dezvoltării industriei, dar ştim că ştacheta este ridicată pentru noi”, a spus Pichai.

Ştirea urmează după ce Google a schimbat numele chatbotului său din Bard în Gemeni, la începutul acestei luni.

Nota lui Pichai afirmă că echipele au lucrat non-stop pentru a rezolva problemele şi că Google va institui un set clar de măsuri şi schimbări structurale, precum şi ”procese de lansare îmbunătăţite”.

”Întotdeauna am căutat să oferim utilizatorilor informaţii utile, precise şi imparţiale în produsele noastre. De aceea oamenii au încredere în ele. Aceasta trebuie să fie abordarea noastră pentru toate produsele noastre, inclusiv produsele noastre emergente de AI”, a scris Pichai în notă.

Susține-ne activitatea G4Media logo
Donație Paypal recurentă

Donează lunar pentru susținerea proiectului G4Media

Donează prin Transfer Bancar

CONT LEI: RO89RZBR0000060019874867

Deschis la Raiffeisen Bank
Donează prin Patreon

Donează

Citește și...

3 comentarii

  1. Așa se întâmplă când aplici mecanic cerințe de „diversitate” fără nicio preocupare pentru context cultural și acuratețe istorică.

  2. daca a citit sven hasel?

  3. Woke slang. Affirmative action. Diversity & Inclusion from the beginning of history