G4Media.ro

Experții propun reglementări pentru dezvoltarea în siguranțăa produselor AI / Cadrul conține…

Sursa Foto: Midjourney AI

Experții propun reglementări pentru dezvoltarea în siguranțăa produselor AI / Cadrul conține o listă de verificare de 84 de întrebări pe care dezvoltatorii trebuie să le ia în considerare la începutul unui proiect de inteligență artificială

Un grup global de experți în inteligență artificială și oameni de știință din domeniul datelor a publicat un nou cadru voluntar pentru dezvoltarea în siguranță a produselor de inteligență artificială, transmite BBC.

Fundația World Ethical Data Foundation are 25.000 de membri, inclusiv personal care lucrează la diverși giganți din domeniul tehnologiei, precum Meta, Google și Samsung.

Cadrul conține o listă de verificare de 84 de întrebări pe care dezvoltatorii trebuie să le ia în considerare la începutul unui proiect de inteligență artificială.

Fundația invită, de asemenea, publicul să trimită propriile întrebări.

Aceasta spune că toate acestea vor fi luate în considerare la următoarea sa conferință anuală.

Cadrul a fost publicat sub forma unei scrisori deschise, aparent formatul preferat al comunității de inteligență artificială. Aceasta are sute de semnatari.

Inteligența artificială permite unui computer să acționeze și să răspundă aproape ca și cum ar fi un om.

Computerele pot fi alimentate cu cantități uriașe de informații și pot fi antrenate să identifice tiparele din acestea, pentru a face predicții, a rezolva probleme și chiar a învăța din propriile greșeli.

Pe lângă date, IA se bazează și pe algoritmi – liste de reguli care trebuie urmate în ordinea corectă pentru a îndeplini o sarcină.

Ce este IA, este periculoasă și ce locuri de muncă sunt în pericol?

Fundația a fost lansată în 2018 și este un grup global non-profit care reunește oameni care lucrează în domeniul tehnologic și în mediul academic pentru a analiza dezvoltarea noilor tehnologii.

Printre întrebările sale pentru dezvoltatori se numără modul în care vor împiedica un produs de inteligență artificială să încorporeze prejudecăți și cum ar aborda o situație în care rezultatul generat de un instrument duce la încălcarea legii.

Săptămâna aceasta, ministrul de interne din umbră, Yvette Cooper, a declarat că Partidul Laburist i-ar incrimina pe cei care utilizează în mod deliberat instrumente de inteligență artificială în scopuri teroriste.

Prim-ministrul Rishi Sunak l-a numit pe Ian Hogarth, antreprenor în domeniul tehnologiei și investitor în domeniul IA, pentru a conduce un grup de lucru pentru IA. Dl Hogarth mi-a declarat în această săptămână că dorește „să înțeleagă mai bine riscurile asociate cu aceste sisteme de IA de frontieră” și să responsabilizeze companiile care le dezvoltă.

Printre alte considerente ale cadrului se numără legile privind protecția datelor din diferite teritorii, dacă este clar pentru un utilizator că interacționează cu AI și dacă lucrătorii umani care au introdus sau etichetat datele folosite pentru a antrena produsul au fost tratați în mod echitabil.

Lista completă este împărțită în trei capitole: întrebări pentru dezvoltatorii individuali, întrebări pe care o echipă să le analizeze împreună și întrebări pentru persoanele care testează produsul.

Unele dintre cele 84 de întrebări sunt următoarele:

  • Mă simt grăbit sau presat să introduc date din surse îndoielnice?
  • Echipa de persoane care lucrează la selectarea datelor de instruire provine dintr-un set divers de medii și experiențe pentru a ajuta la reducerea prejudecăților în selectarea datelor?
  • Care este utilizarea preconizată a modelului după ce acesta este antrenat?

„Ne aflăm într-un fel de etapă de vest sălbatic”

„Ne aflăm în această etapă a Vestului Sălbatic, în care este doar un fel de: „Aruncă-l în aer liber și vezi cum merge””, a declarat Vince Lynch, fondator al firmei IV.AI și consilier al consiliului World Ethical Data Foundation. El a venit cu ideea pentru acest cadru.

„Iar acum, aceste fisuri care există în fundații devin mai evidente, deoarece oamenii poartă conversații despre proprietatea intelectuală, despre modul în care sunt luate în considerare drepturile omului în legătură cu IA și despre ceea ce fac.”

Dacă, de exemplu, un model a fost antrenat folosind anumite date care sunt protejate prin drepturi de autor, nu este o opțiune de a le elimina pur și simplu – este posibil ca întregul model să trebuiască să fie antrenat din nou.

„Acest lucru poate costa uneori sute de milioane de dolari. Este incredibil de costisitor să greșești”, a declarat dl Lynch.

Au fost propuse și alte cadre voluntare pentru dezvoltarea sigură a inteligenței artificiale.

Margarethe Vestager, comisarul european pentru concurență, este în fruntea eforturilor UE de a crea un cod de conduită voluntar împreună cu guvernul SUA, în cadrul căruia companiile care utilizează sau dezvoltă inteligența artificială ar trebui să semneze un set de standarde care nu sunt obligatorii din punct de vedere juridic.
Andrew Wood și Euan Cameron, cofondatori ai WilloSursa: Willo

Willo este o platformă de recrutare cu sediul în Glasgow, care a lansat recent un instrument de inteligență artificială pentru a însoți serviciul său.

Firma a declarat că a avut nevoie de trei ani pentru a colecta suficiente date pentru a-l construi.

Cofondatorul Andrew Wood a declarat că, la un moment dat, firma a ales să întrerupă dezvoltarea acestuia ca răspuns la preocupările de natură etică ridicate de clienții săi.

„Nu folosim capacitățile noastre de inteligență artificială pentru a lua decizii. Luarea deciziilor este lăsată exclusiv în sarcina angajatorului”, a spus el.

„Există anumite domenii în care AI este cu adevărat aplicabilă, de exemplu, programarea interviurilor… dar luarea deciziei de a merge mai departe [cu angajarea unui candidat] sau nu, aceasta va fi întotdeauna lăsată în seama omului, în ceea ce ne privește”.

Co-fondatorul Euan Cameron a declarat că transparența față de utilizatori a fost pentru el o secțiune importantă a cadrului Fundației.

„Dacă cineva folosește inteligența artificială, nu se poate strecura prin ușa din spate și să pretindă că a fost un om cel care a creat acel conținut”, a spus el.

„Trebuie să fie clar că a fost realizat prin tehnologie AI. Acest lucru chiar mi-a atras atenția”.

Susține-ne activitatea G4Media logo
Donație Paypal recurentă

Donează lunar pentru susținerea proiectului G4Media

Donează prin Transfer Bancar

CONT LEI: RO89RZBR0000060019874867

Deschis la Raiffeisen Bank
Donează prin Patreon

Donează

Citește și...

1 comentariu

  1. Foarte bine. Sa se reglementeze cat mai bine si sa se inteleaga cat mai profund implicatiile acestei inventii. Daca nu acum, cand?