AcasăINTERNET & TECHTwitter, subiectul unui studiu controversat

Twitter, subiectul unui studiu controversat

Toni Arcieri, un dezvoltator de calculatoare, a realizat un experiment pe care l-a adus în atenția publicului sâmbătă seara, când a publicat atât fotografia liderului republican al Senatului SUA, Mitch McConell, cât și pe cea a fostului președinte SUA, Barack Obama, pentru a demonstra că Twitter este bazat pe un algoritm care alege mai întâi fețele albe, potrivit El Mundo.

Algoritmul rețelei sociale a fost conceput astfel încât să selecteze „partea pe care o consideră cea mai relevantă”.

Rezultatele studiului realizat de Toni Arcieri au ridicat semne de întrebare cu privire la unul dintre cele mai sensibile subiecte ale acestei perioade: rasismul. De fiecare dată, fotografia lui McConell a fost poziționată înaintea celei în care apare Obama.

Pentru a se asigura că nu este o întâmplare, Arcieri a schimbat „anumite elemente, precum culoarea cravatei”, dar decizia algoritmului nu a fost diferită.

Din câte se pare, algoritmul nu ținea cont de astfel de detalii, ci de culoarea pielii, potrivit lui Arcieri.

Într-un final, acesta a folosit un „filtru de inversare” pentru a schimba culoarea pielii ambilor subiecți. De această dată, algoritmul a avut alte criterii de selecție. Concluzia lui Arcieri a fost categorică: „Twitter este doar un alt exemplu de rasism care se manifestă prin algoritmi de învățare automată.”

Experimentul pe care l-a expus prin tweet-uri a devenit cunoscut în scurt timp unui număr mare de utilizatori ai rețelei sociale. Astfel a început povestea experimentelor prin care cei mai curioși realizau pe cont propriu experimentul privitor la „algoritmul Twitter”.

„Au schimbat subiectele, dimensiunea fețelor și tot felul de variabile”, notează El Mundo.

Așa cum era de așteptat, în felul acesta au apărut rezultate care contraveneau descoperirii lui Arcieri.

Care este adevărul?

„Învățarea automată” este una dintre problemele principale ale acestei diferențieri pe care o fac algoritmii, care sunt „alimentați cu sute de mii sau milioane de exemple și instruiți să caute similitudini între ele”.

De îndată ce modelul a fost creat, algoritmul ajunge să fie guvernat de un tipar care absoarbe imaginile similare modelului inițial.

Această problemă a fost întâmpinată de mai mulți experți în Inteligența Artificială, care sunt de părere că „serviciile de identificare facială” și „algoritmii de predicție a infracțiunilor” nu ar trebui să fie folosiți, pentru că „introduc prejudecăți rasiale”.

În ceea ce privește detaliul observat de Arcieri, o completare a răspunsului ar fi aceasta: „fețele albe arată mai mult contrast între zone”. Astfel, atunci când algoritmul le analizează pentru a „alege imaginea care are mai multă relevanță”, are tendința să le aleagă pe acestea.

S-a demonstrat că „și ce mai buni algoritmi de identificare facială au” predispoziția de a comite eroarea asta.

Reprezentanții Twitter nu au rămas indiferenți la problema ridicată de Arcieri. Un purtător de cuvânt a declarat: „Echipa noastră a verificat eventualele prejudecăți înainte de a activa modelul și nu a găsit nicio dovadă de prejudecată rasială sau de gen în testele noastre.”

În anul 2018, Twitter a făcut publice detaliile despre felul în care funcționează algoritmul de decupare a imaginilor. Atunci, compania a precizat:

„În general, oamenii tind să acorde mai multă atenție fețelor, textului, animalelor, dar și altor obiecte și regiuni care au contrastul ridicat.

Aceste date pot fi folosite pentru antrenarea rețelelor neuronale și a altor algoritmi pentru a prezice preferințele oamenilor.”

 

 

 

 

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

- Advertisment -

CELE MAI POPULARE

Recent Comments