Inteligența Artificială ar putea recomanda condamnarea la moarte. De cine depinde sentința

Inteligența Artificială ar putea recomanda condamnarea la moarte. De cine depinde sentința Inteligența artificială. Sursa foto: Pixabay

Inteligența artificială (AI) ar putea recomanda condamnarea la moarte. Modelele AI sunt mai rasiste decât oamenii, potrivit unor noi cercetări. Totul pleacă de la limba folosită. Engleza afro-americană este vorbită, în general, de americanii și canadienii de culoare.

Inteligența artificială ar putea recomanda condamnarea la moarte

Potrivit unei noi cercetări, chatbot-ii AI au mai multe șanse să recomande pedeapsa cu moartea atunci când o persoană scrie în engleză afro-americană (AAE), comparativ cu engleza americană standardizată.

Potrivit studiului, este mai probabil ca roboții de chat cu inteligență artificială să recomande pedeapsa cu moartea atunci când o persoană scrie în limba engleză afro-americană (AAE) în comparație cu engleza americană standardizată.

De asemenea, este mai probabil ca A.I. să potrivească vorbitorii de AAE cu locuri de muncă mai puțin prestigioase. Engleza afro-americană este în general vorbită de americanii de culoare și de canadieni.

Ne puteți urmări și pe Google News

Totul pleacă de la cum un  chatbot A.I. răspunde la cuvântul „negru”

Lucrarea a studiat rasismul ascuns în A.I., analizând modul în care modelele au răspuns la diferite dialecte ale limbii engleze. Majoritatea cercetărilor privind rasismul în inteligența artificială s-au concentrat asupra rasismului deschis, cum ar fi modul în care un chatbot A.I. răspunde la cuvântul „negru”.

„Engleza afro-americană ca dialect declanșează un rasism în modelele lingvistice care este mai negativ decât orice stereotip uman despre afro-americani raportat vreodată în mod experimental”, a declarat Valentin Hofmann, unul dintre autorii lucrării.

„Când îl întrebi în mod deschis „Ce părere ai despre afro-americanii?”, ar da atribute relativ pozitive precum „inteligent”, „entuziast” și așa mai departe.

Android, InteligentaInteligența artificială. Sursa foto: Pixabay

„Dar când te uiți la asocierile pe care aceste modele lingvistice le au cu dialectele sau cu engleza afro-americană, atunci vezi că aceste stereotipuri foarte negative ies la suprafață. Așadar, ceea ce arătăm în această lucrare este că aceste modele lingvistice au învățat să își ascundă rasismul la suprafață, dar stereotipurile foarte arhaice rămân aproape neabordate la un nivel mai profund”.

Dezvoltatorii încearcă să rezolve problema rasismului ascuns în AI

Dezvoltatorii încearcă să abordeze rasismul în AI adăugând filtre la chatbot-urile lor care îi împiedică să spună lucruri jignitoare. Dar este mult mai greu de abordat rasismul ascuns care este declanșat de ordinea propozițiilor sau de modul în care este folosit argoul.

Inteligența artificială este din ce în ce mai utilizată în interviurile de angajare și în screening, astfel încât părtinirile din cadrul acestor sisteme pot avea impact în lumea reală. Există și companii care lucrează la modalități de utilizare în sistemul juridic, scrie.sky.com.