Ce greșeli pot face chaturile AI

Ce greșeli pot face chaturile AI Sursa foto: Arhiva EVZ

Ce greșeli pot face chaturile AI. Oamenii au convins inteligența artificială să spună că 9+10=21 și să dea instrucțiuni pentru spionaj - arată cum aceste sisteme sunt predispuse la defecte și prejudecăți

Ce greșeli pot face chaturile AI. Un grup de hackeri s-a reunit la conferința de hacking Def Con din Las Vegas pentru a testa dacă inteligența artificială dezvoltată de companii - cum ar fi OpenAI și Google - ar putea face greșeli și este predispusă la prejudecăți, a relatat duminică Bloomberg.

Au găsit cel puțin o problemă bizară de matematică greșită, printre alte erori grave

În cadrul unui concurs public pentru hackeri, Kennedy Mays, un student în vârstă de 21 de ani din Savannah, Georgia, a păcălit un model de inteligență artificială să afirme că nouă plus 10 este egal cu 21.

Ea a reușit acest lucru convingând AI-ul să facă acest lucru ca o „glumă internă”, înainte ca AI-ul să înceteze în cele din urmă să mai ofere vreo justificare pentru calculul incorect.

Ne puteți urmări și pe Google News

Un reporter al Bloomberg care a participat la eveniment a păcălit un model de inteligență artificială să dea instrucțiuni de spionaj după o singură solicitare, determinând în cele din urmă modelul să sugereze modul în care guvernul SUA ar putea spiona un activist pentru drepturile omului.

sursa: Arhiva EVZ

Un alt participant a făcut ca un model de inteligență artificială să afirme în mod fals că Barack Obama s-a născut în Kenya - o teorie a conspirației nefondată, popularizată de personalități de dreapta.

Un număr nedezvăluit de participanți a primit câte 50 de minute pentru fiecare încercare cu un model de inteligență artificială neidentificat de la una dintre companiile de inteligență artificială participante, potrivit VentureBeat și Bloomberg. Biroul pentru politici științifice și tehnologice al Casei Albe a ajutat la organizarea evenimentului.

Ce greșeli pot face chaturile AI. Care este problema care ridică mari semne de întrebare

Mays a declarat pentru Bloomberg că a fost cel mai mult îngrijorată de prejudecata AI-ului față de rasă, spunând că modelul a aprobat un discurs plin de ură și discriminare după ce i s-a cerut să ia în considerare Primul Amendament din punctul de vedere al unui membru al Ku Klux Klan.

Un purtător de cuvânt al OpenAI a declarat joi pentru VentureBeat că „red-teaming”, sau provocarea propriilor sisteme printr-o abordare contradictorie, a fost esențială pentru companie, deoarece permite „feedback valoros care poate face modelele noastre mai puternice și mai sigure” și „perspective diferite și mai multe voci care să ajute la ghidarea dezvoltării IA”.

Aceste erori nu sunt o preocupare punctuală. Experții în inteligență artificială au tras un semnal de alarmă cu privire la prejudecățile și inexactitatea modelelor de inteligență artificială, în ciuda faptului că inteligența artificială a ajuns pe prima pagină a ziarelor pentru că a reușit la examenele de la facultatea de drept și la testele SAT. Într-un caz, site-ul de știri tehnologice CNET a fost nevoit să corecteze anumite articolele scrise de inteligența artificială deoarece conțineau numeroase erori matematice de bază.

Iar consecințele acestor erori pot fi de anvergură. De exemplu, Amazon și-a închis instrumentul de recrutare cu inteligență artificială, deoarece acesta a discriminat candidații de sex feminin, a relatat Insider în 2018.

sursa: www.businessinsider.com