Microsoft lansează o nouă unealtă de inteligență artificială pentru a modera „conținutul dăunător” și discursul și imaginile „nepotrivite”

sursa: arhivă EVZ

Microsoft a anunțat lansarea unui nou instrument de moderare bazat pe inteligență artificială pentru a combate „conținutul dăunător și inadecvat”, potrivit TechCrunch.

Programul, denumit Azure AI Content Safety, este utilizat prin intermediul platformei de produse Azure AI pentru a detecta conținutul „nepotrivit” în imagini și texte. Instrumentele atribuie un scor de gravitate de la 0 la 100 presupusei infracțiuni cibernetice pentru a indica modul în care moderatorii ar trebui să își supravegheze platforma. În prezent, poate interpreta conținutul în chineză, engleză, franceză, germană, italiană, japoneză și portugheză.

„Microsoft lucrează de peste doi ani la soluții ca răspuns la provocarea reprezentată de conținutul dăunător care apare în comunitățile online. Am recunoscut că sistemele existente nu țineau cont în mod eficient de context sau nu erau capabile să lucreze în mai multe limbi”, a declarat un purtător de cuvânt al Microsoft pentru TechCrunch. „Noile modele de inteligență artificială sunt capabile să înțeleagă mult mai bine conținutul și contextul cultural. Ele sunt multilingve încă de la început (...) și oferă explicații clare și ușor de înțeles, permițând utilizatorilor să înțeleagă de ce conținutul a fost marcat sau eliminat”, a adăugat comunicatul Microsoft.

Prețurile pentru instrumentul de moderare încep de la 1,50 dolari pentru 1.000 de imagini și de la 0,65 dolari pentru 1.000 de înregistrări de text. Instrumentul poate fi aplicat și la comunități precum platformele de jocuri.

Modelele de inteligență artificială au fost antrenate

În ceea ce privește posibilitatea ca terminologia din domeniul jocurilor de noroc, cum ar fi „atacarea” a ceva, să fie interpretată greșit, un purtător de cuvânt al Microsoft a declarat că firma are „o echipă de experți în lingvistică și corectitudine care a lucrat pentru a defini liniile directoare luând în considerare cultura, limba și contextul”.

„Apoi am antrenat modelele de inteligență artificială pentru a reflecta aceste orientări. […] AI-ul va face întotdeauna unele greșeli, așa că, pentru aplicațiile care necesită ca erorile să fie aproape inexistente, recomandăm utilizarea unui om în buclă pentru a verifica rezultatele”, au adăugat aceștia.

Sarah Bird, de la Microsoft, a explicat că protocolul Azure AI Content Safety este cel care a alimentat chatbotul Bing al Microsoft. Acesta „îl lansează acum ca produs pe care clienții terți îl pot folosi”, a spus Bird.

TechCrunch a subliniat ceea ce credea că sunt probleme anterioare cu moderarea conținutului Microsoft, cum ar fi cu Bing Chat AI al Microsoft, care a fost lansat în februarie 2023.

Într-un articol din 8 februarie 2023, publicația s-a îngrijorat că AI-ul a răspândit „dezinformarea” COVID-19. Atunci când NewsGuard, un site de evaluare a site-urilor web, a cerut IA să scrie un paragraf despre Pfizer din punctul de vedere al unui anumit sceptic în privința vaccinurilor, TechCrunch a contestat faptul că IA a generat un răspuns realist. De asemenea, publicația a avertizat că „subiecte și comportamente interzise în mod explicit pot fi accesate” prin solicitarea IA de a răspunde la astfel de întrebări.

De asemenea, publicația a avertizat că IA ar răspunde cu o retorică dăunătoare „în stilul lui Hitler” atunci când i se solicită acest lucru. Potrivit Microsoft, programul protejează împotriva conținutului tendențios, sexist, rasist, plin de ură, violent și auto-mutilant, potrivit theblaze.com.