Inteligența artificială poate fi, uneori, mai proastă decât se așteptau specialiștii. Cercetătorii de la o universitate din Belgia au demonstrat recent că inteligența artificială poate fi păcălită cu ajutorul unor imagini imprimate color.
Inginerii Universității KU Leuven din Belgia au creat o metodă eficientă prin care pot afecta detecția obiectelor care folosește inteligența artificială susținută de algoritmul YOLOv2. Descoperirea lor a fost publicată săptămâna trecută într-o lucrare intitulată „Fooling automated surveillance cameras: adversarial patches to attack person detection” (Păcălind camerele de supraveghere video automate: părți contradictorii pentru a ataca detecția persoanei). Cercetătorii au publicat și codul sursă, conform SecurityPortal.
Metoda este una simplă: se folosește un „petic” imprimat cu mai multe culori pentru a deruta inteligența artificială care este antrenată să recunoască obiecte – iar omul este doar încă un obiect pentru sistemul de analiză care folosește inteligența artificială – dându-i sute de mii de imagini cu obiecte similare.
Această metodologie face ca sistemul să fie deschis pentru a fi exploatat. Cercetătorii explică faptul că rețeaua de analiză care folosește inteligența artificială învață cum arată o persoană prin „vizionarea” multor imagini cu alte persoane. Prin evaluarea modelului se poate determina cât de bine funcționează modelul pentru detecția persoanelor prin compararea sa cu imagini adnotate de om. Însă o astfel de evaluare a modelului nu conține, de obicei, exemple care să încerce să inducă în eroare sau să păcălească modelul.
Sistemele pot fi păcălite ușor
Wiebe Van Ranst, care a condus cercetarea, spune că intenția lor a fost de a demonstra că sistemele de analiză pot fi păcălite astfel. „Nu ar trebui să avem încredere oarbă în motoarele de detecție ale aplicațiilor critice de securitate”, spune Van Ranst.
Deși tehnologiile de detecția a obiectelor și persoanelor au făcut mari progrese în ultimii ani, Van Ranst spune că cercetarea lor arată că acestea nu sunt infailibile și că pot fi, într-adevăr, compromise.
Brent Boekestein, CEO al Vintra, dezvoltator de analiză video care folosește inteligența artificială, spune că „astfel de proiecte de cercetare sunt bune pentru întreaga industrie și ceva ce ne place să vedem deoarece reprezintă o muncă făcută pentru a îmbunătăți încrederea în aceste modele. Cercetarea stârnește discuții importante și oferă o platformă excelentă pentru educație.”
În plus Boekestein spune că cercetarea demonstrează și importanța folosirii de soluții de analiză video brevetate față de cele care sunt gratuite precum YOLOv2.