„Hackerii” au dat lovitura deceniului. Sistemele de înaltă securitate, compromise instant

„Hackerii” au dat lovitura deceniului. Sistemele de înaltă securitate, compromise instant

Se poate deduce din acest experiment că recunoaşterea facială nu mai poate fi sigură sau, că n-a fost sigură niciodată.

Cercetătorii firmei AI Kneron au reușit să păcălească cu ușurință sistemele de recunoaștere facială în diverse locații de înaltă securitate - inclusiv bănci, puncte de control de frontieră și aeroporturi - folosind o mască de înaltă calitate.

Ei sugerează că oricine are capacitatea de a crea o astfel de mască ar putea înșela cu ușurință și aceste sisteme de recunoaștere facială.

Folosind masca, cercetătorii au înșelat sistemele de plată ale gigantilor tehnologici chinezi Alibaba și WeChat. Unele sisteme au fost chiar mai ușor de păcălit decât atât - au reușit să treacă printr-un terminal de auto-îmbarcare pe aeroportul Schiphol din Olanda folosind imaginea unei fețe de pe ecranul unui telefon. Masca folosită de cercetători era o scanare a cuiva care era deja înregistrată în sistemele pe care încercau să le înșele.

Ce este foarte interesant de menționat că funcția FaceID a Apple iPhone X nu a fost înșelată de mască

Măştile utilizate în experiment au fost obținute de la producătorii de măști specializate din Japonia. Dar compania cu sediul în San Diego notează că tehnica ar putea fi folosită pentru a înșela persoane importante sau bogate. "Acest lucru arată amenințarea la confidențialitatea utilizatorilor cu recunoașterea feţei".

Ne puteți urmări și pe Google News

Kneron a condus experimentele pentru a afla mai multe despre limitele tehnologiei în timp ce a dezvoltat propria sa tehnologie de recunoaștere facială. Experimentul companiei vine într-un moment de dezbatere intensă cu privire la modul în care să se desfășoare, în linii mari, recunoașterea facială.

Robert Hackett, de exemplu, a spus recent cum a refuzat să folosească tehnologia pentru a intra în biroul publicației de la New York Times tot din cauza acestor probleme de confidențialitate.

Alţi  informaticieni, într-un experiment similar cu cel al lui Kneron, au păcălit recent senzorii de față folosind imagini de pe Facebook. Iar într-un studiu asemănător, cercetătorii de la Massachusetts Institute of Technology (MIT) au arătat cum inteligența artificială Google a confundat imaginile cu o broască țestoasă. Între timp, inteligența artificială a produs, de asemenea, instrumente care pot reproduce cu ușurință amprentele altei persoane - arătând, dacă mai era nevoie, că instrumentele biometrice pe care ne bazăm tot mai mult sunt mai puțin sigure, notează fortune.