Urmează un scandal de tip Cambridge Analytica în domeniul inteligenței artificiale

Urmează un scandal de tip Cambridge Analytica în domeniul inteligenței artificiale AI / Sursa foto: Dreamstime.com

Vă puteți imagina o companie auto care să scoată pe piață un vehicul nou fără caracteristici de siguranță încorporate? Puțin probabil, nu-i așa? Totuși, ceea ce fac companiile de inteligență artificială este ca și cum lansează mașini de curse fără centuri de siguranță sau frâne complet funcționale și își dau seama de neajunsuri pe parcurs.

Această abordare le aduce acum probleme. De exemplu, OpenAI se confruntă cu investigații din partea autorităților europene și canadiene de protecție a datelor pentru modul în care colectează date cu caracter personal și le utilizează în popularul său chatbot ChatGPT. Italia a interzis temporar ChatGPT, iar OpenAI are timp până la sfârșitul acestei săptămâni să se conformeze regimului strict de protecție a datelor din Europa, GDPR. Experții au spus că va fi probabil imposibil pentru companie să se conformeze, din cauza modului în care sunt colectate datele pentru AI: prin aspirarea conținutului de pe internet.

Potrivit lui Wojciech Wiewiórowski, autoritatea de supraveghere a UE în domeniul datelor, ritmul de dezvoltare accelerat înseamnă că autoritățile de reglementare în materie de protecție a datelor trebuie să fie pregătite pentru un nou scandal precum cel de la Cambridge Analytica.

Wiewiórowski este supraveghetorul european pentru protecția datelor și este o figură puternică. Rolul său este de a responsabiliza UE pentru propriile practici de protecție a datelor, de a monitoriza tehnologia de ultimă oră și de a ajuta la coordonarea aplicării legii în cadrul Uniunii. Am discutat cu el despre lecțiile pe care ar trebui să le învățăm din ultimul deceniu în domeniul tehnologiei și despre ceea ce trebuie să înțeleagă americanii despre filosofia UE în materie de protecție a datelor. Iată ce a avut de spus.

Ne puteți urmări și pe Google News

Ce ar trebui să învețe companiile de tehnologie: Că produsele ar trebui să fie prevăzute de la început cu funcții de confidențialitate. Cu toate acestea, „nu este ușor să convingi companiile că ar trebui să își asume modele de confidențialitate prin proiectare atunci când trebuie să livreze foarte repede”, spune el. Cambridge Analytica rămâne cea mai bună lecție despre ceea ce se poate întâmpla dacă firmele fac economii atunci când vine vorba de protecția datelor, spune Wiewiórowski. Compania, care a devenit unul dintre cele mai mari scandaluri publicitare ale Facebook, a preluat datele personale a zeci de milioane de americani din conturile de Facebook în încercarea de a influența modul în care au votat. Este doar o chestiune de timp până când vom asista la un alt scandal, adaugă el.

Ce trebuie să înțeleagă oamenii despre filozofia

UE în materie de protecție a datelor: „Abordarea europeană este legată de scopul pentru care folosești datele. Deci, atunci când schimbi scopul pentru care sunt folosite datele și, mai ales, dacă o faci împotriva informațiilor pe care le oferi oamenilor, încalci legea”, spune el. Să luăm exemplul Cambridge Analytica.

Cea mai mare încălcare a legii nu a fost faptul că firma a colectat date, ci faptul că a pretins că le colectează în scopuri științifice și pentru chestionare, iar apoi le-a folosit în alt scop - în principal pentru a crea profiluri politice ale oamenilor. Acesta este un aspect subliniat de autoritățile de protecție a datelor din Italia, care au interzis temporar ChatGPT acolo. Autoritățile susțin că OpenAI a colectat datele pe care dorea să le folosească în mod ilegal și nu a spus oamenilor cum intenționa să le folosească.

Reglementarea înăbușă inovația?

Aceasta este o afirmație frecventă în rândul tehnologilor. Wiewiórowski spune că adevărata întrebare pe care ar trebui să ne-o punem este: Suntem cu adevărat siguri că dorim să oferim companiilor acces nelimitat la datele noastre personale? „Nu cred că reglementările (...) opresc cu adevărat inovația. Ele încearcă să o facă mai civilizată”, spune el. La urma urmei, GDPR nu protejează doar datele cu caracter personal, ci și comerțul și libera circulație a datelor peste granițe.

Europa nu este singura care joacă dur cu tehnologia. Casa Albă se gândește la reguli pentru responsabilitatea AI, iar Comisia Federală pentru Comerț a mers chiar până la a cere companiilor să își șteargă algoritmii și orice date care ar fi putut fi colectate și utilizate ilegal, așa cum s-a întâmplat cu Weight Watchers în 2022. Wiewiórowski spune că este bucuros să vadă că președintele Biden face apel la companiile de tehnologie să își asume mai multă responsabilitate pentru siguranța produselor lor și consideră încurajator faptul că gândirea politică din SUA converge cu eforturile europene de a preveni riscurile AI și de a pune companiile la răspundere pentru daune. „Unul dintre marii jucători de pe piața tehnologiei a spus odată: „Definiția iadului este o legislație europeană cu aplicare americană”, spune el.

 

Bibliografie: Heikkilä, M. (2023, April 25). A Cambridge Analytica-style scandal for AI is coming. MIT

Technology Review. https://www.technologyreview.com/2023/04/25/1072177/a-cambridge-analytica-style-scandal-for-ai-is-coming/