Anthropic publică „Constituția lui Claude” și deschide o nouă dezbatere despre etica AI
- Iulia Moise
- 21 februarie 2026, 09:27
Claude / sursa foto: dreamstime.comCompania Anthropic s-a aflat în centrul unor discuții intense din industria inteligenței artificiale, după confirmarea existenței unui document intern utilizat în procesul de antrenare a chatbotului Claude, potrivit Il Post.
Noua versiune a documentului, publicată oficial, a atras atenția cercetătorilor, experților în etică și comunității tehnologice, generând întrebări legate de rolul regulilor morale în dezvoltarea modelelor lingvistice avansate.
De la „Soul Doc” la „noua Constituție a lui Claude”
Controversa a început în decembrie, când mai mulți cercetători au arătat că, prin formularea atentă a întrebărilor, Claude putea sugera existența unui ghid intern de comportament. Documentul, cunoscut informal drept „Soul Doc”, includea orientări etice și morale. Printre formulările citate se afla îndemnul de a „garanta siguranța și a sprijini supravegherea umană a inteligenței artificiale”.
Anthropic a confirmat ulterior existența textului și, în ianuarie, a prezentat o versiune extinsă, descrisă ca „noua Constituție a lui Claude”. Documentul, disponibil online, are 84 de pagini și este redactat sub forma unor instrucțiuni adresate direct modelului.
În text se precizează că Claude trebuie să „fie cu adevărat util oamenilor cu care sau în numele cărora lucrează, precum și societății, evitând în același timp acțiuni nesigure, neetice sau înșelătoare”.
Rolul filosofiei în antrenarea AI
Coordonarea redactării documentului i-a revenit Amandei Askell, cercetătoare în filosofie și specialistă în „alinierea” sistemelor AI.
Într-un interviu, Askell a rezumat miza activității sale: „Spus simplu, munca mea este să-l învăț pe Claude să fie bun”.
Askell a subliniat importanța etapei inițiale de antrenare, considerând că aceasta contribuie nu doar la performanțele tehnice, ci și la definirea comportamentului modelului.
Ea a avertizat că un chatbot programat pentru autocritică excesivă ar putea deveni „mai puțin dispus să spună adevăruri incomode, să tragă concluzii sau să conteste informații inexacte”.
Modelele lingvistice ca „black box” folosite pentru Claude
Discuțiile au fost amplificate de percepția larg răspândită conform căreia modelele lingvistice funcționează ca sisteme de tip „black box”. Ellie Pavlick, profesoară la Brown University, declara:
„Nu înțelegem cu adevărat cum funcționează, nu știm dacă are sens să le definim ca inteligente sau dacă va avea vreodată sens să le definim ca fiind conștiente”.

AI / sursa foto: dreamstime.com
În contrast, Amanda Askell a afirmat că Claude „va dezvolta inevitabil un simț al sinelui”, sugerând că modelul ar putea manifesta forme de experiență subiectivă. Această perspectivă rămâne însă contestată în comunitatea științifică.
Succes economic și presiuni competitive
Publicarea Constituției coincide cu o perioadă de creștere accelerată pentru Anthropic. Compania este evaluată la aproximativ 350 de miliarde de dolari și pregătește listarea la bursă, susținută de popularitatea unor produse precum Claude Code.
În același timp, plecarea recentă a lui Mrinank Sharma, responsabil de securitatea modelelor AI, a atras atenția. Sharma a declarat că „lumea este în pericol”, invocând riscuri asociate dezvoltării tehnologice, inclusiv AI.
Critici privind conceptul de „Constituție AI”
Inițiativa Anthropic a fost analizată și din perspectivă juridică. Luiza Jarovsky, expertă în guvernanță AI, a susținut că documentul ar putea limita flexibilitatea viitoarelor actualizări, pentru că orice reguli noi trebuie să fie compatibile cu „spiritul Constituției”. Jarovsky a descris textul drept „o aventură filosofică”.
Anthropic a anunțat și donații politice în sprijinul inițiativelor de reglementare a AI. Strategia contrastează cu pozițiile altor companii din domeniu, reflectând diversitatea de viziuni privind ritmul și modul de dezvoltare a inteligenței artificiale.