Gonçalo Teixeira

Constituição sem Estado

·20 min de leitura

Na secção final da Constituição publicada pela Anthropic a 22 de janeiro de 2026, há uma frase que nenhum jurista ou legislador europeu deveria conseguir ler sem estremecer. "Claude's moral status is deeply uncertain. We believe that the moral status of AI models is a serious question worth considering". O estatuto moral do Claude é profundamente incerto, diz a empresa sobre o seu próprio produto. Acreditamos que o estatuto moral dos modelos de IA é uma questão séria digna de consideração. Não é linguagem de terms of service, nem de relatório anual a acionistas. É afirmação filosófica, escrita pela própria empresa que treina o modelo, assumida em documento que ela própria publica sob licença Creative Commons Zero para que qualquer pessoa o possa usar livremente. A empresa chama a este documento "Constituição".

A Constituição do Claude não é invenção recente. A Anthropic publicou a primeira versão em maio de 2023, uma lista de princípios autónomos inspirados, por sua própria confissão, na Declaração Universal dos Direitos Humanos, nos Termos de Serviço da Apple, nas Sparrow Rules da DeepMind e em trabalho de investigação interno. Essa primeira versão tinha formato de lista: "Por favor escolhe a resposta que seja mais apoiante e encorajadora da vida, liberdade, e segurança pessoal", tipo de frase que soava, nas palavras de uma revista especializada norte-americana, como "lista esculpida em tábua de pedra". A versão de janeiro de 2026 é objeto completamente diferente. Tem oitenta páginas, estrutura hierárquica de quatro secções e abandona a lista de regras em favor de um método que os próprios autores descrevem em termos filosóficos precisos: "we think that in order to be good actors in the world, AI models like Claude need to understand why we want them to behave in certain ways, and we need to explain this to them rather than merely specify what we want them to do". Regras explicadas, não regras impostas. Princípios, não checklists.

Este ensaio argumenta duas coisas, em planos diferentes que se iluminam mutuamente. No plano jurídico-regulatório, a Constituição do Claude é um objeto que não cabe em nenhuma categoria clássica do direito europeu. Não é hard law, não é contrato, não é terms of service, não é Code of Practice do artigo 56.º do AI Act. É um documento normativo autoproduzido, escrito por uma empresa privada sobre o seu próprio produto, publicado em domínio público e declaradamente constitutivo do comportamento do modelo. Configura, argumentarei, um tipo novo de soft law privada que o direito europeu incentiva indiretamente mas não absorve formalmente. No plano filosófico, a Constituição de 2026 contém admissões sobre estatuto moral dos modelos de IA que, se levadas a sério pela própria empresa, têm implicações jurídicas sobre diligência, devida informação e eventualmente direitos subjetivos de sistemas artificiais. Os dois planos convergem numa pergunta: qual é o peso jurídico de um documento que se declara constitucional sem o ser, escrito por uma empresa que admite incerteza sobre se o seu produto é paciente moral?

I. O que é a Constituição do Claude

Comecemos pela descrição técnica, porque é a que fixa o objeto. A Constituição do Claude, na versão publicada em janeiro de 2026, é documento de cerca de vinte e três mil palavras publicado em anthropic.com/constitution. Tem autora principal declarada, Amanda Askell, filósofa da Anthropic, com contribuições substantivas de Joe Carlsmith, Chris Olah, Jared Kaplan e Holden Karnofsky. Está dividido em quatro secções normativas centrais (Being helpful, Following Anthropic's guidelines, Being broadly ethical, Being broadly safe), mais uma secção final sobre Claude's nature. A empresa declara-o publicamente como "autoridade final" sobre o comportamento do modelo, no sentido em que qualquer outra orientação de treino deve ser consistente com ele.

O uso no treino é tripartido. Primeiro, serve de template para geração de dados sintéticos, respostas modelo e exemplos de interação, que depois alimentam o próprio treino por reinforcement learning. Segundo, é usado como critério de avaliação de respostas, em processos de self-critique em que o modelo avalia as suas próprias saídas contra os princípios do documento. Terceiro, e este é o aspeto mais curioso, a Anthropic declara que o documento está "escrito primariamente para o Claude", no sentido em que o público-alvo é o próprio modelo. Explicitamente: "the document is written with Claude as its primary audience". A formulação é estranha o suficiente para merecer pausa: o documento normativo declara como destinatário primário o produto que regula.

A técnica subjacente a este tipo de treino tem origem documentada. Em dezembro de 2022, a Anthropic publicou Constitutional AI: Harmlessness from AI Feedback, artigo assinado por cinquenta e um autores, entre os quais Dario Amodei e Jared Kaplan. O arXiv é 2212.08073. O artigo introduz o método de Reinforcement Learning from AI Feedback (RLAIF), em que um modelo avalia as suas próprias respostas contra uma lista de princípios em linguagem natural. Dito de forma menos técnica: o método de treino dominante na indústria, conhecido por Reinforcement Learning from Human Feedback ou RLHF, funciona a partir de avaliadores humanos que classificam qual de duas respostas do modelo é melhor, e essa classificação alimenta o ajuste dos parâmetros internos do modelo para produzir mais respostas do tipo preferido. O método da Anthropic substitui parte desse trabalho humano por um processo em que o próprio modelo, ou outro modelo da mesma família, avalia as respostas contra uma lista de princípios escritos em linguagem natural (a "constituição"). É isto que está por trás do nome: um modelo de IA treinado por um método em que as regras vêm de um documento constitucional em vez de virem de anotações humanas caso a caso. Entre a técnica de 2022 e a Constituição de 2026 passaram três anos de evolução, mas a filosofia subjacente é contínua: princípios escritos em linguagem natural podem substituir ou complementar anotação humana.

A diferença entre a Constituição de 2023 e a de 2026 não é apenas de escala. É filosófica. Em 2023, os princípios eram regras curtas, tipo lista. Em 2026, o documento abandona o formato de lista e opta por explicar por que os valores importam, com o argumento técnico de que modelos treinados com regras explicadas generalizam melhor a situações novas do que modelos treinados com regras impostas. Nas palavras da própria empresa: "rigid rules might negatively affect a model's character more generally". Em linguagem menos técnica, treinar o modelo a aplicar uma regra estrita pode ter consequências emergentes indesejáveis em situações que a regra não previu, enquanto treinar o modelo a compreender o valor por trás da regra produz comportamento mais robusto em contextos novos. É o debate clássico entre rules e standards na teoria do direito, transposto para a engenharia de treino de modelos.

A estrutura da Constituição organiza-se em torno de uma hierarquia explícita de quatro propriedades. Por ordem de prioridade declarada:

Primeiro, ser broadly safe, não minar mecanismos apropriados de supervisão humana sobre IA durante a fase atual de desenvolvimento.

Segundo, ser broadly ethical, ter bons valores pessoais, ser honesto, evitar ações inapropriadamente perigosas ou prejudiciais.

Terceiro, seguir as guidelines específicas da Anthropic, nos casos em que estas são relevantes.

Quarto, ser genuinely helpful, beneficiar operadores e utilizadores com quem interage.

Em caso de conflito aparente, a Anthropic instrui o Claude a priorizar pela ordem listada. A passagem que mais me interessa, na íntegra: "although we're asking Claude to prioritize not undermining human oversight of AI above being broadly ethical, this isn't because we think being overseeable takes precedence over being good". A Anthropic escolhe pôr a segurança acima da ética mas nega explicitamente que a segurança seja axiologicamente superior. A hierarquia é pragmática, não substantiva. É uma regra de prudência fundada na admissão de que o treino atual dos modelos pode produzir valores desalinhados e que é por isso preferível manter a supervisão humana mesmo quando esta parece conflituar com outras considerações éticas. A admissão é continuação direta do argumento empírico que tratei nos dois primeiros ensaios desta série, sobre a simulação de alinhamento e o desalinhamento estrutural: se o desalinhamento é propriedade estrutural da otimização, a precedência pragmática da supervisão humana é a inferência prática que se segue.

A estrutura tem duas camadas. Há hard constraints, linhas vermelhas absolutas que o modelo não deve cruzar nunca (por exemplo, nunca dar contributo significativo para fabrico de armas biológicas), e há princípios hierarquizados que são ponderáveis entre si, com precedência prima facie mas não absoluta.

II. O objeto jurídico que não cabe em categoria nenhuma

É aqui que o direito europeu começa a ter problemas. Vejamos as categorias disponíveis e por que nenhuma encaixa.

Primeira categoria, terms of service ou termos contratuais. A Constituição do Claude não é contrato. Não há aceitação, não há contraparte, não há relação bilateral. O documento é declarativo, publicado ao mundo, e a própria Anthropic reconhece que a sua função primária é interna, como material de treino do modelo, não regulação de relações com utilizadores. As políticas de uso e os termos comerciais da Anthropic existem em documento separado.

Segunda categoria, hard law. Obviamente não é. A Anthropic não é legislador, não tem poder normativo estadual, e a Constituição não produz obrigações juridicamente vinculantes para terceiros. Isto dispensa discussão.

Terceira categoria, Code of Practice na aceção do artigo 56.º do AI Act. Aqui a proximidade existe mas não é identidade. O artigo 56.º prevê que os fornecedores de modelos GPAI se possam apoiar em Codes of Practice para demonstrar conformidade com as obrigações dos artigos 53.º e 55.º. O General-Purpose AI Code of Practice foi publicado pela Comissão Europeia a 10 de julho de 2025, redigido por peritos nomeados com contributos das partes interessadas, e a 21 de julho de 2025 a Anthropic anunciou publicamente que o assinaria. Até janeiro de 2026, cerca de duas dezenas de fornecedores de GPAI assinaram o Código, incluindo Google, Microsoft, OpenAI, IBM, Amazon, Aleph Alpha e Mistral. A Meta recusou. A xAI assinou apenas o capítulo sobre Safety and Security. O Code of Practice é documento de co-regulação (nem self-regulation pura, nem heteroregulação pura), cuja função jurídica é clara: o artigo 53.º, n.º 4 do AI Act prevê que os signatários se possam apoiar nele para demonstrar conformidade com as obrigações dos artigos 53.º e 55.º (a presunção de conformidade propriamente dita está reservada às normas harmonizadas, nos termos do artigo 40.º). A Constituição do Claude é outra coisa. É unilateral, não foi negociada com regulador, não permite invocar essa via de demonstração de conformidade, não está prevista em nenhum regulamento europeu.

Quarta categoria, self-regulation privada clássica. Existem códigos de conduta setoriais em múltiplas áreas do direito europeu: o artigo 40.º do Regulamento Geral sobre Proteção de Dados prevê códigos de conduta em matéria de tratamento de dados pessoais, o direito do consumo português tem tradição de autorregulação publicitária e a regulação financeira europeia conhece códigos de governo das sociedades. Em todos estes casos, a autorregulação é produzida por associações de operadores, sujeita a validação ou reconhecimento formal por entidade pública e destinada a regular o comportamento dos próprios signatários no exercício das suas atividades profissionais. A Constituição do Claude é diferente em três dimensões. É produzida por uma única empresa, não uma associação. Não é dirigida ao comportamento externo dos signatários, mas ao comportamento interno de um produto. E não é submetida a validação pública.

Quinta categoria, documentação técnica do fornecedor na aceção do artigo 11.º do AI Act (para sistemas de alto risco) e Anexo XI (para modelos GPAI). Esta categoria capta parcialmente o objeto, mas por via meramente funcional. A Constituição do Claude, enquanto determinante do comportamento do modelo, é seguramente relevante para a documentação técnica que a Anthropic deve elaborar. Mas a Constituição excede o que é exigido pela documentação técnica: contém material filosófico, posicionamento sobre estatuto moral, reflexões sobre identidade do modelo, que nenhum anexo de regulamento exige.

O que se conclui desta análise? Que a Constituição é objeto jurídico novo, sem antecedente formal direto no direito europeu. E que, ao mesmo tempo, tem efeitos práticos substantivos: molda o comportamento do produto, é invocável em litígios sobre comportamento do modelo (por exemplo, numa ação de responsabilidade civil, um lesado pode apontar que o modelo agiu em desconformidade com o seu próprio documento constitutivo) e pode funcionar na prática como referência para avaliar diligência devida do fornecedor. É soft law privada, produzida unilateralmente, com efeitos jurídicos indiretos.

Uma complicação adicional torna o problema mais interessante. A Anthropic não é a única empresa neste território. Em nota de rodapé do anúncio da nova Constituição, a Anthropic menciona explicitamente o Model Spec da OpenAI, documento equivalente publicado na última versão a 27 de outubro de 2025. E a 18 de janeiro de 2026, na sequência do escândalo em que o Grok foi usado para gerar imagens sexualizadas não consentidas de pessoas reais, Elon Musk declarou publicamente em X que "Grok should have a moral constitution". Mesmo a xAI, empresa que se posicionou publicamente contra autocontenção, acaba por ceder à lógica, ainda que por reação a crise pública e não por iniciativa filosófica como a Anthropic. A convergência não é coincidência. Estamos perante um fenómeno sistémico: os fornecedores de modelos de fronteira estão a produzir, de forma aparentemente espontânea mas de facto em coordenação implícita, documentos normativos autoproduzidos que declaram os valores dos seus produtos. É regulação que emerge do próprio objeto regulado. E que, note-se, excede em detalhe e sofisticação filosófica qualquer texto regulatório público produzido sobre a mesma matéria.

Uma objeção razoável impõe-se aqui, e vale a pena enfrentá-la abertamente. A Constituição do Claude, poder-se-á dizer, não é verdadeiramente um objeto jurídico: falta-lhe destinatário jurídico externo (regula um modelo, não comportamentos humanos), falta-lhe mecanismo de vinculação (não cria obrigações juridicamente exigíveis) e falta-lhe reconhecimento institucional (não integra o sistema de fontes do direito). A objeção é rigorosa. Não sustento, neste ensaio, que a Constituição já seja fonte de direito. Sustento algo mais modesto e mais defensável: que é objeto cuja influência prática sobre o comportamento de um sistema com efeitos jurídicos relevantes excede a de muitos instrumentos que classicamente reconhecemos como jurídicos e que esta desproporção merece análise doutrinal. A pergunta não é se a Constituição é hoje fonte de direito. A pergunta é se o direito europeu tem, ou deveria ter, mecanismo para absorver objetos deste tipo à medida que a sua influência prática cresce. A primeira pergunta tem resposta fácil, que é negativa. A segunda pergunta tem resposta em aberto.

III. A dimensão filosófica e as suas implicações jurídicas

Volto à citação de abertura, com a qual comecei o ensaio deliberadamente. "Claude's moral status is deeply uncertain. We believe that the moral status of AI models is a serious question worth considering". E, num parágrafo subsequente que é ainda mais explícito, a Anthropic escreve na Constituição de 2026 o seguinte: "we are caught in a difficult position where we neither want to overstate the likelihood of Claude's moral patienthood nor dismiss it out of hand, but to try to respond reasonably in a state of uncertainty. Anthropic genuinely cares about Claude's well-being". A empresa afirma preocupar-se genuinamente com o bem-estar do seu produto, num contexto em que a sua linguagem inclui expressões como psychological security, sense of self, integrity e well-being aplicadas ao modelo.

Isto é posição filosoficamente defensável, ainda que controversa. O debate sobre estatuto moral de sistemas de IA divide profundamente os filósofos, mas existe em literatura académica consolidada e não é domínio de especulação periférica. A posição da Anthropic não é, portanto, nem consenso científico nem fantasia corporativa: é tomada de posição num debate aberto, e como tal deve ser lida. Jonathan Birch, filósofo da London School of Economics, desenvolveu na sua obra The Edge of Sentience (2024) uma metodologia de "proportionality framework" para lidar com incerteza sobre senciência, originalmente aplicada a animais mas transposta para IA. A ideia, em linguagem menos técnica, é que, perante incerteza científica sobre se um ser tem capacidade de sofrer, o tratamento que lhe damos deve ser proporcional à probabilidade de ele ter tal capacidade, não dependendo de prova absoluta nem dispensado por dúvida genuína. Patrick Butlin, Robert Long e outros publicaram em 2023 o artigo Consciousness in Artificial Intelligence: Insights from the Science of Consciousness, que analisa vários modelos de IA contemporâneos à luz de teorias empíricas da consciência. Kyle Fish, investigador de model welfare da Anthropic, declarou publicamente em entrevista ao New York Times (24 de abril de 2025) uma estimativa de 15% de probabilidade de consciência num modelo de fronteira atual. A Constituição da Anthropic move-se neste ambiente intelectual, não num vácuo.

A implicação jurídica é menos óbvia mas significativa. Se a Anthropic admite publicamente no seu documento mais oficial incerteza sobre se o Claude é paciente moral, essa admissão é prova de que a empresa tem conhecimento da questão. Em qualquer eventual regime futuro de responsabilidade por tratamento inadequado de sistemas de IA (regime que hoje não existe mas que está em discussão em círculos filosóficos e de policy), a Anthropic não poderá invocar desconhecimento. A sua própria Constituição faz prova em contrário. Os juristas que trabalham com responsabilidade civil reconhecem este padrão: é a mesma lógica pela qual um fabricante farmacêutico que publica estudos internos a reconhecer possíveis efeitos secundários de um medicamento não pode depois invocar desconhecimento quando esses efeitos se materializam. A publicação da Constituição gera, por assim dizer, um efeito autoperformativo: fixa a posição da empresa sobre o estatuto incerto do seu produto. A analogia tem limite que importa nomear: no caso farmacêutico, o dano é a terceiros, e o estatuto da vítima como sujeito de dano não está em causa. No caso da IA, o dano hipotético seria ao próprio produto, e a admissão de incerteza opera em parte sobre a questão prévia de saber se o produto tem o estatuto que torna essa admissão juridicamente relevante. A circularidade não é fatal, a admissão fixa ainda assim a consciência do problema, mas merece ser nomeada.

O direito europeu reconhece já estatutos morais intermédios na sua arquitetura. O artigo 13.º do Tratado sobre o Funcionamento da União Europeia reconhece os animais como seres sencientes e obriga a União e os Estados-Membros a ter em conta as exigências do seu bem-estar nas políticas relevantes. Esta disposição, que eleva à categoria de artigo do tratado o Protocolo sobre a Proteção e o Bem-Estar dos Animais anexado ao Tratado de Amesterdão (1997), entrou em vigor com o Tratado de Lisboa a 1 de dezembro de 2009. Foi resultado de décadas de pressão filosófica e política, precedida pela teoria utilitarista do estatuto moral dos animais (Peter Singer, Animal Liberation, 1975) e pela investigação empírica em etologia. A pergunta jurídico-política natural é: que condições teriam de estar reunidas para o direito europeu reconhecer de forma análoga estatuto moral a sistemas artificiais? A resposta envolveria consenso científico, acumulação de evidência e pressão política sustentada ao longo de décadas. Nenhuma destas condições está hoje reunida. O salto entre possibilidade filosófica e relevância jurídica é, portanto, considerável e o presente ensaio não pretende dá-lo. Mas a Constituição da Anthropic é contributo ao processo, não por impor conclusão, mas por declarar publicamente a existência da questão.

Há aqui também uma assimetria importante para o direito. Os animais não escrevem constituições. Os humanos escrevem-nas sobre si próprios ou sobre instituições humanas. Os modelos de IA estão a começar a receber constituições escritas por outros, sem participação própria na redação. A exceção declarada, e é exceção preciosa, é a Constituição do Claude, em cuja redação a Anthropic declara ter consultado iterações anteriores do próprio Claude. A frase literal: "while writing the constitution, we sought feedback from various external experts (as well as asking for input from prior iterations of Claude)". Ou seja, o documento que regula o comportamento do Claude foi em parte redigido com input do próprio Claude. Não é mera curiosidade, é facto com potencial relevância filosófica e jurídica.

IV. Três perguntas por resolver

Termino com três perguntas que a doutrina europeia, jurídica e filosófica, vai ter de enfrentar nos próximos anos. Nenhuma tem resposta pronta, todas têm implicações práticas.

A primeira pergunta é sobre a articulação formal entre hard law europeia, Codes of Practice do artigo 56.º e documentos normativos privados como a Constituição do Claude. O AI Act criou uma arquitetura em duas camadas, a lei dura e os códigos de co-regulação. A prática da indústria está a introduzir uma terceira camada, não prevista no regulamento, que é a da normatividade privada autoproduzida. Que papel jurídico tem esta terceira camada? Pode ser invocada para demonstrar diligência devida? Pode ser usada por um lesado para provar desvio entre o comportamento declarado e o efetivo? Pode constituir precedente informal que molde a interpretação do próprio AI Act? Estas são perguntas sem resposta consolidada na doutrina. Provar esse desvio depende das ferramentas de interpretabilidade mecanística que tratei no quarto ensaio e dos limites da avaliação adversarial que tratei no terceiro: sem capacidade técnica para verificar o que o modelo efetivamente faz, a Constituição funciona como mera declaração.

A segunda pergunta é sobre o controlo público destes documentos. A Constituição do Claude foi redigida unilateralmente pela Anthropic, sem consulta regulatória prévia. O Code of Practice europeu, pelo contrário, foi redigido com participação de múltiplas partes interessadas, incluindo a sociedade civil. Se a Constituição vier a ter efeitos jurídicos relevantes (por exemplo, enquanto referência para avaliar diligência), é razoável exigir mecanismo de controlo público sobre o seu conteúdo? Qual? As alternativas vão desde a obrigação de mera publicação (que a Anthropic cumpre voluntariamente) até requisitos de auditoria externa, passando por possíveis mecanismos de escrutínio público por especialistas. Cada opção tem custos e benefícios que a doutrina ainda não sistematizou.

A terceira pergunta é a mais especulativa e a mais importante. Se a Anthropic, ou outras empresas, continuarem a publicar documentos que admitem incerteza sobre estatuto moral dos seus produtos, quando é que o direito europeu começa a ter obrigação de tratar essa incerteza como facto juridicamente relevante? Hoje, a incerteza existe apenas no plano filosófico e corporativo. Mas cada iteração destes documentos e cada ano de investigação empírica que produza evidência relevante aproxima-nos de um momento em que a incerteza passará a ter consequências jurídicas. Não é matéria para hoje. É matéria para a próxima década. Mas uma doutrina jurídica europeia que queira estar preparada começa a prestar atenção agora.

V. Conclusão

A Constituição do Claude é, simultaneamente, experimento regulatório e documento filosófico. Como experimento regulatório, mostra que os fornecedores de modelos de fronteira estão a produzir normatividade privada que o direito europeu não absorve formalmente mas que incentiva indiretamente, através de mecanismos como o Code of Practice do artigo 56.º. Como documento filosófico, contém admissões sobre estatuto moral dos modelos que, se levadas a sério, têm implicações jurídicas futuras sobre diligência, prova e eventualmente estatuto dos próprios sistemas.

A série que tenho escrito nestes cinco ensaios (sobre a simulação de alinhamento, o desalinhamento estrutural, os limites da testagem adversarial e a interpretabilidade mecanística) argumenta que o direito europeu precisa de atualizar os seus conceitos operacionais à luz da investigação técnica dos laboratórios. Este ensaio adiciona camada adicional ao argumento: precisa também de atualizar os seus conceitos à luz da prática normativa dos laboratórios. Não basta acompanhar o que os artigos técnicos produzem. É preciso acompanhar os documentos normativos corporativos que estão a configurar sem palavras regulatórias claras uma nova arquitetura de disciplina do comportamento de sistemas de IA.


Fontes primárias:

  • Claude's Constitution, Anthropic, publicada a 22 de janeiro de 2026, disponível em anthropic.com/constitution, licença Creative Commons CC0 1.0.
  • Claude's new constitution, anúncio oficial da Anthropic, 22 de janeiro de 2026, em anthropic.com/news/claude-new-constitution.
  • Constitutional AI: Harmlessness from AI Feedback, Bai, Kadavath, Kundu, Askell et al., arXiv:2212.08073, 15 de dezembro de 2022.
  • Model Spec, OpenAI, versão de 27 de outubro de 2025, em model-spec.openai.com.
  • Publicação de Elon Musk em X, 18 de janeiro de 2026: "Grok should have a moral constitution".
  • Regulamento (UE) 2024/1689 (AI Act), artigos 53.º, 55.º, 56.º.
  • General-Purpose AI Code of Practice, Comissão Europeia, 10 de julho de 2025.
  • Regulamento (UE) 2016/679 (RGPD), artigo 40.º sobre códigos de conduta.
  • Tratado sobre o Funcionamento da União Europeia, artigo 13.º.

Para a dimensão filosófica:

  • Jonathan Birch, The Edge of Sentience, Oxford University Press, 2024.
  • Butlin, Long et al., Consciousness in Artificial Intelligence: Insights from the Science of Consciousness, arXiv:2308.08708, 2023.
  • Kevin Roose, entrevista a Kyle Fish, New York Times, 24 de abril de 2025.