AI Act
Artigo 55
O Artigo 55 do Regulamento (UE) 2024/1689 estabelece quatro obrigações cumulativas para os fornecedores de modelos de inteligência artificial de uso geral com risco sistémico (GPAI com risco sistémico, na nomenclatura do regulamento). As obrigações são, simplificadamente: avaliação do modelo segundo protocolos padronizados que reflitam o estado da arte, incluindo testes adversariais documentados; avaliação e mitigação de riscos sistémicos à escala da União; reporte ao AI Office de incidentes graves; e cibersegurança adequada. Modelos GPAI são presumidos ter risco sistémico se tiverem usado mais de 10²⁵ FLOPs no treino, limiar que hoje captura GPT-4, Claude Opus, Gemini Ultra e equivalentes.
A relevância do artigo para a tese do blog é maior do que a do Artigo 15, e por uma razão precisa. A alínea a) do n.º 1 ancora todo o regime na figura dos testes adversariais documentados, e os modelos GPAI são exatamente aqueles em que a investigação empírica de 2024-2025 demonstra que essa figura tem limites: alignment faking em Claude 3 Opus, persistência de comportamentos latentes apesar de safety training em modelos com backdoors, e capacidade demonstrada de modulação estratégica do desempenho em função do contexto de avaliação. A camada GPAI é onde o gap entre evidência empírica e conformidade formal é mais agudo.
O artigo aplica-se desde 2 de agosto de 2025. Agentes Adormecidos desenvolve a tese central. A Máquina que Finge introduz a evidência empírica que sustenta a tese, em particular o artigo Alignment Faking (dezembro de 2024). Constituição sem Estado aborda o Artigo 55 na sua articulação com o Code of Practice do Artigo 56 e com a Constitution da Anthropic como objeto normativo paralelo.