Artigo: a batalha regulatória da inteligência artificial

Por Daniel Melo
O Projeto de Lei 2338/2023, que pretende regulamentar a Inteligência Artificial no Brasil, vive sua fase mais decisiva na Câmara dos Deputados. Aprovado pelo Senado em dezembro de 2024, sob liderança de Rodrigo Pacheco, o texto chegou à Câmara em março e foi encaminhado à Comissão Especial presidida por Luisa Canziani (PSD-PR) e relatada por Aguinaldo Ribeiro (PP-PB).
A escolha de Ribeiro não é casual. Um dos articuladores mais experientes da Casa, ele simboliza a disposição da Câmara de reformular substancialmente o texto aprovado pelo Senado, usando-o apenas como ponto de partida. As audiências públicas realizadas desde junho funcionaram menos como consulta e mais como ritual de legitimação para um redesenho completo da proposta, admitido publicamente pelo próprio relator.
Apesar das divergências, há consensos mínimos consolidados: a necessidade de regular, a centralidade da pessoa humana, a proibição de discriminação algorítmica e a transparência como princípio estruturante. Também há apoio majoritário à ideia de atribuir à Autoridade Nacional de Proteção de Dados (ANPD) a função de regulador do sistema, aproveitando a estrutura já existente. O modelo de classificação por níveis de risco é outro ponto de convergência inicial, embora sua implementação seja motivo de disputa.
É nesse ponto que o consenso se rompe. O embate central opõe dois paradigmas: de um lado, a regulação prescritiva e detalhista, inspirada no modelo europeu, que impõe exigências antes mesmo da inovação; de outro, a abordagem flexível e baseada em resultados, defendida pela indústria e parte do governo. Trata-se, em essência, de uma disputa geopolítica entre o “Efeito Bruxelas” e o modelo norte-americano pró-inovação. O risco, para o Brasil, é tornar-se apenas um tomador de regras, onerando empresas locais incapazes de competir com as Big Techs em custos de conformidade.
A questão dos direitos autorais tornou-se o ponto mais sensível do debate. Criadores e veículos de imprensa sustentam que modelos generativos utilizam obras protegidas sem autorização ou remuneração, ameaçando a viabilidade do jornalismo profissional. O governo ecoa essa preocupação: sem remuneração adequada, fontes confiáveis desapareceriam, e a IA seria treinada majoritariamente com desinformação. Já as empresas de tecnologia defendem que a mineração de dados não viola direitos autorais, pois captura padrões estatísticos, não a expressão criativa. A proposta de “opt-out legível por máquina” é vista como solução técnica, mas, na prática, transfere o ônus da proteção para os criadores, deixando a internet quase inteiramente disponível para treinamento.
Outro ponto de fricção é o impacto sobre startups e pequenas empresas. O receio é que exigências prévias e auditorias extensas as excluam do mercado. A proposta de criar sandboxes regulatórios, ambientes controlados para testes supervisionados pela ANPD, surge como alternativa de equilíbrio entre inovação e segurança jurídica, e deve constar no parecer final de Ribeiro.
A votação na Comissão Especial está prevista para dezembro, mas dificilmente o texto chegará ao Plenário ainda em 2025. O desafio do relator será arbitrar três eixos de tensão – modelo regulatório, direitos autorais e incentivo à inovação – em meio a um cenário de polarização ideológica e pressão eleitoral. Com o avanço da IA e o ano de 2026 à vista, o tema não é apenas técnico: é político, econômico e civilizacional. Contudo, uma coisa é certa: haverá forte pressão da ala ideológica mais alinhada à regulação mais restrita, que teme fortemente o uso indiscriminado de IA no ano eleitoral que se avizinha.