artigo

Regulação da Inteligência Artificial e Impactos Para as Empresas

Por Ingrid Braren, Advogada

[email protected]

22/09/2025 09h46

O avanço da Inteligência Artificial (IA) no ambiente corporativo está transformando processos, decisões estratégicas e modelos de operação. Essa evolução, no entanto, exige atenção especial para a sua regulação, devendo-se observar o equilíbrio entre equilibrar inovação, eficiência, segurança jurídica e proteção de direitos. É nesse contexto que se insere o Projeto de Lei nº 2.338/2023, atualmente em tramitação no Congresso Nacional.

O texto do PL estabelece um marco legal para o desenvolvimento e uso da IA no Brasil, com destaque para a responsabilidade das empresas desenvolvedoras e usuárias. O artigos 2º, em especial, replica fundamentos constitucionais bem conhecidos  replica, com nova roupagem, fundamentos constitucionais bem conhecidos: respeito aos valores humanos, livre desenvolvimento da personalidade, proteção ao meio ambiente, igualdade, não discriminação, respeito aos direitos trabalhistas, desenvolvimento tecnológico, inovação, livre iniciativa, livre concorrência, defesa do consumidor, privacidade, proteção de dados, autodeterminação informativa, acesso à informação, entre outros. Acrescenta questões já debatidas e agora trazidas expressamente como princípios: a centralidade da pessoa humana, o respeito aos valores democráticos, o desenvolvimento sustentável, a pluralidade e a conscientização sobre os sistemas de IA e suas aplicações.

O PL reforça ainda princípios como participação e supervisão humana efetiva, explicabilidade, inteligibilidade e auditabilidade, a rastreabilidade das decisões como meio de prestação de contas e a atribuição de responsabilidades a uma pessoa natural ou jurídica, a prestação de contas, responsabilização e reparação integral de danos. Esses elementos representam uma evolução natural de normas anteriores, notadamente a Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet, refletindo uma ampliação e aprofundamento da proteção normativa aplicada à tecnologia.

No artigo 4º, inciso III, encontramos a definição do “operador de sistema de inteligência artificial”, definido como a pessoa natural ou jurídica, pública ou privada, que utilize um sistema de IA em seu nome ou benefício. Isso significa que empresas que adquirirem ou contratarem sistemas de IA serão responsáveis por sua adequação e pelo respeito aos princípios legais, direitos e garantias previstos no ordenamento jurídico.

Diante dessa nova realidade regulatória, as empresas que adquirirem ou contratarem sistemas de IA se enquadram como “operadoras de IA” nos termos do artigo 4º, inciso III, sendo, portanto, responsáveis pela adequação desses sistemas aos princípios legais e pela garantia dos direitos e garantias previstos no ordenamento jurídico. O artigo 4º, inciso IV, amplia essa responsabilidade ao conceituar como “agentes de IA” tanto os fornecedores quanto os operadores. Por isso, é importante que as empresas utilizadoras de IA estarem atentas à adequação de seus contratos processos internos e estratégias de governança para mitigar riscos e evitar responsabilização por violações.

Nos artigos 5º e 7º, o PL consagra os direitos dos indivíduos afetados pelos sistemas de IA, baseados nos princípios da autodeterminação informativa, proibição de vieses discriminatórios, explicação das decisões automatizadas e proteção da privacidade. O dispositivo exige que os operadores forneçam informações claras sobre o caráter automatizado das interações e decisões, sobre a descrição geral do sistema, os tipos de decisões, previsões ou recomendações realizadas, bem como as consequências de seu uso. Isso impõe às empresas a estruturação de seus processos com foco na transparência e preparação para justificar tais aspectos, sob pena de responsabilidade.

No contexto jurídico europeu, observa-se um movimento regulatório com forte inspiração nos mesmos princípios. O primeiro ordenamento do tema veio com o Artificial Intelligence Act, da União Europeia, que cria um arcabouço baseado em classificação de risco: proíbe IA de risco inaceitável; exige exigências rigorosas para IA de alto risco; impõe obrigações de transparência para IA de risco limitado; e não regula IA de risco mínimo. O modelo europeu também é marcado por forte ênfase no direito à explicação e na supervisão humana, especialmente em contextos de decisões automatizadas sensíveis. O PL 2338 segue a mesma diretriz protetiva, que será abordada no próximo artigo.

O ponto crucial é a tendência, iniciada pelo modelo europeu no qual o Brasil se inspira, em torno de um modelo regulatório que valoriza a supervisão humana, explicabilidade, classificação por risco, transparência e responsabilização contratual. E é nesse ponto que os contratos ganham importância estratégica. As empresas devem estruturar seus contratos de aquisição ou fornecimento de soluções de IA para incorporar cláusulas específicas que abordem a adequação legal, a manutenção da explicabilidade, auditoria, revisão em face de decisões automatizadas, garantias de não discriminação e mecanismos de resposta a incidentes. Esses contratos devem definir claramente responsabilidades, fluxo de comunicação entre operador e fornecedor e procedimentos de conformidade contínua — inclusive para atender a solicitações de explicação ou acesso.

Em um ambiente regulatório em evolução e complexo, a adequação dos contratos não é mera formalidade — é instrumento indispensável de segurança jurídica, compliance e governança responsável.

No próximo artigo da série, abordaremos as disposições específicas do PL sobre decisões sensíveis, sistemas de alto risco e os impactos práticos dessas classificações no contexto empresarial e seus aspectos na redação de contratos robustos e adequados  a esta nova realidade.

Veja todas as notícias