A inteligência artificial e os desafios da responsabilidade civil
A inteligência artificial (IA) tem transformado a maneira como vivemos, trazendo inovações que vão desde a elaboração de simples e-mails até diagnósticos médicos mais precisos, além de carros autônomos que podem reduzir acidentes e até mesmo realizar trajetos sem a necessidade de um condutor humano.
Por Adib Feguri, Advogado e Tatiana Nogueira, Advogada
[email protected] e [email protected]
05/02/2025 11h59
No entanto, esse avanço tecnológico também apresenta uma série de desafios jurídicos, especialmente no que diz respeito à responsabilidade civil. Afinal, quem deve ser responsabilizado quando uma IA causa danos? Esse é um dos dilemas mais complexos do direito contemporâneo, que exige uma revisão dos conceitos de responsabilidade, culpa e previsibilidade.
Diferentemente das máquinas tradicionais, as IA modernas são programadas para aprender e tomar decisões de forma autônoma. Isso significa que nem sempre é possível prever com exatidão como um sistema de IA reagirá em determinadas situações. Por exemplo, em caso de um acidente envolvendo um carro autônomo ou de um erro grave cometido por um robô médico durante um procedimento, surge a questão: quem deverá arcar com os danos, e a quem caberá a responsabilidade legal?
Por serem sistemas que atuam de forma independente, as inteligências artificiais apresentam um desafio jurídico inédito, em que a definição de responsabilidade por seus atos não é simples.
Entre as alternativas discutidas para enfrentar esse impasse está a possibilidade de imputar a responsabilidade ao desenvolvedor ou ao fabricante da IA. Essa abordagem, baseada na responsabilidade objetiva, considera a culpa desses agentes mesmo que eles não tenham atuado diretamente para causar o dano.
Outra linha de pensamento sugere que o usuário da IA, como o adquirente e utilizador da tecnologia, poderia ser responsabilizado. Contudo, essa abordagem enfrenta resistência, pois o usuário final tem pouca ou nenhuma influência sobre o funcionamento interno da tecnologia.
No Brasil, já existem decisões judiciais envolvendo a IA. Em um caso emblemático, um locutor processou um shopping após ouvir sua voz sendo utilizada em uma propaganda que ele não gravou nem autorizou. Foi constatado que a propaganda foi gerada por inteligência artificial, que utilizou a voz do locutor para compor o conteúdo. O shopping foi condenado pelo uso da IA generativa, com o julgador entendendo que a atitude violou os direitos da personalidade do locutor. Tanto o usuário do software de IA quanto o desenvolvedor foram condenados a indenizá-lo.
Com o crescimento exponencial do uso da IA, torna-se cada vez mais evidente que o direito precisa evoluir para responder a essa nova realidade. Juristas, legisladores e especialistas têm debatido modelos regulatórios capazes de equilibrar a inovação tecnológica com a segurança jurídica, protegendo tanto o consumidor quanto o mercado de tecnologias.
A regulação da inteligência artificial (IA) no Brasil está em fase de desenvolvimento, com avanços recentes e importantes no cenário legislativo. Em dezembro de 2024, o Senado Federal aprovou um marco regulatório para a inteligência artificial. O texto do projeto é um substitutivo baseado no PL 2.338/2023, de autoria do presidente do Senado, Rodrigo Pacheco, que incorporou contribuições de sete propostas, incluindo o PL 21/2020, previamente aprovado pela Câmara dos Deputados. O projeto agora segue para análise e votação na Câmara dos Deputados.
O marco regulatório propõe diretrizes para o uso e desenvolvimento de sistemas de IA no Brasil, destacando:
- A centralidade do ser humano em decisões relacionadas à IA.
- Garantia da proteção de direitos fundamentais, como privacidade, dignidade e segurança.
- Responsabilidades atribuídas a desenvolvedores e operadores de IA.
- Proteção de direitos autorais e de criadores de conteúdo em relação ao uso de IA generativa.
O texto legislativo aprovado pelo Senado aborda a responsabilidade civil de sistemas de inteligência artificial (IA) com o objetivo de garantir que os possíveis prejuízos causados por essas tecnologias sejam adequadamente reparados, alinhando-se aos seguintes princípios e diretrizes:
Definição de Responsabilidades
O marco estabelece que os desenvolvedores, operadores e usuários de IA têm responsabilidades distintas, dependendo de sua função no ciclo de vida da tecnologia. Isso busca assegurar que haja uma cadeia clara de responsabilidade para resolver eventuais conflitos, evitando lacunas jurídicas.
- Desenvolvedores e Fabricantes: Podem ser responsabilizados com base na responsabilidade objetiva, ou seja, independentemente de culpa, quando for comprovado que o dano foi causado por falha ou omissão no projeto ou desenvolvimento do sistema.
- Usuários e Operadores: Também podem ser responsabilizados em casos onde a IA seja usada de forma negligente ou para fins ilícitos, como decisões que gerem discriminação ou danos econômicos.
Critérios para Atribuição de Responsabilidade
O texto busca garantir que o desenvolvimento e a implementação de IAs respeitem direitos fundamentais, como privacidade, segurança e dignidade humana. Em casos de danos:
- Causa direta ou indireta: É essencial demonstrar o nexo causal entre o funcionamento do sistema de IA e o prejuízo sofrido.
- Autonomia do sistema: Considera-se que, em muitos casos, os sistemas de IA funcionam com alto grau de autonomia, o que pode complicar a identificação do responsável direto. Nesse cenário, o regulamento sugere imputar responsabilidade a quem controla ou explora economicamente o sistema.
Provisões para Sistemas de Risco Elevado
Para IAs consideradas de alto risco, como as empregadas em diagnósticos médicos, veículos autônomos ou sistemas de vigilância, o marco regulatório exige:
- Mecanismos de segurança e transparência para minimizar erros e danos.
- Auditorias regulares e avaliações de impacto de risco, garantindo que o sistema esteja em conformidade com as normas de segurança e proteção de dados.
- Em casos de falhas, os agentes envolvidos poderão ser responsabilizados de forma solidária, dependendo de suas contribuições para o risco ou dano.
Exclusão de Responsabilidade
O texto prevê cenários em que o agente não será responsabilizado:
- Casos fortuitos ou força maior, como eventos imprevisíveis que não possam ser atribuídos ao funcionamento do sistema.
- Quando os danos resultarem de um uso indevido ou não autorizado do sistema de IA pelo usuário final.
Na prática, o modelo busca equilibrar a proteção do consumidor e dos direitos fundamentais com a inovação tecnológica.
Uma das preocupações adicionais é que a Lei de Direitos Autorais brasileira ainda não contempla os avanços relacionados a ferramentas como os chatbots ChatGPT (da OpenAI), Bing (da Microsoft) e Bard (do Google). O uso dessas tecnologias exige um grande esforço de toda a comunidade jurídica para lidar com os desafios trazidos por essas criações.
Na prática, os modelos e textos produzidos tem buscado equilibrar a proteção do consumidor e dos direitos fundamentais com a inovação tecnológica.
Diante dos avanços rápidos e significativos da inteligência artificial, é imperativo que o direito acompanhe essas mudanças para garantir a proteção dos direitos dos indivíduos e a segurança jurídica. A responsabilidade civil no contexto da IA é um campo em evolução, que exige um equilíbrio delicado entre incentivar a inovação tecnológica e assegurar que os danos causados por sistemas autônomos sejam devidamente reparados. A criação de novas legislações específicas e a adaptação das existentes são passos essenciais para enfrentar os desafios impostos por essa tecnologia emergente. Somente assim poderemos usufruir dos benefícios da IA de maneira justa e segura, promovendo um desenvolvimento tecnológico responsável e ético.