Inteligência Artificial nas empresas: quais cuidados jurídicos antes de usar IA generativa?

Empresas que usam inteligência artificial precisam criar regras internas para proteger dados, informações confidenciais, propriedade intelectual e decisões empresariais. O uso de IA generativa pode trazer eficiência, mas também riscos jurídicos se não houver governança, revisão humana e controle sobre os dados inseridos nas ferramentas.

A inteligência artificial já faz parte da rotina das empresas. Ela aparece na elaboração de textos, análise de documentos, atendimento ao cliente, criação de campanhas, automação de processos, triagem de currículos, revisão de contratos e até na tomada de decisões estratégicas.

O problema é que muitas empresas começaram a usar IA antes de criar regras mínimas de governança.

Na prática, colaboradores podem estar inserindo em ferramentas de IA informações confidenciais, dados pessoais de clientes, documentos estratégicos, propostas comerciais, códigos, contratos e dados financeiros sem qualquer controle interno. Isso cria riscos jurídicos relevantes.

O primeiro ponto de atenção é a proteção de dados pessoais. A LGPD se aplica ao tratamento de dados pessoais em meios físicos e digitais, por pessoas naturais ou jurídicas, públicas ou privadas. Portanto, se a IA for usada para analisar dados de clientes, leads, colaboradores, usuários ou parceiros, a empresa precisa avaliar base legal, finalidade, necessidade, segurança, transparência e direitos dos titulares.

Outro ponto essencial é a confidencialidade. Nem toda informação que pode ser digitada em uma ferramenta de IA deve ser compartilhada com ela. Contratos, documentos societários, informações de clientes, dados de projetos, estratégias comerciais e informações protegidas por sigilo precisam de regras claras de uso.

Também existe risco de propriedade intelectual. Uma empresa que usa IA para criar textos, códigos, imagens, relatórios ou materiais comerciais deve avaliar quem poderá usar esse conteúdo, se há risco de violação de direitos de terceiros e se a ferramenta utilizada permite uso comercial da saída gerada.

Além disso, decisões relevantes não devem ser tomadas apenas pela máquina. A IA pode apoiar análises, mas a empresa precisa manter revisão humana, especialmente em decisões que afetem consumidores, colaboradores, fornecedores ou parceiros comerciais.

O tema também está em evolução legislativa. O PL 2.338/2023, que trata do desenvolvimento, fomento e uso ético e responsável da inteligência artificial, está em tramitação na Câmara dos Deputados, após ter sido apresentado pelo Senado Federal em 17 de março de 2025. A ficha legislativa informa que o projeto aguarda parecer na Comissão Especial sobre Inteligência Artificial.

Isso significa que as empresas não devem esperar a nova lei para agir. A regulação ainda está em construção, mas os riscos já existem.

Checklist prático para empresas

Antes de usar IA generativa, a empresa deve responder:

  • Quais ferramentas de IA são autorizadas internamente?
  • Quais informações não podem ser inseridas nessas ferramentas?
  • Há dados pessoais envolvidos?
  • Existe base legal para esse tratamento?
  • A ferramenta armazena ou reutiliza os dados enviados?
  • O conteúdo gerado será revisado por uma pessoa?
  • Há política interna de uso de IA?
  • Os contratos com clientes e fornecedores tratam do uso de IA?
  • A empresa tem regras de segurança da informação?
  • Existe responsável interno por governança de IA?

A inteligência artificial pode gerar produtividade, inovação e vantagem competitiva. Mas, sem governança, também pode gerar exposição jurídica, vazamento de informações, uso indevido de dados e conflitos contratuais.

O uso seguro da IA começa com uma regra simples: a tecnologia deve acelerar o negócio, não comprometer a sua segurança jurídica.

Sobre o Autor: 

Publicado por Bruno Fioravante, advogado especializado em Direito Empresarial, com foco em inovação, IA, tecnologia e startups. Sócio-fundador no Pigão e Fioravante Sociedade de Advogados.