A inteligência artificial passou a ocupar o centro do debate jurídico no Brasil em 2026, diante do avanço de ferramentas capazes de gerar textos, imagens e vídeos em poucos segundos. O cenário tem acelerado discussões sobre regulamentação, transparência e responsabilização em casos de uso indevido da tecnologia. Para a advogada e professora universitária Gisele Almada, a responsabilidade jurídica tende a ser compartilhada entre usuários e plataformas.
Segundo a especialista, usuários podem responder judicialmente quando utilizam a tecnologia de má-fé, como na produção de conteúdos ilícitos, incluindo ofensas, difamação ou uso comercial de materiais sem a devida verificação de origem. Já as plataformas podem ser responsabilizadas objetivamente quando houver falhas na prestação do serviço, treinamento com dados ilegais ou omissão na remoção de conteúdos ilícitos após notificação.
A discussão sobre direitos autorais também ganhou força nos últimos anos, especialmente após o crescimento de ferramentas capazes de produzir textos, imagens e músicas em poucos segundos. “A IA não cria do nada, ela treina com vastas bases de dados”, explica Gisele. De acordo com a especialista, quando sistemas reproduzem trechos significativos de obras protegidas, preservando características únicas ou marcas d’água, pode haver violação da Lei de Direitos Autorais. Ela ressalta ainda que o ordenamento jurídico brasileiro reconhece apenas a criação humana. “Conteúdo gerado 100% por IA, sem intervenção humana significativa, pode ser considerado de domínio público”, pontua.
Outro ponto de atenção está na proteção de dados pessoais. Com o uso massivo de informações para treinamento de algoritmos, a Lei Geral de Proteção de Dados (LGPD) passou a ser um dos pilares da regulação tecnológica. “A LGPD se aplica integralmente quando a IA trata dados pessoais”, diz a advogada. Usuários e empresas precisam garantir que prompts e bases de treinamento não exponham dados sensíveis. Além disso, a Autoridade Nacional de Proteção de Dados (ANPD) vem reforçando a exigência de transparência e a possibilidade de revisão humana em decisões automatizadas.
A obrigatoriedade de informar ao consumidor quando ele está interagindo com inteligência artificial também avançou em 2026. “O consumidor tem o direito de saber se interage com um robô e a rotulagem funciona como salvaguarda jurídica contra práticas enganosas”.
No Judiciário, o entendimento sobre os impactos da IA também vem avançando. Conforme diz a especialista, o Supremo Tribunal Federal e tribunais superiores têm responsabilizado plataformas por falhas na moderação de conteúdos gerados artificialmente, sobretudo em casos de deepfakes e nudez não consentida. Paralelamente, o Congresso Nacional acelera a tramitação do Marco Legal da IA, que estabelece classificação de riscos e deveres específicos para desenvolvedores, empresas e usuários da tecnologia.
No campo eleitoral, o Tribunal Superior Eleitoral (TSE) aprovou regras mais rígidas para o uso de inteligência artificial em campanhas políticas, por exemplo. “O uso da IA é permitido, desde que transparente”, explica Gisele. Pela regulamentação, conteúdos gerados artificialmente precisam conter aviso claro ao eleitor, tanto em imagens quanto em áudios e vídeos. O uso de deepfakes para difamação ou manipulação eleitoral pode resultar em cassação de candidatura ou mandato, além de responsabilização criminal.
Apesar das restrições, campanhas políticas ainda poderão utilizar ferramentas generativas para otimizar peças publicitárias e produção de conteúdo. “O problema é criar fatos falsos ou simular falas de adversários que eles nunca disseram”, alerta a advogada. Para ela, a transparência deve ser absoluta para evitar fraudes contra a vontade do eleitor.
Para ler mais reportagens como essa, acesse a área de Polícia.

















