Blog
Voltar para o ínicio
Marco Legal da Inteligência Artificial
Navegue por tópicos
    Compartilhe via:
    Categorias
    Banner
    Navegue por tópicos
      Inteligência Artificial

      Marco Legal da IA terá votação final em 2026

      • 19 jan, 2026
      • Tempo de leitura: 9 mins
      • Última atualização: 19 jan às 18:59
      Foto do autor
      Equipe CBRDoc

      O Marco Legal da Inteligência Artificial no Brasil, aprovado pelo Senado Federal em 2024, teve sua votação final adiada para 2026, mantendo o projeto em tramitação no Congresso Nacional. Apesar de ainda não ter se convertido em lei, o texto já produz impactos concretos no mercado, reposicionando a inteligência artificial como um tema central de governança corporativa, gestão de risco e uso responsável de dados.

      A postergação da votação não reduziu a relevância do tema. Pelo contrário. Em um ambiente de crescente pressão regulatória, avanço acelerado da IA e aumento do escrutínio sobre decisões automatizadas, empresas passaram a tratar o Marco Legal não como um evento futuro, mas como parâmetro imediato de preparação estratégica.

      No ambiente corporativo atual, marcado por automação, dados em escala e decisões cada vez mais orientadas por algoritmos, confiança se tornou o ativo mais valioso. Não apenas confiança do consumidor, mas também de investidores, reguladores, parceiros comerciais e da própria sociedade.

      A aprovação do texto-base do Marco Legal da Inteligência Artificial (PL 2338/2023) pelo Senado Federal representa um passo decisivo nessa direção. O Brasil passa a desenhar um modelo de governança algorítmica que busca equilibrar inovação, segurança jurídica e proteção de direitos fundamentais.

      Para líderes empresariais e gestores de tecnologia, essa regulação não deve ser interpretada como um freio à inovação, mas como o alicerce necessário para escalar soluções de IA com previsibilidade, legitimidade e confiança institucional.

      O que é o Marco Legal da Inteligência Artificial e por que ele importa antes de virar lei

      O Marco Legal da Inteligência Artificial é um projeto de lei que estabelece princípios, direitos, deveres e responsabilidades para o desenvolvimento, a implementação e o uso de sistemas de IA no Brasil. A proposta cria um arcabouço regulatório baseado em risco, inspirado em modelos internacionais, mas adaptado à realidade econômica e institucional brasileira.

      Mesmo sem vigência formal, o projeto já funciona como referência para políticas internas de empresas, base para avaliação de risco jurídico, sinal regulatório para investidores e orientação para contratos e governança tecnológica. Na prática, o mercado passou a se antecipar à regulação.

      A votação final ficou para 2026: o que isso significa na prática

      O adiamento da votação final do Marco Legal da IA para 2026 reflete não apenas a complexidade política e técnica do tema, mas também o amadurecimento do debate regulatório diante do avanço acelerado da tecnologia. Em 2026, a inteligência artificial já está integrada a decisões críticas em setores como crédito, seguros, saúde, recursos humanos e setor público, ampliando o impacto direto sobre direitos fundamentais, concorrência e segurança jurídica.

      Dados de mercado indicam que, em 2026, mais de 70% das grandes empresas brasileiras já utilizam algum tipo de sistema de IA em processos decisórios ou operacionais sensíveis, especialmente análise de risco, automação de atendimento, prevenção a fraudes e apoio à tomada de decisão gerencial. Esse nível de adoção elevou significativamente a exposição a riscos jurídicos, reputacionais e regulatórios, tornando insuficiente a abordagem puramente experimental.

      Enquanto o processo legislativo segue seu curso, as empresas não estão esperando a sanção da lei para agir. Setores regulados, organizações intensivas em dados e instituições com alto grau de automação passaram a tratar o Marco Legal da IA como parâmetro regulatório inevitável, ajustando estruturas de governança, políticas internas, contratos com fornecedores e controles de uso de dados. O objetivo é evitar riscos de transição abrupta, passivos futuros e interrupções operacionais quando o marco regulatório entrar em vigor de forma definitiva.

      Qual foi o marco regulatório para a IA no Brasil?

      Embora o PL 2338/2023 seja o marco geral que agora segue para análise na Câmara dos Deputados, o Brasil não parte do zero em termos de regulação de Inteligência Artificial. O país já possui iniciativas setoriais pioneiras, inclusive no setor público, que serviram como laboratório para o modelo agora proposto.

      Um exemplo emblemático é o Poder Judiciário. O Conselho Nacional de Justiça é frequentemente citado em estudos internacionais como o único órgão de cúpula do Judiciário em país de língua portuguesa com uma regulação própria e estruturada para o uso de IA. O CNJ estabeleceu diretrizes sobre transparência, rastreabilidade, auditoria e responsabilidade no uso de sistemas automatizados, especialmente em atividades sensíveis como triagem processual, apoio à decisão e análise de dados judiciais.

      Esse pioneirismo envia um sinal claro ao setor privado: governança algorítmica não é opcional. Empresas que desenvolvem, fornecem ou utilizam soluções de IA — especialmente aquelas que atuam junto ao poder público ou em setores regulados — precisarão demonstrar alinhamento com padrões elevados de ética, transparência e controle de risco.

      O que diz o PL 2338/2023 aprovado pelo Senado?

      O texto aprovado pelo Senado estabelece uma arquitetura regulatória baseada em gestão proativa de riscos, alinhada às melhores práticas internacionais. O coração do projeto está na classificação dos sistemas de IA por grau de risco, o que permite calibrar obrigações regulatórias de acordo com o potencial impacto da tecnologia.

      De forma resumida, o projeto:

      • Proíbe práticas consideradas de risco excessivo, como sistemas que violem direitos fundamentais ou promovam discriminação sistemática.
      • Define os sistemas de alto risco, que poderão operar desde que submetidos a exigências rigorosas de governança, documentação, auditoria e monitoramento contínuo.
      • Estabelece direitos claros aos afetados, incluindo o direito à explicação sobre decisões automatizadas e à contestação de resultados produzidos por IA.
      • Cria um modelo robusto de fiscalização por meio do Sistema Nacional de Regulação e Governança de IA (SIA), sob coordenação estratégica da Autoridade Nacional de Proteção de Dados.

      Atualmente, o projeto está sob análise de uma Comissão Especial na Câmara dos Deputados, responsável por aprofundar o debate e apresentar um parecer técnico.

      Entre os próximos passos previstos:

      • realização de audiências públicas para discutir temas sensíveis, como uso de IA na educação, no mercado de trabalho e os impactos sobre micro e pequenas empresas;
      • apresentação do parecer do relator, que pode manter o texto do Senado ou propor ajustes;
      • votação em Plenário.

      A expectativa, segundo sinalizações políticas, é que a matéria avance no início do ano legislativo de 2026. Caso a Câmara altere substancialmente o texto, ele deverá retornar ao Senado para nova deliberação.

      As “leis da IA” no contexto de governança

      Mais do que regras técnicas, o Marco Legal da IA consolida princípios estruturantes de governança algorítmica. Estudos de centros como a FGV e o próprio relatório do Senado destacam pilares que devem orientar qualquer sistema de IA em ambiente regulado.

      O primeiro deles é a transparência algorítmica. Sistemas não podem funcionar como “caixas-pretas” absolutas. Deve existir documentação capaz de explicar, ao menos em nível funcional, como decisões são tomadas e quais dados são utilizados.

      O segundo pilar é a não discriminação. O texto exige medidas concretas para identificar, mitigar e corrigir vieses que possam gerar prejuízos a grupos específicos, especialmente em aplicações sensíveis como crédito, emprego, saúde ou justiça.

      O terceiro é a responsabilização. O projeto define critérios para atribuir responsabilidade por danos causados por sistemas de IA, considerando o papel de cada agente no ciclo de vida da tecnologia — desenvolvedores, fornecedores, integradores e usuários finais.

      Na prática, esses pilares exigem documentação sólida, rastreabilidade de dados e capacidade de auditoria, transformando governança em um requisito operacional, não apenas jurídico.

      O que a LGPD fala sobre Inteligência Artificial?

      A Lei Geral de Proteção de Dados (LGPD), por meio da Lei Geral de Proteção de Dados, já estabelece a base sobre a qual o novo Marco Legal se apoia. A LGPD impõe que o tratamento de dados pessoais, inclusive por sistemas de IA, respeite princípios como finalidade, necessidade, adequação e transparência.

      Além disso, a lei garante ao titular dos dados o direito de solicitar a revisão de decisões tomadas exclusivamente por meios automatizados quando estas afetarem seus interesses. O Marco Legal da IA amplia e detalha essa lógica, criando um ecossistema regulatório mais coerente e integrado.

      Para as empresas, isso significa que conformidade em IA começa nos dados. Sem controle sobre a origem, integridade e uso das informações, não há como atender às exigências legais de forma sustentável.

      🚀 CBRdoc: extração de dados com segurança jurídica

      Para que organizações estejam em conformidade com o PL 2338/2023, especialmente em aplicações classificadas como de alto risco, a coleta, leitura e tratamento de dados precisam ser auditáveis, rastreáveis e juridicamente íntegros. É exatamente nesse ponto que a CBRdoc se posiciona como infraestrutura crítica.

      A plataforma atua na extração inteligente de dados (IDP), utilizando IA para ler documentos complexos e estruturar informações com alto grau de precisão. Mais do que eficiência, o diferencial está na integridade documental: cada dado extraído mantém vínculo claro com sua fonte original, permitindo rastreabilidade completa.

      Além disso, a CBRdoc viabiliza governança de dados aplicada, facilitando auditorias regulatórias e transformando documentos em provas digitais estruturadas, prontas para atender exigências de transparência, explicabilidade e responsabilização previstas no novo Marco Legal.

      Em um cenário onde a IA avança rapidamente, mas a regulação se torna mais exigente, quem controla dados com segurança jurídica controla o futuro da automação.

      👉 Gostaria de agendar uma demonstração e entender como a CBRdoc apoia a extração de dados com a rastreabilidade exigida pelo novo Marco Legal da Inteligência Artificial?

      Deixe um comentário

      O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

      Compartilhe esse artigo

      Navegue por categoria

      Newsletter

      Newsletter

      Receba em primeira mão as novidades.

      Icone

      Transforme a burocracia em eficiência: agilize seus processos e libere mais tempo para o que realmente importa.

      Fale com a gente