Maria Cecília

Regulação de IA no Brasil e no mundo: o que aconteceu no 1º semestre de 2025?

Maria Cecília, Luis Eduardo Daher 02 de junho de 2025 13 minutos

Se 2024 foi um ano de discussões intensas sobre regulação da inteligência artificial, 2025 já começou com decisões e mudanças significativas no campo. A crescente implementação de sistemas autônomos e modelos generativos fez com que governos ao redor do mundo adotassem novas diretrizes para equilibrar inovação e responsabilidade. Mas quais foram os principais avanços nesses primeiros meses do ano?

Enquanto a União Europeia dá os últimos retoques no AI Act e os Estados Unidos intensificam investigações sobre o uso de IA em grandes plataformas, o Brasil avança na criação de um marco regulatório próprio. Mas será que estamos no caminho certo?

Brasil: avanços e desafios no PL de IA 

No Brasil, o Projeto de Lei sobre Inteligência Artificial (Projeto de Lei n° 2338, de 2023) avançou no Congresso, tendo sido apresentado na Câmara dos Deputados em 17 de março de 2025.  O PL propõe um marco regulatório para o desenvolvimento e uso da IA no País e visa estabelecer padrões de transparência, responsabilidade e segurança, assegurando que as aplicações de IA respeitem os direitos fundamentais e promovam o bem-estar social.

A proposta do PL estabelece a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), formalizando a Autoridade Nacional de Proteção de Dados (ANPD) como coordenadora. Esse sistema é integrado pela coordenação (ANPD); por Autoridades setoriais (Anatel, Anvisa, Anac, Aneel, Banco Central, etc); Conselho Permanente de Cooperação Regulatória de Inteligência Artificial (CRIA); e pelo Comitê de Especialistas e Cientistas de Inteligência Artificial (CECIA). Vale destacar que o projeto sofreu cortes em pontos como direitos na proteção dos trabalhadores em relação a sistemas de IA, mas ainda contempla direitos mínimos, medidas de governança e sistemas de fiscalização para proteger os trabalhadores dos impactos negativos da IA.

Um dos pontos mais relevantes de destaque é a participação social e de entidades dos mais diversos setores da sociedade. Tem-se construído, a partir dos debates multissetoriais, uma regulamentação equilibrada e dialógica, sem abrir mão da inovação ou da segurança jurídica. 

Além disso, em 11 de março de 2025, o Conselho Nacional de Justiça (CNJ) publicou a Resolução nº 615, estabelecendo diretrizes para o desenvolvimento, uso e governança de soluções de IA nos tribunais brasileiros.

Principais diretrizes da Resolução nº 615:

  • Governança e Auditoria: Os tribunais devem implementar processos internos que garantam a segurança e a transparência das soluções de IA, prevenindo erros e vieses discriminatórios. ​Confira mais detalhes em artigo de Laura Schertel Mendes e Rodrigo Badaró no Consultor Jurídico. 
  • Classificação de Riscos: A resolução define critérios para classificar soluções de IA conforme seu nível de risco, com regulamentações mais rigorosas para aplicações consideradas de alto risco, como sistemas de identificação biométrica para monitoramento de comportamento. 
  • Proibições Específicas: É vedado o uso de IA para avaliar traços de personalidade ou comportamentais de indivíduos com o intuito de prever crimes ou a probabilidade de reincidência, bem como para classificar pessoas com base em atributos sociais ou comportamentais na avaliação de direitos e méritos judiciais. ​

Em maio de 2025 ocorreu a instauração da comissão especial, presidida pela deputada Luisa Canziani e com relatoria do deputado Aguinaldo Ribeiro. No dia 27 de maio de 2025 aconteceu a Segunda reunião extraordinária da Comissão Especial para a apresentação do plano de trabalho que foi aprovado com aditamentos (inclusão de novos especialistas e ciclos de debates específicos por setor, por exemplo). A próxima reunião foi agendada para o dia 10 de junho e trata-se de realização de audiência pública e deliberação de requerimentos.

União Europeia: a implementação do AI Act e AI Action Summit

Na Europa, o AI Act entrou em fase de implementação prática, com as primeiras diretrizes detalhadas para a classificação de risco dos sistemas de IA. As regras se tornaram ainda mais rigorosas para aplicações de alto risco, como por exemplo, reconhecimento facial em espaços públicos e sistemas preditivos na segurança pública. Empresas que não se adaptarem podem enfrentar sanções financeiras significativas, o que tem levado startups que atuam com esses tipos de sistemas, a repensar os seus modelos de negócio.

A abordagem do AI Act segue a lógica de classificação de risco, com regras mais rígidas para sistemas que podem impactar direitos fundamentais, como reconhecimento facial e decisões automatizadas no setor público.

No entanto, algumas mudanças de última hora têm gerado críticas. Empresas de tecnologia pressionam para suavizar exigências, alegando que uma regulamentação excessiva pode impor barreiras à inovação e ao desenvolvimento. Já grupos de defesa de direitos digitais cobram regras mais duras, principalmente para a IA generativa, como o ChatGPT. O impasse está colocado: regular demais ou de menos pode gerar efeitos colaterais imprevistos.

Ainda em âmbito Europeu, Paris sediou o AI Action Summit em fevereiro de 2025, reunindo líderes globais para discutir estratégias e políticas relacionadas à IA. O evento contou com a presença de mais de 1.000 (mil) participantes de mais de 100 (cem) países, incluindo chefes de Estado, representantes de organizações internacionais, acadêmicos e membros da sociedade civil. O principal foco do Summit foi explorar as oportunidades econômicas proporcionadas pela IA, embora questões de segurança e ética também tenham sido abordadas.

O primeiro Relatório Internacional de Segurança de IA orientou as discussões no evento. Publicado em 29 de janeiro de 2025 pelo governo do Reino Unido, contando com a colaboração de 96 (noventa e seis) especialistas em IA, incluindo representantes indicados por 33 (trinta e três) países e organizações intergovernamentais, o relatório explora os avanços e riscos da inteligência artificial ao redor do mundo na atualidade.

Durante o Summit, a União Europeia anunciou o lançamento do InvestAI, uma iniciativa de €200 (duzentos) bilhões destinada a impulsionar o desenvolvimento de IA no continente. Este investimento inclui €20 (vinte) bilhões para a construção de “gigafábricas” de IA, visando treinar modelos de grande escala e complexidade. Além disso, uma coalizão de mais de 60 (sessenta) empresas europeias lançou a EU AI Champions Initiative, planejando investir €150 (cento e cinquenta) bilhões em negócios e infraestruturas relacionadas à IA nos próximos cinco anos.

No entanto, o Summit também evidenciou divergências significativas entre as nações. Estados Unidos e Reino Unido optaram por não assinar a declaração conjunta que visava promover uma IA inclusiva e sustentável, alegando preocupações com possíveis impactos na inovação e na segurança nacional. O vice-presidente dos EUA, JD Vance, enfatizou uma abordagem mais otimista e menos regulatória em relação à IA, alinhada à política “America First” do presidente Donald Trump.

Essas diferenças destacam os desafios na busca por uma governança global unificada para a IA. Enquanto a União Europeia e outras nações defendem uma regulamentação mais rigorosa para garantir o uso ético e seguro da tecnologia, países como os EUA e o Reino Unido trazem um balanço expressando receios de que regulamentações excessivas possam sufocar a inovação e a competitividade.

Estados Unidos: mudança de governo e ordens executivas 

Em janeiro de 2025, o presidente Donald Trump assinou uma ordem executiva revogando as regulamentações estabelecidas por seu antecessor, Joe Biden, relacionadas à Inteligência Artificial. Trump considerou essas regulamentações “perigosas”, argumentando que impediam a inovação ao impor controles governamentais desnecessários. A nova diretriz busca promover sistemas de IA “livres de vieses ideológicos” e “manter a liderança global dos EUA nessa tecnologia”. 

Além disso, Trump instruiu seus assessores a desmantelar políticas anteriores. A nova ordem estabelece a criação de um Plano de Ação em Inteligência Artificial dentro de 180 dias, visando reforçar a dominância global dos EUA em IA e promover a competitividade econômica, segurança nacional e o bem-estar humano. 

A OpenAI enfatizou a importância de investimentos externos e regulamentações de apoio para manter a liderança dos EUA em IA em relação à China. Em seu “Economic Blueprint”, a empresa destacou a necessidade de investimentos em chips, dados e energia, além de regulamentações nacionais imediatas. A OpenAI alertou que US$175 (cento e setenta e cinco) bilhões em fundos globais de investimento em IA poderiam migrar para a China se não fossem atraídos pelos EUA, potencialmente elevando a posição global chinesa. 

China: controle e padronização estatal 

Enquanto isso, a República Popular da China avançou em sua regulação com novas diretrizes obrigando empresas a submeter modelos de IA generativa à revisão estatal antes de lançá-los ao mercado – A Administração do Ciberespaço da China, a Comissão Nacional de Desenvolvimento e Reforma, o Ministério da Educação, o Ministério da Ciência e Tecnologia, o Ministério da Indústria e Tecnologia da Informação, o Ministério da Segurança Pública e a Administração Nacional de Rádio e Televisão divulgaram em conjunto as Medidas Provisórias para a Gestão de Serviços de Inteligência Artificial Generativa. Trata-se da primeira regulamentação administrativa sobre a gestão de serviços de IA Generativa da China, que entrou em vigor em 15 de agosto de 2023 e tem sido implementada durante o ano de 2025, inclusive com novas regras entrando em vigor no mês de setembro deste ano.

Em janeiro de 2025, a DeepSeek lançou seu primeiro aplicativo de chatbot gratuito, baseado no modelo DeepSeek-R1, disponível para iOS e Android. Em menos de três semanas, o aplicativo superou o ChatGPT como o mais baixado na App Store dos Estados Unidos, provocando uma queda de 13% (U$465 bilhões de queda) nas ações da Nvidia. Esse sucesso foi descrito como “uma revolução na IA”, marcando o início de “uma nova era de política arriscada em matéria de IA”. 

A DeepSeek, oficialmente conhecida como Hangzhou DeepSeek Artificial Intelligence Basic Technology Research Co., Ltd., é uma empresa chinesa de inteligência artificial especializada no desenvolvimento de modelos de linguagem de grande porte (LLMs) de código aberto. Fundada em 2023 por Liang Wenfeng, cofundador do fundo de hedge High-Flyer, a empresa está sediada em Hangzhou, Zhejiang. 

O modelo DeepSeek-R1 destacou-se por oferecer desempenho comparável a outros LLMs contemporâneos, como o GPT-4 da OpenAI, mas com custos significativamente menores. Enquanto o treinamento do GPT-4 custou cerca de US$100 milhões em 2023, o DeepSeek-R1 foi desenvolvido com um investimento estimado de US$6 milhões, utilizando apenas um décimo da potência computacional necessária para modelos similares. Esses avanços ocorreram em meio às sanções dos Estados Unidos que visavam restringir a capacidade da China de desenvolver sistemas avançados de IA. 

Iniciativas dignas de nota ao redor do mundo 

É impossível capturar, em um único texto, tudo o que está acontecendo no universo de debates sobre o tema da inteligência artificial. Ainda assim, algumas iniciativas merecem destaque por sinalizarem caminhos distintos – e, muitas vezes, ousados – na tentativa de regular, impulsionar ou redirecionar os rumos da IA ao redor do globo.

Índia: Em janeiro de 2025, o governo indiano anunciou a criação do Instituto de Segurança em IA para Inovação Responsável em IA (IndiaAI Safety Institute for Responsible AI Innovation) para garantir a aplicação ética e segura de modelos de IA. O instituto promoverá pesquisas alinhadas à diversidade social, econômica, cultural e linguística do país, utilizando conjuntos de dados locais e colaborando com instituições acadêmicas e do setor privado.

Singapura: Em maio de 2025, Singapura apresentou o “Consenso de Singapura sobre Prioridades Globais de Pesquisa em Segurança de IA” durante a Conferência Internacional sobre Representações de Aprendizado (ICLR). A iniciativa visa promover a colaboração internacional na pesquisa de segurança de modelos de IA avançados, enfatizando o desenvolvimento seguro de modelos e o controle de comportamentos de IA.

Arábia Saudita: Em maio de 2025, a Arábia Saudita lançou a empresa de inteligência artificial Humain, com o objetivo de desenvolver centros de dados avançados e fortalecer a infraestrutura tecnológica do país. A iniciativa faz parte da estratégia do governo para diversificar sua economia e se tornar um ator global no setor de IA. No mesmo mês, a Humain anunciou uma parceria com a Nvidia para o desenvolvimento de “fábricas de IA” na Arábia Saudita, com o intuito de posicionar o país como uma referência no setor no Oriente Médio.

E o que vem por aí? 

O primeiro semestre de 2025 sinalizou que a regulação da IA está avançando de forma acelerada e não homogênea pelo mundo. Países membros da União Europeia têm implementado estruturas regulatórias abrangentes, como o AI Act, que estabelece classificações de risco e diretrizes rigorosas para o uso de IA. 

Já nos Estados Unidos, apesar da existência de debates intensos, a abordagem tem sido mais fragmentada, com investigações específicas e ordens executivas que refletem mudanças das políticas internas. 

Em contraste, muitas nações (majoritariamente do Sul Global) enfrentam desafios como infraestrutura limitada, falta de expertise técnica e recursos financeiros restritos, o que dificulta a elaboração e a implementação de regulamentações eficazes. 

A ausência de uma abordagem coordenada globalmente contribui para disparidades na governança da IA em diferentes jurisdições, aumentando o risco de lacunas regulatórias que podem ser exploradas por atores mal-intencionados.

O desafio continua sendo encontrar um ponto de equilíbrio entre a necessidade de regulação e a busca por um ambiente favorável à inovação. Os próximos meses prometem novas discussões e ajustes legislativos que podem redefinir os rumos dessa temática. Estaremos acompanhando de perto.

Para os curiosos de plantão

Abaixo deixamos algumas indicações de materiais para aprofundar o tema desenvolvido por aqui:

o que você procura?