<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Arquivos Regulação - Maria Cecília</title>
	<atom:link href="https://mariaceciliagomes.com.br/tag/regulacao/feed/" rel="self" type="application/rss+xml" />
	<link>https://mariaceciliagomes.com.br/tag/regulacao/</link>
	<description></description>
	<lastBuildDate>Mon, 02 Jun 2025 14:48:19 +0000</lastBuildDate>
	<language>pt-BR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.1</generator>
	<item>
		<title>Regulação de IA no Brasil e no mundo: o que aconteceu no 1º semestre de 2025?</title>
		<link>https://mariaceciliagomes.com.br/regulacao-de-ia-no-brasil-e-no-mundo-o-que-aconteceu-no-1o-semestre-de-2025/</link>
					<comments>https://mariaceciliagomes.com.br/regulacao-de-ia-no-brasil-e-no-mundo-o-que-aconteceu-no-1o-semestre-de-2025/#respond</comments>
		
		<dc:creator><![CDATA[Maria Cecília]]></dc:creator>
		<pubDate>Mon, 02 Jun 2025 14:48:19 +0000</pubDate>
				<category><![CDATA[Dados]]></category>
		<category><![CDATA[Dados Pessoais]]></category>
		<category><![CDATA[dados pessoais]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[Inteligência Artificial]]></category>
		<category><![CDATA[Regulação]]></category>
		<guid isPermaLink="false">https://mariaceciliagomes.com.br/?p=762</guid>

					<description><![CDATA[<p>Se 2024 foi um ano de discussões intensas sobre regulação da inteligência artificial, 2025 já começou com decisões e mudanças significativas no campo. A crescente implementação de sistemas autônomos e modelos generativos fez com que governos ao redor do mundo adotassem novas diretrizes para equilibrar inovação e responsabilidade. Mas quais foram os principais avanços nesses [&#8230;]</p>
<p>O post <a href="https://mariaceciliagomes.com.br/regulacao-de-ia-no-brasil-e-no-mundo-o-que-aconteceu-no-1o-semestre-de-2025/">Regulação de IA no Brasil e no mundo: o que aconteceu no 1º semestre de 2025?</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400">Se 2024 foi um ano de discussões intensas sobre regulação da inteligência artificial, 2025 já começou com decisões e mudanças significativas no campo. A crescente implementação de sistemas autônomos e modelos generativos fez com que governos ao redor do mundo adotassem novas diretrizes para equilibrar inovação e responsabilidade. Mas quais foram os principais avanços nesses primeiros meses do ano?</span></p>
<p><span style="font-weight: 400">Enquanto a </span><a href="https://commission.europa.eu/news/ai-act-enters-force-2024-08-01_pt"><span style="font-weight: 400">União Europeia dá os últimos retoques no AI Act</span></a><span style="font-weight: 400"> e os </span><a href="https://www.theverge.com/news/629831/subpoena-ai-gop-political-bias"><span style="font-weight: 400">Estados Unidos intensificam investigações sobre o uso de IA em grandes plataformas</span></a><span style="font-weight: 400">, o Brasil avança na criação de um marco regulatório próprio. Mas será que estamos no caminho certo?</span></p>
<h2><b>Brasil: avanços e desafios no PL de IA</b><span style="font-weight: 400"> </span></h2>
<p><span style="font-weight: 400">No Brasil, o Projeto de Lei sobre Inteligência Artificial (Projeto de Lei n° 2338, de 2023) avançou no Congresso, tendo sido apresentado na Câmara dos Deputados em 17 de março de 2025.  O PL propõe um </span><a href="https://www.dataprivacybr.org/a-construcao-da-legislacao-de-inteligencia-artificial-no-brasil-analise-tecnica-do-texto-que-sera-votado-no-plenario-do-senado-federal/"><span style="font-weight: 400">marco regulatório para o desenvolvimento e uso da IA no País</span></a><span style="font-weight: 400"> e visa estabelecer padrões de transparência, responsabilidade e segurança, assegurando que as aplicações de IA respeitem os direitos fundamentais e promovam o bem-estar social.</span></p>
<p><span style="font-weight: 400">A proposta do PL estabelece a criação do </span><a href="https://www.gov.br/anpd/pt-br/assuntos/noticias/anpd-e-formalizada-como-coordenadora-do-sistema-nacional-de-inteligencia-artificial"><span style="font-weight: 400">Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), formalizando a Autoridade Nacional de Proteção de Dados (ANPD) como coordenadora</span></a><span style="font-weight: 400">. Esse sistema é integrado pela coordenação (ANPD); por Autoridades setoriais (Anatel, Anvisa, Anac, Aneel, Banco Central, etc); Conselho Permanente de Cooperação Regulatória de Inteligência Artificial (CRIA); e pelo Comitê de Especialistas e Cientistas de Inteligência Artificial (CECIA). Vale destacar que </span><a href="https://desinformante.com.br/pl-ia-aprovado-senado/"><span style="font-weight: 400">o projeto sofreu cortes em pontos como direitos na proteção dos trabalhadores em relação a sistemas de IA</span></a><span style="font-weight: 400">, mas ainda contempla direitos mínimos, medidas de governança e sistemas de fiscalização para proteger os trabalhadores dos impactos negativos da IA.</span></p>
<p><span style="font-weight: 400">Um dos pontos mais relevantes de destaque é a participação social e de entidades dos mais diversos setores da sociedade. Tem-se construído, a partir dos debates multissetoriais, uma regulamentação equilibrada e dialógica, sem abrir mão da inovação ou da segurança jurídica. </span></p>
<p><span style="font-weight: 400">Além disso, em 11 de março de 2025, o Conselho Nacional de Justiça (CNJ) publicou a </span><b>Resolução nº 615</b><span style="font-weight: 400">, estabelecendo diretrizes para o desenvolvimento, uso e governança de soluções de IA nos tribunais brasileiros.</span></p>
<p><b>Principais diretrizes da Resolução nº 615:</b></p>
<ul>
<li style="font-weight: 400"><b>Governança e Auditoria:</b><span style="font-weight: 400"> Os tribunais devem implementar processos internos que garantam a segurança e a transparência das soluções de IA, prevenindo erros e vieses discriminatórios. ​Confira mais detalhes em artigo de Laura Schertel Mendes e Rodrigo Badaró no </span><a href="https://www.conjur.com.br/2025-mar-15/inteligencia-artificial-na-justica-brasileira-desafios-eticos-e-caminhos-normativos/"><span style="font-weight: 400">Consultor Jurídico. </span></a></li>
<li style="font-weight: 400"><b>Classificação de Riscos:</b><span style="font-weight: 400"> A </span><a href="https://sintse.tse.jus.br/documentos/2025/Mar/14/diario-da-justica-eletronico-cnj/resolucao-no-616-de-11-de-marco-de-2025-altera-a-resolucao-cnj-no-468-2022-que-dispoe-sobre"><span style="font-weight: 400">resolução </span></a><span style="font-weight: 400">define critérios para classificar soluções de IA conforme seu nível de risco, com regulamentações mais rigorosas para aplicações consideradas de alto risco, como sistemas de identificação biométrica para monitoramento de comportamento. </span></li>
<li style="font-weight: 400"><b>Proibições Específicas:</b><span style="font-weight: 400"> É vedado o uso de IA para avaliar traços de personalidade ou comportamentais de indivíduos com o intuito de prever crimes ou a probabilidade de reincidência, bem como para classificar pessoas com base em atributos sociais ou comportamentais na avaliação de direitos e méritos judiciais. ​</span></li>
</ul>
<p><span style="font-weight: 400">Em maio de 2025 ocorreu </span><a href="https://www.camara.leg.br/noticias/1160383-comissao-que-vai-analisar-projeto-sobre"><span style="font-weight: 400">a instauração da comissão especial</span></a><span style="font-weight: 400">, presidida pela deputada Luisa Canziani e com relatoria do deputado Aguinaldo Ribeiro. No dia 27 de maio de 2025 aconteceu a </span><a href="https://www.youtube.com/watch?v=KKoXZAZTKjU"><span style="font-weight: 400">Segunda reunião extraordinária da Comissão Especial</span></a><span style="font-weight: 400"> para a apresentação do </span><a href="https://www2.camara.leg.br/atividade-legislativa/comissoes/comissoes-temporarias/especiais/57a-legislatura/comissao-especial-sobre-inteligencia-artificial-pl-2338-23/outros-documentos/plano-de-trabalho-apresentado-em-27-05-25"><span style="font-weight: 400">plano de trabalho</span></a><span style="font-weight: 400"> que foi aprovado com aditamentos (inclusão de novos especialistas e ciclos de debates específicos por setor, por exemplo). A próxima reunião foi agendada para o dia 10 de junho e trata-se de realização de audiência pública e deliberação de requerimentos.</span></p>
<h2><b>União Europeia: a implementação do AI Act e AI Action Summit</b></h2>
<p><span style="font-weight: 400">Na Europa, o AI Act entrou em fase de implementação prática, com as primeiras diretrizes detalhadas para a classificação de risco dos sistemas de IA. As regras se tornaram ainda mais rigorosas para aplicações de alto risco, como por exemplo, reconhecimento facial em espaços públicos e sistemas preditivos na segurança pública. Empresas que não se adaptarem podem enfrentar sanções financeiras significativas, o que tem levado </span><i><span style="font-weight: 400">startups</span></i><span style="font-weight: 400"> que atuam com esses tipos de sistemas, a repensar os seus modelos de negócio.</span></p>
<p><span style="font-weight: 400">A abordagem do AI Act segue a lógica de </span><b>classificação de risco</b><span style="font-weight: 400">, com regras mais rígidas para sistemas que podem impactar direitos fundamentais, como reconhecimento facial e decisões automatizadas no setor público.</span></p>
<p><span style="font-weight: 400">No entanto, algumas mudanças de última hora têm gerado críticas. Empresas de tecnologia pressionam para suavizar exigências, alegando que uma regulamentação excessiva pode impor barreiras à inovação e ao desenvolvimento. Já grupos de defesa de direitos digitais cobram regras mais duras, principalmente para a IA generativa, como o ChatGPT. O impasse está colocado: regular demais ou de menos pode gerar efeitos colaterais imprevistos.</span></p>
<p><span style="font-weight: 400">Ainda em âmbito Europeu, Paris sediou o </span><a href="https://www.elysee.fr/en/sommet-pour-l-action-sur-l-ia"><span style="font-weight: 400">AI Action Summit</span></a><span style="font-weight: 400"> em fevereiro de 2025, reunindo líderes globais para discutir estratégias e políticas relacionadas à IA. O evento contou com a presença de mais de 1.000 (mil) participantes de mais de 100 (cem) países, incluindo chefes de Estado, representantes de organizações internacionais, acadêmicos e membros da sociedade civil. O principal foco do Summit foi explorar as oportunidades econômicas proporcionadas pela IA, embora questões de segurança e ética também tenham sido abordadas.</span></p>
<p><span style="font-weight: 400">O primeiro </span><a href="https://assets.publishing.service.gov.uk/media/679a0c48a77d250007d313ee/International_AI_Safety_Report_2025_accessible_f.pdf"><span style="font-weight: 400">Relatório Internacional de Segurança de IA</span></a><span style="font-weight: 400"> orientou as </span><a href="https://www.gov.uk/government/news/first-international-ai-safety-report-to-inform-discussions-at-ai-action-summit"><span style="font-weight: 400">discussões no evento</span></a><span style="font-weight: 400">. Publicado em 29 de janeiro de 2025 pelo governo do Reino Unido, contando com a colaboração de 96 (noventa e seis) especialistas em IA, incluindo representantes indicados por 33 (trinta e três) países e organizações intergovernamentais, o relatório explora os avanços e riscos da inteligência artificial ao redor do mundo na atualidade.</span></p>
<p><span style="font-weight: 400">Durante o Summit, a União Europeia anunciou o lançamento do </span><a href="https://ec.europa.eu/commission/presscorner/detail/en/ip_25_467"><span style="font-weight: 400">InvestAI</span></a><span style="font-weight: 400">, uma iniciativa de €200 (duzentos) bilhões destinada a impulsionar o desenvolvimento de IA no continente. Este investimento inclui €20 (vinte) bilhões para a construção de “gigafábricas” de IA, visando treinar modelos de grande escala e complexidade. Além disso, uma coalizão de mais de 60 (sessenta) empresas europeias lançou a EU AI Champions Initiative, planejando investir €150 (cento e cinquenta) bilhões em negócios e infraestruturas relacionadas à IA nos próximos cinco anos.</span></p>
<p><span style="font-weight: 400">No entanto, o Summit também evidenciou </span><a href="https://fortune.com/2025/02/11/paris-ai-action-summit-ai-safety-sidelined-economic-opportunity-promoted/"><span style="font-weight: 400">divergências significativas entre as nações</span></a><span style="font-weight: 400">. </span><a href="https://www.theguardian.com/technology/2025/feb/11/us-uk-paris-ai-summit-artificial-intelligence-declaration"><span style="font-weight: 400">Estados Unidos e Reino Unido optaram por não assinar a declaração conjunta</span></a><span style="font-weight: 400"> que visava promover uma IA inclusiva e sustentável, alegando preocupações com possíveis impactos na inovação e na segurança nacional. O vice-presidente dos EUA, JD Vance, enfatizou uma abordagem mais otimista e menos regulatória em relação à IA, alinhada à política &#8220;America First&#8221; do presidente Donald Trump.</span></p>
<p><span style="font-weight: 400">Essas diferenças destacam os desafios na busca por uma governança global unificada para a IA. Enquanto a União Europeia e outras nações defendem uma regulamentação mais rigorosa para garantir o uso ético e seguro da tecnologia, países como os EUA e o Reino Unido trazem um balanço expressando receios de que regulamentações excessivas possam sufocar a inovação e a competitividade.</span></p>
<h2><b>Estados Unidos: mudança de governo e ordens executivas</b><span style="font-weight: 400"> </span></h2>
<p><span style="font-weight: 400">Em janeiro de 2025, o presidente Donald Trump </span><a href="https://www.estadao.com.br/link/cultura-digital/trump-revoga-lei-que-tentava-mitigar-riscos-da-inteligencia-artificial-nprei/?srsltid=AfmBOophlzwYs6WTdArUSJfYFkS_o94j_TxFKLnHuEnUprkrxcUXAKRF"><span style="font-weight: 400">assinou uma ordem executiva revogando as regulamentações estabelecidas por seu antecessor</span></a><span style="font-weight: 400">, Joe Biden, relacionadas à Inteligência Artificial. Trump considerou essas regulamentações &#8220;perigosas&#8221;, argumentando que impediam a inovação ao impor controles governamentais desnecessários. A nova diretriz busca promover sistemas de IA “livres de vieses ideológicos” e “manter a liderança global dos EUA nessa tecnologia”. </span></p>
<p><span style="font-weight: 400">Além disso, Trump instruiu seus assessores a desmantelar políticas anteriores. A nova ordem estabelece a criação de um Plano de Ação em Inteligência Artificial dentro de 180 dias, visando reforçar a dominância global dos EUA em IA e promover a competitividade econômica, segurança nacional e o bem-estar humano. </span></p>
<p><span style="font-weight: 400">A OpenAI enfatizou a importância de investimentos externos e regulamentações de apoio para manter a liderança dos EUA em IA em relação à China. Em seu </span><a href="https://openai.com/global-affairs/openais-economic-blueprint/"><span style="font-weight: 400">&#8220;Economic Blueprint&#8221;</span></a><span style="font-weight: 400">, a empresa destacou a necessidade de investimentos em chips, dados e energia, além de regulamentações nacionais imediatas. A OpenAI alertou que US$175 (cento e setenta e cinco) bilhões em fundos globais de investimento em IA poderiam migrar para a China se não fossem atraídos pelos EUA, potencialmente elevando a posição global chinesa. </span></p>
<h2><b>China: controle e padronização estatal</b><span style="font-weight: 400"> </span></h2>
<p><span style="font-weight: 400">Enquanto isso, a República Popular da China avançou em sua regulação com novas diretrizes obrigando empresas a submeter modelos de IA generativa à revisão estatal antes de lançá-los ao mercado &#8211; A Administração do Ciberespaço da China, a Comissão Nacional de Desenvolvimento e Reforma, o Ministério da Educação, o Ministério da Ciência e Tecnologia, o Ministério da Indústria e Tecnologia da Informação, o Ministério da Segurança Pública e a Administração Nacional de Rádio e Televisão divulgaram em conjunto as Medidas Provisórias para a Gestão de Serviços de Inteligência Artificial Generativa. Trata-se da primeira regulamentação administrativa sobre a gestão de serviços de IA Generativa da China, que </span><a href="https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-china"><span style="font-weight: 400">entrou em vigor em 15 de agosto de 2023 e tem sido implementada durante o ano de 2025, inclusive com novas regras entrando em vigor no mês de setembro deste ano</span></a><span style="font-weight: 400">.</span></p>
<p><a href="https://www.terra.com.br/noticias/deepseek-r1-o-que-se-sabe-sobre-ia-lancada-pela-china,15b50a93a67e99abf8d83627dbb07f9acttlizlc.html#google_vignette"><span style="font-weight: 400">Em janeiro de 2025, a DeepSeek lançou seu primeiro aplicativo de chatbot gratuito</span></a><span style="font-weight: 400">, baseado no modelo DeepSeek-R1, disponível para iOS e Android. Em menos de três semanas, o aplicativo superou o ChatGPT como o mais baixado na App Store dos Estados Unidos, </span><a href="https://www.infomoney.com.br/mercados/queda-de-us-465-bilhoes-da-nvidia-devido-a-deepseek-e-maior-da-historia-do-mercado/"><span style="font-weight: 400">provocando uma queda de 13% (U$465 bilhões de queda) nas ações da Nvidia</span></a><span style="font-weight: 400">. Esse sucesso foi descrito como &#8220;uma revolução na IA&#8221;, marcando o início de &#8220;uma nova era de política arriscada em matéria de IA&#8221;. </span></p>
<p><span style="font-weight: 400">A DeepSeek, oficialmente conhecida como Hangzhou DeepSeek Artificial Intelligence Basic Technology Research Co., Ltd., é uma empresa chinesa de inteligência artificial especializada no desenvolvimento de modelos de linguagem de grande porte (LLMs) de código aberto. Fundada em 2023 por Liang Wenfeng, cofundador do fundo de hedge High-Flyer, a empresa está sediada em Hangzhou, Zhejiang. </span></p>
<p><span style="font-weight: 400">O modelo DeepSeek-R1 destacou-se por oferecer desempenho comparável a outros LLMs contemporâneos, como o GPT-4 da OpenAI, mas com custos significativamente menores. Enquanto </span><a href="https://www.forbes.com/sites/katharinabuchholz/2024/08/23/the-extreme-cost-of-training-ai-models/"><span style="font-weight: 400">o treinamento do GPT-4 custou cerca de US$100 milhões</span></a><span style="font-weight: 400"> em 2023, </span><a href="https://www.bbc.com/portuguese/articles/cdd9m3rp271o"><span style="font-weight: 400">o DeepSeek-R1 foi desenvolvido com um investimento estimado de US$6 milhões</span></a><span style="font-weight: 400">, utilizando apenas um décimo da potência computacional necessária para modelos similares. Esses avanços ocorreram em meio às sanções dos Estados Unidos que visavam restringir a capacidade da China de desenvolver sistemas avançados de IA. </span></p>
<h2><b>Iniciativas dignas de nota ao redor do mundo</b><span style="font-weight: 400"> </span></h2>
<p><span style="font-weight: 400">É impossível capturar, em um único texto, tudo o que está acontecendo no universo de debates sobre o tema da inteligência artificial. Ainda assim, algumas iniciativas merecem destaque por sinalizarem caminhos distintos – e, muitas vezes, ousados – na tentativa de regular, impulsionar ou redirecionar os rumos da IA ao redor do globo.</span></p>
<p><b>Índia:</b><span style="font-weight: 400"> Em janeiro de 2025, o governo indiano anunciou a criação do </span><a href="https://indiaai.gov.in/article/india-takes-the-lead-establishing-the-indiaai-safety-institute-for-responsible-ai-innovation"><span style="font-weight: 400">Instituto de Segurança em IA para Inovação Responsável em IA (IndiaAI Safety Institute for Responsible AI Innovation)</span></a><span style="font-weight: 400"> para garantir a aplicação ética e segura de modelos de IA. O instituto promoverá pesquisas alinhadas à diversidade social, econômica, cultural e linguística do país, utilizando conjuntos de dados locais e colaborando com instituições acadêmicas e do setor privado.</span></p>
<p><b>Singapura:</b><span style="font-weight: 400"> Em maio de 2025, Singapura apresentou o </span><a href="https://aisafetypriorities.org/"><span style="font-weight: 400">&#8220;Consenso de Singapura sobre Prioridades Globais de Pesquisa em Segurança de IA&#8221;</span></a><span style="font-weight: 400"> durante a </span><a href="https://www.wired.com/story/singapore-ai-safety-global-consensus/"><span style="font-weight: 400">Conferência Internacional sobre Representações de Aprendizado (ICLR)</span></a><span style="font-weight: 400">. A iniciativa visa promover a colaboração internacional na pesquisa de segurança de modelos de IA avançados, enfatizando o desenvolvimento seguro de modelos e o controle de comportamentos de IA.</span></p>
<p><b>Arábia Saudita:</b><span style="font-weight: 400"> Em maio de 2025, </span><a href="https://www.poder360.com.br/poder-tech/principe-saudita-lanca-a-humain-empresa-estatal-de-ia/"><span style="font-weight: 400">a Arábia Saudita lançou a empresa de inteligência artificial Humain</span></a><span style="font-weight: 400">, com o objetivo de desenvolver centros de dados avançados e fortalecer a infraestrutura tecnológica do país. A iniciativa faz parte da estratégia do governo para diversificar sua economia e se tornar um ator global no setor de IA. No mesmo mês, a Humain anunciou uma </span><a href="https://www.cnnbrasil.com.br/economia/nvidia-e-humain-anunciam-parceria-para-fabricas-de-ia-na-arabia-saudita/"><span style="font-weight: 400">parceria com a Nvidia para o desenvolvimento de “fábricas de IA”</span></a><span style="font-weight: 400"> na Arábia Saudita, com o intuito de posicionar o país como uma referência no setor no Oriente Médio.</span></p>
<h2><b>E o que vem por aí?</b><span style="font-weight: 400"> </span></h2>
<p><span style="font-weight: 400">O primeiro semestre de 2025 sinalizou que a regulação da IA está avançando de forma acelerada e não homogênea pelo mundo. Países membros da União Europeia têm implementado estruturas regulatórias abrangentes, como o AI Act, que estabelece classificações de risco e diretrizes rigorosas para o uso de IA. </span></p>
<p><span style="font-weight: 400">Já nos Estados Unidos, apesar da existência de debates intensos, a abordagem tem sido mais fragmentada, com investigações específicas e ordens executivas que refletem mudanças das políticas internas. </span></p>
<p><span style="font-weight: 400">Em contraste, muitas nações (majoritariamente do Sul Global) enfrentam desafios como infraestrutura limitada, falta de expertise técnica e recursos financeiros restritos, o que dificulta a elaboração e a implementação de regulamentações eficazes. </span></p>
<p><span style="font-weight: 400">A ausência de uma abordagem coordenada globalmente contribui para disparidades na governança da IA em diferentes jurisdições, aumentando o risco de lacunas regulatórias que podem ser exploradas por atores mal-intencionados.</span></p>
<p><span style="font-weight: 400">O desafio continua sendo encontrar um ponto de equilíbrio entre a necessidade de regulação e a busca por um ambiente favorável à inovação. Os próximos meses prometem novas discussões e ajustes legislativos que podem redefinir os rumos dessa temática. Estaremos acompanhando de perto.</span></p>
<h2><b>Para os curiosos de plantão</b></h2>
<p><span style="font-weight: 400">Abaixo deixamos algumas indicações de materiais para aprofundar o tema desenvolvido por aqui:</span></p>
<ul>
<li><span style="font-weight: 400">[Podcast] Podcast Café da Manhã &#8211; </span><a href="https://open.spotify.com/episode/6yt01FNc0VG3sQq0xl8zgx?go=1&amp;sp_cid=3adf2b9fbd03c824d6e7e641b96e648f&amp;utm_source=embed_player_p&amp;utm_medium=desktop&amp;nd=1&amp;dlsi=187f707c588142ef"><span style="font-weight: 400">A IA em debate no Congresso</span></a></li>
<li><span style="font-weight: 400">[Análise Técnica] </span><a href="https://www.dataprivacybr.org/a-construcao-da-legislacao-de-inteligencia-artificial-no-brasil-analise-tecnica-do-texto-que-sera-votado-no-plenario-do-senado-federal/"><span style="font-weight: 400">A construção da legislação de Inteligência Artificial no Brasil: análise técnica do texto que será votado no Plenário do Senado Federal</span></a></li>
<li><span style="font-weight: 400">[Matéria] Fortune &#8211; </span><a href="https://fortune.com/2025/02/11/paris-ai-action-summit-ai-safety-sidelined-economic-opportunity-promoted/"><span style="font-weight: 400">The Paris AI Action Summit was a fork in the road—but whether the chosen path leads to prosperity or disaster remains unclear</span></a></li>
<li><span style="font-weight: 400">[Matéria] </span><a href="https://direitosnarede.org.br/2024/06/18/projeto-de-lei-n-2338-2023/"><span style="font-weight: 400">Projeto de Lei n. 2338/2023: Por uma regulação de Inteligência Artificial que defenda direitos!</span></a></li>
<li><span style="font-weight: 400">[Relatório] </span><a href="https://assets.publishing.service.gov.uk/media/679a0c48a77d250007d313ee/International_AI_Safety_Report_2025_accessible_f.pdf"><span style="font-weight: 400">International AI Safety Report </span></a></li>
<li><span style="font-weight: 400">[Livro] </span><a href="https://www.pucpress.com.br/publicacoes/pre-lancamento-a-etica-da-inteligencia-artificial-principios-desafios-e-oportunidades/"><span style="font-weight: 400">A Ética da Inteligência Artificial: Princípios, Desafios e Oportunidades</span></a></li>
</ul>
<p>O post <a href="https://mariaceciliagomes.com.br/regulacao-de-ia-no-brasil-e-no-mundo-o-que-aconteceu-no-1o-semestre-de-2025/">Regulação de IA no Brasil e no mundo: o que aconteceu no 1º semestre de 2025?</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://mariaceciliagomes.com.br/regulacao-de-ia-no-brasil-e-no-mundo-o-que-aconteceu-no-1o-semestre-de-2025/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
