<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Você pesquisou por relatÓrio de impacto - Maria Cecília</title>
	<atom:link href="https://mariaceciliagomes.com.br/search/relat%C3%93rio+de+impacto/feed/rss2/" rel="self" type="application/rss+xml" />
	<link>https://mariaceciliagomes.com.br/</link>
	<description></description>
	<lastBuildDate>Sun, 06 Jul 2025 13:46:08 +0000</lastBuildDate>
	<language>pt-BR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>Regulação de IA no Brasil e no mundo: o que aconteceu no 1º semestre de 2025?</title>
		<link>https://mariaceciliagomes.com.br/regulacao-de-ia-no-brasil-e-no-mundo-o-que-aconteceu-no-1o-semestre-de-2025/</link>
					<comments>https://mariaceciliagomes.com.br/regulacao-de-ia-no-brasil-e-no-mundo-o-que-aconteceu-no-1o-semestre-de-2025/#respond</comments>
		
		<dc:creator><![CDATA[Maria Cecília]]></dc:creator>
		<pubDate>Mon, 02 Jun 2025 14:48:19 +0000</pubDate>
				<category><![CDATA[Dados]]></category>
		<category><![CDATA[Dados Pessoais]]></category>
		<category><![CDATA[dados pessoais]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[Inteligência Artificial]]></category>
		<category><![CDATA[Regulação]]></category>
		<guid isPermaLink="false">https://mariaceciliagomes.com.br/?p=762</guid>

					<description><![CDATA[<p>Se 2024 foi um ano de discussões intensas sobre regulação da inteligência artificial, 2025 já começou com decisões e mudanças significativas no campo. A crescente implementação de sistemas autônomos e modelos generativos fez com que governos ao redor do mundo adotassem novas diretrizes para equilibrar inovação e responsabilidade. Mas quais foram os principais avanços nesses [&#8230;]</p>
<p>O post <a href="https://mariaceciliagomes.com.br/regulacao-de-ia-no-brasil-e-no-mundo-o-que-aconteceu-no-1o-semestre-de-2025/">Regulação de IA no Brasil e no mundo: o que aconteceu no 1º semestre de 2025?</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400">Se 2024 foi um ano de discussões intensas sobre regulação da inteligência artificial, 2025 já começou com decisões e mudanças significativas no campo. A crescente implementação de sistemas autônomos e modelos generativos fez com que governos ao redor do mundo adotassem novas diretrizes para equilibrar inovação e responsabilidade. Mas quais foram os principais avanços nesses primeiros meses do ano?</span></p>
<p><span style="font-weight: 400">Enquanto a </span><a href="https://commission.europa.eu/news/ai-act-enters-force-2024-08-01_pt"><span style="font-weight: 400">União Europeia dá os últimos retoques no AI Act</span></a><span style="font-weight: 400"> e os </span><a href="https://www.theverge.com/news/629831/subpoena-ai-gop-political-bias"><span style="font-weight: 400">Estados Unidos intensificam investigações sobre o uso de IA em grandes plataformas</span></a><span style="font-weight: 400">, o Brasil avança na criação de um marco regulatório próprio. Mas será que estamos no caminho certo?</span></p>
<h2><b>Brasil: avanços e desafios no PL de IA</b><span style="font-weight: 400"> </span></h2>
<p><span style="font-weight: 400">No Brasil, o Projeto de Lei sobre Inteligência Artificial (Projeto de Lei n° 2338, de 2023) avançou no Congresso, tendo sido apresentado na Câmara dos Deputados em 17 de março de 2025.  O PL propõe um </span><a href="https://www.dataprivacybr.org/a-construcao-da-legislacao-de-inteligencia-artificial-no-brasil-analise-tecnica-do-texto-que-sera-votado-no-plenario-do-senado-federal/"><span style="font-weight: 400">marco regulatório para o desenvolvimento e uso da IA no País</span></a><span style="font-weight: 400"> e visa estabelecer padrões de transparência, responsabilidade e segurança, assegurando que as aplicações de IA respeitem os direitos fundamentais e promovam o bem-estar social.</span></p>
<p><span style="font-weight: 400">A proposta do PL estabelece a criação do </span><a href="https://www.gov.br/anpd/pt-br/assuntos/noticias/anpd-e-formalizada-como-coordenadora-do-sistema-nacional-de-inteligencia-artificial"><span style="font-weight: 400">Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), formalizando a Autoridade Nacional de Proteção de Dados (ANPD) como coordenadora</span></a><span style="font-weight: 400">. Esse sistema é integrado pela coordenação (ANPD); por Autoridades setoriais (Anatel, Anvisa, Anac, Aneel, Banco Central, etc); Conselho Permanente de Cooperação Regulatória de Inteligência Artificial (CRIA); e pelo Comitê de Especialistas e Cientistas de Inteligência Artificial (CECIA). Vale destacar que </span><a href="https://desinformante.com.br/pl-ia-aprovado-senado/"><span style="font-weight: 400">o projeto sofreu cortes em pontos como direitos na proteção dos trabalhadores em relação a sistemas de IA</span></a><span style="font-weight: 400">, mas ainda contempla direitos mínimos, medidas de governança e sistemas de fiscalização para proteger os trabalhadores dos impactos negativos da IA.</span></p>
<p><span style="font-weight: 400">Um dos pontos mais relevantes de destaque é a participação social e de entidades dos mais diversos setores da sociedade. Tem-se construído, a partir dos debates multissetoriais, uma regulamentação equilibrada e dialógica, sem abrir mão da inovação ou da segurança jurídica. </span></p>
<p><span style="font-weight: 400">Além disso, em 11 de março de 2025, o Conselho Nacional de Justiça (CNJ) publicou a </span><b>Resolução nº 615</b><span style="font-weight: 400">, estabelecendo diretrizes para o desenvolvimento, uso e governança de soluções de IA nos tribunais brasileiros.</span></p>
<p><b>Principais diretrizes da Resolução nº 615:</b></p>
<ul>
<li style="font-weight: 400"><b>Governança e Auditoria:</b><span style="font-weight: 400"> Os tribunais devem implementar processos internos que garantam a segurança e a transparência das soluções de IA, prevenindo erros e vieses discriminatórios. ​Confira mais detalhes em artigo de Laura Schertel Mendes e Rodrigo Badaró no </span><a href="https://www.conjur.com.br/2025-mar-15/inteligencia-artificial-na-justica-brasileira-desafios-eticos-e-caminhos-normativos/"><span style="font-weight: 400">Consultor Jurídico. </span></a></li>
<li style="font-weight: 400"><b>Classificação de Riscos:</b><span style="font-weight: 400"> A </span><a href="https://sintse.tse.jus.br/documentos/2025/Mar/14/diario-da-justica-eletronico-cnj/resolucao-no-616-de-11-de-marco-de-2025-altera-a-resolucao-cnj-no-468-2022-que-dispoe-sobre"><span style="font-weight: 400">resolução </span></a><span style="font-weight: 400">define critérios para classificar soluções de IA conforme seu nível de risco, com regulamentações mais rigorosas para aplicações consideradas de alto risco, como sistemas de identificação biométrica para monitoramento de comportamento. </span></li>
<li style="font-weight: 400"><b>Proibições Específicas:</b><span style="font-weight: 400"> É vedado o uso de IA para avaliar traços de personalidade ou comportamentais de indivíduos com o intuito de prever crimes ou a probabilidade de reincidência, bem como para classificar pessoas com base em atributos sociais ou comportamentais na avaliação de direitos e méritos judiciais. ​</span></li>
</ul>
<p><span style="font-weight: 400">Em maio de 2025 ocorreu </span><a href="https://www.camara.leg.br/noticias/1160383-comissao-que-vai-analisar-projeto-sobre"><span style="font-weight: 400">a instauração da comissão especial</span></a><span style="font-weight: 400">, presidida pela deputada Luisa Canziani e com relatoria do deputado Aguinaldo Ribeiro. No dia 27 de maio de 2025 aconteceu a </span><a href="https://www.youtube.com/watch?v=KKoXZAZTKjU"><span style="font-weight: 400">Segunda reunião extraordinária da Comissão Especial</span></a><span style="font-weight: 400"> para a apresentação do </span><a href="https://www2.camara.leg.br/atividade-legislativa/comissoes/comissoes-temporarias/especiais/57a-legislatura/comissao-especial-sobre-inteligencia-artificial-pl-2338-23/outros-documentos/plano-de-trabalho-apresentado-em-27-05-25"><span style="font-weight: 400">plano de trabalho</span></a><span style="font-weight: 400"> que foi aprovado com aditamentos (inclusão de novos especialistas e ciclos de debates específicos por setor, por exemplo). A próxima reunião foi agendada para o dia 10 de junho e trata-se de realização de audiência pública e deliberação de requerimentos.</span></p>
<h2><b>União Europeia: a implementação do AI Act e AI Action Summit</b></h2>
<p><span style="font-weight: 400">Na Europa, o AI Act entrou em fase de implementação prática, com as primeiras diretrizes detalhadas para a classificação de risco dos sistemas de IA. As regras se tornaram ainda mais rigorosas para aplicações de alto risco, como por exemplo, reconhecimento facial em espaços públicos e sistemas preditivos na segurança pública. Empresas que não se adaptarem podem enfrentar sanções financeiras significativas, o que tem levado </span><i><span style="font-weight: 400">startups</span></i><span style="font-weight: 400"> que atuam com esses tipos de sistemas, a repensar os seus modelos de negócio.</span></p>
<p><span style="font-weight: 400">A abordagem do AI Act segue a lógica de </span><b>classificação de risco</b><span style="font-weight: 400">, com regras mais rígidas para sistemas que podem impactar direitos fundamentais, como reconhecimento facial e decisões automatizadas no setor público.</span></p>
<p><span style="font-weight: 400">No entanto, algumas mudanças de última hora têm gerado críticas. Empresas de tecnologia pressionam para suavizar exigências, alegando que uma regulamentação excessiva pode impor barreiras à inovação e ao desenvolvimento. Já grupos de defesa de direitos digitais cobram regras mais duras, principalmente para a IA generativa, como o ChatGPT. O impasse está colocado: regular demais ou de menos pode gerar efeitos colaterais imprevistos.</span></p>
<p><span style="font-weight: 400">Ainda em âmbito Europeu, Paris sediou o </span><a href="https://www.elysee.fr/en/sommet-pour-l-action-sur-l-ia"><span style="font-weight: 400">AI Action Summit</span></a><span style="font-weight: 400"> em fevereiro de 2025, reunindo líderes globais para discutir estratégias e políticas relacionadas à IA. O evento contou com a presença de mais de 1.000 (mil) participantes de mais de 100 (cem) países, incluindo chefes de Estado, representantes de organizações internacionais, acadêmicos e membros da sociedade civil. O principal foco do Summit foi explorar as oportunidades econômicas proporcionadas pela IA, embora questões de segurança e ética também tenham sido abordadas.</span></p>
<p><span style="font-weight: 400">O primeiro </span><a href="https://assets.publishing.service.gov.uk/media/679a0c48a77d250007d313ee/International_AI_Safety_Report_2025_accessible_f.pdf"><span style="font-weight: 400">Relatório Internacional de Segurança de IA</span></a><span style="font-weight: 400"> orientou as </span><a href="https://www.gov.uk/government/news/first-international-ai-safety-report-to-inform-discussions-at-ai-action-summit"><span style="font-weight: 400">discussões no evento</span></a><span style="font-weight: 400">. Publicado em 29 de janeiro de 2025 pelo governo do Reino Unido, contando com a colaboração de 96 (noventa e seis) especialistas em IA, incluindo representantes indicados por 33 (trinta e três) países e organizações intergovernamentais, o relatório explora os avanços e riscos da inteligência artificial ao redor do mundo na atualidade.</span></p>
<p><span style="font-weight: 400">Durante o Summit, a União Europeia anunciou o lançamento do </span><a href="https://ec.europa.eu/commission/presscorner/detail/en/ip_25_467"><span style="font-weight: 400">InvestAI</span></a><span style="font-weight: 400">, uma iniciativa de €200 (duzentos) bilhões destinada a impulsionar o desenvolvimento de IA no continente. Este investimento inclui €20 (vinte) bilhões para a construção de “gigafábricas” de IA, visando treinar modelos de grande escala e complexidade. Além disso, uma coalizão de mais de 60 (sessenta) empresas europeias lançou a EU AI Champions Initiative, planejando investir €150 (cento e cinquenta) bilhões em negócios e infraestruturas relacionadas à IA nos próximos cinco anos.</span></p>
<p><span style="font-weight: 400">No entanto, o Summit também evidenciou </span><a href="https://fortune.com/2025/02/11/paris-ai-action-summit-ai-safety-sidelined-economic-opportunity-promoted/"><span style="font-weight: 400">divergências significativas entre as nações</span></a><span style="font-weight: 400">. </span><a href="https://www.theguardian.com/technology/2025/feb/11/us-uk-paris-ai-summit-artificial-intelligence-declaration"><span style="font-weight: 400">Estados Unidos e Reino Unido optaram por não assinar a declaração conjunta</span></a><span style="font-weight: 400"> que visava promover uma IA inclusiva e sustentável, alegando preocupações com possíveis impactos na inovação e na segurança nacional. O vice-presidente dos EUA, JD Vance, enfatizou uma abordagem mais otimista e menos regulatória em relação à IA, alinhada à política &#8220;America First&#8221; do presidente Donald Trump.</span></p>
<p><span style="font-weight: 400">Essas diferenças destacam os desafios na busca por uma governança global unificada para a IA. Enquanto a União Europeia e outras nações defendem uma regulamentação mais rigorosa para garantir o uso ético e seguro da tecnologia, países como os EUA e o Reino Unido trazem um balanço expressando receios de que regulamentações excessivas possam sufocar a inovação e a competitividade.</span></p>
<h2><b>Estados Unidos: mudança de governo e ordens executivas</b><span style="font-weight: 400"> </span></h2>
<p><span style="font-weight: 400">Em janeiro de 2025, o presidente Donald Trump </span><a href="https://www.estadao.com.br/link/cultura-digital/trump-revoga-lei-que-tentava-mitigar-riscos-da-inteligencia-artificial-nprei/?srsltid=AfmBOophlzwYs6WTdArUSJfYFkS_o94j_TxFKLnHuEnUprkrxcUXAKRF"><span style="font-weight: 400">assinou uma ordem executiva revogando as regulamentações estabelecidas por seu antecessor</span></a><span style="font-weight: 400">, Joe Biden, relacionadas à Inteligência Artificial. Trump considerou essas regulamentações &#8220;perigosas&#8221;, argumentando que impediam a inovação ao impor controles governamentais desnecessários. A nova diretriz busca promover sistemas de IA “livres de vieses ideológicos” e “manter a liderança global dos EUA nessa tecnologia”. </span></p>
<p><span style="font-weight: 400">Além disso, Trump instruiu seus assessores a desmantelar políticas anteriores. A nova ordem estabelece a criação de um Plano de Ação em Inteligência Artificial dentro de 180 dias, visando reforçar a dominância global dos EUA em IA e promover a competitividade econômica, segurança nacional e o bem-estar humano. </span></p>
<p><span style="font-weight: 400">A OpenAI enfatizou a importância de investimentos externos e regulamentações de apoio para manter a liderança dos EUA em IA em relação à China. Em seu </span><a href="https://openai.com/global-affairs/openais-economic-blueprint/"><span style="font-weight: 400">&#8220;Economic Blueprint&#8221;</span></a><span style="font-weight: 400">, a empresa destacou a necessidade de investimentos em chips, dados e energia, além de regulamentações nacionais imediatas. A OpenAI alertou que US$175 (cento e setenta e cinco) bilhões em fundos globais de investimento em IA poderiam migrar para a China se não fossem atraídos pelos EUA, potencialmente elevando a posição global chinesa. </span></p>
<h2><b>China: controle e padronização estatal</b><span style="font-weight: 400"> </span></h2>
<p><span style="font-weight: 400">Enquanto isso, a República Popular da China avançou em sua regulação com novas diretrizes obrigando empresas a submeter modelos de IA generativa à revisão estatal antes de lançá-los ao mercado &#8211; A Administração do Ciberespaço da China, a Comissão Nacional de Desenvolvimento e Reforma, o Ministério da Educação, o Ministério da Ciência e Tecnologia, o Ministério da Indústria e Tecnologia da Informação, o Ministério da Segurança Pública e a Administração Nacional de Rádio e Televisão divulgaram em conjunto as Medidas Provisórias para a Gestão de Serviços de Inteligência Artificial Generativa. Trata-se da primeira regulamentação administrativa sobre a gestão de serviços de IA Generativa da China, que </span><a href="https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-china"><span style="font-weight: 400">entrou em vigor em 15 de agosto de 2023 e tem sido implementada durante o ano de 2025, inclusive com novas regras entrando em vigor no mês de setembro deste ano</span></a><span style="font-weight: 400">.</span></p>
<p><a href="https://www.terra.com.br/noticias/deepseek-r1-o-que-se-sabe-sobre-ia-lancada-pela-china,15b50a93a67e99abf8d83627dbb07f9acttlizlc.html#google_vignette"><span style="font-weight: 400">Em janeiro de 2025, a DeepSeek lançou seu primeiro aplicativo de chatbot gratuito</span></a><span style="font-weight: 400">, baseado no modelo DeepSeek-R1, disponível para iOS e Android. Em menos de três semanas, o aplicativo superou o ChatGPT como o mais baixado na App Store dos Estados Unidos, </span><a href="https://www.infomoney.com.br/mercados/queda-de-us-465-bilhoes-da-nvidia-devido-a-deepseek-e-maior-da-historia-do-mercado/"><span style="font-weight: 400">provocando uma queda de 13% (U$465 bilhões de queda) nas ações da Nvidia</span></a><span style="font-weight: 400">. Esse sucesso foi descrito como &#8220;uma revolução na IA&#8221;, marcando o início de &#8220;uma nova era de política arriscada em matéria de IA&#8221;. </span></p>
<p><span style="font-weight: 400">A DeepSeek, oficialmente conhecida como Hangzhou DeepSeek Artificial Intelligence Basic Technology Research Co., Ltd., é uma empresa chinesa de inteligência artificial especializada no desenvolvimento de modelos de linguagem de grande porte (LLMs) de código aberto. Fundada em 2023 por Liang Wenfeng, cofundador do fundo de hedge High-Flyer, a empresa está sediada em Hangzhou, Zhejiang. </span></p>
<p><span style="font-weight: 400">O modelo DeepSeek-R1 destacou-se por oferecer desempenho comparável a outros LLMs contemporâneos, como o GPT-4 da OpenAI, mas com custos significativamente menores. Enquanto </span><a href="https://www.forbes.com/sites/katharinabuchholz/2024/08/23/the-extreme-cost-of-training-ai-models/"><span style="font-weight: 400">o treinamento do GPT-4 custou cerca de US$100 milhões</span></a><span style="font-weight: 400"> em 2023, </span><a href="https://www.bbc.com/portuguese/articles/cdd9m3rp271o"><span style="font-weight: 400">o DeepSeek-R1 foi desenvolvido com um investimento estimado de US$6 milhões</span></a><span style="font-weight: 400">, utilizando apenas um décimo da potência computacional necessária para modelos similares. Esses avanços ocorreram em meio às sanções dos Estados Unidos que visavam restringir a capacidade da China de desenvolver sistemas avançados de IA. </span></p>
<h2><b>Iniciativas dignas de nota ao redor do mundo</b><span style="font-weight: 400"> </span></h2>
<p><span style="font-weight: 400">É impossível capturar, em um único texto, tudo o que está acontecendo no universo de debates sobre o tema da inteligência artificial. Ainda assim, algumas iniciativas merecem destaque por sinalizarem caminhos distintos – e, muitas vezes, ousados – na tentativa de regular, impulsionar ou redirecionar os rumos da IA ao redor do globo.</span></p>
<p><b>Índia:</b><span style="font-weight: 400"> Em janeiro de 2025, o governo indiano anunciou a criação do </span><a href="https://indiaai.gov.in/article/india-takes-the-lead-establishing-the-indiaai-safety-institute-for-responsible-ai-innovation"><span style="font-weight: 400">Instituto de Segurança em IA para Inovação Responsável em IA (IndiaAI Safety Institute for Responsible AI Innovation)</span></a><span style="font-weight: 400"> para garantir a aplicação ética e segura de modelos de IA. O instituto promoverá pesquisas alinhadas à diversidade social, econômica, cultural e linguística do país, utilizando conjuntos de dados locais e colaborando com instituições acadêmicas e do setor privado.</span></p>
<p><b>Singapura:</b><span style="font-weight: 400"> Em maio de 2025, Singapura apresentou o </span><a href="https://aisafetypriorities.org/"><span style="font-weight: 400">&#8220;Consenso de Singapura sobre Prioridades Globais de Pesquisa em Segurança de IA&#8221;</span></a><span style="font-weight: 400"> durante a </span><a href="https://www.wired.com/story/singapore-ai-safety-global-consensus/"><span style="font-weight: 400">Conferência Internacional sobre Representações de Aprendizado (ICLR)</span></a><span style="font-weight: 400">. A iniciativa visa promover a colaboração internacional na pesquisa de segurança de modelos de IA avançados, enfatizando o desenvolvimento seguro de modelos e o controle de comportamentos de IA.</span></p>
<p><b>Arábia Saudita:</b><span style="font-weight: 400"> Em maio de 2025, </span><a href="https://www.poder360.com.br/poder-tech/principe-saudita-lanca-a-humain-empresa-estatal-de-ia/"><span style="font-weight: 400">a Arábia Saudita lançou a empresa de inteligência artificial Humain</span></a><span style="font-weight: 400">, com o objetivo de desenvolver centros de dados avançados e fortalecer a infraestrutura tecnológica do país. A iniciativa faz parte da estratégia do governo para diversificar sua economia e se tornar um ator global no setor de IA. No mesmo mês, a Humain anunciou uma </span><a href="https://www.cnnbrasil.com.br/economia/nvidia-e-humain-anunciam-parceria-para-fabricas-de-ia-na-arabia-saudita/"><span style="font-weight: 400">parceria com a Nvidia para o desenvolvimento de “fábricas de IA”</span></a><span style="font-weight: 400"> na Arábia Saudita, com o intuito de posicionar o país como uma referência no setor no Oriente Médio.</span></p>
<h2><b>E o que vem por aí?</b><span style="font-weight: 400"> </span></h2>
<p><span style="font-weight: 400">O primeiro semestre de 2025 sinalizou que a regulação da IA está avançando de forma acelerada e não homogênea pelo mundo. Países membros da União Europeia têm implementado estruturas regulatórias abrangentes, como o AI Act, que estabelece classificações de risco e diretrizes rigorosas para o uso de IA. </span></p>
<p><span style="font-weight: 400">Já nos Estados Unidos, apesar da existência de debates intensos, a abordagem tem sido mais fragmentada, com investigações específicas e ordens executivas que refletem mudanças das políticas internas. </span></p>
<p><span style="font-weight: 400">Em contraste, muitas nações (majoritariamente do Sul Global) enfrentam desafios como infraestrutura limitada, falta de expertise técnica e recursos financeiros restritos, o que dificulta a elaboração e a implementação de regulamentações eficazes. </span></p>
<p><span style="font-weight: 400">A ausência de uma abordagem coordenada globalmente contribui para disparidades na governança da IA em diferentes jurisdições, aumentando o risco de lacunas regulatórias que podem ser exploradas por atores mal-intencionados.</span></p>
<p><span style="font-weight: 400">O desafio continua sendo encontrar um ponto de equilíbrio entre a necessidade de regulação e a busca por um ambiente favorável à inovação. Os próximos meses prometem novas discussões e ajustes legislativos que podem redefinir os rumos dessa temática. Estaremos acompanhando de perto.</span></p>
<h2><b>Para os curiosos de plantão</b></h2>
<p><span style="font-weight: 400">Abaixo deixamos algumas indicações de materiais para aprofundar o tema desenvolvido por aqui:</span></p>
<ul>
<li><span style="font-weight: 400">[Podcast] Podcast Café da Manhã &#8211; </span><a href="https://open.spotify.com/episode/6yt01FNc0VG3sQq0xl8zgx?go=1&amp;sp_cid=3adf2b9fbd03c824d6e7e641b96e648f&amp;utm_source=embed_player_p&amp;utm_medium=desktop&amp;nd=1&amp;dlsi=187f707c588142ef"><span style="font-weight: 400">A IA em debate no Congresso</span></a></li>
<li><span style="font-weight: 400">[Análise Técnica] </span><a href="https://www.dataprivacybr.org/a-construcao-da-legislacao-de-inteligencia-artificial-no-brasil-analise-tecnica-do-texto-que-sera-votado-no-plenario-do-senado-federal/"><span style="font-weight: 400">A construção da legislação de Inteligência Artificial no Brasil: análise técnica do texto que será votado no Plenário do Senado Federal</span></a></li>
<li><span style="font-weight: 400">[Matéria] Fortune &#8211; </span><a href="https://fortune.com/2025/02/11/paris-ai-action-summit-ai-safety-sidelined-economic-opportunity-promoted/"><span style="font-weight: 400">The Paris AI Action Summit was a fork in the road—but whether the chosen path leads to prosperity or disaster remains unclear</span></a></li>
<li><span style="font-weight: 400">[Matéria] </span><a href="https://direitosnarede.org.br/2024/06/18/projeto-de-lei-n-2338-2023/"><span style="font-weight: 400">Projeto de Lei n. 2338/2023: Por uma regulação de Inteligência Artificial que defenda direitos!</span></a></li>
<li><span style="font-weight: 400">[Relatório] </span><a href="https://assets.publishing.service.gov.uk/media/679a0c48a77d250007d313ee/International_AI_Safety_Report_2025_accessible_f.pdf"><span style="font-weight: 400">International AI Safety Report </span></a></li>
<li><span style="font-weight: 400">[Livro] </span><a href="https://www.pucpress.com.br/publicacoes/pre-lancamento-a-etica-da-inteligencia-artificial-principios-desafios-e-oportunidades/"><span style="font-weight: 400">A Ética da Inteligência Artificial: Princípios, Desafios e Oportunidades</span></a></li>
</ul>
<p>O post <a href="https://mariaceciliagomes.com.br/regulacao-de-ia-no-brasil-e-no-mundo-o-que-aconteceu-no-1o-semestre-de-2025/">Regulação de IA no Brasil e no mundo: o que aconteceu no 1º semestre de 2025?</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://mariaceciliagomes.com.br/regulacao-de-ia-no-brasil-e-no-mundo-o-que-aconteceu-no-1o-semestre-de-2025/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Capítulo de livro &#8211; Influxos da LGPD no Direito Processual, Editora Revista dos Tribunais</title>
		<link>https://mariaceciliagomes.com.br/midia-publicacao/capitulo-de-livro/</link>
		
		<dc:creator><![CDATA[Maria Cecília]]></dc:creator>
		<pubDate>Thu, 29 Feb 2024 17:18:34 +0000</pubDate>
				<guid isPermaLink="false">https://mariaceciliagomes.com.br/?post_type=midia_publicacao&#038;p=713</guid>

					<description><![CDATA[<p>Capítulo de livro: &#8220;A essencialidade do relatório de impacto à proteção de dados pessoais na conformação de políticas públicas: Uma análise do Caso do IBGE no STF&#8221;. Publicado em 29 de fevereiro de 2024 na obra “Influxos da LGPD no Direito Processual” pela Editora Revista dos Tribunais. Link da obra A obra “Influxos da LGPD [&#8230;]</p>
<p>O post <a href="https://mariaceciliagomes.com.br/midia-publicacao/capitulo-de-livro/">Capítulo de livro &#8211; Influxos da LGPD no Direito Processual, Editora Revista dos Tribunais</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><span>Capítulo de livro: &#8220;A essencialidade do relatório de impacto à proteção de dados pessoais na conformação de políticas públicas: Uma análise do Caso do IBGE no STF&#8221;. Publicado em 29 de fevereiro de 2024 na obra “Influxos da LGPD no Direito Processual” pela Editora Revista dos Tribunais.</span></p>
<p><a href="https://www.livrariart.com.br/lgpd-volume-1-1-edicao-9786526017586/p?order=OrderByReleaseDateDESC">Link da obra</a></p>
<p><span>A obra “Influxos da LGPD no Direito Processual” trata da efetividade de direitos e deveres fundamentais, em diversas perspectivas pertinentes ao campo da proteção de dados e à ciência processual. </span><span>O diferencial consiste no fato de há uma lacuna doutrinária no tratamento do intercâmbio entre o direito fundamental à proteção de dados e o Direito Processual. O âmbito jurídico contemporâneo enfrenta desafios advindos da era exponencial, onde o volume, variedade e velocidade da transmissão dos dados determinam a sociedade da informação e comunicação na qual estamos imersos. A grande quantidade de dados oportuniza o processamento de informações em larga escala, de modo que se faz necessário proteger os seus titulares dos influxos que tal tratamento e utilização podem conduzir, quando pensamos em direitos existenciais, como a personalidade, privacidade, honra e à dignidade da pessoa humana.</span><br />
<span></span></p>
<p><span>Nesse contexto de reconhecimento da proteção dos dados, em uma sociedade digital, um dos ramos do direito, o processual, igualmente vem sendo transformado e refundado em seus institutos. O livro busca, exatamente, contextualizar e conclamar o leitor a tomar conhecimento desses influxos que exsurgem da necessidade de promovermos a efetivação do direito fundamental à proteção dos dados pessoais, sob a perspectiva, igualmente, do processo. </span><span>Afinal, após a leitura dos capítulos que compõem a obra, a reflexão nos levará ao entendimento de que o direito fundamental à proteção de dados não se densifica, em larga medida, sem o anteparo do Direito Processual.</span></p>
<p>O post <a href="https://mariaceciliagomes.com.br/midia-publicacao/capitulo-de-livro/">Capítulo de livro &#8211; Influxos da LGPD no Direito Processual, Editora Revista dos Tribunais</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Entrevista TV Senado &#8211; Reconhecimento Facial em Aeroportos</title>
		<link>https://mariaceciliagomes.com.br/midia-publicacao/entrevista-tv-senado-reconhecimento-facial-em-aeroportos/</link>
		
		<dc:creator><![CDATA[Maria Cecília]]></dc:creator>
		<pubDate>Tue, 06 Jun 2023 22:13:47 +0000</pubDate>
				<guid isPermaLink="false">https://mariaceciliagomes.com.br/?post_type=midia_publicacao&#038;p=632</guid>

					<description><![CDATA[<p>Fui entrevistada pelo Programa Cidadania da TV Senado sobre reconhecimento facial em aeroportos. Foi uma conversa super legal, longa e com o objetivo de ser didática para explicar para à população brasileira o que é, quais são os tipos e como funcionam sistemas de reconhecimento facial em aeroportos. Cada vez mais tecnologias como essa são implementadas em [&#8230;]</p>
<p>O post <a href="https://mariaceciliagomes.com.br/midia-publicacao/entrevista-tv-senado-reconhecimento-facial-em-aeroportos/">Entrevista TV Senado &#8211; Reconhecimento Facial em Aeroportos</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><span>Fui entrevistada pelo Programa Cidadania da </span><a href="https://www.linkedin.com/company/tv-senado/" data-attribute-index="0" data-entity-type="MINI_COMPANY">TV Senado</a><span> sobre reconhecimento facial em aeroportos. Foi uma conversa super legal, longa e com o objetivo de ser didática para explicar para à população brasileira o que é, quais são os tipos e como funcionam sistemas de reconhecimento facial em aeroportos.</span></p>
<p><span>Cada vez mais tecnologias como essa são implementadas em aeroportos, mas sem haver a realização de relatórios de impacto, cumprimento do princípio da transparência e da responsabilização e prestação de contas.</span></p>
<p><span>Assim como há um problema sério sobre a base legal que respalda esse tratamento. Se é obrigatório passar pelo reconhecimento facial com o cartão de embarque ou com o passaporte, a base legal do consentimento não é aplicável. Ser obrigatório e usar o consentimento são duas palavras que não se encaixam numa frase. Deve haver uma adequação da base legal utilizada, bem como o cumprimento de todos os deveres e obrigações previstas na LGPD relativas ao tratamento de dados pessoais.</span></p>
<p><span>Falamos sobre a percepção cultural do que significa privacidade, e do falso dilema envolvendo segurança x privacidade. E que na minha percepção precisamos encontrar um equilíbrio entre garantir segurança e respeitar a privacidade de cada um em nossa sociedade.</span></p>
<p><span>Por fim me perguntaram o que significa cidadania para mim e eu respondi: “Cidadania para mim é poder exercer todos os direitos que estão garantidos no Estado Democrático de Direito, na Constituição, seja o direito à privacidade, seja o direito a proteção de dados, a liberdade de ir e vir. Pra mim cidadania é isso, é ter os meus direitos respeitados, e eu também respeitar os direitos de cada uma das pessoas, que faz parte dessa sociedade junto comigo”.</span></p>
<p><a href="https://www12.senado.leg.br/tv/programas/cidadania-1/2023/06/reconhecimento-facial-em-aeroportos-pode-violar-direito-a-protecao-de-dados-pessoais">https://www12.senado.leg.br/tv/programas/cidadania-1/2023/06/reconhecimento-facial-em-aeroportos-pode-violar-direito-a-protecao-de-dados-pessoais</a></p>
<p>O post <a href="https://mariaceciliagomes.com.br/midia-publicacao/entrevista-tv-senado-reconhecimento-facial-em-aeroportos/">Entrevista TV Senado &#8211; Reconhecimento Facial em Aeroportos</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Convergência Digital &#8211; Artigo: Aeroportos e o reconhecimento facial</title>
		<link>https://mariaceciliagomes.com.br/midia-publicacao/convergencia-digital-artigo-aeroportos-e-o-reconhecimento-facial/</link>
		
		<dc:creator><![CDATA[Maria Cecília]]></dc:creator>
		<pubDate>Tue, 16 May 2023 14:21:50 +0000</pubDate>
				<guid isPermaLink="false">https://mariaceciliagomes.com.br/?post_type=midia_publicacao&#038;p=628</guid>

					<description><![CDATA[<p>Publicado na Convergência Digital, acesse aqui. Volta e meia aparecem iniciativas levantando a bandeira do fim do uso de papel, ou de documentos físicos para o reconhecimento de pessoas. A migração da documentação em papel para a versão digital tem acontecido de forma gradual, como está sendo com a Carteira Nacional de Habilitação e o [&#8230;]</p>
<p>O post <a href="https://mariaceciliagomes.com.br/midia-publicacao/convergencia-digital-artigo-aeroportos-e-o-reconhecimento-facial/">Convergência Digital &#8211; Artigo: Aeroportos e o reconhecimento facial</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Publicado na Convergência Digital, <a href="https://www.convergenciadigital.com.br/Opiniao/Aeroportos-e-o-reconhecimento-facial-63227.html?UserActiveTemplate=site#:~:text=A%20defesa%20da%20substitui%C3%A7%C3%A3o%20do,menos%20acesso%20a%20recursos%20tecnol%C3%B3gicos">acesse aqui</a>.</p>
<p>Volta e meia aparecem iniciativas levantando a bandeira do fim do uso de papel, ou de documentos físicos para o reconhecimento de pessoas. A migração da documentação em papel para a versão digital tem acontecido de forma gradual, como está sendo com a Carteira Nacional de Habilitação e o que se espera que aconteça com o documento de identidade também.</p>
<p>Mais recentemente ganhou destaque a defesa do fim do passaporte de papel feita por representantes da Associação das Empresas de Transporte Aéreo (Iata) nas Américas. Segundo o argumento defendido na matéria “Setor aéreo quer aposentar passaporte de papel e adotar reconhecimento facial”, no jornal Folha de S. Paulo, o papel não serve mais por não ser sustentável, atrasar processos e gerar mais custos. A solução, defendem, é o uso de tecnologias de reconhecimento facial.</p>
<p>Uma discussão importante e recorrente entre pesquisadores e especialistas são os potenciais vieses cometidos pelas tecnologias de reconhecimento facial, como viés e imprecisão nos resultados. A defesa da substituição do passaporte pelo reconhecimento facial propõe o fim do documento físico, deixando o processo de verificação da identidade totalmente dependente da tecnologia.</p>
<p>Além disso, a proposta desconsidera o impacto dessa medida na população com menos acesso a recursos tecnológicos. Cerca de um a cada cinco brasileiros, sequer tem acesso à internet, conforme dados do Instituto Brasileiro de Geografia e Estatística (IBGE), e ainda existem pessoas que enfrentam dificuldade em usar essas tecnologias ou que não possuem interesse em fazer essa migração.</p>
<p>O que precisa ser destacado é a importância efetiva da implantação da tecnologia para o setor aéreo. A diminuição relevante do tempo gasto com o fluxo de pessoas nas aduanas permitirá que elas passem mais tempo em freeshops consumindo produtos. Essa é uma prática que muitos aeroportos ao redor do mundo vêm fazendo, inclusive um dos mais famosos nesse aspecto é o dos Emirados Árabes.</p>
<p>Portanto, antes que qualquer sistema de reconhecimento facial seja instalado, é preciso considerar e estudar os seus impactos. Esse tipo de proposição deve considerar os riscos e pensar: &#8211; É possível mitigá-los? &#8211; Existem outras opções disponíveis e quais são os riscos que elas apresentam?</p>
<p>Uma forma de iniciar essa discussão é pensar em elaborar um Relatório de Impacto a Proteção de Dados (RIPD) e trazer outros atores para a discussão. A conversa deve englobar mais órgãos da esfera pública, ter uma perspectiva multisetorial e evitar estar limitada a uma conversa apenas entre governo e empresas.</p>
<p>Seguindo essa premissa, é ideal que medidas que exijam outros recursos, como smartphones e conhecimento do uso de determinadas plataformas, sejam adotadas como alternativas e não como substitutas exclusivas.</p>
<p>Da mesma forma, a fim de preservar a sua privacidade, cada cidadão deve ter assegurado o seu direito de se recusar a utilizar o serviço de reconhecimento facial, bem como compreender a decisão automatizada que, por exemplo, pode negar acesso a essa pessoa no momento do check-in ou embarque.</p>
<p>A adoção de medidas de identificação de usuários de qualquer serviço público deve sempre ter como atributo fundamental a acessibilidade do maior número de pessoas, assim como, o movimento de inclusão, a fim de que todos possam exercer os seus direitos, desde o da privacidade até a liberdade de ir e vir quando se decide viajar de avião, por exemplo.</p>
<p>Por tudo isso, é evidente que o processo para adotar uma nova medida de identificação de cidadãos depende de muito mais estudo e análise, sobretudo em áreas tão importantes como aeroportos. Qualquer decisão mal calculada pode resultar na lesão e no cerceamento de direitos fundamentais, portanto, avaliar riscos, mitigá-los e resguardar direitos é o caminho mais seguro para a implementação desse tipo de tecnologia.</p>
<p>O post <a href="https://mariaceciliagomes.com.br/midia-publicacao/convergencia-digital-artigo-aeroportos-e-o-reconhecimento-facial/">Convergência Digital &#8211; Artigo: Aeroportos e o reconhecimento facial</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Convergência Digital &#8211; Multas para vazamentos de dados pessoais em limbo fiscalizatório</title>
		<link>https://mariaceciliagomes.com.br/midia-publicacao/convergencia-digital-multas-para-vazamentos-de-dados-pessoais-em-limbo-fiscalizatorio/</link>
		
		<dc:creator><![CDATA[Maria Cecília]]></dc:creator>
		<pubDate>Mon, 19 Dec 2022 14:28:52 +0000</pubDate>
				<guid isPermaLink="false">https://mariaceciliagomes.com.br/?post_type=midia_publicacao&#038;p=575</guid>

					<description><![CDATA[<p>Multas para vazamentos de dados pessoais em limbo fiscalizatório A penalidade equivalente a R$ 1,4 bilhão imposta à Meta (Facebook) pela Autoridade de Proteção de Dados da Irlanda (DPC, sigla em inglês) com base no GDPR, que é o Regulamento Geral de Proteção de dados da União Europeia, ainda é impraticável no Brasil. Essa realidade [&#8230;]</p>
<p>O post <a href="https://mariaceciliagomes.com.br/midia-publicacao/convergencia-digital-multas-para-vazamentos-de-dados-pessoais-em-limbo-fiscalizatorio/">Convergência Digital &#8211; Multas para vazamentos de dados pessoais em limbo fiscalizatório</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><a href="https://www.convergenciadigital.com.br/Opiniao/Multas-para-vazamentos-de-dados-pessoais-em-limbo-fiscalizatorio-62197.html">Multas para vazamentos de dados pessoais em limbo fiscalizatório</a></p>
<p>A penalidade equivalente a R$ 1,4 bilhão imposta à Meta (Facebook) pela Autoridade de Proteção de Dados da Irlanda (DPC, sigla em inglês) com base no GDPR, que é o Regulamento Geral de Proteção de dados da União Europeia, ainda é impraticável no Brasil. Essa realidade acontece mesmo com a Lei Geral de Proteção de Dados (LGPD) em vigor desde setembro de 2020, e com a Autoridade Nacional de Proteção de Dados (ANPD) criada em meados de 2019, e recentemente em outubro de 2022 tornada uma autarquia de regime especial, com autonomia não apenas decisória, mas também financeira.</p>
<p>A quantidade escandalosa e acelerada de falhas nos cuidados com os dados pessoais dos cidadãos ranqueia o Brasil entre alguns dos países com estruturas mais comprometidas em termos de segurança digital somadas as instituições públicas e privadas, apuraram pesquisas de empresas dedicadas ao tema. O incentivo para apontar esse tipo de problema ainda é escasso. A quantidade de incidentes reportados no canal de denúncias da ANPD é ínfima, na casa de 23 em média por mês em 2022. Portanto, ela recepciona os problemas, averigua, fiscaliza, recomenda procedimentos corretivos, mas ainda não tem sancionado empresas infratoras.</p>
<p>A ANPD indica que a solução para o limbo começará a partir das regras para a norma de dosimetria de sanções por violações a dados pessoais de cidadãos brasileiros. Se tudo correr como se planeja, isso acontecerá no final de fevereiro de 2023, quando deverá ser aprovada a norma. Mas, definir dosimetria significa somente quantificar penas conforme o perfil dos perpetradores. Aplicar é outra coisa. Para adicionar mais um elemento a esse contexto, a ANPD quer definir mais e melhor o regulamento de comunicação de incidentes. Isto é, a maneira como as empresas devem informar a autoridade e cidadãos sobre eventuais violações de seus dados pessoais. Para se ter uma ideia do quanto o tema é sensível, as multas previstas na LGPD podem chegar a 2% do faturamento da empresa ou até R$ 50 milhões por infração.</p>
<p>É importante que a ANPD tenha uma postura mais dura em relação aos processos administrativos e fiscalizatórios. Em várias declarações que foram dadas por membros da ANPD nos últimos dois anos, foi reiteradamente repetido que se iria concentrar esforços para conscientizar as organizações sobre a importância delas estarem em conformidade com a lei, seguindo a lógica da regulação responsiva. No entanto, várias notas técnicas produzidas pela autoridade provenientes de processos fiscalizatórios foram superficiais e não detalhadas ou completas. Por essa razão tem sido cobrado, especialmente por parte da sociedade civil, uma atuação mais dura da Autoridade, bem como uma maior transparência nos processos fiscalizatórios. Ou seja, que seja dada abertura aos documentos dos processos que envolvem grandes casos no Brasil, como foi o caso do WhatsApp por exemplo.</p>
<p>Parece haver dificuldades da ANPD em avançar com a norma de dosimetria por exemplo. E isso pode ser devido ao fato de que nos últimos dois anos de existência da ANPD, houve todo um processo de constituição da Autoridade, realocação de servidores de outros órgãos para trabalhar na ANPD, organização interna das coordenações etc. Assim como, houve um esforço concentrado e articulado para tornar a ANPD uma autarquia autônoma, o que só veio acontecer em outubro de 2022. Portanto, é uma Autoridade jovem que ainda está se constituindo e com a árdua missão de regulamentar um volume de temas enormes existentes na LGPD e que se aplicam a todos os setores da sociedade.</p>
<p>Agora que ela conquistou a sua autonomia, passando a ser uma autarquia de regime especial, ela terá mais condições de atuar em suas competências, que são supervisão, fiscalização e orientação. Assim como recentemente foi dada uma declaração de que a ANPD abrirá vagas para concursos a partir de 2024, o que dará a ela mais força de trabalho, com o aumento de servidores, para conseguir atender um país tão grande quanto o Brasil. Para se ter uma ideia, o Reino Unido que tem por volta de ¼ da população do Brasil tem na sua Autoridade de Proteção de Dados (ICO, sigla em inglês) um contingente de mil funcionários. Enquanto a ANPD possui por volta de 100 pessoas trabalhando na Autoridade em um país de 214 milhões de pessoas.</p>
<p>As preocupações para 2023 incluem ainda a proposta de agenda regulatória proposta 2023/2024, com 20 temas. Dentre eles, destaque-se o relatório de impacto de proteção de dados, que já estava na agenda 2021/2022 e que não teve seu processo de regulamentação finalizado, bem como também constam temas como Inteligência Artificial. Portanto, mesmo a ANPD aumentando seu corpo técnico ainda haverá imensa dificuldade de se conseguir cumprir com agenda tão extensa e com temas complexos como essa proposta pela Autoridade. E aí pode acontecer o que aconteceu neste ano, vários temas da agenda 2021/2022 foram para a agenda 2023/2024, e se não cumprirem com esta última, haverá um efeito dominó, o que não for cumprido nos próximos dois anos, pode entrar na agenda 2025/2026.</p>
<p>O post <a href="https://mariaceciliagomes.com.br/midia-publicacao/convergencia-digital-multas-para-vazamentos-de-dados-pessoais-em-limbo-fiscalizatorio/">Convergência Digital &#8211; Multas para vazamentos de dados pessoais em limbo fiscalizatório</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>LGPD em Movimento</title>
		<link>https://mariaceciliagomes.com.br/midia-publicacao/lgpd-em-movimento/</link>
		
		<dc:creator><![CDATA[Maria Cecília]]></dc:creator>
		<pubDate>Fri, 28 Jan 2022 19:31:32 +0000</pubDate>
				<guid isPermaLink="false">https://mariaceciliagomes.com.br/?post_type=midia_publicacao&#038;p=438</guid>

					<description><![CDATA[<p>Em setembro de 2020, o Data Privacy Brasil deu início à série de webinários “LGPD em Movimento”, que teve como principal objetivo contribuir com o debate público qualificado sobre temas particularmente críticos da interpretação da LGPD. De lá para cá, foram realizados oito webinários sobre os seguintes temas: i) Transferência Internacional de Dados; ii) LGPD [&#8230;]</p>
<p>O post <a href="https://mariaceciliagomes.com.br/midia-publicacao/lgpd-em-movimento/">LGPD em Movimento</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><span style="font-weight: 400;">Em setembro de 2020, o Data Privacy Brasil deu início à série de webinários “LGPD em Movimento”, que teve como principal objetivo contribuir com o debate público qualificado sobre temas particularmente críticos da interpretação da LGPD. De lá para cá, foram realizados oito webinários sobre os seguintes temas: i) Transferência Internacional de Dados; ii) LGPD e crianças e adolescentes; iii) LGPD e a base legal de execução do contrato; iv) LGPD e decisões automatizadas; v) LGPD e os direitos dos titulares; vi) Legítimo Interesse; vii) Responsabilidade civil na LGPD e; viii) Relatórios de Impacto à Proteção de Dados.</span></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">Além das transmissões, que foram sempre abertas e ao vivo, foram realizados também uma série de ensaios que resumem cada webinário e pontuam as principais reflexões trazidas pelos participantes. E, como presente relativo ao Dia da Proteção de Dados, o Data Privacy Brasil oferece a Coleção LGPD em Movimento! Ela traz cada um dos ensaios revisados e acrescidos de referências e comentários sobre eventuais novidades acerca dos temas discutidos ou casos concretos mencionados pelos painelistas à época de cada webinário. </span><b>O tema do Relatórios de Impacto à Proteção de Dados está indicado nas págs. 46/51.</b><span style="font-weight: 400;"> Esperamos que aproveite a leitura.</span></p>
<p>O post <a href="https://mariaceciliagomes.com.br/midia-publicacao/lgpd-em-movimento/">LGPD em Movimento</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Seminário de Privacidade &#8211; Relatório de Impacto à Proteção de Dados Pessoais &#8211; CGI</title>
		<link>https://mariaceciliagomes.com.br/midia-publicacao/seminario-de-privacidade-relatorio-de-impacto-a-protecao-de-dados-pessoais-cgi/</link>
		
		<dc:creator><![CDATA[Maria Cecília]]></dc:creator>
		<pubDate>Wed, 17 Nov 2021 17:48:08 +0000</pubDate>
				<guid isPermaLink="false">https://mariaceciliagomes.com.br/?post_type=midia_publicacao&#038;p=359</guid>

					<description><![CDATA[<p>﻿</p>
<p>O post <a href="https://mariaceciliagomes.com.br/midia-publicacao/seminario-de-privacidade-relatorio-de-impacto-a-protecao-de-dados-pessoais-cgi/">Seminário de Privacidade &#8211; Relatório de Impacto à Proteção de Dados Pessoais &#8211; CGI</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><iframe title="YouTube video player" src="https://www.youtube.com/embed/L0aqmNHUV-Y" width="560" height="400" frameborder="0" allowfullscreen="allowfullscreen"><span data-mce-type="bookmark" style="display: inline-block; width: 0px; overflow: hidden; line-height: 0;" class="mce_SELRES_start">﻿</span></iframe></p>
<p>O post <a href="https://mariaceciliagomes.com.br/midia-publicacao/seminario-de-privacidade-relatorio-de-impacto-a-protecao-de-dados-pessoais-cgi/">Seminário de Privacidade &#8211; Relatório de Impacto à Proteção de Dados Pessoais &#8211; CGI</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Minha Pesquisa</title>
		<link>https://mariaceciliagomes.com.br/minha-pesquisa/</link>
		
		<dc:creator><![CDATA[Maria Cecília]]></dc:creator>
		<pubDate>Sat, 06 Nov 2021 14:14:26 +0000</pubDate>
				<guid isPermaLink="false">https://mariaceciliagomes.com.br/?page_id=133</guid>

					<description><![CDATA[<p>&#160; &#160;</p>
<p>O post <a href="https://mariaceciliagomes.com.br/minha-pesquisa/">Minha Pesquisa</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>&nbsp;</p>
<p>&nbsp;</p>
<p>O post <a href="https://mariaceciliagomes.com.br/minha-pesquisa/">Minha Pesquisa</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Sobre</title>
		<link>https://mariaceciliagomes.com.br/sobre/</link>
		
		<dc:creator><![CDATA[Maria Cecília]]></dc:creator>
		<pubDate>Sat, 06 Nov 2021 12:53:15 +0000</pubDate>
				<guid isPermaLink="false">https://mariaceciliagomes.com.br/?page_id=116</guid>

					<description><![CDATA[<p>O post <a href="https://mariaceciliagomes.com.br/sobre/">Sobre</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>O post <a href="https://mariaceciliagomes.com.br/sobre/">Sobre</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Risco e relatório de impacto na LGPD &#8211; OAB RS</title>
		<link>https://mariaceciliagomes.com.br/midia-publicacao/risco-e-relatorio-de-impacto-na-lgpd-oab-rs/</link>
		
		<dc:creator><![CDATA[Maria Cecília]]></dc:creator>
		<pubDate>Tue, 14 Sep 2021 17:52:55 +0000</pubDate>
				<guid isPermaLink="false">https://mariaceciliagomes.com.br/?post_type=midia_publicacao&#038;p=361</guid>

					<description><![CDATA[<p>O post <a href="https://mariaceciliagomes.com.br/midia-publicacao/risco-e-relatorio-de-impacto-na-lgpd-oab-rs/">Risco e relatório de impacto na LGPD &#8211; OAB RS</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><iframe title="YouTube video player" src="https://www.youtube.com/embed/8c0C6h6H7ls" width="560" height="400" frameborder="0" allowfullscreen="allowfullscreen"></iframe></p>
<p>O post <a href="https://mariaceciliagomes.com.br/midia-publicacao/risco-e-relatorio-de-impacto-na-lgpd-oab-rs/">Risco e relatório de impacto na LGPD &#8211; OAB RS</a> apareceu primeiro em <a href="https://mariaceciliagomes.com.br">Maria Cecília</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
