Nikolas Ferreira critica filha de Gilmar Mendes por projeto sobre IA, mas recua
O deputado federal Nikolas Ferreira (PL-MG) publicou na última sexta-feira, 5, em sua conta no X (antigo Twitter) críticas a um projeto da lei que regulamenta a inteligência artificial (IA) e à advogada Laura Schertel Mendes, filha do ministro do Supremo Tribunal Federal (STF) Gilmar Mendes. Um dia depois, em mensagem na mesma plataforma, o parlamentar voltou a atrás.
"Citei a filha do Gilmar Mendes tão simplesmente pelo fato dela ter sido relatora do anteprojeto na Comissão de juristas. Meu intuito, em nenhum momento foi imputar a ela qualquer conduta conotativa, mas tão somente informei que o texto do anteprojeto foi apresentado por ela", escreveu. O Estadão tenta localizar a advogada para comentar as declarações do deputado.
Na primeira postagem, Nikolas afirmou que o Senado quer aprovar o conteúdo no "apagar das luzes", referindo-se ao recesso parlamentar do meio do ano. Laura Mendes, que é presidente da Comissão de Direito Digital da Ordem dos Advogados do Brasil (OAB), foi relatora do texto na Comissão de Juristas criada pela Casa para regulação da IA.
"O que ninguém te contou é que o texto foi redigido pela filha do Gilmar Mendes e abre a porteira para a regulação das redes sociais por canetada do Executivo, sem passar pelo Congresso", disse o deputado.
Nikolas afirmou que a proposta é positiva para a gestão do atual presidente da República, Luiz Inácio Lula da Silva (PT), por prever que sistemas de alto risco fiquem sob vigilância do Poder Executivo, que poderá abrir processos administrativos contra infratores virtuais. "Sabe o que isso quer dizer, não vai precisar de PL das Fake News. Eles ganham no tapetão, sem necessidade de passar pelo Congresso."
O projeto deve ser votado pela Comissão Temporária Sobre Inteligência Artificial (CTIA) do Senado na sessão desta terça-feira, 9, às 10h. O texto propõe a criação de faixas reguladoras para a IA segundo o grau de perigo à sociedade, que são divididos em risco excessivo, alto risco ou não estar em nenhuma das classificações.
Em atividades consideradas de risco excessivo, como armas autônomas ou câmeras públicas para identificar pessoas, não será permitido utilizar tecnologias de inteligência artificial. Em outras de alto risco, como veículos autônomos ou sistemas médicos auxiliares para o diagnóstico, a tecnologia será permitida com restrições.