INTELIGÊNCIA ARTIFICIAL

Extinção da humanidade?: IA eleva bioterrorismo a novo e mais grave patamar

Por Sputinik Brasil Publicado em 14/05/2026 às 18:20
© Foto / Pixabay

À Sputnik Brasil, especialista alerta para a necessidade de criar mecanismos para impedir que a IA seja usada de forma mal-intencionada na produção de agentes biológicos, mas frisa que na esfera privada essa ameaça é quase impossível de rastrear, o que torna a tecnologia passível de ser usada por grupos terroristas.

Centro do debate da evolução tecnológica, a Inteligência Artificial (IA) ameaça protagonizar uma releitura do bioterrorismo, aumentando exponencialmente o risco de a prática ser perpetrada por agentes não estatais.

Cientistas vêm alertando sobre experimentos nos quais modelos avançados de IA, quando questionados, são capazes de fornecer informações sobre como criar um novo patógeno letal e transformá-lo em uma arma para um ataque terrorista de grande escala. Segundo eles, o potencial da tecnologia para o bioterrorismo coloca o mundo em direção a uma era de incerteza sobre ameaças infecciosas.

O alerta é dado em um momento que a IA é adaptada para projetar e executar experimentos biológicos, reduzindo o custo de produção em até 40%. Em fevereiro, por exemplo, a OpenAI e a empresa de biotecnologia Ginkgo Bioworks anunciaram que o modelo principal da OpenAI, o GPT-5, havia projetado e executado 36.000 experimentos biológicos de forma autônoma.

O risco da relação entre IA e o desenvolvimento de patógenos não pode ser descartado e torna urgente o debate sobre medidas de contenção, conforme aponta à Sputnik Brasil, a especialista em bioinformática Raquel Minardi, professora associada do Departamento de Ciência da Computação, coordenadora do Programa Interunidades de Pós-Graduação em Bioinformática da Universidade Federal de Minas Gerais (UFMG) e ex-membro afiliado da Academia Brasileira de Ciências (2019-2023).

Minardi destaca que a IA já é usada em pesquisas voltadas para o melhoramento genético, de fármacos e de biomoléculas em geral, com um objetivo benéfico.

"Por exemplo, eu já trabalhei com desenvolvimento de enzimas que são mutantes e que são mais capazes de fazer uma reação química de interesse, por exemplo, para a produção de biocombustíveis. A gente tem publicações sobre isso. Então, é possível produzir uma proteína mutante que foi otimizada por inteligência artificial ou por outras técnicas diversas, como algoritmos genéticos."

Ela acrescenta que, a partir disso, é possível "modelar essa proteína computacionalmente, simular e depois produzir em laboratório". Ela aponta que é possível utilizar a IA para otimizar, melhorar um patógeno ou mesmo produzir um novo, baseado em outros existentes, o que traz a exigência de "estabelecimento de novas legislações para realmente ter uma vigilância desse tipo de abordagem".

Minardi afirma que, em teoria, o risco de eclosão de uma nova pandemia desencadeada por patógenos produzidos por IA é possível, e cita o vírus Sars-CoV-2, causador da COVID-19.

"Computacionalmente, é possível pegar um vírus desses, que já se sabe que infecta o ser humano, e é possível testar várias mutações, até com base nas que já existiram naturalmente, e tentar produzir um vírus mais letal, mais transmissivo do que o anterior", afirma a especialista.

Em sua visão, a possibilidade de um vírus criado por IA causar a extinção da humanidade, como alertam alguns cientistas, "beira um pouco a ficção científica", mas, do ponto de vista do terrorismo, é possível que a IA se torne uma ferramenta, assim como outras técnicas desenvolvidas anteriormente pela ciência, que "podem ser usadas para o bem e para o mal".

"Então, sim, a gente tem técnicas hoje muito potentes, não só na inteligência artificial, mas na bioinformática, que é a área que eu trabalho. Eu trabalho hoje com a parte de bioinformática estrutural, em que a gente faz modelos computacionais de proteínas, simulações dessas proteínas, interagindo com outras moléculas, a gente consegue prever o funcionamento, o mecanismo dessas moléculas de uma forma muito acurada até."

Minardi acrescenta que esses algoritmos e modelos permitem desenvolver muitas ferramentas úteis para a saúde, para a biotecnologia em geral, mas também podem ser usadas com objetivos mal-intencionados.

Ela afirma que a busca por maneiras de tornar a IA mais segura não caminha na mesma velocidade da corrida para aprimorar a tecnologia. Enquanto o desenvolvimento da inovação corre tão rápido que se torna difícil de acompanhar, "as discussões sobre regulamentação, diretrizes e ética normalmente vêm atrás".

"As pessoas começam a usar essas tecnologias com muita empolgação, elas vão se disseminando rapidamente, largamente, vão se espalhando. E aí algumas pessoas começam depois a pensar: 'Olha, mas isso pode causar um problema'. E aí começam essas discussões. Então, normalmente, essas discussões, elas vão ser muito mais lentas", observa a especialista.

Como impedir que a IA seja usada para o bioterrorismo?

Minardi enfatiza que impedir que as tecnologias sejam usadas para produzir armas biológicas é algo complexo porque, além das discussões éticas, envolve questões de vigilância que são complicadas, sobretudo em um mundo globalizado e com legislações diversas.

"Veja que agora que a gente está vendo esse tipo de legislação chegar em áreas já muito importantes, por exemplo, como o uso das redes sociais por crianças, que é uma coisa super antiga já. Agora que a gente está vendo algum efeito de legislação sobre isso."

No caso da IA, afirma a especialista, são necessárias leis que regulamentem, restrinjam ou consigam fazer uma vigilância do acesso a ferramentas de biotecnologia e IA, especialmente aquelas que têm uma característica mais generativa de criar agentes patogênicos.

"Digamos que alguém tenta modelar um vírus em um servidor que é de uma ferramenta de IA, isso teria que ser detectado por essa ferramenta. Então, teria que existir uma legislação que faça com que essas empresas que produzem, desenvolvem essas ferramentas e disponibilizam, que elas sejam obrigadas a fazer esse tipo de vigilância", afirma.

A especialista frisa que isso envolve um trabalho conjunto internacional, com compartilhamento de informações e participação de agentes públicos e pessoas com conhecimentos técnicos no debate, além de desenvolvimento de novas tecnologias para neutralizar esse tipo de ameaça.

No entanto, na esfera privada ou em um país que não tenha nenhum tipo de vigilância nesse tema, a ameaça permanece, se tornando quase impossível de rastrear.

"Fazer esse tipo de vigilância não é uma coisa simples. Uma pessoa, um grupo mal-intencionado pode investir em um supercomputador, colocar ele em casa, fora da Internet, instalar os algoritmos, os modelos na máquina, usar e fazer tudo isso. Desenvolver um novo patógeno, ter um laboratório para testar. Então, se for realmente um grupo terrorista, acho que se torna quase impossível identificar esse tipo de coisa", conclui.