Arnaldo Niskier

Inteligência humana e artificial

Publicado em 23/07/2024 às 05:00
Arnaldo Niskier.webp

A Academia das Ciências de Lisboa propôs-se a estudar o tema “Da Inteligência Humana à Inteligência Artificial”. O assunto foi tratado no jornal “Diário de Notícias” de Portugal, do ponto de vista ético, sob a orientação da estudiosa Maria do Céu Patrão Neves. Ela afirmou que a investigação é cada vez mais exigente, sobretudo em termos de financiamento.

Estamos diante da presença inequívoca da inovação tecnológica. Muitos empregos terminarão ou serão substituídos por outros. Precisamos de uma legislação que acompanhe esse avanço, como já está acontecendo na Europa, com a salvaguarda necessária de princípios éticos. Na verdade, são quatro princípios: o respeito pela autonomia humana, a prevenção de danos, a equidade e a explicidade. Assim se chega à fundamentação ética.

Um sistema de IA é capaz não só de armazenar e manipular dados, mas também consegue adquirir, representar e trabalhar conhecimento. A ética não serve para impor limites.

É muito importante que a decisão final terá de ser humana. Isso está em toda a relação ético-jurídica sobre a IA. O ponto de partida e de chegada tem de ser humano. Assim se deve garantir o princípio da explicabilidade.

Chegamos a um ponto onde se questiona se os robôs poderão vir a ter estatuto moral e jurídico.

Já temos um robô humanóide na Arábia Saudita com personalidade jurídica. Existem robôs humanóides em instituições para a terceira idade, até mesmo em restaurantes.

Existe uma ética das máquinas nos homens que usam inteligência artificial. Por isso, devemos ampliar a discussão pública de natureza ética da IA e é o que procuramos fazer. Só mesmo na China essa discussão está atrasada, embora existam preocupações com o assunto.

Devemos reconhecer que o Google, por exemplo, com seus textos, vídeos e áudios pode deixar a internet em ruínas. Uma pesquisa por imagens do escritor Machado de Assis mostra uma versão branca do primeiro presidente da Academia Brasileira de Letras. Isso, entretanto, não faz sentido.