• Home/
  • Notícias/
  • Tecnologia /
  • Uma imagem vale mais que mil palavras? IA generativa desafia a realidade e levanta preocupações

Uma imagem vale mais que mil palavras? IA generativa desafia a realidade e levanta preocupações

Especialistas avaliam impactos e tendências da disseminação de vídeos hiper-realistas

Por Inara Almeida
Ás

Atualizado
Uma imagem vale mais que mil palavras? IA generativa desafia a realidade e levanta preocupações

Foto: Reprodução

Um vídeo produzido por Inteligência Artificial (IA) que mostra um canguru de apoio emocional impedido de embarcar em um avião com a sua dona movimentou as redes sociais recentemente. Na filmagem, o animal silvestre aparece ao lado da mulher dentro de um aeroporto, tem uma passagem aérea na mão e usa acessório similar ao de cães-guias. Embora a cena tenha a cara de um filme de comédia, muitos internautas não só acreditaram, mas se sensibilizaram com a situação. A jornalista Mariana Santana, 24, chegou a compartilhar o vídeo em um grupo de colegas de trabalho.

“Acho que vemos as coisas tão rápido no Instagram que eu não raciocinei sobre como aquilo seria muito difícil de acontecer. Mas a cara dele foi tão fofa, fiquei tão sensibilizada, que mandei no grupo. Pouco tempo depois, olhando ainda no Instagram, vi uma pessoa falando que era Inteligência Artificial e comuniquei aos colegas. Acho que foi a primeira vez que caí nisso sem nem pensar, fiquei me sentindo muito boba depois. É um pouco assustador”, disse.

O vídeo em questão marca uma virada de chave dos conteúdos sintéticos disseminados nas redes, visto que é a primeira vez que algo desse tipo viraliza organicamente sem que as pessoas tenham se dado conta da falsidade do conteúdo. Na última edição do Fantástico, outros exemplos de vídeos hiper-realistas foram levantados, como o da apresentadora fictícia de um programa de TV, Marisa Maiô, para ilustrar os impactos da realidade e ficção digital cada vez mais indistinguíveis.

Para Thomaz Côrte Real, advogado especializado em Direito Digital, a facilidade com que imagens e vídeos gerados por essa tecnologia podem se confundir com conteúdos reais levanta preocupações sobre uso indevido de imagem, impactos reputacionais e distorção de percepções públicas. “Esses temas estão, inclusive, no centro do Projeto de Lei nº 2338/2023, que atualmente tramita na Câmara dos Deputados e propõe regras para o uso ético e seguro da IA no Brasil, com destaque para medidas de transparência, rotulagem e responsabilização”, destacou o especialista.


Programa de TV fictício com apresentadora Marisa Maiô virou febre na web. Foto: reprodução/Instagram
 

Segundo Thomaz, embora o ordenamento jurídico brasileiro já ofereça instrumentos eficazes para responsabilizar o uso indevido de imagem, o dano moral e a distorção de fatos, com base no Código Civil, no Marco Civil da Internet e na Lei de Direitos Autorais, é preciso fortalecer a capacidade institucional, das ferramentas tecnológicas e da conscientização pública para lidar com o fenômeno. “Também é essencial que plataformas digitais adotem medidas preventivas, como rotulagem de conteúdos sintéticos, sistemas de verificação e educação midiática, de modo a mitigar os riscos associados à circulação de conteúdos sintéticos que possam impactar negativamente a percepção pública da realidade”, completa.

Os dois lados da IA

“Temos o desafio de não cair na demonização da tecnologia, mas também não cair no olhar romântico”. Foi assim que Matheus Soares, coordenador de conteúdo do Aláfia Lab e coordenador do Desinformante, descreveu o desafio contemporâneo de equilibrar os bons e maus usos da tecnologia. Na esfera da comunicação política, por exemplo, Mattheus cita que o Observatório de IA do Desinformante, que identificou utilização benéfica para análise de candidaturas, mapeamento de desinformação em redes sociais e na produção de campanhas de candidatos com baixos orçamentos. Por outro lado, a Inteligência Artificial também potencializa a disseminação de notícias falsas, a exemplo dos deep fakes.

Ainda segundo Matheus, a contenção dos efeitos negativos da IA diz respeito à contenção da “desinformação tradicional”. “Para conter os efeitos da desinformação, não existe apenas uma saída, é preciso um esforço coletivo de diversas frentes. Com a Inteligência Artificial, é parecido. Existem diversas frentes, técnicas sociais e políticas para tentar conter os efeitos dessa desinformação potencializada com IA, como o uso dela própria para identificar os conteúdos sintéticos e as marcas d’águas”, afirma Soares.

Na avaliação do especialista, a tendência é que as IAs generativas sejam cada vez mais utilizadas para campanhas desinformativas. “No final do ano temos aí a COP 30, é possível que a pauta ambiental comece a aparecer nessas campanhas desinformativas com uso de IA para potencializar essa desinformação, além dos golpes através de deep fakes, que já estão acontecendo”.

 

Comentários

Os comentários são de responsabilidade exclusiva de seus autores e não representam a opinião deste site. Se achar algo que viole os termos de uso, denuncie:redacao@fbcomunicacao.com.br
*Os comentários podem levar até 1 minutos para serem exibidos

Faça seu comentário

Nome é obrigatório
E-mail é obrigatório
E-mail inválido
Comentário é obrigatório
É necessário confirmar que leu e aceita os nossos Termos de Política e Privacidade para continuar.
Comentário enviado com sucesso!
Erro ao enviar comentário. Tente novamente mais tarde.