Uma imagem vale mais que mil palavras? IA generativa desafia a realidade e levanta preocupações
Especialistas avaliam impactos e tendências da disseminação de vídeos hiper-realistas

Foto: Reprodução
Um vídeo produzido por Inteligência Artificial (IA) que mostra um canguru de apoio emocional impedido de embarcar em um avião com a sua dona movimentou as redes sociais recentemente. Na filmagem, o animal silvestre aparece ao lado da mulher dentro de um aeroporto, tem uma passagem aérea na mão e usa acessório similar ao de cães-guias. Embora a cena tenha a cara de um filme de comédia, muitos internautas não só acreditaram, mas se sensibilizaram com a situação. A jornalista Mariana Santana, 24, chegou a compartilhar o vídeo em um grupo de colegas de trabalho.
“Acho que vemos as coisas tão rápido no Instagram que eu não raciocinei sobre como aquilo seria muito difícil de acontecer. Mas a cara dele foi tão fofa, fiquei tão sensibilizada, que mandei no grupo. Pouco tempo depois, olhando ainda no Instagram, vi uma pessoa falando que era Inteligência Artificial e comuniquei aos colegas. Acho que foi a primeira vez que caí nisso sem nem pensar, fiquei me sentindo muito boba depois. É um pouco assustador”, disse.
O vídeo em questão marca uma virada de chave dos conteúdos sintéticos disseminados nas redes, visto que é a primeira vez que algo desse tipo viraliza organicamente sem que as pessoas tenham se dado conta da falsidade do conteúdo. Na última edição do Fantástico, outros exemplos de vídeos hiper-realistas foram levantados, como o da apresentadora fictícia de um programa de TV, Marisa Maiô, para ilustrar os impactos da realidade e ficção digital cada vez mais indistinguíveis.
Para Thomaz Côrte Real, advogado especializado em Direito Digital, a facilidade com que imagens e vídeos gerados por essa tecnologia podem se confundir com conteúdos reais levanta preocupações sobre uso indevido de imagem, impactos reputacionais e distorção de percepções públicas. “Esses temas estão, inclusive, no centro do Projeto de Lei nº 2338/2023, que atualmente tramita na Câmara dos Deputados e propõe regras para o uso ético e seguro da IA no Brasil, com destaque para medidas de transparência, rotulagem e responsabilização”, destacou o especialista.
Programa de TV fictício com apresentadora Marisa Maiô virou febre na web. Foto: reprodução/Instagram
Segundo Thomaz, embora o ordenamento jurídico brasileiro já ofereça instrumentos eficazes para responsabilizar o uso indevido de imagem, o dano moral e a distorção de fatos, com base no Código Civil, no Marco Civil da Internet e na Lei de Direitos Autorais, é preciso fortalecer a capacidade institucional, das ferramentas tecnológicas e da conscientização pública para lidar com o fenômeno. “Também é essencial que plataformas digitais adotem medidas preventivas, como rotulagem de conteúdos sintéticos, sistemas de verificação e educação midiática, de modo a mitigar os riscos associados à circulação de conteúdos sintéticos que possam impactar negativamente a percepção pública da realidade”, completa.
Os dois lados da IA
“Temos o desafio de não cair na demonização da tecnologia, mas também não cair no olhar romântico”. Foi assim que Matheus Soares, coordenador de conteúdo do Aláfia Lab e coordenador do Desinformante, descreveu o desafio contemporâneo de equilibrar os bons e maus usos da tecnologia. Na esfera da comunicação política, por exemplo, Mattheus cita que o Observatório de IA do Desinformante, que identificou utilização benéfica para análise de candidaturas, mapeamento de desinformação em redes sociais e na produção de campanhas de candidatos com baixos orçamentos. Por outro lado, a Inteligência Artificial também potencializa a disseminação de notícias falsas, a exemplo dos deep fakes.
Ainda segundo Matheus, a contenção dos efeitos negativos da IA diz respeito à contenção da “desinformação tradicional”. “Para conter os efeitos da desinformação, não existe apenas uma saída, é preciso um esforço coletivo de diversas frentes. Com a Inteligência Artificial, é parecido. Existem diversas frentes, técnicas sociais e políticas para tentar conter os efeitos dessa desinformação potencializada com IA, como o uso dela própria para identificar os conteúdos sintéticos e as marcas d’águas”, afirma Soares.
Na avaliação do especialista, a tendência é que as IAs generativas sejam cada vez mais utilizadas para campanhas desinformativas. “No final do ano temos aí a COP 30, é possível que a pauta ambiental comece a aparecer nessas campanhas desinformativas com uso de IA para potencializar essa desinformação, além dos golpes através de deep fakes, que já estão acontecendo”.