A Ascensão dos Deepfakes: Especialista da USP Alerta sobre Vídeos de IA Ultra-Realistas e os Desafios da Desinformação

A inteligência artificial (IA) está revolucionando a maneira como vídeos são criados, gerando conteúdos cada vez mais indistinguíveis da realidade. Esse avanço tecnológico, embora impressionante, levanta sérias preocupações sobre a disseminação de informações falsas e os impactos profundos na percepção da verdade. O professor Fernando Osório, do Instituto de Ciências Matemáticas e de Computação de São Carlos da USP e pesquisador do Centro de Inteligência Artificial da USP, avalia que o processo de criação de vídeos pela IA passa por um contínuo e rápido refinamento, tornando a distinção entre o real e o artificial cada vez mais complexa.

O Refinamento Contínuo da Criação por IA

O processo de geração de vídeos por IA é sofisticado e se inicia com um “prompt” – um comando que pode ser textual, uma imagem ou até mesmo um áudio. A partir dessa entrada, a inteligência artificial, munida de técnicas avançadas como o deep learning (aprendizado profundo) e as redes adversárias, trabalha para refinar o produto final. “Você dá um prompt textual. A partir desse texto que descreve a imagem, ele gera. Como ele conhece certos elementos, ele vai tentar verificar, ao gerar a imagem, se aquele elemento está bem representado lá dentro. E ele vai refinando”, explica Osório. Ele detalha que as redes adversárias, em particular, atuam em uma espécie de “competição” interna: um componente tenta gerar o conteúdo mais realista, enquanto o outro tenta identificar falhas, forçando a IA a aprimorar constantemente sua capacidade de criar imagens e vídeos cada vez mais convincentes e livres de imperfeições.

A Diversificação, os Bancos de Dados e o Risco de Estereótipos

A evolução da IA também trouxe a diversificação dos tipos de recursos criados. Se antes as IAs se limitavam a gerar imagens a partir de textos, hoje a tecnologia é “multimodal”, trabalhando de forma integrada com texto, imagem e áudio para produzir ou modificar conteúdos audiovisuais. Contudo, a qualidade, a veracidade e a imparcialidade do resultado dependem criticamente do vasto banco de dados que alimenta a IA. O professor Osório aponta um problema fundamental: quando um prompt é muito genérico, como “gere uma imagem de uma pessoa andando em uma rua”, a IA preencherá as lacunas (cor de pele, tipo de cabelo, vestuário) com base nos padrões e na predominância de seu modelo de treinamento. Isso pode levar à repetição e amplificação de estereótipos presentes nos dados com os quais a IA foi alimentada, gerando representações que não refletem a diversidade do mundo real.

A Ameaça Crescente dos Deepfakes Ultra-Realistas

O dano mais emergente e preocupante da utilização ilimitada da IA é a disseminação de informações falsas através dos deepfakes – vídeos falsos tão bem elaborados que se tornam quase impossíveis de distinguir da realidade sem ferramentas específicas. Osório alerta veementemente: “Quando a gente chega no vídeo, esse recurso é o mais complexo de tudo, porque o vídeo, se ele é muito bem feito, a pessoa tende a incorporar aquilo como uma realidade”. Ele recorda que, no início, as IAs geravam imagens com erros notáveis, como um número incorreto de dedos, facilitando a detecção. No entanto, em um período de um a três anos, a tecnologia evoluiu dramaticamente. Hoje, é muito mais difícil detectar falhas visuais. Os erros agora são mais sutis, como comportamentos fisicamente impossíveis (uma pessoa flutuando ou caminhando sobre a água), mas o realismo é tal que muitas pessoas chegam a “criar uma memória de vida” de um momento que nunca existiu, evidenciando o poder enganoso dessas criações.

Mecanismos de Controle, Detecção e a Responsabilidade das Big Techs

Para mitigar os riscos dessa tecnologia, o professor Osório enfatiza a importância fundamental da limitação e de mecanismos de filtragem. A IA possui a capacidade de entender o conteúdo que está sendo criado e, assim, poderia bloquear a geração de material impróprio – como conteúdo sexual, imagens de pessoas famosas sem consentimento ou a representação de atividades ilegais. No entanto, a implementação efetiva desses filtros depende diretamente das grandes empresas de tecnologia (big techs) que desenvolvem e disponibilizam essas IAs. Osório critica a inércia: “É por isso que as big techs querem ganhar vendendo a ilegalidade e não querem gastar filtrando e proibindo a ilegalidade. Ou querem, justamente, fazer uma coisa boba, fingindo que estão tomando alguma atitude, para que depois alguém ganhe, talvez eles mesmos, dinheiro com a ferramenta que elimina a possibilidade de detecção do fake”.

A identificação de conteúdos gerados por IA, sejam eles textuais ou audiovisuais, é um desafio complexo. Embora existam ferramentas de detecção, a própria IA também avança em métodos para disfarçar sua origem. O professor menciona que algumas empresas tentam usar “caracteres escondidos”, mas essa abordagem é frágil, pois são facilmente removíveis. A solução mais promissora e ideal, segundo Osório, são as marcas d’água invisíveis. Diferentemente dos ícones visíveis, essas marcas são códigos discretamente embutidos no arquivo que uma máquina pode identificar. “O que você não vê, mas que está lá dentro, codificado, que uma máquina identifica. Isso é o ideal, porque aí eu tenho como, usando uma ferramenta, identificar essa imagem ou esse vídeo que deixou uma assinatura, uma marca d’água, de que foi gerado por um computador”, conclui, ressaltando a urgência de ferramentas robustas para garantir a integridade da informação na era digital.

Fonte: jornal.usp.br

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *