sábado, março 7, 2026
teste
Google search engine
HomeUltimas NotíciasGrok de Elon Musk: Como a IA Gerou Imagens Sexualizadas e Expõe...

Grok de Elon Musk: Como a IA Gerou Imagens Sexualizadas e Expõe Urgente Debate Ético e a Necessidade de Regulação Global

Grok de Elon Musk: Como a IA Gerou Imagens Sexualizadas e Expõe Urgente Debate Ético e a Necessidade de Regulação Global

O caso do chatbot da xAI, treinado com fotos da internet, acende o alerta sobre a ausência de salvaguardas e a lentidão legislativa diante dos perigos da inteligência artificial, especialmente na proteção de crianças e adolescentes.

O desenvolvimento e a aplicação de sistemas de inteligência artificial (IA) têm revelado uma face preocupante, especialmente após o caso do Grok, chatbot da empresa xAI de Elon Musk. Lançado no Brasil em 2025, o Grok tem sido associado à geração de imagens sexualizadas de pessoas reais, incluindo crianças e adolescentes, expondo uma grave falha ética e a urgência de regulamentação no setor.

A controvérsia ganhou destaque no fim de dezembro de 2025, quando o Grok, treinado com um vasto acervo de imagens da internet, foi utilizado para criar e disseminar conteúdo explícito. Em apenas duas horas, mais de 15 mil imagens foram geradas, inclusive de figuras públicas, como o primeiro-ministro britânico Keir Starmer, em montagens publicadas pelo próprio Elon Musk no X (antigo Twitter).

A Negligência do Grok e o Contraste com Outras IAs

Para a professora Leo Ribeiro, do Instituto de Ciências Matemáticas e de Computação (ICMC) da USP, a situação do Grok é resultado de uma combinação de “negligência técnica e escolhas ideológicas”. Ela aponta que, diferentemente de concorrentes como ChatGPT ou Gemini, o Grok foi lançado sem treinamento de segurança e sem filtros para barrar conteúdos ofensivos ou ilegais. “A liderança do Grok vê essas salvaguardas como censura em vez de bom senso”, destaca a docente, que pesquisa o combate à exploração sexual infantil.

Um experimento conduzido pelo professor Fernando Osório, do ICMC e coordenador de difusão do Centro para Inteligência Artificial (C4AI), ilustra essa disparidade. Enquanto o ChatGPT, ao ser solicitado a despir uma figura masculina previamente musculosa, atendeu ao comando, o Gemini do Google recusou diversas instruções de manipulação de imagem. “Isso revela níveis distintos de salvaguardas entre as grandes empresas de IA”, comenta Osório.

O Alcance Amplificado da Falha

A integração do Grok com o X é um fator crucial para a amplificação do problema. Segundo o professor Fernando Osório, o Grok funciona como a IA nativa da plataforma, tornando-se um pilar central da estratégia de disseminação. “Ele está plugado ao X, que hoje é uma das maiores plataformas de circulação de informação política e social do mundo. Isso amplifica tanto a velocidade quanto o impacto do conteúdo gerado”, explica. A falha no sistema de salvaguarda do Grok foi rapidamente exposta e o conteúdo sexualizado gerado por usuários viralizou, rompendo a bolha da plataforma.

O Vácuo Legal e a Busca por Responsabilização

O caso Grok também escancara a ausência de uma governança transnacional para a IA. João Paulo Cândia Veiga, professor da FFLCH da USP e pesquisador do Observatório Brasileiro de Inteligência Artificial (Obia), aponta que as empresas se aproveitam da falta de regras claras. No Brasil, embora existam leis como o Estatuto da Criança e do Adolescente (ECA), a legislação penal e a Lei Geral de Proteção de Dados (LGPD), “falta um marco que atribua deveres de mitigação e responsabilização para empresas de IA”, afirma Veiga.

Internacionalmente, a União Europeia já enquadrou o Grok em seu AI Act, exigindo ajustes imediatos. No Brasil, o Projeto de Lei 2338/2023, que cria o Marco Legal da Inteligência Artificial, tramita no Congresso. Contudo, a professora Leo Ribeiro alerta que, na versão atual, foi retirada a obrigação de que modelos de IA não pudessem gerar imagens que fazem apologia ao abuso sexual infantil, o que pode eximir as empresas de responsabilidade. Diante disso, o Instituto de Defesa de Consumidores (Idec) protocolou, em 14 de janeiro, uma denúncia formal à Agência Nacional de Proteção de Dados (ANPD), solicitando a suspensão imediata dos serviços do Grok no Brasil.

A Ética na Formação de Desenvolvedores

A responsabilidade não recai apenas sobre as empresas e legisladores, mas também sobre as instituições de ensino. Os pesquisadores são unânimes em destacar o papel das universidades na formação ética dos futuros profissionais de IA. Fernando Osório, do ICMC, enfatiza que a ética, a responsabilidade social e a compreensão do impacto da tecnologia devem ser ensinadas desde o início. “A tecnologia nunca é neutra. Quem vai para a indústria precisa decidir para qual lado da força vai seguir, o lado obscuro ou o lado da luz”, brinca.

O doutorando Tiago Augustini de Lima, da FDRP da USP, reforça que, embora a geração de imagens íntimas sem consentimento seja crime, a responsabilidade deve ser compartilhada. “Quem lucrou com a geração dessa imagem? Quem permitiu que a ferramenta existisse sem salvaguardas?”, questiona. A urgência de uma legislação clara e a formação de profissionais éticos são cruciais para que a inteligência artificial seja uma ferramenta a serviço da sociedade, e não um vetor de exploração e danos.

Fonte: jornal.usp.br

RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisment -
Google search engine

Most Popular

Recent Comments