Sites que criam imagens de nudez com IA continuam operando no Brasil

Sites que usam IA para criar imagens de nudez continuam em operação, usando infraestruturas de grandes empresas de tecnologia sem autorização.
Atualizado há 5 dias atrás
Sites que criam imagens de nudez com IA continuam operando no Brasil
IA cria nudez sem autorização, ainda ativa em grandes plataformas tecnológicas. (Imagem/Reprodução: Tecmundo)
Resumo da notícia
    • Sites que criam imagens indevidas com IA continuam ativos, apesar da ilegalidade da prática no Brasil.
    • Você pode estar exposto a esse conteúdo ao navegar na internet ou ao usar plataformas digitais.
    • Esses sites representam uma ameaça à privacidade e à segurança digital de indivíduos.
    • A prática gera debates sobre o uso ético da IA e o combate a atividades ilegais na internet.
CONTINUA DEPOIS DA PUBLICIDADE

A inteligência artificial (IA) tem sido usada de formas que preocupam, e uma delas são os sites de “nudificar”. Essas páginas criam imagens de nudez de pessoas usando fotos reais e IA, tudo sem autorização. O pior é que essa prática segue crescendo e até conta com um apoio, mesmo que indireto, de empresas de tecnologia bem grandes.

Uma pesquisa recente do site Indicator trouxe mais detalhes sobre esse cenário. Os resultados são alarmantes: esses sites são muitos, geram bastante dinheiro e ainda usam serviços de hospedagem, login e pagamento de companhias que, em teoria, não deveriam compactuar com isso. É uma situação complexa que exige atenção de todos.

O mercado de montagens com IA

O estudo analisou 85 sites que oferecem o serviço de remover roupas de pessoas em fotos com a ajuda da IA. A pesquisa coletou informações sobre a estrutura e o modelo de negócios dessas plataformas, revelando um mercado digital controverso. Muitos se perguntam se a IA pode ser humanizada, mas nesse caso, a questão é outra.

CONTINUA DEPOIS DA PUBLICIDADE

Sessenta e duas dessas páginas usam serviços de hospedagem ou entrega de conteúdo de empresas como Cloudflare e Amazon. Isso mostra como as grandes infraestruturas da internet podem ser exploradas para atividades ilegais. É um desafio para essas empresas monitorar e coibir o mau uso de seus sistemas.

O login rápido via Google está disponível em 53 dos sites verificados. Para conseguir isso, os administradores dessas páginas utilizam URLs intermediárias. Essa tática é usada para enganar os sistemas de cadastro e obter a aprovação da gigante de buscas, contornando as políticas de uso.

Várias plataformas oferecem opções de pagamento de terceiros, incluindo Coinbase, PayPal e Telegram. Esses serviços são usados para processar compras, tanto por cartão de crédito quanto por carteiras digitais. Mesmo com o alerta de vulnerabilidade no AI do Gmail, esses sistemas ainda são explorados.

A pesquisa considerou esses serviços muito lucrativos. Estimativas conservadoras apontam que eles faturaram juntos entre US$ 2,6 milhões (mais de R$ 14 milhões) e US$ 18 milhões (cerca de R$ 100 milhões) nos últimos seis meses. Um volume financeiro considerável para uma atividade questionável.

Os dez sites mais visitados nessa categoria recebem a maioria de seus acessos dos Estados Unidos. Outros países com muitos visitantes incluem Índia, Brasil, México e Alemanha. Isso demonstra um alcance global para esse tipo de conteúdo gerado por IA.

Em resposta à revista Wired, a Amazon Web Services (AWS) declarou que recebe denúncias sobre sites ilegais ou que possam violar as políticas da empresa. O Google também se manifestou, afirmando que suas equipes internas “estão tomando medidas para verificar essas violações, além de trabalhar em soluções de longo prazo”. A Cloudflare, por sua vez, não respondeu ao contato da reportagem original sobre o assunto.

Sites de “nudificar” são crimes?

CONTINUA DEPOIS DA PUBLICIDADE

Sim, aplicativos e sites de “nudificar” que criam imagens falsas de nudez usando IA são ilegais e promovem atividades criminosas. Há várias maneiras condenáveis de usar essa tecnologia, como extorquir e constranger vítimas, além de gerar conteúdos de abuso infantil. Essas ações trazem consequências graves para as pessoas envolvidas.

Empresas como a Meta têm tentado combater a promoção de anúncios desses serviços em redes como o Facebook. No entanto, a plataforma ainda aprova publicidade voltada a esse tipo de material. É um desafio constante para as empresas de tecnologia monitorar e conter o fluxo desses conteúdos.

Ferramentas desse tipo existem desde pelo menos 2019, antes mesmo da popularização e melhoria dos algoritmos de IA na onda atual da tecnologia. No entanto, serviços de companhias como OpenAI, Google e Microsoft possuem mecanismos de segurança para tentar evitar a criação desses conteúdos em suas plataformas.

No Brasil, o Código Penal foi alterado recentemente para aumentar a pena para agressões envolvendo mulheres com o uso de recursos de inteligência artificial. A divulgação de imagens no estilo deepnudes também foi considerada crime de forma geral pela Câmara dos Deputados, podendo render até seis anos de prisão e multa para quem for condenado por criar ou compartilhar esse tipo de material. Essa é uma medida importante para a segurança dos dados e das pessoas.

A proliferação desses sites ressalta a importância de um debate mais amplo sobre o uso ético da inteligência artificial. É fundamental que empresas de tecnologia, legisladores e a sociedade em geral trabalhem juntos para criar mecanismos mais eficazes de proteção e combate a atividades criminosas que se valem dessas novas ferramentas. A rápida evolução da IA exige uma resposta ágil e coordenada para garantir a segurança e a privacidade das pessoas no ambiente digital.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.