▲
- Sites que criam imagens indevidas com IA continuam ativos, apesar da ilegalidade da prática no Brasil.
- Você pode estar exposto a esse conteúdo ao navegar na internet ou ao usar plataformas digitais.
- Esses sites representam uma ameaça à privacidade e à segurança digital de indivíduos.
- A prática gera debates sobre o uso ético da IA e o combate a atividades ilegais na internet.
A inteligência artificial (IA) tem sido usada de formas que preocupam, e uma delas são os sites de “nudificar”. Essas páginas criam imagens de nudez de pessoas usando fotos reais e IA, tudo sem autorização. O pior é que essa prática segue crescendo e até conta com um apoio, mesmo que indireto, de empresas de tecnologia bem grandes.
Uma pesquisa recente do site Indicator trouxe mais detalhes sobre esse cenário. Os resultados são alarmantes: esses sites são muitos, geram bastante dinheiro e ainda usam serviços de hospedagem, login e pagamento de companhias que, em teoria, não deveriam compactuar com isso. É uma situação complexa que exige atenção de todos.
O mercado de montagens com IA
O estudo analisou 85 sites que oferecem o serviço de remover roupas de pessoas em fotos com a ajuda da IA. A pesquisa coletou informações sobre a estrutura e o modelo de negócios dessas plataformas, revelando um mercado digital controverso. Muitos se perguntam se a IA pode ser humanizada, mas nesse caso, a questão é outra.
Sessenta e duas dessas páginas usam serviços de hospedagem ou entrega de conteúdo de empresas como Cloudflare e Amazon. Isso mostra como as grandes infraestruturas da internet podem ser exploradas para atividades ilegais. É um desafio para essas empresas monitorar e coibir o mau uso de seus sistemas.
O login rápido via Google está disponível em 53 dos sites verificados. Para conseguir isso, os administradores dessas páginas utilizam URLs intermediárias. Essa tática é usada para enganar os sistemas de cadastro e obter a aprovação da gigante de buscas, contornando as políticas de uso.
Várias plataformas oferecem opções de pagamento de terceiros, incluindo Coinbase, PayPal e Telegram. Esses serviços são usados para processar compras, tanto por cartão de crédito quanto por carteiras digitais. Mesmo com o alerta de vulnerabilidade no AI do Gmail, esses sistemas ainda são explorados.
A pesquisa considerou esses serviços muito lucrativos. Estimativas conservadoras apontam que eles faturaram juntos entre US$ 2,6 milhões (mais de R$ 14 milhões) e US$ 18 milhões (cerca de R$ 100 milhões) nos últimos seis meses. Um volume financeiro considerável para uma atividade questionável.
Os dez sites mais visitados nessa categoria recebem a maioria de seus acessos dos Estados Unidos. Outros países com muitos visitantes incluem Índia, Brasil, México e Alemanha. Isso demonstra um alcance global para esse tipo de conteúdo gerado por IA.
Em resposta à revista Wired, a Amazon Web Services (AWS) declarou que recebe denúncias sobre sites ilegais ou que possam violar as políticas da empresa. O Google também se manifestou, afirmando que suas equipes internas “estão tomando medidas para verificar essas violações, além de trabalhar em soluções de longo prazo”. A Cloudflare, por sua vez, não respondeu ao contato da reportagem original sobre o assunto.
Sites de “nudificar” são crimes?
Sim, aplicativos e sites de “nudificar” que criam imagens falsas de nudez usando IA são ilegais e promovem atividades criminosas. Há várias maneiras condenáveis de usar essa tecnologia, como extorquir e constranger vítimas, além de gerar conteúdos de abuso infantil. Essas ações trazem consequências graves para as pessoas envolvidas.
Empresas como a Meta têm tentado combater a promoção de anúncios desses serviços em redes como o Facebook. No entanto, a plataforma ainda aprova publicidade voltada a esse tipo de material. É um desafio constante para as empresas de tecnologia monitorar e conter o fluxo desses conteúdos.
Ferramentas desse tipo existem desde pelo menos 2019, antes mesmo da popularização e melhoria dos algoritmos de IA na onda atual da tecnologia. No entanto, serviços de companhias como OpenAI, Google e Microsoft possuem mecanismos de segurança para tentar evitar a criação desses conteúdos em suas plataformas.
No Brasil, o Código Penal foi alterado recentemente para aumentar a pena para agressões envolvendo mulheres com o uso de recursos de inteligência artificial. A divulgação de imagens no estilo deepnudes também foi considerada crime de forma geral pela Câmara dos Deputados, podendo render até seis anos de prisão e multa para quem for condenado por criar ou compartilhar esse tipo de material. Essa é uma medida importante para a segurança dos dados e das pessoas.
A proliferação desses sites ressalta a importância de um debate mais amplo sobre o uso ético da inteligência artificial. É fundamental que empresas de tecnologia, legisladores e a sociedade em geral trabalhem juntos para criar mecanismos mais eficazes de proteção e combate a atividades criminosas que se valem dessas novas ferramentas. A rápida evolução da IA exige uma resposta ágil e coordenada para garantir a segurança e a privacidade das pessoas no ambiente digital.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.