
15 jul Sites que ‘tiram a roupa’ de pessoas com IA seguem no ar com serviços de Amazon e Google
Um tipo de ação criminosa que se aproveita de mecanismos de inteligência artificial (IA) não apenas segue operando, mas cresce cada vez mais e tem até o apoio indireto de gigantes da tecnologia. São os sites de “nudificar”, que fazem montagens usando fotos reais e geram ilustrações de nudez envolvendo qualquer pessoa sem autorização.
Uma pesquisa realizada pelo site Indicator encontrou mais detalhes sobre o atual estado desse tipo de atividade. Os resultados são impressionantes e assustadores: as páginas existem em alta quantidade, faturam uma receita alta e usam recursos como servidores, login automatizado ou sistemas de pagamento de outras companhias que, teoricamente, não deveriam apoiar essa prática.
Leia também: Robô com IA faz 1ª cirurgia histórica em órgão humano sem ajuda de médicos
O mercado de montagens sexualizadas com IA
O estudo avaliou 85 sites que vendem o serviço de remover roupas de qualquer pessoa presente em fotos utilizando IA, extraindo informações sobre a estrutura e o modelo de negócios dessas páginas;Ao todo, 62 páginas utilizam serviços de hospedagem ou entrega de conteúdo de empresas como Cloudflare e Amazon;Além disso, o login rápido via Google está habilitado em 53 dos sites encontrados. Neste caso, os donos das páginas usam URLs intermediárias para enganar o cadastro e conseguir a aprovação da companhia;Além disso, várias das plataformas oferecem modalidades de pagamento de terceiros, incluindo companhias como Coinbase, PayPal e o Telegram para processar compras via cartão de crédito ou carteiras digitais;Esses serviços foram considerados extremamente lucrativos pela pesquisa: em uma conta bastante conservadora, a pesquisa estima que eles faturem juntos entre US$ 2,6 milhões (mais de R$ 14 milhões) e US$ 18 milhões (ou R$ 100 milhões) nos últimos seis meses;Nos dez sites mais visitados da categoria, a maior parte dos visitantes vem dos Estados Unidos. Outros países com muitos acessos incluem Índia, Brasil, México e Alemanha.
Em resposta à Wired, a Amazon Web Services (AWS) diz que recebe denúncias de sites ilegais ou com violação potencial das políticas da empresa. A Google respondeu de forma parecida, alegando que as equipes internas “estão tomando medidas para verificar essas violações, além de trabalhar em soluções de longo prazo“. Já a Cloudflare não respondeu o contato da reportagem original.
Os sites de “nudificar” são criminosos?
Aplicativos e sites que criam imagens falsas usando IA de pessoas envolvendo nudez são ilegais e promovem uma atividade criminosa. Há vários usos condenáveis desse tipo de ação, desde extorsão e constrangimento das vítimas até a geração de conteúdos de abuso infantil.
Empresas como a Meta tentam há algum tempo combater a promoção de anúncios desses serviços em redes como o Facebook, mas a rede social ainda aprova publicidade voltada a esse tipo de material. Ferramentas do tipo existem ao menos desde 2019, antes mesmo da popularização e melhoria de algoritmos de IA na atual onda dessa tecnologia, mas serviços de companhias como OpenAI, Google e Microsoft possuem travas para evitar a criação desses conteúdos em suas plataformas.
No Brasil, o Código Penal foi recentemente alterado pelo presidente Lula para aumentar a pena por agressão envolvendo mulheres a partir de recursos de inteligência artificial (IA). A divulgação de imagens estilo ‘deepnudes’ também foram consideradas criminosas no geral pela Câmara dos Deputados e rendem até seis anos de detenção e multa para quem for condenado por criar ou espalhar esse tipo de material.
Saiba mais: IA para o mal: modelos de código aberto são usados para gerar conteúdos de abuso infantil
Quer continuar informado sobre as novidades e as controvérsias do setor de IA? Confira a seção especial sobre o tema no site do TecMundo!