Um hacker chantageou uma atleta pedindo cinco mil euros – aproximadamente R$ 26 mil – para não divulgar fotos nuas dela produzidas por um programa de Inteligência Artificial (IA). A técnica é chamada de deepnude. O criminoso utilizou imagens reais com o rosto da vítima. Dessa forma, a IA – programada com técnicas apuradas de edição – fez uma montagem em que a vítima aparece como se realmente estivesse nua.
O caso veio à tona nesta semana após a vítima se manifestar publicamente nas redes sociais. Trata-se da surfista portuguesa Mariana Rocha Assis, de 26 anos.
“Tenho passado por um inferno emocional ultimamente e gostaria de partilhar a minha história, pois acredito que há mais vítimas como eu a sofrer com esse novo tipo de assédio”, contou.
“Essa pessoa em questão disse-me para lhe pagar um total de cinco mil [euros, equivalente a R$ 26 mil], e que eu tinha até hoje para lhe mandar, mas não mandei. Ele disse-me que vão enviar para a minha família, amigos, patrocinadores e clientes do hotel”, completou.
Na publicação, no Instagram, Mariana ainda pediu às autoridades de todo o mundo para que tomem atitudes contra crimes como esse.