CRIME

Hacker produz fotos nuas de atleta por IA e chantageia vítima

Criminoso cobrou quase R$ 30 mil para não divulgar as fotos falsas para familiares e amigos da vítima
Foto do autor
Compartilhe

Um hacker chantageou uma atleta pedindo cinco mil euros – aproximadamente R$ 26 mil – para não divulgar fotos nuas dela produzidas por um programa de Inteligência Artificial (IA). A técnica é chamada de deepnude. O criminoso utilizou imagens reais com o rosto da vítima. Dessa forma, a IA – programada com técnicas apuradas de edição – fez uma montagem em que a vítima aparece como se realmente estivesse nua.

O caso veio à tona nesta semana após a vítima se manifestar publicamente nas redes sociais. Trata-se da surfista portuguesa Mariana Rocha Assis, de 26 anos.

“Tenho passado por um inferno emocional ultimamente e gostaria de partilhar a minha história, pois acredito que há mais vítimas como eu a sofrer com esse novo tipo de assédio”, contou.

“Essa pessoa em questão disse-me para lhe pagar um total de cinco mil [euros, equivalente a R$ 26 mil], e que eu tinha até hoje para lhe mandar, mas não mandei. Ele disse-me que vão enviar para a minha família, amigos, patrocinadores e clientes do hotel”, completou.

Na publicação, no Instagram, Mariana ainda pediu às autoridades de todo o mundo para que tomem atitudes contra crimes como esse.

Compartilhe