Alertan por estafas con inteligencia artificial

Image

El fiscal general Fernando Rivarola, jefe de la Unidad Fiscal Especializada en Cibercrimen del Ministerio Público Fiscal de Chubut, advirtió sobre un nuevo tipo de fraude que utiliza inteligencia artificial (IA) para clonar voces e imágenes para clonar voces e imágenes con fines delictivos.

Según explicó, aunque por ahora no es algo masivo debido al costo de los programas, ya se detectan casos en el país . Los delincuentes usan IA generativa para imitar voces o crear imágenes falsas, logrando que una estafa parezca más real y, al mismo tiempo, más difícil de investigar.

 Las redes sociales son la principal fuente de donde son la fuente principal de donde extraen la información. «Es muy fácil encontrar voces o imágenes nuestras en redes. Antes desconfiábamos de mensajes de texto, ahora también debemos prestar atención a los audios y videos que recibimos», señaló Rivarola.

 ¿Cómo prevenir estas estafas?

Revisar la sincronización entre los labios y la voz en los vídeos .entre los labios y la voz en los videos.

En los audios, escuche con atención la calidad del sonido y detecte errores en la pronunciación.

Evitar compartir contenido personal público en redes si no es necesario.

Verifique la fuente antes de responder o reenviar mensajes sospechosos.

📌

 Rivarola aclaró que para clonar una voz, los estafadores necesitan solo unos segundos de grabación, algo fácil de conseguir en internet si se trata de personas conocidas. Para quienes no son figuras públicas, el riesgo disminuye si no hay mucho material disponible en línea.

 Cuanto menos contenido personal esté disponible en redes, más difícil será para los ciberdelincuentes falsificar tu identidad. 

Ver menos

Notas relacionadas