Ante la histeria masiva que se ha desatado en el mundo con la Inteligencia Artificial (IA), pocos hablan de los peligros, aunque representa un riesgo creciente para los usuarios de bitcoin (BTC) y otras criptomonedas que operan en los intercambios.

Los estafadores utilizan cada vez más las herramientas de IA para crear falsificaciones profundas Csobre aquellos que buscan eludir la verificación KYC (Conoce a tu cliente) de las casas de cambio. Así lo advierte Jimmy Su, director de seguridad de Binance, el intercambio de criptomonedas con el mayor volumen de comercio a nivel mundial.

“El estafador buscará en Internet una foto normal de la víctima. En base a eso, puede producir videos utilizando herramientas de falsificación profunda para evadir la verificación”, dijo Su, según un publicación por Cointelegraph.

Al detallar el modus operandi utilizado por los estafadores, Su agrega que Las herramientas de IA se han vuelto tan sofisticadas que incluso pueden responder a instrucciones archivos de audio diseñados para verificar que el solicitante es humano. De hecho, ya existe un software que puede hacer esto en tiempo real.

“Por ejemplo, requiere que el usuario parpadee con el ojo izquierdo o que mire a la izquierda, derecha, arriba o abajo. Los deepfakes ahora son tan avanzados que en realidad pueden ejecutar estos comandos”, agregó el jefe de seguridad.

Su agregó que si bien la IA se está volviendo más avanzada, “todavía no está al nivel en el que pueda engañar a un operador humano” porque no es indistinguible de la realidad.

David Schwed, el director de operaciones de la firma de seguridad blockchain Halborn sugiere que una forma útil de detectar rápidamente un deepfake es observar cuando el sujeto parpadea. Si parece poco natural, lo más probable es que se trate de un video manipulado con intenciones fraudulentas.

Esto se debe a que los videos deepfake se generan a partir de archivos de imagen obtenidos de Internet, donde el sujeto suele tener los ojos abiertos, explica Schwed. Por lo tanto, en un deepfake se debe simular el parpadeo de los ojos del sujeto.

Otra fórmula que los usuarios pueden implementar para evitar el deepfake es mejorar la privacidad y el anonimatoaunque curiosamente estas medidas de seguridad entran en conflicto con el uso de intercambios centralizados que implementan procedimientos KYC.

Cuidado con los deppfakes de cripto-pesca

La firma de seguridad Kaspersky también advierte sobre deepfakes para llevar a cabo diversas estafas, como el fraude de criptomonedas o eludir la seguridad biométrica.

En algunos casos, los estafadores usan imágenes de celebridades o mezclan videos antiguos para hacer transmisiones en vivo en las redes sociales. En ellos muestran una página prediseñadas en la que pedir a las víctimas que transfieran cierta cantidad en criptomoneda, prometiendo que duplicarán cualquier pago que se les envíe. Como resultado, las víctimas de estas estafas pierden la totalidad del monto transferido.

Ante esto, Kaspersky recomienda mantenerse alerta ante las amenazas relacionadas con los deepfakes para evitar ser víctima. En ese sentido sugiere estar atento a los movimientos bruscos que se dan en los videos.

Algunos de estos cambios repentinos son cambios en la iluminación de un cuadro a otro, cambios en el tono de la piel de las personas, parpadeo extraño o ningún parpadeo. También recomienda buscar voz sincronizada con los labios, artefactos digitales en la imagen, así como videos codificados intencionalmente en baja calidad y con poca iluminación.

Por otro lado, se recomienda ser escéptico con los mensajes de voz y los videos, que no garantizan que las personas nunca se dejen engañar, pero pueden ayudar a evitar muchas de las trampas más comunes. En primer lugar, lo mejor sera verificar antes de confiar, puntos Kaspersky.

Leave a Reply

Your email address will not be published. Required fields are marked *