Ripple Labs Emite Una Advertencia A La Comunidad Sobre Tácticas De Estafas

La plataforma de criptopagos, Ripple Labs Inc. ha emitido otra advertencia a su comunidad, recordándoles que deben ser cautelosos con los enlaces de phishing y Deepfakes.

Bases de la advertencia de Ripple Labs

Para contextualizar, Ripple compartió un video de demostración en X donde muestra cómo ciertos estafadores se han hecho pasar por miembros clave de la empresa como Brad Garlinghouse, su director ejecutivo.

Según las ilustraciones, los malos actores clonan la imagen, la voz e incluso los gestos de su objetivo para ganarse la confianza de víctimas desprevenidas.

Luego, prometen a los usuarios de Ripple un obsequio de XRP o incluso un programa de duplicación de XRP. Estos obsequios falsos tienen un valor de entre 500 y 1000 tokens XRP, de los cuales 1 XRP vale 0,6114 dólares, según el precio de mercado de la moneda en el momento de escribir este artículo.

Sobre estos acontecimientos, Ripple Labs advirtió a su comunidad sobre el hecho de que nunca realizará tal solicitud a sus usuarios. Además de esta declaración, la empresa cripto también aclaró que ni su CEO Garlinghouse ni ninguna de las personas asociadas con Ripple pedirán a los usuarios que transfieran su XRP para duplicarlo.

La compañía y su ejecutivo reiteraron que todos los mensajes aprobados sólo pasarán a través de cuentas oficiales de Ripple.

Estafadores de XRP aprovechan las herramientas de inteligencia artificial

Esta estafa dentro del ecosistema Ripple existe desde hace algún tiempo. Hacia finales de 2023, se vio a Garlinghouse en sus páginas de redes sociales comunicándose con sus seguidores sobre la amenaza de los videos deepfake que se hacían pasar por él.

En el audiovisual que se publicó en YouTube, se vio al CEO de Ripple tratando de convencer a los poseedores de XRP para que participaran en un sorteo inexistente. Mientras miran estos videos Deepfake, los espectadores atentos pueden notar algunas irregularidades en el movimiento de la boca.

A menudo, estos videos podrían ser el resultado de indicaciones seleccionadas enviadas a modelos entrenados de Inteligencia Artificial (IA) como Voice Engine de OpenAI o incluso Sora, la herramienta revolucionaria que puede crear videos a partir de descripciones textuales.

Con lo avanzada y compleja que se está volviendo la industria de la inteligencia artificial, los titulares de XRP necesitarían más que descifrar los movimientos irregulares de la boca para detectar una estafa de phishing o un video Deepfake. La precaución de la empresa podría servir como una campaña de concientización clave que puede salvar a alguien más adelante.

Freily Suárez: Freily Suárez es una reportera especializada criptomonedas y tecnología blockchain. Es estudiante de Comunicación Social y una aficionada a la lectura; cuenta con certificaciones en el área de las finanzas y la comunicación.

ste sitio web utiliza cookies.