GROK USADO PARA DIFUNDIR ESTAFAS

Los cibercriminales han empezado a convertir a la propia GenAI en un vector de ataque: en X (antes Twitter) lograron engañar al chatbot Grok para que amplificara enlaces de phishing incrustados en metadatos de vídeos clickbait —técnica que algunos llaman “Grokking” (distinta del fenómeno de grokking en ML).
¿Cómo funciona el «Grokking»?
El truco es publicar un vídeo pagado con un pequeño enlace en el campo “from”, luego preguntar a Grok “¿de dónde es este vídeo?”; Grok lee y replica el enlace, dándole legitimidad al ser publicado por la cuenta del asistente y llegando a millones de impresiones.
¿Por qué es peligrosa esta técnica?
- Este truco convierte a Grok en un actor malicioso, al incitarle a volver a publicar un enlace de phishing.
- Estas publicaciones de vídeo pagadas suelen alcanzar millones de impresiones, propagando potencialmente estafas y malware por todas partes.
- Los enlaces también se amplificarán en SEO y reputación de dominio, ya que Grok es una fuente de gran confianza.
- Los investigadores encontraron cientos de cuentas que repetían este proceso hasta que fueron suspendidas.
- Los propios enlaces redirigen a formularios de robo de credenciales y descargas de malware, lo que podría llevar a la toma de la cuenta de la víctima, robo de identidad y más.
El riesgo de prompt injection
Esto convierte una fuente de confianza en multiplicadora del fraude (mejora SEO, reputación del dominio y difusión masiva); los enlaces llevan a formularios de robo de credenciales o descargas de malware. Además, el ataque es una variante de prompt injection: instrucciones maliciosas ocultas en contenido que el modelo procesa (metadatos, páginas, imágenes, texto en blanco), y Gartner ya advertía que ~32% de organizaciones sufrió alguna inyección de este tipo el último año.
Escenarios similares son plausibles en cualquier LLM integrado en plataformas de confianza —por ejemplo, pedir a un asistente que “resuma este artículo” o “explique esta imagen” puede activar código o enlaces maliciosos ocultos en el contenido.
Lecciones y medidas prácticas:
- No confiar ciegamente en resultados de IA; ser escéptico y verificar.
- Antes de clicar, pasar el ratón para comprobar la URL real.
- Mantener contraseñas fuertes y únicas + MFA.
- Mantener sistemas y apps actualizados.
- Usar soluciones de seguridad multicapa que bloqueen phishing y descargas maliciosas.
- Formar al personal y recordar que cualquier GenAI que consulte datos públicos puede procesar contenido “envenenado”.
Conclusión
Las IA integradas abren un nuevo frente para el phishing. Cuestionar siempre los resultados, verificar enlaces y aplicar controles técnicos y de comportamiento es imprescindible para no convertir a la IA en un amplificador de estafas.
Fuente: https://www.welivesecurity.com/es/estafas-enganos/ingenieria-social-grok...




Añadir nuevo comentario