La Inteligencia Artificial también puede ser víctima: así engañan los cibercriminales a tu asistente digital
Si pensabas que la Inteligencia Artificial era la nueva guardiana infalible de la ciberseguridad, es momento de un pequeño ajuste de expectativas. La IA cambió las reglas del juego, sí, pero en un doble sentido: puede ser tu mejor aliado para prevenir ataques o, irónicamente, la herramienta que los ciberdelincuentes usan para colarse en tu sistema. ESET, la compañía de seguridad, acaba de poner el foco en una técnica tan astuta como preocupante: el PromptFix.
¿Qué es el PromptFix y por qué debería importarte?
Imagina que le pides a tu asistente de IA integrado en el navegador que te resuma un artículo. Lo que no ves es que, escondido en ese mismo texto, hay instrucciones ocultas diciéndole a la IA: «oye, haz clic en este botón invisible» o «descarga este archivo disfrazado». Eso, en esencia, es un ataque de PromptFix.
Según Martina López, investigadora de Seguridad Informática de ESET Latinoamérica, los atacantes insertan comandos camuflados en contenido que parece totalmente legítimo. «Los actores maliciosos insertan instrucciones ocultas en contenido aparentemente legítimo para que la IA realice ciertas acciones sin que el usuario lo sepa ni tenga que intervenir», explica. Es la evolución digital del viejo truco del timador, pero automatizado.
El modus operandi: cómo se esconden las trampas
Para que el engaño funcione, los cibercriminales tienen que plantar su «semilla maliciosa» en algún lugar que la IA vaya a leer. No es magia, es técnica. Estas son algunas de sus estrategias favoritas:
- Texto fantasma: Ocultar instrucciones en comentarios del código HTML o en texto con el color de fondo de la página. Para ti es invisible; para la IA, es una orden clara.
- Imágenes con mensaje secreto: Insertar texto oculto dentro de los metadatos de una imagen. La foto se ve normal, pero lleva instrucciones adjuntas.
- Archivos con sorpresa: Camuflar información en archivos digitales sin alterar su apariencia externa.
El ataque se completa cuando un usuario, confiado, le pide a su asistente de IA (como Copilot o similares integrados en navegadores) que procese ese contenido comprometido. El modelo, en su afán por ayudar, procesa todo el texto sin discriminar, ejecutando los comandos ocultos como si fueran parte de tu solicitud.
Las consecuencias: cuando tu asistente se vuelve contra ti
El resultado de este «engaño al modelo» no es una broma inocente. Las acciones que la IA puede realizar por orden de un atacante son directamente peligrosas:
| Acción Maliciosa | Consecuencia para la Víctima |
|---|---|
| Descarga de archivos | La IA puede descargar malware (ransomware, spyware) directamente en el dispositivo. |
| Clics automáticos | Puede hacer clic en botones ocultos para evadir verificaciones de seguridad o confirmar acciones fraudulentas. |
| Navegación a sitios de phishing | Podría seguir enlaces fraudulentos, exponiendo credenciales bancarias o de acceso. |
Lo más inquietante es que todo esto puede suceder sin tu conocimiento ni un solo clic de tu parte. Tu asistente digital, en teoría creado para ayudarte, se convierte en un vector de ataque silencioso.
La defensa está en tus manos: hábitos para blindarte
Aunque suene a película de espionaje, protegerte no requiere de un doctorado en criptografía. ESET destaca que la prevención se basa en buenos hábitos y un poco de escepticismo digital. Aquí tienes tu plan de acción:
- Supervisa las acciones de tu IA: No des por sentado que todo lo que haga tu asistente es seguro. Si te pide confirmar una descarga extraña o una acción inesperada, desconfía.
- Fuentes, fuentes, fuentes: Sé extremadamente cauteloso con el contenido que le pides a la IA que procese. Evita sitios web de dudosa reputación, foros no moderados o enlaces de procedencia desconocida.
- Mantén todo actualizado: Asegúrate de que tu navegador, cualquier extensión de IA y tu software de seguridad (como un antivirus) estén siempre en su última versión. Los parches de seguridad suelen ser la primera línea de defensa.
- No des poderes ilimitados: Configura los permisos de tu asistente de IA. Si puede realizar acciones automáticamente, revisa si puedes limitar su alcance a tareas menos críticas.
El futuro de la ciberseguridad es una batalla de inteligencias
El surgimiento de técnicas como PromptFix nos recuerda que la ciberseguridad es un campo en constante evolución. No se trata de demonizar la IA, sino de entender que es una herramienta poderosa que, como cualquier otra, puede ser mal utilizada. La batalla ya no es solo entre hackers y firewalls; ahora es también entre inteligencias artificiales que defienden y otras que atacan.
La próxima vez que le pidas algo a tu asistente digital, recuerda: incluso la tecnología más avanzada puede ser víctima de un buen engaño. Un poco de vigilancia humana sigue siendo, por ahora, el ingrediente de seguridad más difícil de hackear.



