Cómo la monetización en X convirtió cuentas hackeadas en máquinas de desinformación
La monetización dentro de X se convirtió en el motor de un esquema sofisticado que conecta cuentas hackeadas, videos de guerra fabricados por inteligencia artificial y una avalancha de desinformación dirigida a millones de usuarios. El caso salió a la luz el pasado miércoles, cuando Nikita Bier, jefe de desarrollo de producto de la plataforma, detalló públicamente una operación coordinada que involucraba al menos 31 perfiles comprometidos. Todos estos perfiles fueron hackeados y renombrados el 27 de febrero con variaciones del nombre Iran War Monitor, en un intento claro de capitalizar el interés global por el conflicto que involucra a Irán, Estados Unidos e Israel. Detrás de toda esta estructura había una sola persona operando desde Pakistán, y el objetivo no tenía nada de ideológico — era puramente financiero, orientado a lucrar con el programa de reparto de ingresos para creadores de X.
Los perfiles publicaban clips generados por inteligencia artificial como si fueran registros reales de ataques militares, bombardeos y movimientos de tropas. Todo estaba pensado para acumular visualizaciones a gran escala y, en consecuencia, facturar con el programa de ingresos de la plataforma. Este modelo de monetización basado en engagement crea un incentivo directo para la producción de contenido sensacionalista y falso, especialmente en momentos de tensión geopolítica real, cuando las personas están más vulnerables y ávidas de información. El resultado es un ciclo vicioso en el que la plataforma paga por atención, y la atención se consigue mediante mentiras bien empaquetadas.
Bier afirmó que el equipo de X está siendo cada vez más rápido en detectar este tipo de operación y también trabajando para eliminar los incentivos que la hacen viable. Pero este episodio deja al descubierto una fragilidad estructural que va mucho más allá de un caso aislado. Cuando el dinero fluye hacia quien consigue más clics, el sistema entero pasa a premiar a quien miente mejor y más rápido. Y la inteligencia artificial generativa volvió este proceso absurdamente barato y escalable, permitiendo que una sola persona en cualquier lugar del mundo pueda operar decenas de cuentas simultáneamente con contenido visualmente convincente.
El papel de la inteligencia artificial en la fabricación de contenido bélico
La inteligencia artificial generativa evolucionó hasta un punto en el que producir videos realistas de escenarios de guerra dejó de requerir equipos de producción, equipamiento caro o conocimiento técnico avanzado. Herramientas accesibles logran generar imágenes y clips que simulan explosiones, movimientos militares y destrucción urbana con un nivel de detalle que engaña incluso a observadores más atentos. En el caso revelado por Bier, los videos publicados por las cuentas hackeadas tenían exactamente ese perfil — parecían registros documentales legítimos, pero estaban enteramente fabricados. Esto representa un salto cualitativo en la capacidad de producción de desinformación, porque el contenido visual siempre cargó con un peso de credibilidad mayor que los textos escritos. Cuando alguien ve un video de un supuesto ataque aéreo, la tendencia natural es creer que aquello ocurrió de verdad.
El problema se agrava cuando este tipo de material se distribuye en contextos de conflicto real. La tensión entre Irán, Estados Unidos e Israel es genuina — con Irán lanzando ataques con misiles contra bases estadounidenses en Baréin mientras Israel bombardeaba Beirut —, y las personas buscan activamente información sobre lo que está ocurriendo. En ese escenario, contenidos fabricados por inteligencia artificial se mezclan con registros reales, creando una confusión informativa que dificulta cualquier intento de comprensión de los hechos. La desinformación no necesita convencer a todo el mundo — basta con sembrar la duda suficiente para que las personas pierdan la capacidad de distinguir lo que es real de lo que es falso. Y cuando eso ocurre a gran escala, con decenas de perfiles publicando simultáneamente, el efecto se multiplica de forma exponencial.
Cabe destacar que el operador detrás del esquema no necesitó desarrollar ninguna tecnología propia ni hackear sistemas complejos de defensa. Simplemente combinó herramientas de inteligencia artificial disponibles en el mercado con cuentas hackeadas que ya tenían una base de seguidores consolidada. Esta combinación permitió que el contenido falso alcanzara audiencias masivas desde el primer momento de la publicación, sin la necesidad de construir credibilidad desde cero. Es un modelo de operación que puede ser replicado por cualquier persona con motivación financiera y acceso básico a internet, lo que hace el problema aún más preocupante.
No era solo Iran War Monitor — los perfiles IDF Girl también formaban parte del esquema
Un detalle importante revelado por Bier es que la operación no se limitaba a los perfiles que se hacían pasar por monitores del conflicto iraní. La misma persona también estaba detrás de múltiples perfiles llamados IDF Girl, que simulaban ser mujeres vinculadas a las Fuerzas de Defensa de Israel. Estos perfiles igualmente eran operados desde Pakistán y seguían la misma lógica de explotar la curiosidad y el engagement emocional del público en torno al conflicto en Oriente Medio.
Esta diversificación de identidades demuestra que el operador entendía muy bien cómo funcionan los algoritmos de distribución de contenido en X. Al crear perfiles con identidades diferentes pero todos girando en torno al mismo tema candente, conseguía maximizar el alcance total de la operación. Cada perfil capturaba un segmento diferente de la audiencia interesada en el conflicto — unos atraían a quienes buscaban información del lado iraní, otros atraían a quienes seguían la perspectiva israelí. Era una red de desinformación pensada estratégicamente para cubrir varios ángulos del mismo asunto y, así, multiplicar las ganancias con el programa de monetización.
Este patrón de comportamiento plantea cuestiones serias sobre la verificación de identidad dentro de la plataforma. A pesar de que X exige verificación de identidad para participar en el programa de ingresos, el hecho de que una sola persona lograra operar 31 cuentas hackeadas simultáneamente sin ser detectada de inmediato muestra lagunas evidentes en el proceso.
Monetización como incentivo para la desinformación a gran escala
El programa de monetización de X, conocido como Creator Revenue Sharing, fue creado con la premisa de recompensar a creadores de contenido que generan engagement en la plataforma. Para participar, los creadores necesitan suscribirse a X Premium, tener al menos 500 seguidores Premium, generar cerca de cinco millones de impresiones a lo largo de tres meses y completar la verificación de identidad. En teoría, es una forma de valorar a quien produce material relevante e interesante. En la práctica, sin embargo, el sistema no diferencia de forma eficaz contenido legítimo de contenido fabricado para manipular emociones y acumular visualizaciones.
Cuando el pago es proporcional al número de impresiones, el incentivo económico apunta directamente hacia la creación de material que genere el máximo de reacciones posible — y pocos temas provocan tanta reacción como la guerra y los conflictos armados. El esquema descubierto en X es la prueba más reciente de que este modelo de remuneración puede ser explotado de manera sistemática por actores malintencionados.
La lógica es simple y eficiente desde el punto de vista de quien opera el esquema. Primero, se obtiene acceso a cuentas hackeadas que ya poseen miles de seguidores, eliminando la etapa más difícil de cualquier estrategia de crecimiento en redes sociales. Después, se renombran esos perfiles con algo que suene como una fuente de noticias confiable sobre un tema candente, como el conflicto en Oriente Medio. A continuación, se publica contenido generado por inteligencia artificial que parece lo suficientemente real como para viralizarse. Las visualizaciones se acumulan rápidamente, y el programa de monetización transforma esa atención en dinero. Todo el proceso puede ser ejecutado por una sola persona, como quedó comprobado en este caso, y el retorno financiero es prácticamente inmediato.
Un factor que amplifica este problema es el tipo de cambio. Como los pagos del programa de ingresos se realizan en dólares estadounidenses, usuarios en países donde la moneda local tiene menor poder adquisitivo encuentran un incentivo adicional para producir contenido viral y sensacionalista. Esto explica en parte por qué operaciones de este tipo tienen origen frecuente en países como Pakistán y Bangladés, donde el valor del dólar representa una recompensa financiera proporcionalmente mucho mayor.
La respuesta de X y las nuevas reglas contra contenido bélico generado por IA
Ante la gravedad del caso, X anunció reglas más estrictas para combatir este tipo de abuso. A partir de ahora, los usuarios que publiquen videos de conflictos armados generados por inteligencia artificial sin indicar claramente que el material fue producido con IA serán suspendidos del programa de monetización durante 90 días. En caso de reincidencia, la eliminación del programa será permanente. Esta medida intenta atacar directamente el incentivo financiero que alimenta estas operaciones, pero todavía depende de la capacidad de la plataforma para detectar el contenido fabricado antes de que se viralice.
El equipo de Bier también destacó que los sistemas de detección están siendo mejorados para identificar patrones como el renombramiento simultáneo de múltiples cuentas, la publicación coordinada de contenido similar y señales técnicas que indican el uso de herramientas de generación de video por IA. Aun así, la carrera entre quien produce y quien detecta sigue siendo desigual. Las herramientas de inteligencia artificial generativa evolucionan con una velocidad impresionante, y cada nueva versión hace más difícil distinguir contenido real de contenido fabricado.
X también comenzó a invertir en transparencia de cuentas. En noviembre de 2025, la plataforma introdujo el recurso About This Account, que revela la ubicación geográfica real de perfiles que publican contenido político. Este recurso ya ayudó a identificar que diversas cuentas que publicaban contenido político sobre la India estaban en realidad operando desde fuera del país. Bier también señaló el caso de una cuenta que se presentaba como periodista en Gaza, pero que en realidad estaba compartiendo material enteramente generado por inteligencia artificial. Estos ejemplos refuerzan que el problema es sistémico y no se limita a un único operador ni a un único conflicto.
El panorama más amplio de la desinformación en tiempos de conflicto
La preocupación por la desinformación en X durante periodos de conflicto no es nueva, pero adquirió una dimensión diferente con la accesibilidad de las herramientas de inteligencia artificial. Mientras los ataques entre EE.UU., Israel e Irán se desarrollan — incluyendo ataques con misiles a bases estadounidenses en Baréin, bombardeos a Beirut y tensiones que afectaron incluso a buques indios en el Golfo Pérsico —, la proliferación de contenido falso vuelve el entorno informativo aún más caótico y peligroso.
Este tipo de operación no surge en el vacío. Se alimenta de un ecosistema donde la demanda de información en tiempo real es altísima, los mecanismos de verificación son lentos y los incentivos financieros recompensan a quien publica primero, no a quien publica con precisión. Es la tormenta perfecta para que fábricas de desinformación prosperen, y el caso de los 31 perfiles del Iran War Monitor es solo la punta visible de un problema mucho mayor.
Qué significa esto para el futuro de las redes sociales
Este caso funciona como una alerta sobre la dirección que las grandes plataformas están tomando al priorizar métricas de engagement como base para sus programas de monetización. La combinación de inteligencia artificial accesible, cuentas hackeadas con audiencias listas y sistemas de pago por visualización crea un ecosistema donde la desinformación se convierte literalmente en un negocio rentable. No estamos hablando de un problema teórico o de un riesgo futuro — es algo que ya está ocurriendo ahora, con consecuencias reales en la forma en que millones de personas entienden conflictos de guerra y crisis internacionales.
Las plataformas necesitan replantearse cómo sus sistemas de recompensa financiera interactúan con la moderación de contenido. Modelos que pagan exclusivamente por volumen de visualizaciones, sin considerar la veracidad o la calidad del material publicado, están esencialmente subsidiando fábricas de mentiras. La detección de contenido generado por inteligencia artificial necesita evolucionar a la misma velocidad a la que avanzan las herramientas de generación, y los procesos de verificación de identidad en las cuentas deben volverse más robustos para dificultar la operación masiva de perfiles comprometidos.
El episodio también refuerza la importancia de la alfabetización digital por parte de los propios usuarios. En un entorno donde cualquier video puede ser fabricado en minutos por una inteligencia artificial, el escepticismo saludable se convirtió en una habilidad esencial de supervivencia informativa. Verificar fuentes, desconfiar de contenidos excesivamente dramáticos y buscar confirmación en medios periodísticos establecidos son prácticas que cobran aún más relevancia cuando la desinformación se produce a escala industrial y con una calidad visual cada vez más convincente.
El caso del Iran War Monitor no será el último de este tipo — pero puede servir como referencia para entender la complejidad del problema que tenemos por delante. La pregunta que queda es: ¿las plataformas lograrán adaptar sus modelos de negocio lo suficientemente rápido como para evitar que la próxima crisis geopolítica esté aún más contaminada por contenido falso? 🧠
