Un Sitio de Noticias Locales en Canadá Era Operado por Inteligencia Artificial y Publicaba Información Falsa
Imagina abrir tu feed de noticias y encontrar una nota bomba sobre un político de tu ciudad que supuestamente renunció a su cargo después de que una serie de tuits polémicos resurgieran en internet. La historia tiene todos los elementos de una primicia periodística legítima: detalles sobre el contenido de las publicaciones, una declaración de arrepentimiento del político y la promesa del partido de seguir una nueva dirección. Ahora imagina descubrir que absolutamente nada de eso ocurrió. El político nunca renunció, nunca ocupó el cargo mencionado en la nota y nunca escribió nada parecido a lo que el sitio describió. Fue exactamente eso lo que pasó con el Surrey Speak, un sitio con sede en Surrey, en la Columbia Británica, Canadá, que se presentaba como un medio de noticias locales legítimo, pero que en realidad era operado casi en su totalidad por inteligencia artificial.
El caso salió a la luz gracias a una investigación realizada por la Investigative Journalism Foundation (IJF), una organización canadiense dedicada al periodismo de investigación, que reveló un esquema sofisticado de producción automatizada de contenido falso disfrazado de cobertura periodística comunitaria. El Surrey Speak contaba con más de 10 mil seguidores en Facebook, publicaba decenas de notas por día y presentaba una apariencia visual y editorial lo suficientemente convincente como para engañar a miles de personas en el área metropolitana de Vancouver.
La Falsa Nota Sobre William Azaroff
El ejemplo más emblemático de la fabricación de contenido por parte del Surrey Speak involucró al político canadiense William Azaroff. El sitio publicó una nota afirmando que Azaroff había renunciado al cargo de director ejecutivo de un partido municipal tras el resurgimiento de tuits polémicos relacionados con cuestiones de raza, identidad indígena e ideología política. La nota relataba que Azaroff habría emitido una declaración de arrepentimiento y que su partido había prometido trazar un nuevo rumbo.
El problema es que nada de eso era verdad. Azaroff nunca ocupó el cargo de director ejecutivo del partido OneCity, por lo tanto no podría haber renunciado a él. En realidad, acababa de ser nominado como candidato a alcalde por el partido en una elección que se acercaba. ¿Y los supuestos tuits polémicos? Azaroff, descrito como un hombre tranquilo que dirige una empresa de desarrollo habitacional sin fines de lucro, afirmó que jamás escribió nada parecido a lo que el Surrey Speak describió.
La más mínima verificación habría demostrado que no era verdad, dijo Azaroff a la IJF. Su equipo llegó a considerar la posibilidad de que la nota fuera un ataque políticamente motivado, pero incluso esa hipótesis parecía improbable. Según él, si un oponente hubiera hecho eso, no habría cometido errores tan obvios.
Dimitris Dimitriadis, director de investigación y desarrollo de la empresa NewsGuard, con sede en Nueva York, ofreció una explicación más probable. Sospecha que la inteligencia artificial detrás del sitio detectó que el nombre de Azaroff estaba en tendencia en las búsquedas por su nominación como candidato a alcalde y, a partir de ahí, fabricó una historia completamente falsa para capitalizar el tráfico de búsqueda. Si el tema está en tendencia y generando bastante SEO, estos sitios usan el tema para crear contenido sobre él, explicó Dimitriadis. Y ese contenido puede ser completamente sin sentido o incluso falso.
Periodistas Ficticios y Producción Industrial de Contenido
Uno de los aspectos más reveladores de la investigación fue el descubrimiento de que los supuestos periodistas del Surrey Speak simplemente no existían. El sitio listaba autores con nombres como John N., Lucas, Riley Anderson y Ellie Jones, pero ninguno de ellos correspondía a una persona real identificable. No había información de contacto para estos redactores, no existían perfiles profesionales verificables y no había ninguna indicación de que seres humanos estuvieran realmente escribiendo o revisando el contenido publicado.
Y la productividad de estos autores ficticios era sobrehumana, literalmente. John N., el supuesto autor de la nota falsa sobre Azaroff, publicó otras seis notas el mismo día. Él y los demás escritores fantasma publicaban una parrilla completa de notas diariamente, muchas de ellas basadas en eventos noticiosos reales ocurridos en el área metropolitana de Vancouver. El sitio no informaba en ningún momento que utilizaba inteligencia artificial para crear sus notas. Fue solo después de que la IJF comenzó a hacer preguntas que el Surrey Speak empezó a etiquetar algunas imágenes como generadas por IA.
Este patrón es típico de los más de 2,600 sitios de noticias generados por IA que Dimitriadis ha catalogado a lo largo de los últimos tres años mediante su trabajo en NewsGuard. Según él, estos sitios generalmente funcionan raspando contenido de fuentes periodísticas confiables y produciendo resúmenes automatizados. Los artículos resultantes tienden a ser genéricos, formulaicos y vagos, con pocas citas directas, referencias específicas o créditos a los medios de comunicación que originalmente investigaron la información.
Imágenes Fabricadas de Víctimas Reales de Crímenes
Quizás el aspecto más perturbador de la operación del Surrey Speak sea la utilización de imágenes generadas por inteligencia artificial basadas en víctimas reales de crímenes. Un análisis del código fuente del sitio reveló que al menos parte de las imágenes publicadas aparentaba haber sido creada por ChatGPT.
Un caso particularmente grave involucró la cobertura de un robo violento ocurrido en New Westminster, en la Columbia Británica. El Surrey Speak publicó una nota sobre el incidente acompañada de una imagen que mostraba a una mujer mayor luchando contra un agresor vestido con una sudadera gris. El robo realmente ocurrió, según confirmaron fuentes oficiales. Sin embargo, Suki Sadhre, hijo de la víctima real, informó a la IJF que la mujer retratada en la imagen del Surrey Speak no era su madre. La comparación entre un fotograma del video real del robo y la imagen publicada por el sitio evidenciaba diferencias claras, confirmando la naturaleza artificial de la foto.
Otro caso involucró la cobertura de la condena de Everton Downey, un hombre de la Columbia Británica condenado por el asesinato de su novia de 25 años, Melissa Blimkie, en 2025. El Surrey Speak publicó una foto generada por IA de Blimkie. La IJF verificó la autenticidad de la imagen mediante dos herramientas separadas de detección de IA, y Dimitriadis realizó una verificación adicional usando el servicio Hive, utilizado por NewsGuard. Los tres análisis confirmaron que la foto era generada por inteligencia artificial. Un miembro de la familia de Blimkie contactado por la IJF calificó el uso de la imagen como preocupante.
En un caso más cómico, pero igualmente revelador, una nota sobre el presupuesto de la Columbia Británica fue acompañada por una imagen que incluía una ilustración imprecisa de un billete de mil dólares canadienses, una denominación extremadamente rara que dejó de ser moneda de curso legal hace más de cinco años.
Errores Factuales en Otras Notas
La nota sobre Azaroff estaba lejos de ser el único ejemplo de error factual grave. Una nota reciente firmada por John N. afirmaba falsamente que trabajadores sindicalizados de Amazon en un almacén en Delta, en la Columbia Británica, habían conquistado un aumento salarial significativo mediante negociación colectiva.
En realidad, esos trabajadores nunca firmaron un acuerdo colectivo. Efectivamente recibieron un aumento, pero solo porque su sindicato reclamó con éxito ante un tribunal que Amazon los había excluido injustamente de un ajuste salarial que ya había sido otorgado a otros trabajadores no sindicalizados. La diferencia entre las dos versiones es enorme y tiene implicaciones directas sobre cómo el público entiende las relaciones laborales en la región.
Las Conexiones con ADGTech y la Red Detrás del Sitio
El Surrey Speak no identificaba a sus propietarios ni operadores. Un número de teléfono y un correo electrónico listados en el sitio no respondieron a las consultas de la IJF. Pero la investigación encontró evidencias que parecen vincular el sitio con ADGTech Solutions Inc. y con su CEO, Anuj Sayal.
Una versión anterior del sitio del Surrey Speak listaba información de contacto que incluía el apartado postal canadiense general de ADGTech. También incluía un número de teléfono listado por ADGTech. Y el sitio además listaba una dirección oficial en el centro de Vancouver que también era utilizada por ADGTech. Cuando el Surrey Speak cambió su información de contacto a un número diferente, ese nuevo número era utilizado por ADGScribe, un proyecto de la propia ADGTech.
El sitio estaba listado como proyecto de una misteriosa empresa llamada Network 247, que se describía como la red de influencia digital de más rápido crecimiento en Canadá y afirmaba alcanzar a millones de personas en la Columbia Británica mensualmente a través de páginas de redes sociales llamadas I Love Vancouver e I Love Surrey. La Network 247 utilizaba la misma dirección física del Surrey Speak y anteriormente informaba en su sitio que era impulsada por ADGTech.
La IJF también llamó por teléfono a Pankaj Sayal, listado como director de ADGTech en la Columbia Británica junto con Anuj Sayal. Pankaj Sayal confirmó que estaba familiarizado con el Surrey Speak y dijo por teléfono que Anuj es quien se encarga de eso.
ADGTech afirma en LinkedIn que emplea a más de 200 personas y recibió apoyo del VentureLabs de la Universidad Simon Fraser, descrito como el principal acelerador tecnológico de Vancouver. La dirección física listada por ADGTech y por el Surrey Speak era, en realidad, un espacio de coworking operado por SFU VentureLabs en el centro de Vancouver. Cuando la IJF visitó el lugar, una recepcionista informó que ADGTech no alquilaba realmente ese espacio y que ni el Surrey Speak ni la Network 247 estaban afiliados a VentureLabs.
A pesar de todas esas conexiones aparentes, Vivek Kumar, quien se describe en LinkedIn como jefe de desarrollo empresarial y del sector público de ADGTech en Nueva Delhi, India, afirmó a la IJF que su empresa no opera, gestiona ni ejerce control editorial sobre el Surrey Speak. Kumar no respondió a preguntas de seguimiento sobre los numerosos vínculos aparentes entre su empresa y el sitio. La IJF contactó a Anuj Sayal en diversas ocasiones por correo electrónico y llamadas telefónicas, pero no obtuvo respuesta.
En un perfil publicado en 2025 en el sitio de VentureLabs, Sayal declaró que ADGTech había comenzado como una empresa de marketing y ahora estaba enfocada en ofrecer información detallada para empresas que buscan crecer en línea mediante IA. Y agregó algo que suena especialmente irónico ante los hallazgos de la investigación: En ADGTech, priorizamos la IA ética en todos nuestros productos.
El Modelo de Negocio Detrás de las Granjas de Contenido de IA
El periodismo no es conocido como una industria lucrativa. Pero con un costo operativo prácticamente nulo, los sitios de noticias generados por IA aún logran generar ingresos con publicidad en línea, siempre que obtengan suficientes visualizaciones de página. Dimitriadis explica la lógica de forma directa: cuantos más artículos produces, básicamente solo necesitas que uno de ellos se haga viral. No necesitas que todos se hagan virales. Y si consigues un artículo viral que genere muchas visualizaciones e impresiones de página, estás en camino de algo autosostenible y quizás hasta rentable.
El Surrey Speak no mostraba publicidad en su página al momento de la investigación, pero listaba un correo de marketing en el sitio, indicando que estaba buscando anunciantes. La Network 247, por su parte, también listaba un segundo proyecto llamado Maple Newswire, cuyo dominio de sitio también estaba conectado a ADGTech. Anuj Sayal y ADGTech publicaron recientemente en LinkedIn un anuncio de empleo para la MaplePulse Network, con un enlace al Maple Newswire, que era anunciado como la plataforma de influencia digital y participación cívica de más rápido crecimiento en Canadá, utilizando herramientas propietarias basadas en IA para ayudar a marcas y figuras públicas a convertirse en tendencia entre comunidades.
Las Consecuencias para el Periodismo y para la Confianza Pública
Angela Misri, profesora asociada de periodismo en la Universidad Metropolitana de Toronto, clasificó el contenido producido por sitios como el Surrey Speak como AI slop, un término que podemos traducir libremente como basura de IA. Según ella, estos sitios están haciendo aún más difícil que las personas separen los hechos de la ficción y, en el proceso, están erosionando la confianza ya frágil que el público deposita en los medios.
Las personas no entienden que noticia no es lo mismo que simplemente contenido. Y estos son solo granjas de contenido basura, afirmó Misri. Esto está compitiendo directamente con las redacciones por la atención de nuestro supuesto público. Vamos a ver mucho más de esto. La basura de IA genera más basura de IA.
Esta última observación de Misri apunta a uno de los riesgos más preocupantes a largo plazo. Una vez que una información falsa está en internet, puede ser absorbida y reutilizada por otro motor de IA, que la tratará como si fuera un dato legítimo, sin detectar el error. Sea de donde sacaron la información, de Reuters o de Facebook, están tratando todo de la misma manera, alertó Misri.
El propio Azaroff expresó preocupación de que la nota falsa publicada sobre él pudiera aparecer en búsquedas alimentadas por IA en motores como Google. Me molesta porque es tan obviamente basura de IA o simplemente desinformación intencional. El momento pareció muy sospechoso, dijo.
El Surrey Speak eliminó la nota sobre Azaroff de su sitio el 23 de febrero, diez días después de la publicación original. También eliminó las fotos generadas por IA de Melissa Blimkie y de la madre de Sadhre después de que la IJF preguntara sobre ellas. El sitio no publicó ningún aviso de retractación ni presentó razón alguna para la eliminación de las publicaciones.
Un Problema Global en Escala Creciente
Investigadores afirman que el Surrey Speak es solo uno entre miles de sitios de noticias generados por IA que están surgiendo en Canadá y en todo el mundo. Dimitriadis, quien ha catalogado más de 2,600 de estos sitios en los últimos tres años, dijo estar especialmente preocupado por el crecimiento de esta tendencia a lo largo del último año. Argumenta que, al competir con medios de noticias reales por ingresos publicitarios limitados, estos sitios van a apretar aún más el cerco financiero sobre publicaciones periodísticas legítimas.
Parte del desafío, para mí, es intentar descubrir cómo impedir que estos sitios manipulen la industria publicitaria y engañen a marcas reales haciéndoles pensar que este es un lugar legítimo para que estén sus anuncios, afirmó Dimitriadis.
Para Misri, el riesgo es aún más profundo y filosófico. A medida que el contenido generado por IA ocupa cada vez más espacio en internet, teme que los motores de búsqueda y asistentes de IA consuman menos periodismo real y comiencen a alimentarse del contenido unos de otros. El resultado sería un océano de basura que se aleja cada vez más de la realidad factual.
La verdad se está convirtiendo en minoría en internet. Y esa es la parte aterradora, concluyó Misri. 😬
Lo Que Este Caso Nos Enseña Sobre el Consumo de Información
El caso del Surrey Speak es un recordatorio contundente de que la apariencia de profesionalismo no garantiza la veracidad de un contenido. Sitios con diseño limpio, lenguaje periodístico y publicación frecuente pueden ser nada más que operaciones automatizadas de fabricación de contenido. La investigación de la IJF mostró que, detrás de una fachada de medio local comprometido con personas reales, asuntos reales y cambios reales, según el propio eslogan del sitio en Facebook, había un sistema que publicaba mentiras sobre personas reales, fabricaba imágenes de víctimas de crímenes y no demostraba ningún compromiso con la verdad factual.
La inteligencia artificial es una herramienta poderosa que está transformando innumerables sectores, incluido el propio periodismo. Redacciones serias alrededor del mundo están explorando formas éticas y transparentes de utilizar IA para asistir en tareas como transcripción, análisis de datos y traducción. Pero lo que separa el uso responsable del abuso es la presencia de supervisión editorial humana, el compromiso inquebrantable con la verificación de los hechos y la transparencia con el público sobre cómo y por qué se está empleando la tecnología.
Estar atentos al origen de las noticias que consumimos y compartimos dejó de ser solo un buen hábito. En un escenario donde la producción de desinformación convincente se volvió absurdamente barata y rápida, verificar antes de compartir se convirtió en una responsabilidad de todos nosotros. 👀
