
Desde un reel de menos de un minuto que intercala imágenes de aviones con el ataque a Irán, tal como si fuese una escena de un videojuego, hasta el posicionamiento de un “artista” de hip hop irreverente, la manipulación del pensamiento con el uso de la inteligencia artificial (IA) cada día gana más terreno. No es casualidad, es adaptación a la nueva forma de pensamiento.
En el ecosistema digital son infinitos los trabajos de investigación de científicos sociales y universidades reconocidas sobre el cerebro humano y el cambio de su funcionamiento tras la vorágine de las redes sociales. Contenidos cortos, llamativos, sin profundidad, pero con palabras e imágenes de gran impacto inundan Facebook, Tiktok, X, Instagram y aquellas no tan conocidas en el mundo occidental. Todo ello con un solo propósito: moldear pensamientos.
Esto no es casualidad, es una estrategia que tiene siglos perfeccionándose. Controlar el pensamiento humano ha sido una fuente de búsqueda constante. Ha pasado desde el experimento del fisiólogo Iván Pavlov a finales del siglo XIX, en el que planteaba que un estímulo repetido que genera una respuesta automática e involuntaria, hasta las sofisticadas arquitecturas de datos actuales.
Hoy, ese estímulo repetido se ha transformado en un flujo algorítmico de microdosis de dopamina que, al igual que la campana de Pavlov, condiciona nuestra atención y moldea creencias bajo la apariencia de una elección libre. No es una exageración: la reacción ansiosa que nos provoca el sonido de una notificación o la urgencia al ver que el celular se descarga, es la prueba de ese condicionamiento moderno.
Esta verdad de Perogrullo es un secreto a voces que ha sido empleada no solo para fines nobles como la educación, sino también para propagandísticos y que han tenido el fin de moldear masas y hacer que se perpetúen ideas o se genere aceptación de ellas, aunque inicialmente parecían inverosímiles o iban en contra del sistema de creencias.

Asfixia de los canales de comunicación
Ayer fueron el cine, la prensa escrita, la radio y la televisión, ahora las redes sociales. Todas estas han sido, y siguen siendo, las vías más efectivas para controlar las masas y justificar acciones que, incluso, pueden atentar en contra de la humanidad. Ante este planteamiento, más de un escéptico puede calificar la afirmación anterior de “paranoica”, lo cual también suele ser una postura que es producto de un pensamiento condicionado y colonizado. Deshojemos la margarita.
La forma de moldear el pensamiento es tan imperceptible que basa su génesis en lo absurdo. Desde los deepfakes (ultrafalsificaciones) y el shitposting (publicación de contenido basura o absurdo), la intención no es que alguien crea en la publicación inverosímil, sino estimular de forma constante el pensamiento para disminuir su capacidad de análisis y discernimiento de la realidad. ¿O es que acaso cree que es casual que mientras más corto sea el video más visualizaciones tiene? La intención es mantenerlo en un scroll infinito con estímulos constantes y diferentes. ¿Ya entiende por qué puede pasar horas frente al celular deslizando la pantalla?
Con esta antesala, en los últimos años aparece lo que se conoce como la slopaganda (propaganda de relleno generada por IA). Con esta estrategia, la desinformación artesanal que era fabricada con editores de video e imágenes, ahora se transforma en un contenido con apariencia “real” de fabricación industrial y masiva. No es inofensivo: actúa asfixiando los canales de comunicación y agotando la respuesta cognitiva de las audiencias, dejándolas vulnerables ante estímulos diseñados para anular el juicio crítico.
Es la explicación de que podemos escuchar canciones con voces familiares o videos con tal realismo que nos confunde y nos lleva a no identificar fácilmente si son creadas por inteligencia artificial. La intención de esta sobrecarga de contenidos “falsos” es saturar los sentidos de contenido que, aunque parezcan incoherentes y extraños, no se puedan contrastar con los reales.

Ensayos para engañar la razón
Lo de sustituir la realidad no es un hecho nuevo y aislado. Si revisamos la historia de la industria cultural pueden identificarse que la manipulación actual por medio de la inteligencia artificial ha sido un ensayo progresivo para que la audiencia normalice lo que no es real.
A principios de los 90 se recuerda un caso emblemático que destapó como se pueden controlar masas a través de una mentira: Milli Vanilli. Este dúo vendía una imagen atlética y carismática mientras sincronizaba sus labios sobre voces de cantantes anónimos. Aquello fue un fraude «analógico», en el que el engaño residía en separar el cuerpo del talento. ¿Primer ensayo?
Luego siguió la era del Autotune (afinación automática), una herramienta que nació para corregir pequeñas imperfecciones, pero que terminó por crear una estética vocal robótica y homogénea. Géneros enteros, desde el pop, el reguetón hasta el trap, educaron el oído humano para aceptar voces procesadas y carentes de matices humanos como una nueva estética.
Ahora ya no se trata de retocar una voz o mostrar a un modelo que simula cantar, por medio de la IA se fabrica la existencia de portavoces. Un ejemplo claro es el proyecto de Danny Bones, el rapero británico generado por IA que utiliza una imagen y una voz totalmente sintéticas para movilizar sentimientos políticos.
Estamos ante el perfeccionamiento del engaño: ya no solo aceptamos que la voz sea falsa o que la imagen sea prestada, ahora aceptamos que el emisor sea un algoritmo diseñado para que ni siquiera extrañemos la presencia de lo humano.

La mentira para manejar la ideología
Bones ha logrado posicionarse en sectores específicos de la población británica. El éxito de las millones de reproducciones en plataformas como TikTok e Instagram, se debe a que este producto de la IA ha capitalizado las quejas de las clases trabajadoras europeas y se ha convertido en “un espejo de la rabia”. De esta forma, sus letras se inclinan en mostrar el rechazo sobre la inmigración, fenómeno social al que califica como invasión.
Además, a través de rimas simples y repetitivas, esta creación digital apela a la nostalgia de una identidad nacional perdida para atacar lo que denomina la «dictadura de lo políticamente correcto». Sus letras logran que el receptor no solo consuma el mensaje, sino que las internalice como una verdad visceral.
Desde este concepto, la música se despoja de su dimensión creativa para convertirse en el mecanismo de entrega más eficiente de la slopaganda: un bombardeo rítmico que busca normalizar discursos de odio mediante la saturación del canal auditivo y la anulación del juicio crítico.
Este “producto” se vuelve peligroso porque, para el ojo no entrenado, Bones parece un líder de opinión real y orgánico. Su origen vinculado a grupos de extrema derecha como Advance UK y la agencia The Node Project, demuestra que la aceptación del público no es casual, sino el resultado de un diseño de ingeniería social.
Al final, no importa si el emisor es de carne y hueso, si el estímulo (la canción, el video, el mensaje de odio) logra activar el reflejo condicionado de la audiencia, el avatar cumple su función política de movilizar a las masas sin necesidad de existir realmente.
Una mentira repetida mil veces…
Otro ejemplo de slopaganda institucional es el manejo comunicacional del presidente estadounidense Donald Trump. En el ecosistema digital, especialmente en su red social Truth, su equipo ha recurrido sistemáticamente a la generación masiva de imágenes por IA para proyectar una iconografía de “salvador” y “jefe absoluto”.
Desde representaciones él mismo rodeado de comunidades que supuestamente lo aclaman, hasta paisajes distópicos de ciudades estadounidenses en ruinas bajo mandatos opositores, esta «fábrica de realidades alternativas» no busca informar al electorado, sino generar un estímulo visual permanente que refuerce el sesgo de confirmación de sus seguidores.
Bien lo dijo el ministro de Propaganda Nazi, Joseph Goebbels: «una mentira repetida mil veces se convierte en una verdad». Al igual que el experimento de Pavlov, la repetición incesante de estas imágenes sobre el mandatario norteamericano busca condicionar a la audiencia a rechazar cualquier hecho verificado que contradiga la narrativa visual. Limitar el debate racional sobre lo que se da por sentado.
Entonces, ya no se trata de repetir un solo eslogan, sino de inundar el ecosistema digital con miles de versiones de una misma falsedad hasta que el cerebro, agotado y condicionado, deja de buscar la verdad para aceptar la repetición como realidad. Lo peligroso de todo esto es que así como Bone, la creación de artistas o estrategias por IA vinculados con las herramientas de la neurociencia y la psicolingüística puede quitar a la humanidad el atributo principal que la distingue de otras especies animales: el poder de razonar.
Contrarrestar la asfixia de la slopaganda exige mucho más que herramientas tecnológicas: requiere una rebelión de la consciencia, la conciencia y volver a confiar en el criterio humano, aceptando el error como parte necesaria de la realidad.
Si el algoritmo busca automatizar la respuesta emocional mediante el condicionamiento, la defensa es recuperar el pensamiento lento y la pausa crítica: dudar de la imagen perfecta, verificar la fuente detrás del avatar y, sobre todo, exigir transparencia. Por ello la educación y la educomunicación, como defendía Mario Kaplún, es vital para la defensa de la neocolonización del pensamiento.
El reto es dejar de ser receptores que se comportan instintivamente como el perro del experimento de Pavlov que reacciona a una notificación de una red social, para volver a ser un ciudadano que analiza, cuestiona y recupera su soberanía cognitiva.
Natchaieving Méndez

