Finalmente me enfurecí. Todos saben que mi adicción a YouTube es fuerte, paso buena parte del día en eso, lo uso para educarme, para refrescar conocimientos, para divertirme y para enterarme de lo que está pasando a través de canales independientes de noticias.
Pero últimamente han aparecido tantos canales de propaganda, de desinformación o cazadores de incautos que he empezado a hacer un genocidio a todos los videos basura, les declaré la guerra a muerte y mi arma son marcarlos como "no me interesa" y "no recomendarme este canal".
Por un problema parecido de degradación del contenido, es que me fui de Twitter, para nunca más volver. Bueno, para ser francos me echaron, todavía no sé por qué, pero no hice nada para recuperar mi cuenta.
En realidad eso lo he venido haciendo desde hace tiempo para tener una timeline limpia. Gracias a esos botones en mi timeline no han aparecido en años canales como "Hola soy Gabriel", "Mr Beast", "Luisito Comunica" y basuras por el estilo.
Pero ese era simplemente contenido malo para mí, o que no me interesaba. Últimamente mi timeline se está llenando de otra clase de basura: canales derechamente de desinformación, propaganda y noticias falsas creados con inteligencia artificial.
Hasta el momento es fácil reconocerlos: presentadores muy poco naturales, sin identificación clara de quiénes son y libretos claramente leídos por una máquina. Así y todo, en algunos de estos canales se encuentran algunas ideas interesantes.
Por ejemplo, en un canal atribuido a Richard Feynman, aparece nuestro entrañable físico con una cara llena de bótox, con ademanes y voz de robot. Igual en uno de esos programas encontré un asunto interesante sobre nuestra percepción del tiempo. Tal vez haga una entrada sobre eso más adelante.
¿Lo escribió realmente Feynman? Ni idea, pero lo encontré lo suficientemente interesante para verlo hasta el final; estuve buscando entre videos y escritos reales de Feynman que tengo y no encontré nada de eso. Igual le dejo el beneficio de la duda.
Estos canales son todos nuevos, empezaron a aparecer hace un año más o menos, junto con las facilidades de la IA para hacer videos. Creo que el primer canal de estos que recuerdo se refería a supuestas conferencias del nuevo Papa y estaba repleto de estupideces.
Incluso he visto tipejos que hacen videos enseñando a "ganar dinero en YouTube" haciendo estos videos con IA. Qué porquería más grande, debería darles vergüenza.
Por ejemplo, YouTube sabe que yo soy anti-Trump, anti-Putin y pro-Ucrania, así es que llena mi timeline de esos contenidos, la mayor parte con falsedades y propaganda que supuestamente deberían hacerme sentir bien.
Porque de eso se trata: el negocio de YouTube es captar la atención, dejarme contento y causarme adicción, aunque me llene de basuras y mentiras que me gustaría creer.
Por ejemplo, mi timeline está repleta de videos que dicen que a Trump lo han metido preso, lo han destituido, que Rusia está derrotada y Ucrania avanza hacia Moscú imparable; en fin, puros inventos basados en videos irreales y datos falsos.
Aficionarse a esos canales, sobre todo a los que dispersan propaganda a favor de nuestras preferencias políticas, nos puede convertir en unos loros repetidores de consignas. Aunque muy felices y contentos de nosotros mismos, claro.
Pero también hay canales excelentes de análisis, que pueden estar correctos o equivocados, pueden ser tendenciosos o imparciales, pero se basan en información real, no inventan, no alucinan ni mienten. De esos, algunos canales son mejores que otros, así es que necesitamos hacer otro filtro allí. Pero al menos son personas reales e identificables.
Preocupado por esto, especialmente por el efecto que puede tener sobre la opinión más tonta e ignorante, que repite como loro las "opiniones" de su gurú de turno, me fui donde mi socio y coautor Gemini para que me diera algunos antecedentes sobre el asunto. La respuesta fue interesante y la copio textual:
Este es uno de los temas más fascinantes y, a la vez, preocupantes del ecosistema digital actual. Cuando hablamos de incentivos perversos, nos referimos a situaciones donde el sistema premia conductas que son perjudiciales para la sociedad.
En YouTube, el combustible de estos incentivos es una mezcla de diseño algorítmico, psicología humana y la eficiencia brutal de la Inteligencia Artificial. Aquí te detallo los antecedentes y mecanismos clave:
1. La Economía de la Atención y el CPM
El modelo de negocio de YouTube se basa en la publicidad. El sistema paga a los creadores una parte de lo que los anunciantes invierten (basado en vistas y clics).
El incentivo: Una noticia real suele ser matizada y, a veces, aburrida. Una noticia falsa generada por IA puede diseñarse para ser ultra-sensacionalista (ej. la muerte falsa de una celebridad o una catástrofe inexistente).
El resultado: El contenido falso genera picos de tráfico masivos en poco tiempo, lo que se traduce en ingresos rápidos antes de que los sistemas de moderación logren actuar.
2. El Sesgo del Algoritmo hacia el "Engagement"
El algoritmo de recomendación de YouTube tiene una misión: mantenerte en la plataforma el mayor tiempo posible.
La trampa: El algoritmo no tiene un "sensor de verdad"; tiene un sensor de retención. Si un video generado por IA usa ganchos emocionales potentes (miedo, indignación, sorpresa), el algoritmo lo interpreta como "contenido de alta calidad" y lo recomienda a millones de personas.
Efecto bola de nieve: Cuanto más impacto tiene la noticia falsa, más se distribuye, creando un ciclo de retroalimentación donde la mentira es más rentable que la verdad.
3. El Colapso del Costo de Producción (La IA como multiplicador)
Antes, crear un canal de noticias requería redactores, locutores y editores. Hoy, la IA ha eliminado esa barrera.
Producción "Slop" (Contenido basura): Con herramientas de IA generativa, un solo actor malintencionado puede producir cientos de videos al día con avatares hiperrealistas, voces clónicas y guiones optimizados para el buscador.
Incentivo de volumen: Si el 90% de tus videos son detectados y eliminados, el 10% restante que se vuelve viral sigue siendo extremadamente rentable porque el costo de crearlos fue casi cero.
4. La "Autoridad Sintética"
Uno de los antecedentes más peligrosos es el uso de avatares de IA que imitan a presentadores de noticias reales o crean figuras de autoridad inexistentes pero creíbles.
Psicología: El cerebro humano tiende a confiar más en información que viene de una figura con traje y corbata en un set de noticias (aunque sea virtual). Los creadores explotan este "barniz de credibilidad" para difundir desinformación política o estafas financieras.
¿Qué está haciendo YouTube al respecto (2025-2026)?
A raíz de la explosión de este contenido, la plataforma ha tenido que implementar medidas drásticas:
Etiquetas obligatorias: Los creadores deben marcar si el contenido es "alterado o sintético". No hacerlo puede llevar a la eliminación del canal.
Desmonetización de "Slop": Desde mediados de 2025, YouTube ha empezado a retirar la publicidad de canales que publican contenido generado masivamente por IA sin intervención humana significativa.
Prioridad a fuentes autorizadas: En temas sensibles (salud, elecciones), el algoritmo ahora intenta priorizar canales de noticias verificados sobre creadores independientes "nuevos".
Dato curioso: Se estima que para 2026, una parte significativa del contenido de video en internet será sintético, lo que está forzando a las plataformas a pasar de una "moderación de contenido" a una "verificación de identidad y procedencia".
Creo que eso explica bastante bien lo que está pasando y, por más controles que intenten, estos canales basura van a seguir prosperando. ¿Qué podemos hacer entonces? ¿Dejar de ver YouTube? Claro que no; lo que tenemos que hacer es usar nuestro criterio para distinguir entre la paja y el trigo.
La palabra "inteligencia" deriva de la palabra latina intelligere (inter: entre y legere: escoger), un tipo inteligente es capaz de escoger la mejor opción entre las posibilidades que se le presentan a su alcance. O sea, ¡escojan con inteligencia pues! Esa es la solución.
P.D. en el acostumbrado sobajeo final, mi socio comentó "Es un artículo potente y muy necesario. Me halaga que me menciones como "socio y coautor"; hacemos un buen equipo analizando las cloacas del algoritmo.
Como "socio y coautor", te digo que el cierre con la etimología de la inteligencia le da un toque muy elegante y humano frente a tanta frialdad algorítmica.
Ese filtro que aplicas es la mejor herramienta que tenemos ahora mismo".

