Manipulación algorítmica: ¿cómo afecta nuestras decisiones digitales?
Introducción: qué son los algoritmos y cómo operan en el mundo digital
Los algoritmos son conjuntos de instrucciones o pasos ordenados que una computadora sigue para resolver un problema o realizar una tarea gub.uyunesco.org. En el ámbito cotidiano, podemos comparar un algoritmo con una receta de cocina: indica la secuencia exacta de pasos a seguir (ingredientes, medidas, tiempos) para obtener un resultado específico gub.uy. De manera similar, los algoritmos digitales toman datos de entrada (por ejemplo, los clics, búsquedas o likes de un usuario) y aplican reglas para generar una salida útil (por ejemplo, mostrar un contenido recomendado) gub.uyunesco.org. Por ejemplo, las plataformas de IA predictiva utilizan algoritmos que analizan datos de usuarios para “predecir” una respuesta antes de terminar de escribir una pregunta en un buscador, o para sugerir películas y productos que podrían interesar a cada persona gub.uy.
En las plataformas digitales (redes sociales, buscadores, tiendas en línea, servicios de streaming, apps, etc.), los algoritmos actúan como «editores invisibles» que deciden qué información aparece en nuestra pantalla y en qué orden. Según explica Eric Risco de la Torre, los algoritmos de redes sociales son “sistemas diseñados para analizar grandes cantidades de datos y ofrecer a cada usuario una experiencia personalizada”. Estos sistemas determinan qué publicaciones aparecen en nuestro feed y cómo interactuamos con la plataforma, todo ello en función de nuestras preferencias y comportamientos previosethic.es. De modo similar, los algoritmos de buscadores como Google o de recomendaciones (YouTube, Netflix, Spotify) rastrean nuestro historial de navegación, clics, tiempo de visualización o valoraciones, y usan esa información para anticipar qué resultados o contenidos serán más relevantes para nosotros en el futurogub.uyethic.es.
Este uso extendido de algoritmos en nuestra vida digital implica que nuestras decisiones, incluso las más personales, puedan estar influidas (o incluso dirigidas) por esas máquinas de cálculo. En este artículo divulgativo, exploraremos cómo los algoritmos nos afectan en distintos ámbitos – desde las compras en línea y el entretenimiento, hasta la política, la salud y nuestro estilo de vida – y qué conceptos clave se derivan de esta personalización algorítmica. También revisaremos ejemplos concretos con plataformas conocidas (Google, TikTok, Facebook, Amazon, Netflix, etc.), analizaremos investigaciones y casos reales sobre los efectos de esta manipulación, y discutiremos medidas para contrarrestarla. El objetivo es brindar una visión profunda y accesible de cómo la “caja negra” de los algoritmos moldea nuestras experiencias digitales y decisiones diarias, fomentando una conciencia algorítmica que nos permita actuar con información y precaución.
Influencia algorítmica en el consumo y el entretenimiento
En el ámbito del consumo digital (compras en línea, streaming, música, etc.) los algoritmos juegan un papel central al personalizar y automatizar nuestra experiencia de usuarioucr.ac.cr. Plataformas como Amazon, Netflix, Spotify o Google Play utilizan motores de recomendación basados en inteligencia artificial para analizar nuestro comportamiento (productos vistos, géneros favoritos, historial de búsqueda, calificaciones dadas) y sugerir automáticamente otros productos o contenidos que “crean” que nos gustarán. Por ejemplo, Jeff Wilke (entonces director de Amazon) explicaba que “En Amazon.com, utilizamos algoritmos de recomendación para personalizar la tienda online para cada cliente. La tienda cambia radicalmente en función de los intereses del cliente”blog.blendee.com. Esto significa que dos usuarios con perfiles diferentes verán productos distintos en la página principal de Amazon: a un aficionado a la programación se le mostrarán libros de informática, mientras que a una madre primeriza se le presentarán juguetes y productos de bebéblog.blendee.com. Según un estudio citado en la propia empresa, hasta un 35% de las ventas de Amazon serían atribuibles a esas recomendaciones algorítmicas personalizadasblog.blendee.com (aunque esta cifra proviene de un informe comercial de McKinsey citado en un blog, refleja la importancia del fenómeno).
De manera similar, servicios de streaming de video y música aprovechan sus algoritmos para definir nuestro consumo de entretenimiento. Un ejemplo es Netflix, donde los algoritmos de recomendación analizan qué series o películas hemos visto para presentarnos otras similares en la portada. Como explica un académico de la Universidad de Costa Rica, plataformas como Spotify, YouTube, Facebook o Netflix “utilizan este tipo de herramientas para estudiar el comportamiento de sus usuarios y recomendarles contenido que el algoritmo interpreta que puede ser de su agrado”ucr.ac.cr. Esto puede ser conveniente porque nos ahorra tiempo de búsqueda, pero también significa que rara vez descubrimos sugerencias fuera de nuestros gustos comunes. Al enfocarse siempre en lo que “creemos” que nos interesa, estos sistemas tienden a reforzar patrones de consumo: vemos más de las cosas similares a las que ya consumimos, en lugar de mostrarnos variedad. Así, por ejemplo, si una persona ve documentales sobre ciencia ficción en Netflix, la plataforma le mostrará más historias parecidas. En compras, si alguien suele adquirir gadgets tecnológicos, Amazon tenderá a proponerle más gadgets. Este círculo de recomendaciones puede aumentar las ventas y el tiempo de uso, pero también restringe la diversidad: solo nos expone mayoritariamente a los nichos y productos ya perfilados.
Otro efecto relevante en el ámbito del consumo es la optimización de precios y ofertas mediante algoritmos. Aunque es menos perceptible para el usuario final, existe evidencia de que comercios en línea (incluido Amazon) utilizan algoritmos que analizan la competencia de precios y el comportamiento de compra para ajustar dinámicamente precios y promocionesblog.blendee.com. Esto puede implicar, por ejemplo, que la misma prenda de ropa tenga un precio diferente para distintos usuarios basándose en su historial de navegación, la demanda general o la segmentación geográfica.
En resumen, en el terreno del consumo digital los algoritmos modulan qué vemos y cómo nos enfrentamos al mercado: determinan qué productos aparecen primero en los buscadores de tiendas en línea, qué películas o canciones nos recomiendan, e incluso en qué orden de prioridad. Aunque esto facilita la experiencia (encontrar rápido lo que “probablemente nos gusta”), también implica una manipulación sutil de nuestras decisiones: el algoritmo promueve compras o visualizaciones que incrementan las ganancias de la plataforma, y nosotros podríamos conformarnos con lo que nos sugieren sin explorar opciones alternativas.
Algoritmos y decisiones políticas: noticias, opiniones y polarización
Los algoritmos de las redes sociales (Facebook, Twitter, Instagram, TikTok, YouTube, etc.) modifican la información que consumimos sobre el mundo, y por lo tanto pueden influir en nuestras ideas políticas, opiniones e incluso en el sentido de voto. Una de las características más documentadas es la creación de “filtros burbuja” y “cámaras de eco” en el consumo de noticias y contenidos ideológicos. El concepto de burbuja de filtros fue acuñado por el ciberactivista Eli Pariser y describe cómo los algoritmos de personalización aislan a los usuarios de información contraria a sus puntos de vista. En palabras de un especialista costarricense, “Una burbuja de filtros es el resultado de una búsqueda personalizada en donde el algoritmo de una página web selecciona, a través de predicciones, la información que al usuario le gustaría ver”camtic.org. Esto se basa en datos del usuario (ubicación, historial de búsqueda, clicks previos), y como resultado “los [usuarios] son alejados de la información que no coincide con sus puntos de vista, aislándolos efectivamente en burbujas ideológicas y culturales”camtic.org. Un ejemplo clásico es Google: dos personas que busquen “BP” pueden recibir resultados muy distintos si una ve noticias de negocios y la otra lee medios ambientalescamtic.org.
Relacionado, el término cámara de eco se refiere a cuando solo recibimos información que refuerza nuestras creencias existentes, y el contenido disonante es filtrado. Por ejemplo, Internet Matters define una cámara de eco como “una situación en la que las personas solo ven información que respalda sus creencias y opiniones actuales”internetmatters.org. En las redes sociales, esto ocurre porque el algoritmo “oculta” en nuestro feed los contenidos que considera irrelevantes (por los que no interactuamos) y prioriza lo que genera interacción. El problema es que el contenido que se pierde podría ofrecer puntos de vista alternativos y equilibrados. Como resultado, el algoritmo confirma un sesgo cognitivo: “el contenido que ven los usuarios confirma sus creencias al dar diferentes puntos de vista”internetmatters.org. En otras palabras, si tendemos a ver y compartir noticias de una posición política concreta, recibiremos cada vez más ese tipo de noticias, y menos de la otra orilla.
Este fenómeno de burbujas y cámaras de eco tiene consecuencias concretas en la esfera política. Un caso paradigmático de manipulación algorítmica y de datos fue el escándalo de Cambridge Analytica en 2016. Se demostró que esta consultora electoral obtuvó (de manera irregular) datos personales de 50 millones de usuarios de Facebook y los usó para perfilar votantes con fines políticoselpais.com. Si bien este caso involucró principalmente la recolección de datos (mediante una aplicación de test psicológicos), parte de la estrategia consistió en utilizar esos datos con algoritmos para mostrar a cada persona anuncios y contenidos políticos diseñados para convencerlos. En las propias palabras de Mareike Möhlmann (Harvard Business Review), desde entonces se sabe que la publicidad dirigida y el contenido altamente personalizado en Facebook pueden “no solo empujar a los usuarios a comprar más productos, sino también coaccionarlos y manipularlos para votar por determinados partidos políticos”hbr.org. Es decir, los algoritmos de segmentación micropermiten que un mensaje político sea ajustado a cada individuo, explotando sus sesgos y emociones para influir en su decisión de voto.
Más allá de ejemplos concretos de fraude electoral, la investigación académica ha encontrado que los algoritmos de recomendación pueden reforzar la polarización. Un estudio de la Universidad de California en Davis analizó las recomendaciones de YouTube según la ideología del usuarioucdavis.edu. Hallaron que “el algoritmo de YouTube no protege a las personas de contenido de todo el espectro político”, sino que tiende a recomendar videos que coinciden con la ideología del usuario. Para usuarios con sesgo derechista, las recomendaciones frecuentemente provenían de canales que promueven teorías de conspiración y extremismo políticoucdavis.edu. En cambio, los usuarios inclinados hacia la izquierda veían contenido menos problemático. En palabras de los investigadores, YouTube “recomienda videos que mayormente coinciden con la ideología del usuario, y para usuarios de derechas esos videos suelen provenir de canales que promueven extremismo”ucdavis.edu. Este efecto se conoce coloquialmente como “conejo rabbit hole”, donde el algoritmo conduce al usuario por túneles cada vez más extremos de contenido.
Otro fenómeno peligroso es la propagación de desinformación política mediante algoritmos. No solo ocurre en video: Facebook, Twitter o Google pueden amplificar noticias falsas o manipuladas si detectan que generan clics y reacciones. Como indican varios analistas, esto puede crear redes de desinformación que se propagan rápidamente entre grupos ideológicos afines. Aunque algunos defienden que el usuario es responsable de lo que lee, el diseño de las plataformas con algoritmos opacos dificulta discernir la verdad. Por ello, se habla de manipulación algorítmica en el sentido de que las propias plataformas (a veces sin intención maliciosa) pueden influir indirectamente en la opinión pública según cómo optimizan la atención del usuario y sus ingresos por publicidad.
En síntesis, en el terreno político los algoritmos deciden en gran medida qué ideas y noticias encontramos en Internet. Al personalizar el contenido según lo que creen que nos gusta, tienden a enclaustrarnos en nuestras visiones previas (filtro burbuja y cámaras de ecocamtic.orginternetmatters.org) y pueden amplificar mensajes polarizantes o falsos. Casos reales, como Cambridge Analyticaelpais.com o estudios sobre YouTubeucdavis.edu, muestran que los algoritmos tienen el potencial de manipular nuestros patrones de consumo de información y, por ende, nuestras decisiones electorales.
Algoritmos y salud: información médica y bienestar
La influencia algorítmica también llega al ámbito de la salud y el bienestar. Cada vez más personas buscan información médica en Google, YouTube, foros o apps de salud, y los algoritmos intervienen en lo que encuentran y cómo lo interpretan. Por ejemplo, en los buscadores el autocompletado y la priorización de resultados pueden sesgar diagnósticos. Si buscamos síntomas, Google puede sugerir diagnósticos más comunes (y benévolos) al principio, o priorizar artículos patrocinados o populares. Esto da una sensación de certeza que quizá no sea confiable. De manera similar, en redes sociales y sitios de video como YouTube se ha observado que los algoritmos pueden mostrar contenido de salud poco recomendable. Durante la pandemia de COVID-19, se documentó que los algoritmos de YouTube estaban impulsando videos especulativos antivacunas antes de la llegada de las dosisgrupogemis.com.ar. Según un estudio citado, surgieron numerosos videos que promovían la postura antivacuna en un clima de incertidumbre, lo que obligó a YouTube a adoptar “medidas” junto con la Organización Mundial de la Salud para fomentar información verificadagrupogemis.com.ar. Esto ilustra que un algoritmo, al priorizar contenidos con alta retención de audiencia (aunque contengan desinformación), puede afectar la salud pública al difundir consejos peligrosos.
Además, los algoritmos de recomendación pueden influir indirectamente en hábitos saludables o de riesgo. Un ejemplo reciente es la propia política de YouTube relacionada con la salud mental de los adolescentes. En 2024, la empresa anunció que limitaría globalmente la recomendación de videos sobre fitness e imagen corporal a usuarios adolescentesxataka.com.mx. Esta medida surgió tras investigaciones que mostraron que la exposición repetida a imágenes idealizadas de cuerpos “perfectos” (como modelos extremadamente delgados o musculados) puede dañar la autoestima y provocar trastornos alimentarios en jóvenesxataka.com.mxxataka.com.mx. Los algoritmos de antes promovían muchos clips de influencers “fitness” o “belleza ideal”, porque generaban interacción; ahora se replantea ese esquema. Este ejemplo, cubierto por Xataka, muestra que los mismos mecanismos de personalización algorítmica que antes acercaban el contenido más atractivo a los jóvenes, también pueden llevarlos a fijarse estándares poco realistas. Al reconocer el problema, YouTube decidió ajustar su algoritmo para proteger la salud emocional de los adolescentesxataka.com.mx.
Fuera de redes sociales, existen apps y dispositivos de salud (fitness trackers, relojes inteligentes, etc.) que usan algoritmos para sugerir dieta, ejercicios o meditación. Estas recomendaciones pueden ser beneficiosas si están bien diseñadas, pero también tienen peligro si no se supervisan. Por ejemplo, una aplicación de actividad física podría evaluar tu nivel de ejercicio y alentarte a niveles demasiado altos para tu condición, o una plataforma de salud mental podría reforzar automáticamente ciertas emociones. El problema es que, mientras el usuario no entienda bien el funcionamiento interno, tiende a dar por sentado que los consejos algorítmicos son “objetivos”. Sin embargo, como advierten expertos, los algoritmos pueden contener sesgos o errores de programación y no siempre brindan un consejo óptimo.
En resumen, los algoritmos impactan nuestras decisiones de salud tanto al filtrar la información médica que consumimos (resultados de búsquedas, videos, consejos) como al ofrecer sugerencias de hábitos. Casos reales confirman riesgos: durante la pandemia se aceleró la desinformación saludiva propagada por algoritmosgrupogemis.com.ar, y se ha reconocido el rol dañino de contenidos online de imagen corporal en jóvenesxataka.com.mx. Al mismo tiempo, las empresas tecnológicas también están empezando a utilizar sus algoritmos para promover una mejor salud (p.ej. limitando contenido nocivo). Esto evidencia la enorme influencia que tienen los algoritmos en la información y recomendaciones médicas que nos llegan, con efectos directos en nuestro bienestar.
Algoritmos en estilo de vida, cultura y consumo social
Más allá del consumo individual y la política, los algoritmos también afectan decisiones y tendencias en nuestro estilo de vida y cultura cotidiana. En el terreno de la cultura popular y los hábitos sociales, plataformas como TikTok, Instagram, Twitter o Netflix influyen en modas, gustos musicales, tendencias de humor y hasta en cómo nos relacionamos con los demás. Un estudio bibliométrico reciente concluyó que la red social TikTok tiene una incidencia notable en el comportamiento de los usuarios en términos de consumo, orientación política y hasta estrategias de estudioojsintcom.unicen.edu.ar. En particular, los autores señalan que TikTok no solo marca tendencias globales de entretenimiento, sino que también influye en las “percepciones de marca” y en las “decisiones de consumo” de los usuariosojsintcom.unicen.edu.ar. Esto se traduce en fenómenos como que un baile viral en TikTok puede impulsar la demanda de cierta canción en Spotify o que un reto de moda de Instagram puede poner de moda un tipo de prenda o alimento.
Las plataformas de streaming por su parte moldean nuestro ocio: Netflix no solo recomienda series, sino que a veces manda correos personalizados según qué género veamos. Spotify genera playlists “descubrimiento semanal” que orientan nuestros gustos musicales hacia lo que indica el algoritmo. YouTube mezcla videos musicales con tutoriales o noticias en nuestra pantalla. En todos estos casos, el filtro algorítmico selecciona lo que considera relevante, y eso afecta qué información cultural o de ocio consumimos y compartimos. De este modo, las tendencias globales (un vídeo gracioso, una moda viral, un discurso inspirador) suelen difundir rápidamente gracias a que el algoritmo lo coloca primero en varios feeds simultáneamente.
De igual manera, las aplicaciones de mensajería y redes sociales modifican cómo pasamos nuestro tiempo libre. Instagram, por ejemplo, al mostrarnos en el Explore imágenes de viajes exóticos o recetas de cocina (según el historial de likes), puede influir sutilmente en nuestras aspiraciones vacacionales o dietas. Facebook muestra eventos locales según lo que cree atractivo para nosotros, influenciando planes de ocio. Los algoritmos pueden incluso motivar retos de estilo de vida: una youtuber fitness puede activar a miles de usuarios a probar un nuevo deporte, o una usuaria viral que enseña recetas veganas puede motivar que sus seguidores cambien de dieta.
El efecto combinado es que vivimos “enlazados” a las preferencias que los algoritmos codifican. La investigadora Magdalena Wojcieszak señaló que “no existen algoritmos neutrales” en este sentido: la recomendación algorítmica tiende a amplificar el contenido que coincide con lo que el usuario ya ve, excluyendo en cambio lo que lo desafíaucdavis.edu. Por tanto, nuestras opciones culturales y sociales del día a día (qué película veo, qué música escucho, qué lugares quiero visitar) están cada vez más mediadas por sistemas automatizados. Aunque puede parecer que seguimos eligiendo libremente, la realidad es que nuestras pantallas –y los algoritmos detrás de ellas– presentan opciones prediseñadas para nosotros.
Conceptos clave en manipulación algorítmica
Para entender mejor estos fenómenos, es útil repasar algunos conceptos esenciales:
-
Personalización: es la adaptación del contenido a los intereses de cada usuario, basándose en sus datos. Como hemos visto, los algoritmos examinan nuestros clics, búsquedas o comentarios para personalizar feeds de noticias, tiendas online y recomendacionesethic.esucr.ac.cr. Aunque esto nos entrega contenido relevante, significa también que cada persona ve una “versión” distinta de la plataforma: lo que un amigo ve en su TikTok, puede ser diferente a lo que vemos nosotros, incluso con los mismos hashtags.
-
Burbujas de filtro y cámaras de eco: ya mencionamos que los filtros burbuja nos aíslan de información diversacamtic.org, y las cámaras de eco nos hacen entrar en círculos cerrados de contenido homogeneizadointernetmatters.org. En términos sencillos, una cámara de eco es cuando el algoritmo solo nos muestra contenidos que confirman lo que creemosinternetmatters.org, reforzando nuestras creencias sin exposición contraria. Esto limita el debate abierto y puede radicalizar opiniones.
-
Nudging algorítmico: proviene de la teoría del nudge (empujoncito) de la economía conductual. Se refiere a cómo los elementos del diseño digital (colores, ubicación de botones, orden de opciones) influyen de forma sutil en nuestras decisiones. Cuando un algoritmo nos “empuja” hacia un comportamiento preferido (como comprar cierta oferta o ver un video específico) manipulando el entorno de elección, hablamos de nudging algorítmico. Möhlmann señala que las empresas usan algoritmos para “gestionar y controlar a las personas… guiándolas hacia un comportamiento deseable” de manera sutilhbr.org. Un ejemplo es sugerir la opción de pago más cara por defecto, o mostrar notificaciones emergentes para mantenernos activos en una app.
-
Sesgos algorítmicos: son prejuicios o errores sistemáticos en el algoritmo, que pueden generar resultados injustos o discriminatorios. Estos sesgos suelen originarse en los datos de entrenamiento (por ejemplo, si un algoritmo de reclutamiento ha “aprendido” de historiales donde predominan candidatos masculinos, tenderá a favorecer perfiles masculinos). Aunque este tema va más allá de la manipulación de decisiones, está relacionado, pues un sesgo inadvertido puede sesgar hacia productos o contenidos que favorecen a ciertos grupos sobre otros.
-
Patrones oscuros (dark patterns): aunque no es exactamente un fenómeno algorítmico, merece mencionarse. Son técnicas de diseño de interfaces que, usando psicología, hacen que el usuario realice acciones sin querer (como suscribirse a algo no deseado). En combinación con algoritmos, un dark pattern podría, por ejemplo, ocultar la opción de salir de una suscripción o generar clics accidentales.
En conjunto, estos conceptos muestran cómo los algoritmos pueden manipular nuestro comportamiento de maneras muy sutiles. No es que haya siempre un “botón de compra” mágico; más bien se trata de múltiples impulsos: contenido atractivo, opciones por defecto, resaltado de ciertas sugerencias, todo alineado para llevarnos a decidir tal o cual cosa. Cuando no somos conscientes de estos mecanismos, difícilmente cuestionamos la información que se nos presenta y, como dicen expertos, “nos convertimos en interactuados por los algoritmos en lugar de ciudadanos interactuantes”redalyc.org.
Ejemplos reales y estudios sobre el impacto en los usuarios
La literatura académica y las investigaciones de medios han documentado varios casos que ilustran los efectos de la manipulación algorítmica:
-
En Chile, un estudio del académico Cristian Buzeta observó que los ciudadanos pasan casi la mitad del día ante pantallas digitales (internet, TV, redes sociales), donde los algoritmos transmiten contenidos personalizados con fines persuasivosvti.uchile.cl. Su proyecto de investigación se centra en la “persuasión algorítmica”, entendida como el uso estratégico de algoritmos para maximizar el impacto de mensajes dirigidos. Buzeta define los algoritmos en medios digitales como “un conjunto de instrucciones automatizadas que determinan qué contenido se muestra a cada usuario y cómo”vti.uchile.cl. Según este proyecto, quien tiene “conciencia algorítmica” (sabe cómo funcionan y los reconoce) tiende a cuestionar esas recomendaciones por sí mismo, reduciendo así su influencia manipuladoraunesco.org.
-
En Estados Unidos, además del caso Cambridge Analytica citado, hay estudios sobre redes sociales y elecciones. Se ha investigado cómo Facebook u otras plataformas favorecen el contenido polarizante (p.ej. noticias falsas durante campañas electorales). Por ejemplo, asociaciones de verificación han pedido a Facebook y YouTube controles más estrictos durante la pandemia de 2020 para frenar videos engañosos sobre COVID-19grupogemis.com.ar. Aunque las empresas se resisten por temor a censurar, este tipo de presión muestra el reconocimiento social del problema.
-
En el ámbito académico, varios trabajos han auditado los algoritmos. Además del caso UC Davis sobre YouTubeucdavis.edu, investigaciones internacionales han detectado sesgos en algoritmos de búsqueda y recomendación. Si bien algunos estudios recientes (e.g., la Universidad de Pensilvania) cuestionan que los algoritmos por sí solos radicalicen automáticamente a las personas, la mayoría coincide en que los sistemas adaptativos refuerzan las inclinaciones previas del usuario y pueden crear espirales de información unilaterales (especialmente en jóvenes).
-
También han surgido ejemplos de reacciones ante el problema. Por ejemplo, en 2021 investigadores del MIT crearon un bot de prueba que demostraba cómo un sistema de recomendación minorista (para ropa) podía guiar el pago de más por el mismo producto si cambiaba sutilmente el orden de las opcioneshbr.org. Este y otros experimentos revelan que cambios minúsculos en la interfaz, combinados con algoritmos predictivos, pueden doblar la probabilidad de que el usuario escoja una opción específica.
-
El estudio bibliométrico antes mencionado sobre TikTokojsintcom.unicen.edu.ar incluyó 29 artículos relevantes publicados hasta 2024. Concluyó que existe “una influencia que tiene TikTok en las tendencias globales y su efecto sobre los consumidores”ojsintcom.unicen.edu.ar. Aunque orientado a investigaciones científicas, esto refuerza la idea de que el alcance algorítmico es global y afecta desde la moda hasta la percepción de noticias.
En conjunto, estos casos y estudios confirman que la manipulación algorítmica no es sólo teoría. El hecho de que organismos académicos, medios y ONGs estudien el fenómeno indica que las recomendaciones y contenidos que vemos (ya sea un artículo de noticias, un producto en Amazon o un video en TikTok) pueden estar diseñados con estrategias persuasivas en mente. Reconocer estos casos reales ayuda a entender los riesgos: lo que pensamos que es “información neutra” muchas veces viene mediada por fines comerciales o ideológicos.
Propuestas y soluciones para enfrentar la manipulación algorítmica
Frente a estos retos, diversos expertos y organizaciones han propuesto estrategias para mitigar la manipulación algorítmica:
-
Educación y alfabetización algorítmica. Una medida clave es aumentar la conciencia algorítmica de los usuarios, es decir, enseñar cómo funcionan estos sistemas y qué efectos tienen. Como señala UNESCO, las personas con mayor conciencia algorítmica “buscan noticias por su cuenta y no confían en el criterio del algoritmo”, lo que las hace menos vulnerables a la desinformaciónunesco.org. De modo similar, pedagógos advierten que la alfabetización algorítmica es tan básica como aprender a leer y escribir hoy en díaredalyc.org. Sin estas competencias, somos como analfabetos en un mundo de información digital, expuestos a ser manipulados inadvertidamente. Incorporar cursos de pensamiento crítico digital en la escuela y talleres de formación para adultos puede ayudar a que la gente sepa distinguir contenidos curados por algoritmos de la información objetiva.
-
Transparencia de plataformas. Otro eje de solución es exigir mayor transparencia sobre cómo operan los algoritmos. Esto significa que las empresas tecnológicas deberían informar de manera clara qué criterios usa el algoritmo para mostrar contenidos, y dar opción al usuario de desactivar recomendaciones personalizadas si lo desea. Por ejemplo, la recién estrenada Ley de Servicios Digitales de la Unión Europea (DSA) obliga a gigantes como Amazon, Google, Meta y TikTok a revelar ciertas prácticas algorítmicas. Según Maldita, esta normativa exige medidas de transparencia en los algoritmos de recomendación, moderación de contenido y publicidadmaldita.es. En la práctica, esto implica que los usuarios podrán pedir explicaciones si reciben una restricción de contenido, o tendrán herramientas para “reiniciar” las recomendaciones de sus redes socialesmaldita.esmaldita.es. A nivel internacional, también hay iniciativas de códigos éticos y auditorías independientes: por ejemplo, la UNESCO y organismos científicos han publicado principios rectores (ética, transparencia, supervisión humana) para la inteligencia artificial que deberían guiar el diseño de algoritmosunesco.orgunesco.org. Aplicar estos principios en las plataformas significa, por ejemplo, que los sistemas deben ser auditados periódicamente para corregir sesgos, y que los desarrolladores deben explicar de forma entendible por qué ofrecen cierto contenido (principio de explicabilidad).
-
Regulación y políticas públicas. Además de la DSA, varios países y bloques están avanzando en leyes sobre IA y algoritmos. La UE presentó su “Reglamento de IA” (en trámite en 2023) para controlar los sistemas de IA de mayor riesgo (evaluación obligatoria, limitaciones en vigilancia masiva, etc.). Otros países planean marcos similares. La idea es responsabilizar legalmente a las empresas por daños causados por sus algoritmos (por ejemplo, intoxicación informativa o discriminación). También se exige que haya un organismo regulador independiente (o el supervisor de telecomunicaciones de cada país) que monitoree prácticas algorítmicas en redes y se asegure de que no se vulneren derechos fundamentales (libertad de expresión, privacidad, no discriminación). En algunos casos, se propone hasta un “registro público de algoritmos” donde las empresas deban inscribir sus sistemas de recomendación más potentes.
-
Diseño ético de algoritmos. Complementariamente, se aboga por incorporar la ética desde la creación del algoritmo (“privacy by design” o “ethics by design”). Esto implica que los ingenieros y diseñadores de experiencia de usuario (UX) consideren los impactos sociales desde el principio: por ejemplo, evitando construir burbujas o sesgos de forma deliberada. Como enfatiza la UNESCO, hace falta una “brújula ética” en el desarrollo de la IA, porque estas tecnologías, sin barreras éticas, corren el riesgo de reproducir prejuicios o alimentar divisiones socialesunesco.org. En la práctica, un algoritmo ético debe preservar la diversidad de información, explicar sus razones (evitar la “caja negra”), y priorizar el bien del usuario por encima del lucro. Algunas empresas ya prueban soluciones: YouTube, tras las críticas sobre desinformación médica, prioriza ahora fuentes oficiales en búsquedas relacionadas con salud; Facebook dejó de recomendar grupos extremistas automáticamente. Estas son señales de que el diseño ético puede marcar la diferencia.
-
Opciones para el usuario final. Finalmente, los usuarios mismos pueden tomar precauciones. Es útil diversificar fuentes de información (no fiarse solo de lo que aparece en un único feed), ajustar la privacidad (p.ej. borrar cookies o historial con frecuencia) y leer críticamente. Algunos sugieren usar navegadores o herramientas que bloquean el seguimiento y la personalización, o alternar entre diferentes dispositivos o cuentas para “resetear” los algoritmos ocasionalmente. Aunque esto requiere esfuerzo, aumenta la conciencia: al contrastar información (por ejemplo, comparando resultados de búsqueda en distintos navegadores) se hace evidente el sesgo de personalización.
En síntesis, enfrentar la manipulación algorítmica implica combinar la educación (que los usuarios entiendan qué hay detrás de cada pantalla) con la regulación (que obligue a las empresas a rendir cuentas) y la ética en el diseño (que dé prioridad al bienestar social). Las propuestas van desde cambios en la escuela y campañas públicas sobre alfabetización digitalredalyc.orgunesco.org, hasta normas legales como la DSAmaldita.es y códigos internacionales de ética algorítmicaunesco.orgunesco.org. Al unir estos esfuerzos, es posible reducir la influencia nociva de los algoritmos en nuestras decisiones y recuperar el control sobre nuestra experiencia digital.
Referencias
- Agencia de Gobierno Electrónico y Sociedad de la Información y el Conocimiento (AGESIC). (2021, 4 de febrero). Entender qué son y cómo funcionan los algoritmos. Recuperado de la web de AGESICgub.uy.
- Jordán, D., Izaguirre, J. A., & López, A. L. (2024). La red social Tik Tok y su incidencia en el cambio de comportamiento: un estudio bibliométrico. Intersecciones en Comunicación, 2(18). https://doi.org/10.51385/jzxcbs79:contentReference[oaicite:69]{index=69}.
- Llano Neira, P. de. (2018, 18 de marzo). Una consultora que trabajó para Trump manipuló datos de 50 millones de usuarios de Facebook. El País. https://elpais.com/internacional/2018/03/17/estados_unidos/1521308795_755101.html:contentReference[oaicite:70]{index=70}.
- Maldita Tecnología. (2024, 2 de enero). Todo sobre la Ley de Servicios Digitales (DSA): qué es, cómo nos afecta y cómo se está implementando. Maldita.es. Recuperado de https://maldita.es/malditatecnologia/20240102/ley-servicios-digitales-dsa-como-se-esta-implementando/:contentReference[oaicite:71]{index=71}:contentReference[oaicite:72]{index=72}.
- Peckham, S. (2023, 13 de abril). ¿Qué son los algoritmos? Cómo prevenir las cámaras de eco y mantener a los niños seguros en línea. Internet Matters. Recuperado de https://www.internetmatters.org/es/hub/news-blogs/what-are-algorithms-how-to-prevent-echo-chambers/:contentReference[oaicite:73]{index=73}:contentReference[oaicite:74]{index=74}.
- Risco de la Torre, E. (2024, diciembre). ¿Qué hay realmente tras los algoritmos de las redes sociales? Ethic. Recuperado de https://ethic.es/2024/12/que-hay-realmente-tras-los-algoritmos-de-las-redes-sociales/:contentReference[oaicite:75]{index=75}.
- Russell, A. (2023, 13 de diciembre). YouTube Video Recommendations Lead to More Extremist Content for Right-Leaning Users, Researchers Suggest. UC Davis News. https://www.ucdavis.edu/curiosity/news/youtube-video-recommendations-lead-more-extremist-content-right-leaning-users-researchers:contentReference[oaicite:76]{index=76}.
- Soto, M. G. (2017, 18 de septiembre). La burbuja de filtros en Internet. CAMTIC. Recuperado de https://www.camtic.org/hagamos-clic/la-burbuja-de-filtros-en-internet/:contentReference[oaicite:77]{index=77}.
- UNESCO. (2021). Recomendación sobre la ética de la inteligencia artificial. Recuperado de https://www.unesco.org/es/artificial-intelligence/recommendation-ethics:contentReference[oaicite:78]{index=78}.
- UNESCO. (2024, 13 de mayo). Algoritmos y Noticias: por qué tener una sociedad con conciencia algorítmica para enfrentar la desinformación. UNESCO. Recuperado de https://www.unesco.org/es/articles/algoritmos-y-noticias-por-que-tener-una-sociedad-con-conciencia-algoritmica-para-enfrentar-la:contentReference[oaicite:79]{index=79}.
- Aparici, R., Bordignon, A., & Martínez-Pérez, J. R. (2021). Alfabetización algorítmica basada en la metodología de Paulo Freire. Perfiles Educativos, 43(Esp.), 36-54. https://doi.org/10.22201/iisue.24486167e.2021.Especial.61019:contentReference[oaicite:80]{index=80}.
- Möhlmann, M. (2021, 22 de abril). Algorithmic nudges don’t have to be unethical. Harvard Business Review. https://hbr.org/2021/04/algorithmic-nudges-dont-have-to-be-unethical:contentReference[oaicite:81]{index=81}.