Laura G. de Rivera, autora del libro, y Mohamed Hammu, coordinador de La Casa de la Palabra en la UNED.
La Casa de la Palabra volvió a poner de relieve, en la tarde del jueves, que su propuesta conversacional es capaz de abordar temáticas muy diversas, desde la literatura hasta la investigación académica. En esta ocasión, el espacio contó con la periodista —por profesión y vocación— Laura G. de Rivera, que presentó su libro Esclavos del algoritmo. Manual de resistencia en la era de la inteligencia artificial, editado por Debate.
A partir de las 19.00 horas, el aula 10 de la UNED se convirtió en un lugar de conversación y análisis gracias al diálogo natural entre Mohamed Hammu y la autora. De Rivera sostuvo un espacio de reflexión con impacto directo en la vida cotidiana y con un enfoque práctico e introspectivo: ¿somos realmente dueños de nuestra intimidad y de nuestra libertad? Porque, tras las tecnologías que usamos a diario, se despliega un universo de algoritmos y de acumulación de información privada capaz de construir perfiles detallados sobre nuestro comportamiento y sobre aspectos de nuestra personalidad: gustos, ideologías, miedos y preocupaciones.
La propuesta no buscaba generar alarma social, sino reconocer lo que ya existe e invitar a pensar con información en la mano. También apuntó a la necesidad de impulsar legislaciones concretas y eficaces y, sobre todo, de hacer que se cumplan: en el mundo de la recolección de datos, de las suscripciones, de las configuraciones y de los consentimientos, se cometen ilegalidades con frecuencia, mientras la actividad continúa funcionando con normalidad.
Desde su oficio, De Rivera defendió el poder de la información y el papel del periodismo como intermediario entre los hechos y la ciudadanía. Pero ese papel, insistió, exige investigar, procesar y traducir; digerir el contenido para devolvérselo a la sociedad de forma comprensible. Esa transmisión se convierte, entonces, en una herramienta para la toma de decisiones, porque la información —cuando es rigurosa— amplía la libertad: permite elegir con conciencia.
En su libro, esa intención divulgativa se apoya en una investigación extensa que reúne informes de referencia y entrevistas a investigadores, doctores, psicólogos y otros profesionales que trabajan directamente sobre los efectos, problemas y daños asociados a las plataformas digitales, incluso desde edades tempranas. La autora plantea la obra como un manifiesto de resistencia a través del conocimiento: conocimiento para prevenir, para comprender, para decidir si queremos seguir siendo quienes somos en un entorno que nos condiciona.
Durante el conversatorio se abordó cómo la inteligencia artificial se ha ido instalando en nuestras vidas incluso antes de que supiéramos nombrarla. Con la llegada de los smartphones, explicó, los algoritmos abrieron una vía de entrada directa para las grandes tecnológicas —Amazon, Meta, Google, Microsoft y Apple— en la intimidad personal. Sin darnos cuenta, entramos en un mundo del que no teníamos información, y del que aún hoy no siempre sabemos calibrar ni su alcance ni sus consecuencias.
De ese punto nace el libro: de la necesidad de explicar aquello que no entendíamos, pero que ya estaba incrustado en gestos rutinarios como buscar en Google o usar la localización mediante Google Maps. La investigación, recalcó, no pretende asustar, sino ofrecer herramientas para reconocer qué hay detrás y para que podamos usar estas tecnologías “sabiendo lo que son y lo que implican”.
Y detrás, advirtió, no hay altruismo: hay negocio. “No son altruistas”, señaló De Rivera. Actualizaciones, identificaciones, configuraciones, suscripciones, accesos a redes sociales, huellas de voz, huellas táctiles o huellas de iris van erosionando la privacidad y desplazando “nuestras cosas valiosas” hacia las compañías, que a su vez las comparten con terceros o las almacenan en la nube, en grandes centros de datos bajo infraestructuras como Amazon, Google Cloud o Microsoft Azure. Sin alternativas reales, la vulnerabilidad de las personas se multiplica.
La autora también explicó el funcionamiento de determinados “patrones ocultos”, prohibidos por la normativa de servicios digitales pero todavía presentes en la práctica. Y abordó, además, la percepción psicológica que proyecta la inteligencia artificial: “no hay una máquina equiparable al ser humano”, afirmó. “La inteligencia humana es superior y permite realizar varias cosas a la vez”. Puso ejemplos sencillos, como la capacidad de un niño para dibujar un retrato con lápiz y papel sin haber pisado un museo ni estudiado teoría del arte. “El cerebro humano es lo más sofisticado que existe”, destacó.
En ese marco defendió la necesidad de devolver el poder a quien lo posee de verdad: el ser humano. Y justificó el uso de la palabra “esclavos” en el título, un término que al principio no le convencía, pero que aceptó por recomendación editorial. Las plataformas, sostuvo, se enriquecen a costa de un servilismo contemporáneo que pasa desapercibido: aportar datos gratis genera un beneficio enorme. En la práctica, trabajamos sin cobrar para sostener intereses económicos ajenos. “Se hacen ricas a base de los datos valiosísimos que les proporcionamos”.
En esa lógica se encuadran acciones aparentemente inocuas como aceptar las cookies para evitar pagos directos, algo que —según planteó— puede salir más caro que pagar: “¿Para qué quieren mis datos?”, preguntó al público, abriendo una reflexión colectiva.
La charla amplió el foco más allá del móvil, el ordenador o los videojuegos, y señaló la irrupción de dispositivos domésticos como robots o Alexa, capaces de proporcionar a Amazon información sobre hábitos diarios: a qué hora se sale de casa, a qué hora se vuelve, qué voces se oyen… Detalles de vida íntima que se convierten en materia prima para el negocio del dato.
También se abordaron cuestiones especialmente sensibles, como experimentos vinculados a Cambridge que, mediante cruces de datos y tests, lograban identificar patrones aproximados para inferir gustos, ideología o reacciones ante situaciones concretas. “Ese estudio —basado en IA— daba resultados más aproximados que las madres”, sostuvo De Rivera.
La conversación derivó igualmente hacia los efectos del consumo de “productos diseñados para la adicción”, como ciertos videojuegos o dinámicas de redes. La adicción, recordó, es una enfermedad y puede generar síndrome de abstinencia y agresividad. En los más pequeños, el uso sin control de pantallas puede producir consecuencias graves que profesionales ya trabajan en casos extremos, incluso en relación con suicidios infantiles.
Según expuso, el abuso sostenido no solo afecta a niños y adolescentes: puede generar cambios estructurales en el cerebro, alterando funciones ligadas a la relación con el entorno y el desarrollo de áreas como la corteza prefrontal, asociada a la toma de decisiones y al control de impulsos, favoreciendo el placer inmediato frente al de largo plazo.
En ese contexto mencionó decisiones recientes como la de comunidades autónomas —citó Madrid— que, a partir de septiembre, prohibirán tablets y dispositivos electrónicos en el aula, un giro de paradigma respecto a años anteriores, a medida que avanzan los estudios científicos sobre el impacto en edades tempranas. No se cuestiona la potencialidad de la tecnología, insistió, sino la ausencia de un uso consciente y educado.
De Rivera definió la inteligencia artificial como “pura estadística”: detecta patrones en grandes volúmenes de datos y calcula con enorme eficacia. Pero advirtió de que no está libre de sesgos, y de que esos sesgos pueden trasladarse a decisiones que afectan directamente a las personas. Puso como ejemplo los “falsos negativos” en programas algorítmicos utilizados en Cataluña dentro del sistema penitenciario para estimar probabilidades que influyen en decisiones como el acceso a la libertad condicional. Esas decisiones, añadió, solo se cuestionan en un 3% de los casos por funcionarios humanos, pese a que el margen de error puede ser alto. Un ejemplo, dijo, de cómo el ser humano “se hace chiquitito” frente al imaginario de la máquina.
En su capítulo “Y a mí qué me importa”, la autora sitúa la vulnerabilidad actual como una puerta de entrada a la manipulación, con fenómenos como la propaganda de precisión: mensajes políticos “a la carta” construidos a partir de datos personales. Con ello, concluye, se constata una pérdida de libertad que va más allá de la publicidad: se trata de algo esencial, “ser dueño de tu vida o no serlo”.
El conversatorio también recuperó el origen del término “algoritmo”, asociado a un erudito persa del siglo X cuyo nombre se latinizó, vinculado a la Biblioteca de Bagdad, La Casa de la Sabiduría: un símbolo del conocimiento que, en el presente, puede verse limitado o sesgado por los mismos sistemas que lo gestionan. La presentación, en suma, abrió una reflexión que “no pretende poner en alarma ni en cuestión”, sostuvo Hammu, sino hacer pedagogía para comprender lo que suponen los algoritmos en nuestra vida diaria. Conocer para pensar; pensar para poder decidir.
La presidenta de la Confederación Española de la Pequeña y Mediana Empresa (Cepyme), Ángela de…
Melilla ha vivido este viernes, 17 de abril, un auténtico adelanto del verano. De esos…
La Ciudad Autónoma ha recibido en el mediodía de este viernes 17 de abril a…
La Ciudad Autónoma de Melilla acogerá este sábado 18 de abril de 2026 la duodécima…
El Melilla Ciudad del Deporte La Salle se desplaza este sábado hasta tierras castellano-leonesas para…
Importante jornada para los equipos de la Peña Real Madrid y del Rusadir dentro del…