Hola cafeteras 🙂 traigo una reflexión que lleva años acompañándome y sigo elaborando cada día ¿te atreves a pensar conmigo?

🕰 El pulso de lo inmediato

Hoy, en medio del movimiento frenético del día a día, sostenemos en la palma de la mano un dispositivo que concentra más poder de influencia que muchas instituciones del siglo pasado. Ese “cacharro tecnológico” no sólo nos conecta: nos captura, nos predice, nos dirige. Las plataformas digitales transforman nuestros datos en materia prima para predecir y modelar comportamientos humanos. O algo así diría algún experto en el tema.

Y frente a ese vértigo, me pregunto:
¿Qué está ocurriendo con nuestra atención?
¿Qué papel juegan los algoritmos en esta sociedad líquida que Zygmunt Bauman describió como inestable y mutable?
¿Podemos —y debemos— educarnos frente a ellos?
¿Y cómo pueden estos mismos algoritmos convertirse en aliados para mejorar la vida de las personas con discapacidad?


🎯 La atención como territorio en disputa

Bauman describe la modernidad líquida como una época en la que nada mantiene su forma: los vínculos, las instituciones y los significados se disuelven con rapidez. En ese flujo permanente, los algoritmos actúan como arquitectos invisibles de la experiencia contemporánea: moldean lo que vemos, cómo pensamos y con quién interactuamos.

Las plataformas digitales no compiten por usuarios, sino por segundos de atención. El negocio ya no es el contenido, sino el tiempo que tardas en abandonarlo.

Los modelos de aprendizaje algorítmico optimizan comportamientos persuasivos: refuerzos positivos, recompensas intermitentes, dopamina al clic. Estas arquitecturas —como sugieren estudios recientes sobre la economía de la atención — emplean principios de la ciencia cognitiva para capturar la atención como un recurso económico.

El “me gusta”, el “compartir” o el “seguir” se convierten en combustible para un bucle donde el algoritmo aprende qué nos estimula y lo replica sin descanso. Así nacen las burbujas de eco: realidades a medida que refuerzan creencias y debilitan el diálogo.

El problema no es solo informativo, es cognitivo y emocional. Revisiones en bases de datos médicas como PubMed (2024) documentan un fenómeno creciente: el brain rot, una fatiga mental causada por la exposición continua a estímulos digitales que erosiona la concentración, la memoria y la autorreflexión.


⚖️ Horizontes posibles: entre el espejo y el abismo

  • Fragmentación radical: cada quien vive en su burbuja.
  • Hiperdiferenciación cognitiva: lo personalizado se vuelve aislamiento.
  • Polarización emocional: el conflicto genera más interacción que la reflexión.
  • Delegación de la agencia: dejamos que el sistema decida por nosotros.
  • Erosión del sentido de lo común: perdemos el espacio compartido de conversación.

Como advierten Byung-Chul Han (Infocracia, 2022) y Nick Srnicek (Capitalismo de plataformas, 2017), la economía digital reorganiza la subjetividad humana en función de la visibilidad, la inmediatez y la vigilancia algorítmica. En definitiva, los algoritmos ya no sólo filtran lo que vemos, sino lo que somos capaces de percibir como real.


♿ Dos caras del mismo código

💡 A favor

Democratización del conocimiento
La personalización puede facilitar aprendizajes adaptativos y accesibles para todos. En manos éticas, la IA puede convertirse en un amplificador de oportunidades.

Autonomía para personas con discapacidad
Aquí los algoritmos pueden cambiar la historia:

  • Asistentes de voz que leen texto o describen imágenes.
  • Subtítulos automáticos en reuniones o clases.
  • Predicción de necesidades médicas o ajustes razonables.
  • Rutas urbanas optimizadas para sillas de ruedas o baja visión.
  • Modelos educativos que se adaptan al ritmo cognitivo de cada estudiante.

En estos casos, el algoritmo deja de ser una amenaza y se convierte en una tecnología de libertad.

Optimización y equidad
En salud, transporte o empleo, la IA puede anticipar desigualdades y priorizar casos vulnerables.

Auditorías éticas
Diversos estudios en JAMA Network Open (2023–2024) exploran cómo los modelos de IA pueden incorporar mecanismos de revisión para detectar sesgos y promover la equidad algorítmica.

⚠️ En contra

Refuerzo de desigualdades
Si los datos de entrenamiento no incluyen diversidad funcional, los sistemas replican ableísmo digital: penalizan a quien se sale de la norma. Investigaciones recientes en medicina digital alertan sobre este fenómeno, conocido como bias in AI health data.

Opacidad algorítmica
Ser rechazado por un algoritmo —para un trabajo, un préstamo o una ayuda social— sin saber por qué, es una forma moderna de exclusión.

Deshumanización y pérdida de diversidad
El promedio estadístico reemplaza el contexto humano. La predicción elimina el error, y con él, la posibilidad de lo diferente.


¿Cómo y frente a qué educarnos?

En un mundo donde la información se licua, educar es aprender a ralentizar.

a) Alfabetización algorítmica

Aprender a leer los algoritmos: quién los diseñó, qué datos usan, a quién benefician, a quién olvidan. Como recuerda Cathy O’Neil (2016) en Weapons of Math Destruction, los algoritmos no son neutrales: reflejan las estructuras de poder de la sociedad que los crea.

b) Educación de la atención

Reentrenar la mente para elegir, no reaccionar. Practicar la atención profunda como forma de libertad. En palabras de Byung-Chul Han, la atención es hoy un acto de resistencia frente a la saturación informativa.

c) Educación empática y accesible

Reconocer que el sesgo algorítmico no es técnico, es cultural. Incluir la voz de las personas con discapacidad en todo el ciclo de desarrollo es una forma de justicia cognitiva.

d) Justicia algorítmica

Diseños transparentes, auditorías abiertas y mecanismos de apelación humana accesibles. Como propone la UNESCO (2021) en su Recomendación sobre la Ética de la Inteligencia Artificial, la equidad debe ser un principio estructural, no una corrección posterior.

e) Ciudadanía digital crítica

Exigir responsabilidad ética, transparencia y datos públicos auditables. La educación digital debe formar consumidores conscientes y creadores corresponsables. Virginia Eubanks (Automating Inequality, 2018) subraya que comprender cómo se automatiza la desigualdad es el primer paso para evitar reproducirla.


🤖 Educar a los algoritmos

Si nosotros aprendemos de ellos, ellos también deben aprender de nosotros (y yo soy muy pesimista con esto, pero me fuerzo a no serlo). Educar a los algoritmos significa enseñarles empatía: que comprendan la diferencia, que aprendan de los márgenes, no sólo del promedio.

Un algoritmo educado no es el que acierta más, sino el que discrimina menos. Alimentarlo con datos de accesibilidad, diversidad funcional y justicia social es el primer paso hacia una IA deseable. Pero bueno, ya vemos cómo va el mundo.

Educar a los algoritmos, en el sentido propuesto por la UNESCO (2021), implica dotarlos de criterios de transparencia, responsabilidad y comprensión contextual del ser humano.


💫 mirar despacio en tiempos de vértigo

En esta era líquida, el algoritmo no es ni demonio ni dios: es el espejo digital de nuestra cultura. Nos fragmenta porque vivimos fragmentados; nos polariza porque ya no dialogamos. Pero los mismos sistemas que hoy nos distraen pueden incluir, asistir y empoderar.

La educación algorítmica —de humanos y de máquinas— es el nuevo humanismo. Como escribió Bauman, educar es aprender a interpretar el mundo en constante transformación. Reaprender a mirar despacio, juntos, dentro del torbellino, puede ser el acto más radical de libertad e inclusión en la economía de la atención.


🔍

  • Attention Is All They Need: Cognitive Science and the Techno-Political Economy of Attention in Humans and Machines, Springer, 2024.
  • Scientific American (2024): Social Media Algorithms Warp How People Learn from Each Other.
  • JAMA Network Open (2024): Mitigating Algorithmic Bias in Healthcare: A Five-Phase Framework.
  • Journal of Medical Artificial Intelligence (2024): Disability and Algorithmic Justice in AI-Driven Health Systems.
  • First Monday (2024): Ableism Encoded: Disability, Exclusion and Machine Learning Biases.
  • Wired (2024): Algorithms Under Fire for Welfare Discrimination in Europe.
  • PMC (2024): Digital Overstimulation and Brain Rot: Cognitive Impacts of Continuous Attention Capture.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *