top of page

5 verdades incómodas sobre el futuro digital

Infografia del futuro digital
Infografia por AQI by AQ

Audio cover
La_trampa_detrás_de_tu_libertad_digital

Nos asedia un agobio constante, una sensación de que el suelo digital se mueve bajo nuestros pies a una velocidad que no podemos procesar.

En este escenario, las grandes corporaciones de Silicon Valley han desplegado una narrativa seductora: la tecnología es un destino natural, un progreso imparable ante el cual la única opción es la adaptación o la irrelevancia. Mark Zuckerberg nos dice que la privacidad es una reliquia del pasado, mientras que


Sam Altman, el rostro detrás de OpenAI, nos pide aceptar hoy un gasto masivo de recursos críticos —como el agua necesaria para enfriar sus centros de datos—

bajo la promesa mesiánica de que, en un mañana incierto, la inteligencia artificial resolverá mágicamente la crisis climática que ella misma agrava. A través de la mirada de pensadores críticos, comparten por qué el futuro no está programado y cómo, al entender las grietas del sistema, podemos recuperar nuestra autonomía.


La trampa de la autoexplotación: el cansancio como combustible

El filósofo Byung-Chul Han ha diseccionado la "sociedad del rendimiento" con una precisión quirúrgica. Su tesis es inquietante: hemos dejado atrás la era del poder que obligaba desde fuera para entrar en una fase donde nosotros mismos somos nuestros propios capataces. Lo que percibimos como libertad —la flexibilidad del teletrabajo, la cuantificación de nuestra salud en un reloj inteligente o la exhibición de nuestra intimidad en redes— es, en rigor, una forma de servidumbre voluntaria.


Esta autoexplotación es el lubricante perfecto para el sistema. Al estar permanentemente cansados y obsesionados con nuestra propia productividad, nuestra resistencia se erosiona. Es precisamente este agotamiento el que permite que el capitalismo de datos opere sin fricciones: estamos demasiado exhaustos para cuestionar los términos y condiciones de nuestra propia vida digital.


"Ya no hace falta un gran hermano que nos vigile: nosotros compartimos nuestra vida en redes, cuantificamos nuestros pasos, optimizamos nuestro sueño. La autoexplotación, en fin, disfrazada de libertad".

La IA no es una "nube": el pesado costo de lo que parece etéreo

Frente a la metáfora de la "nube" —que sugiere algo ligero, limpio y omnipresente— investigadoras como Kate Crawford y Timnit Gebru revelan una realidad materialista y cruda.


La inteligencia artificial no es ni inteligente ni artificial; es una construcción física que emana del cuerpo de la Tierra y del esfuerzo humano alienante. Crawford, a través de su arqueología crítica, nos recuerda que para que un modelo como GPT o Gemini responda una pregunta, se requiere una cadena de extracción y dolor que Silicon Valley prefiere mantener oculta.


Para desmitificar esta tecnología, debemos observar sus tres ingredientes fundamentales:

  • Materiales físicos: La IA depende de la extracción de litio, coltán y cobalto, procesos que devastan ecosistemas y dependen de condiciones laborales de explotación en el Sur Global.

  • Datos y sesgos: Los modelos se entrenan con bases de datos que no son neutrales, sino que encapsulan y amplifican prejuicios históricos raciales, de género y de clase, convirtiendo errores del pasado en verdades algorítmicas.

  • Trabajo humano invisible: Detrás de la automatización hay un ejército de trabajadores en regímenes de semiesclavitud encargados de limpiar, etiquetar y clasificar los datos, un trabajo cognitivo repetitivo que es el verdadero motor de la máquina.


Tu privacidad no es un secreto, es la arquitectura de tu libertad digital

Siguiendo el rastro de la extracción, Shoshana Zuboff define el "capitalismo de vigilancia" como un modelo donde nuestra experiencia cotidiana se convierte en materia prima para ser transformada en predicciones de comportamiento. No solo nos venden productos; venden nuestra conducta futura. Aquí, Carissa Véliz aporta una distinción política vital: la privacidad no se trata de tener algo que ocultar, sino de quién tiene el poder sobre nosotros.


Cada vez que nos conectamos al wifi de un café o usamos una app de citas, estamos alimentando una arquitectura que permite a corporaciones invisibles tomar decisiones arbitrarias sobre nuestros seguros, empleos o crédito. La privacidad es el muro de carga de nuestra autonomía; si se desmorona, quedamos a merced de una manipulación emocional convertida en modelo de negocio.


"Este modelo constituye una amenaza estructural para la autonomía, la democracia y los derechos individuales porque desplaza el control desde las personas hacia arquitecturas invisibles de vigilancia y modificación conductual".

Tecnologías "mediocres": la falsa promesa de la eficiencia

Desde la economía, Daron Acemoglu lanza una advertencia sobre lo que denomina "tecnologías mediocres". Son aquellas innovaciones, como las cajas automáticas de los supermercados, que no aumentan la productividad real ni mejoran la experiencia del usuario, sino que sirven únicamente para desplazar trabajadores y transferir riqueza hacia los dueños del algoritmo.


Sin embargo, para elevar el análisis, debemos reconocer una tensión que Acemoglu a veces soslaya: el "excedente del consumidor". Mientras que la tecnología puede precarizar el trabajo, también ofrece beneficios tangibles y gratuitos —como las vacunas o el acceso instantáneo al conocimiento— que mejoran el bienestar cotidiano.


El reto no es rechazar la innovación, sino exigir instituciones que intervengan para que el beneficio no se concentre en un 2% de productores, sino que ese valor se distribuya socialmente. El progreso técnico solo es prosperidad si es una ganancia compartida.


El lenguaje como última frontera: el riesgo de vaciarnos por dentro

El filósofo Éric Sadin nos alerta sobre una "desnaturalización antropológica" provocada por la IA generativa. Al delegar la facultad de hablar y escribir a las máquinas, no estamos simplemente usando una herramienta; estamos cediendo el núcleo de nuestra subjetividad. Sadin distingue entre la comprensión real y el "pseudolenguaje" de las máquinas, que es puro cálculo probabilístico sin conciencia ni intención.


La ilusión de diálogo con un chatbot debilita nuestra capacidad de pensar por nosotros mismos. Si permitimos que el lenguaje —el tejido con el que construimos nuestra realidad— sea sustituido por patrones algorítmicos, corremos el riesgo de sufrir un vaciamiento interior. La máquina no piensa; solo imita el pensamiento, y en esa imitación, nuestra capacidad crítica puede terminar atrofiada.


Hacia una tecnología situada y radicalmente humana


El futuro no es un guion ya escrito por un puñado de millonarios en California. Voces como las de Meredith Whittaker y Donna Haraway nos invitan a imaginar "tecnologías situadas". Esto significa diseñar herramientas que no pretendan ser soluciones universales y abstractas, sino que respondan a contextos específicos, respetando los territorios, los cuerpos y las necesidades reales de las comunidades.


Haraway nos propone "hacernos parientes" (making kin), tejiendo alianzas con lo no-humano y con la técnica desde el cuidado y la responsabilidad, no desde la dominación extractiva. Recuperar la tecnología implica entender que esta debe estar subordinada a nuestras prioridades sociales y medioambientales. El primer paso para moldear ese mañana es reconocer que cada una de nuestras interacciones digitales es un acto político.


Al despertar mañana, frente a su primer gesto digital, cabe hacerse una pregunta:


¿Qué parte de tu autonomía estás dispuesto a recuperar hoy?

Fuentes de Consulta

  • Inspirado en articulo del Pais. 10 Mentes que desafían el futuro tecnológico.

Comentarios


logo para wsp
bottom of page