DANIEL INNERARIDAD, ARCHIVO”Innerarity es catedrático de filosofía política, investigador Ikerbasque en la Universidad del País Vasco, director del Instituto de Gobernanza Democrática y titular de la Cátedra de Inteligencia Artificial y Democracia en el Instituto Universitario Europeo de Florencia. Entre sus obras recientes destacan títulos como La sociedad del desconocimiento (2022), La libertad democrática (2023), Pandemocracia (2020) y Política para perplejos (2018). Su trayectoria académica se caracteriza por una articulación rigurosa entre pensamiento político, filosofía de la tecnología y compromiso democrático”
Por GUSTAVO HERNÁNDEZ DÍAZ
El profesor Daniel Innerarity accedió amablemente a concedernos esta entrevista, en el marco de las actividades de extensión social organizadas por el Observatorio Nacional de Comunicación y Cultura del Instituto de Investigaciones de la Comunicación y de la Información (IDICI) de la UCAB.
Innerarity es catedrático de filosofía política, investigador Ikerbasque en la Universidad del País Vasco, director del Instituto de Gobernanza Democrática y titular de la Cátedra de Inteligencia Artificial y Democracia en el Instituto Universitario Europeo de Florencia. Entre sus obras recientes destacan títulos como La sociedad del desconocimiento (2022), La libertad democrática (2023), pandemocracia (2020) y Política para perplejos (2018). Su trayectoria académica se caracteriza por una articulación rigurosa entre pensamiento político, filosofía de la tecnología y compromiso democrático.
La entrevista abordó los principales planteamientos de su libro. Una teoría crítica de la inteligencia artificial. (Galaxia Gutenberg, 2025), galardonado con el III Premio de Ensayo Eugenio Trías. En esta obra, se examina cómo la “razón algorítmica” está transformando las estructuras de poder y los procesos de decisión social, y subraya la necesidad de una reflexión crítica que permita proteger la democracia y la dignidad humana frente a los riesgos de automatización.
Innerarity opina que la inteligencia humana se define por su conocimiento implícito y sentido común, a diferencia de los sistemas algorítmicos que operan únicamente con conocimiento explícito y formalizado. Para prevenir desequilibrios sociales generados por el avance de la inteligencia artificial, propone una cooperación entre expertos en tecnología y humanistas, llamados técnicos y borrosos. Por esta razón, subraya que las ciencias sociales y humanas, especialmente la filosofía, son esenciales para guiar y entender este proceso.
Me resulta sugerente pensar que la teoría crítica de la inteligencia artificial no se limita a cuestiones éticas, sino que apunta a una exploración más profunda de los supuestos filosóficos que configuran los sistemas tecnológicos. Encuentro pertinente la premisa de Philip Agre —recuperada por usted— de que “la tecnología es filosofía encubierta, la cuestión es hacerla abiertamente filosófica”, lo que nos invita a pensar el diseño de la IA como una práctica cultural y política. Me interesaría conocer su opinión al respecto.
A escribir este libro me impulsó una insatisfacción con la manera cómo se aborda la relación entre las tecnologías y su dimensión normativa: como si las tecnologías fueran neutras, asociales y apolíticas, y posteriormente, en función del uso que se haga de ellas adquirieron dimensión moral y relevancia social y política. Parte de la idea contraria: las tecnologías, también las del ámbito digital, están incorporadas en entornos socioculturales, forman parte de lo humano hasta unas dimensiones que nos es difícil distinguir de nuestra naturaleza. Mi primer propósito era iluminar esa constelación, hacerla consciente. Crítica no en el sentido de refutación sino de esclarecimiento.
Usted sostiene que simplemente aplicar los marcos legales tradicionales a los sistemas digitales resulta insuficiente sin entender la esencia ontológica del mundo digital donde estos operan. ¿Qué razones justifican para usted la necesidad urgente de una filosofía política de la inteligencia artificialaproximación que, según su punto de vista, no puede ser cubierta ni por la reflexión tecnológica ni por los códigos éticos?
Me parecía banal un cierto discurso que está lleno de expresiones exhortativas (humanizar la tecnología, una inteligencia artificial para el bien, no dejar a nadie atrás) y no porque no comparta lo que con ellas se pretende, sino porque no explican qué significa exactamente, no nos aclaran acerca de cómo se concreta todo eso, como se implementa.
Según Norbert Wiener, “el mundo del futuro será una lucha cada vez más exigente contra las limitaciones de nuestra inteligencia, no una cómoda hamaca en la que podamos tumbarnos para que nos atiendan nuestros robots esclavos”. ¿Por qué la cuestión principal no es definir los límites de la inteligencia artificial, sino entender qué es la inteligencia humana?
En cuanto reflexionamos sobre la inteligencia humana y la comparamos con lo que hoy por hoy da de sí la inteligencia artificial nos resulta evidente que el discurso de remplazamiento, adelantamiento o la idea de que competimos por lo mismo es insostenible. Es lo que he procurado hacer en la primera parte del libro. Lo decisivo es configurar un ecosistema humanos-máquinas en el que pongamos a colaborar ambas y compensamos sus errores que, por cierto, también son muy diferentes.
¿Qué significa entender que la privacidad como un bien público es el único modo de corregir esa discrepancia tan inquietante entre lo que estimamos como ciudadanos y lo que estamos dispuestos a entregar en cuanto consumidores?
La privacidad es un bien público porque el grado de publicidad que cada uno de nosotros está dispuesto a conceder condición al de los demás. Lo personal no solo nos concierne a cada uno; la privacidad digital se parece mucho a otros asuntos colectivos como la cuestión ecológica o los bienes comunes. Al igual que en los desastres ecológicos, los daños a la privacidad de alguien no solamente ocurren a nivel individual sino en el plano colectivo. Los datos relativos a la privacidad son de todos porque en un mundo donde hay tantas interdependencias y vulnerabilidades compartidas el desvelamiento de unos datos afecta a la privacidad de todos. Quien vende sus datos de alguna manera está vendiendo los de todos. La relación de uno con los datos que genera no puede pensarse con la lógica clásica de la propiedad sino más bien desde la perspectiva de los bienes comunes que requieren una correspondiente regulación pública.
Me interesa conocer su opinión sobre la interrogante que usted formula respecto al vínculo entre la gobernanza algorítmica y los horizontes democráticos, especialmente en lo que se refiere a una posible repolitización de la cultura democrática. ¿Debemos entender el mundo digital como un vector de democratización, como un negocio o como una cuestión de poder?
Venimos de unos años en los que Internet era considerado un fenómeno natural y, en vez de preguntarnos qué hacer con él, hacíamos cábalas acerca de si sus inevitables efectos iban a ser positivos o negativos. Muchos de los diagnósticos actuales acerca de la inteligencia artificial rozan el fatalismo y neutralizan el esfuerzo de pensar más bien en qué condiciones se puede producir una colaboración entre tecnología y política que fortalezca la democracia y refuerce sus valores centrales, al tiempo que inscriba estas tecnologías en un contexto humano y social sin el cual estaría muy reducido su significado. Internet, los algoritmos y la digitalización en general son manifestaciones de una tecnología digital generada por decisiones humanas y, por lo tanto, no deben entenderse de forma determinista. En lugar de un canal de transmisión neutral, estos medios crean espacios para diferentes opciones de acción en el sistema democrático.
Profesor Innerarity, para concluir esta entrevista que apenas ha rozado la riqueza de los planteamientos que usted desarrolla en su obra. Una teoría crítica de la inteligencia artificial.nos gustaría que profundizara en su propuesta de superar la llamada “histeria digital” y avanzar hacia un enfoque de “condicionamiento digital”: ¿cómo debemos interpretar su afirmación de que la transformación digital no debe concebirse como un fenómeno externo y abrupto —“como un meteorito que irrumpe desde fuera”— sino como una evolución interna de nuestras propias tecnologías y prácticas sociales, aunque con elementos claramente disruptivos?
En los análisis dominantes hay una perspectiva unidireccional que habla del influjo de lo digital sobre la democracia, en vez de pensar que democracia y digitalización son dos procesos que co-evolucionan. La discusión acerca de la relación entre digitalización y democracia gira en torno a la cuestión de si la digitalización fortalece o debilita a la democracia. La digitalización aparece como una fuerza arrolladora y la sociedad como un receptor más bien pasivo del progreso tecnológico. En esta imagen hay un doble reduccionismo. Por un lado, parece aceptarse que la democracia es una construcción estática. Por otro, la digitalización sería una fuerza que se desarrolla linealmente y de acuerdo solo con su propia lógica. Pero la democracia es por su propia naturaleza una construcción abierta y la digitalización una tecnología en evolución y contingente. Aunque la dirección que adopte responderá a sus posibilidades tecnológicas, dicha evolución tendrá lugar en un entorno social y político. Hago esta advertencia porque una visión ampliamente compartida, tanto en la literatura académica como en los documentos institucionales, parece entender que la democracia debe ser protegida de una especie de “invasión extranjera”, una perspectiva que no permite identificar adecuadamente las amenazas y oportunidades que ella misma representa para la democracia. La opinión pública está preocupada por las injerencias externas sobre los procesos electorales, pero deberíamos pensar más bien en el condicionamiento propio que tales dispositivos tecnológicos ejercen sobre nuestras decisiones colectivas y nuestra forma de conversación democrática. Por supuesto que es importante proteger la libertad de los procesos políticos y asegurar que los bots no distorsionen la información y la opinión pública, pero parece más importante preguntarnos acerca de las distorsiones que proceden de la tecnología misma, por su propia naturaleza, o cuando no están diseñadas o reguladas adecuadamente.