Tabla de Contenidos

Episodio 66: IA, ética y gobernanza en la era de los algoritmos

Hoy hablamos de inteligencia artificial, ética, poder, algoritmos y, sobre todo, de cómo imaginamos el futuro tecnológico que queremos habitar. Porque la IA ya no es una promesa lejana: está aquí, reconfigurando el trabajo, las decisiones, incluso nuestras relaciones.

Vamos a conversar desde la experiencia empresarial directa, pero también desde la reflexión filosófica: ¿Quién decide hacia dónde va la tecnología? ¿Quién se beneficia? ¿Puede la ética ser algo más que un eslogan? Y, quizás lo más importante: ¿qué tipo de humanismo —o posthumanismo— necesitamos para no perder el norte en este proceso?

“La filosofía no sirve para nada” es un podcast sin pretensiones en el que reflexionaremos sobre el presente.

Participan: Juan Antonio Torrero @jatorrero, Joaquín Herrero @joakinen@scholar.social, Juan Carlos Barajas @SociologiaDiver, José Carlos García @quobit, Sergio Muñoz @smunozroncero


Fecha 10 de abril de 2025
Participan José Carlos García @quobit
Sergio Muñoz @smunozroncero
Juan Carlos Barajas @SociologiaDiver
Joaquín Herrero @joakinen@scholar.social
Juan Antonio Torrero @jatorrero
Descarga Puedes descargar todos los episodios en iVoox, en Spotify, en iTunes, Google Podcasts y en nuestro canal de Telegram. Si tienes un lector de podcasts que admite enlaces RSS, este es el enlace RSS a nuestro podcast.
Sintonía Mass Invasion, Dilo, álbum Robots (2004)
Fotos GPT-4o
Mastodon En @FilosofiaNada@hcommons.social publicamos noticias que nos interesan y conversamos.
BlueSky @filosofianada.bsky.social
Canal Telegram Puedes seguir la preparación de nuevos episodios suscribiéndote al canal @FilosofiaNada en Telegram
Grupo de opinión Únete a nuestro grupo de opinión Opina FilosofiaNada para opinar sobre el episodio en preparación y enviarnos audios con preguntas o críticas con humor para nuestra intro

FIXME

Introducción

En este episodio del podcast La filosofía no sirve para nada, se aborda la intersección entre inteligencia artificial (IA), ética, poder, y gobernanza tecnológica. La conversación gira en torno a la experiencia de Noemí Álvarez, socióloga y CEO de Martin Brainon, en el AI Action Summit de 2025 en París, donde se debatieron los retos actuales de la IA.

Entre los temas clave se discuten:

  1. Las tensiones entre el desarrollo tecnológico y los marcos éticos reales.
  2. La brecha entre quienes desarrollan tecnología y quienes toman decisiones políticas o estratégicas.
  3. La superficialidad con la que muchas veces se aborda la ética en foros internacionales.
  4. El peligro de una visión de la IA sin pensamiento crítico.
  5. La importancia de los modelos teóricos previos a los modelos de datos.
  6. Los problemas de gobernanza y responsabilidad en el uso de sistemas algorítmicos.
  7. El papel de la filosofía para abordar estas cuestiones desde una mirada crítica, interdisciplinar y situada.

Destacamos la urgencia de que las empresas adopten una postura valiente respecto a la IA y se aboga por una cultura empresarial basada en el pensamiento crítico, la interdisciplinariedad y la ética como valor activo, no como eslogan.

1. Las tensiones entre el desarrollo tecnológico y los marcos éticos reales

Se evidencia un desajuste entre la velocidad del avance tecnológico y la implementación de marcos éticos sólidos. Noemí Álvarez describe cómo muchas propuestas políticas sobre IA se limitan a lugares comunes sin asumir riesgos ni profundidad, mientras que los desarrollos técnicos avanzan sin esperar a las regulaciones. El uso de IA se integra en procesos organizativos sin un mínimo debate ético previo, generando tensión entre el deseo de innovación y la necesidad de reflexión responsable.

2. La brecha entre quienes desarrollan tecnología y quienes toman decisiones políticas o estratégicas

Durante el AI Action Summit se hizo evidente una separación cultural y operativa entre técnicos y políticos. Los tecnólogos perciben que los políticos carecen del conocimiento técnico suficiente, mientras que los decisores estratégicos actúan bajo una lógica institucional que no contempla la complejidad real de la IA. Esto se traduce en iniciativas normativas que no responden a los desafíos reales y que a menudo se quedan en la superficie.

3. La superficialidad con la que muchas veces se aborda la ética en foros internacionales

En el Summit, los discursos sobre ética eran poco más que slogans políticamente correctos. La gobernanza se reduce a frases del tipo “hay que tener en cuenta a todos los actores sociales”, sin abordar los dilemas reales ni asumir consecuencias. Las sesiones más críticas o técnicas tenían poco espacio, mientras que las grandes tecnológicas ocupaban el centro del escenario con discursos autopromocionales.

4. El peligro de una visión de la IA sin pensamiento crítico

Cuidado con el entusiasmo acrítico con el que muchas personas —incluidos profesionales— se aproximan a la IA. Se tiende a ver las respuestas de los modelos como soluciones mágicas, sin evaluar su validez o sus sesgos. Esto lleva a una dependencia creciente y a una pérdida de confianza en el propio criterio humano, un fenómeno que puede intensificar el síndrome del impostor y erosionar capacidades fundamentales como la reflexión y la creatividad.

5. La importancia de los modelos teóricos previos a los modelos de datos

Noemí insiste en que no se puede construir un modelo de datos sin un modelo teórico previo que lo oriente. Sin esta base, el análisis de datos se convierte en una operación hueca y oportunista. El modelo teórico permite definir los constructos, relaciones y objetivos, y se estructura muchas veces de forma sistémica, no lineal. La ausencia de este paso revela una comprensión muy pobre del comportamiento humano y limita el valor real de los modelos predictivos.

6. Los problemas de gobernanza y responsabilidad en el uso de sistemas algorítmicos

Hay una ilusión de control sobre la IA que no se corresponde con la realidad. Se delega la ética a normativas poco exigentes o se espera que las empresas regulen su propia ética, lo que no es viable. Además, los algoritmos ya disponibles se usan sin transparencia y sin entender del todo sus riesgos. Se propone, como posible solución, crear un organismo internacional análogo al que regula la energía nuclear, capaz de establecer estándares globales.

7. El papel de la filosofía para abordar estas cuestiones desde una mirada crítica, interdisciplinar y situada

Reivindicamos la filosofía como un hilo conductor que puede articular diferentes disciplinas —tecnología, sociología, derecho, neurociencia— ofreciendo una mirada crítica y situada. Se destaca su capacidad para generar pensamiento fuera de la caja, cuestionar los valores dominantes (como la rentabilidad) y construir conceptos nuevos. En este sentido, proponemos pensar un humanismo tecnológico crítico como alternativa a la visión instrumental y mercantilizada de la tecnología.

Libros o revistas a las que se hace referencia

Autores relacionados

Glosario de términos