Herramientas de usuario

Herramientas del sitio


Action unknown: siteexport_addpage
podcast:episodios:66

Episodio 66: IA, ética y gobernanza en la era de los algoritmos

Hoy hablamos de inteligencia artificial, ética, poder, algoritmos y, sobre todo, de cómo imaginamos el futuro tecnológico que queremos habitar. Porque la IA ya no es una promesa lejana: está aquí, reconfigurando el trabajo, las decisiones, incluso nuestras relaciones.

Vamos a conversar desde la experiencia empresarial directa, pero también desde la reflexión filosófica: ¿Quién decide hacia dónde va la tecnología? ¿Quién se beneficia? ¿Puede la ética ser algo más que un eslogan? Y, quizás lo más importante: ¿qué tipo de humanismo —o posthumanismo— necesitamos para no perder el norte en este proceso?

“La filosofía no sirve para nada” es un podcast sin pretensiones en el que reflexionaremos sobre el presente.

Participan: Juan Antonio Torrero @jatorrero, Joaquín Herrero @joakinen@scholar.social, Juan Carlos Barajas @SociologiaDiver, José Carlos García @quobit, Sergio Muñoz @smunozroncero


Fecha 10 de abril de 2025
Participan José Carlos García @quobit
Sergio Muñoz @smunozroncero
Juan Carlos Barajas @SociologiaDiver
Joaquín Herrero @joakinen@scholar.social
Juan Antonio Torrero @jatorrero
Descarga Puedes descargar todos los episodios en iVoox, en Spotify, en iTunes, Google Podcasts y en nuestro canal de Telegram. Si tienes un lector de podcasts que admite enlaces RSS, este es el enlace RSS a nuestro podcast.
Sintonía Mass Invasion, Dilo, álbum Robots (2004)
Fotos GPT-4o
Mastodon En @FilosofiaNada@hcommons.social publicamos noticias que nos interesan y conversamos.
BlueSky @filosofianada.bsky.social
Canal Telegram Puedes seguir la preparación de nuevos episodios suscribiéndote al canal @FilosofiaNada en Telegram
Grupo de opinión Únete a nuestro grupo de opinión Opina FilosofiaNada para opinar sobre el episodio en preparación y enviarnos audios con preguntas o críticas con humor para nuestra intro

FIXME

Introducción

En este episodio del podcast La filosofía no sirve para nada, se aborda la intersección entre inteligencia artificial (IA), ética, poder, y gobernanza tecnológica. La conversación gira en torno a la experiencia de Noemí Álvarez, socióloga y CEO de Martin Brainon, en el AI Action Summit de 2025 en París, donde se debatieron los retos actuales de la IA.

Entre los temas clave se discuten:

  1. Las tensiones entre el desarrollo tecnológico y los marcos éticos reales.
  2. La brecha entre quienes desarrollan tecnología y quienes toman decisiones políticas o estratégicas.
  3. La superficialidad con la que muchas veces se aborda la ética en foros internacionales.
  4. El peligro de una visión de la IA sin pensamiento crítico.
  5. La importancia de los modelos teóricos previos a los modelos de datos.
  6. Los problemas de gobernanza y responsabilidad en el uso de sistemas algorítmicos.
  7. El papel de la filosofía para abordar estas cuestiones desde una mirada crítica, interdisciplinar y situada.

Destacamos la urgencia de que las empresas adopten una postura valiente respecto a la IA y se aboga por una cultura empresarial basada en el pensamiento crítico, la interdisciplinariedad y la ética como valor activo, no como eslogan.

1. Las tensiones entre el desarrollo tecnológico y los marcos éticos reales

Se evidencia un desajuste entre la velocidad del avance tecnológico y la implementación de marcos éticos sólidos. Noemí Álvarez describe cómo muchas propuestas políticas sobre IA se limitan a lugares comunes sin asumir riesgos ni profundidad, mientras que los desarrollos técnicos avanzan sin esperar a las regulaciones. El uso de IA se integra en procesos organizativos sin un mínimo debate ético previo, generando tensión entre el deseo de innovación y la necesidad de reflexión responsable.

2. La brecha entre quienes desarrollan tecnología y quienes toman decisiones políticas o estratégicas

Durante el AI Action Summit se hizo evidente una separación cultural y operativa entre técnicos y políticos. Los tecnólogos perciben que los políticos carecen del conocimiento técnico suficiente, mientras que los decisores estratégicos actúan bajo una lógica institucional que no contempla la complejidad real de la IA. Esto se traduce en iniciativas normativas que no responden a los desafíos reales y que a menudo se quedan en la superficie.

3. La superficialidad con la que muchas veces se aborda la ética en foros internacionales

En el Summit, los discursos sobre ética eran poco más que slogans políticamente correctos. La gobernanza se reduce a frases del tipo “hay que tener en cuenta a todos los actores sociales”, sin abordar los dilemas reales ni asumir consecuencias. Las sesiones más críticas o técnicas tenían poco espacio, mientras que las grandes tecnológicas ocupaban el centro del escenario con discursos autopromocionales.

4. El peligro de una visión de la IA sin pensamiento crítico

Cuidado con el entusiasmo acrítico con el que muchas personas —incluidos profesionales— se aproximan a la IA. Se tiende a ver las respuestas de los modelos como soluciones mágicas, sin evaluar su validez o sus sesgos. Esto lleva a una dependencia creciente y a una pérdida de confianza en el propio criterio humano, un fenómeno que puede intensificar el síndrome del impostor y erosionar capacidades fundamentales como la reflexión y la creatividad.

5. La importancia de los modelos teóricos previos a los modelos de datos

Noemí insiste en que no se puede construir un modelo de datos sin un modelo teórico previo que lo oriente. Sin esta base, el análisis de datos se convierte en una operación hueca y oportunista. El modelo teórico permite definir los constructos, relaciones y objetivos, y se estructura muchas veces de forma sistémica, no lineal. La ausencia de este paso revela una comprensión muy pobre del comportamiento humano y limita el valor real de los modelos predictivos.

6. Los problemas de gobernanza y responsabilidad en el uso de sistemas algorítmicos

Hay una ilusión de control sobre la IA que no se corresponde con la realidad. Se delega la ética a normativas poco exigentes o se espera que las empresas regulen su propia ética, lo que no es viable. Además, los algoritmos ya disponibles se usan sin transparencia y sin entender del todo sus riesgos. Se propone, como posible solución, crear un organismo internacional análogo al que regula la energía nuclear, capaz de establecer estándares globales.

7. El papel de la filosofía para abordar estas cuestiones desde una mirada crítica, interdisciplinar y situada

Reivindicamos la filosofía como un hilo conductor que puede articular diferentes disciplinas —tecnología, sociología, derecho, neurociencia— ofreciendo una mirada crítica y situada. Se destaca su capacidad para generar pensamiento fuera de la caja, cuestionar los valores dominantes (como la rentabilidad) y construir conceptos nuevos. En este sentido, proponemos pensar un humanismo tecnológico crítico como alternativa a la visión instrumental y mercantilizada de la tecnología.

Libros o revistas a las que se hace referencia

  • “La singularidad está más cerca” – Ray Kurzweil
  • “La nueva ilustración. Ciencia, tecnología y humanidades en un mundo interdisciplinar” – Juan Manuel Sánchez Ron
  • “¿Qué es la filosofía?” – Gilles Deleuze y Félix Guattari
  • Referencias generales a publicaciones de Eric Larson y Pamela McCorduck

Autores relacionados

  • Eric Larson – Crítico de la IA desde una perspectiva filosófica y científica.
  • Pamela McCorduck – Historiadora de la IA.
  • John McCarthy – Considerado uno de los padres fundadores de la IA, acuñó el término “inteligencia artificial”.
  • Claude Shannon – Figura central en la teoría de la información, asociado a la cuna teórica de la IA.
  • Ray Kurzweil – Futurólogo transhumanista.
  • Michel Foucault, Isaiah Berlin, Immanuel Kant – Filósofos cuya obra es utilizada en el debate crítico sobre ciencia, poder y razón.

Glosario de términos

  • IA (Inteligencia Artificial): Campo de estudio y desarrollo tecnológico que busca crear sistemas capaces de realizar tareas que requieren inteligencia humana.
  • Modelos generativos: Algoritmos que pueden generar texto, imágenes, código, etc., aprendiendo patrones de grandes volúmenes de datos.
  • Modelo teórico: Marco conceptual previo que estructura cómo se entiende un fenómeno antes de aplicarle un modelo de datos.
  • Correlación vs. causalidad: Distingue entre dos variables que simplemente coinciden estadísticamente (correlación) y una que causa la otra (causalidad).
  • Gobernanza algorítmica: Conjunto de políticas, regulaciones y marcos éticos para guiar el desarrollo y uso de sistemas algorítmicos.
  • Sesgo de automatización: Tendencia a confiar excesivamente en las salidas de sistemas automatizados, incluso cuando son incorrectas.
  • Síndrome del impostor: Sensación persistente de duda sobre las propias capacidades, a pesar de evidencias de competencia.
  • Humanismo tecnológico: Enfoque que sitúa la tecnología al servicio del bienestar humano, promoviendo una integración ética y crítica.
  • Narrador interior: Concepto psicológico que alude a una voz interna que acompaña y comenta la experiencia subjetiva del individuo.

podcast/episodios/66.txt · Última modificación: 2025/04/14 10:32 por Joaquín Herrero Pintado