Herramientas de usuario

Herramientas del sitio


podcast:episodios:66

Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Ambos lados, revisión anterior Revisión previa
Próxima revisión
Revisión previa
podcast:episodios:66 [2025/04/14 07:39]
Joaquín Herrero Pintado
podcast:episodios:66 [2025/04/14 10:32] (actual)
Joaquín Herrero Pintado [Introducción]
Línea 35: Línea 35:
 ===== Introducción ===== ===== Introducción =====
  
-En este episodio del podcast *La filosofía no sirve para nada*, se aborda la intersección entre inteligencia artificial (IA), ética, poder, y gobernanza tecnológica. La conversación gira en torno a la experiencia de Noemí Álvarez, socióloga y CEO de Martin Brainon, en el AI Action Summit de París, donde se debatieron los retos actuales de la IA.+En este episodio del podcast *La filosofía no sirve para nada*, se aborda la intersección entre inteligencia artificial (IA), ética, poder, y gobernanza tecnológica. La conversación gira en torno a la experiencia de Noemí Álvarez, socióloga y CEO de Martin Brainon, en el [[https://​www.elysee.fr/​en/​sommet-pour-l-action-sur-l-ia|AI Action Summit de 2025 en París]], donde se debatieron los retos actuales de la IA.
  
 Entre los temas clave se discuten: Entre los temas clave se discuten:
Línea 46: Línea 46:
   - El papel de la filosofía para abordar estas cuestiones desde una mirada crítica, interdisciplinar y situada.   - El papel de la filosofía para abordar estas cuestiones desde una mirada crítica, interdisciplinar y situada.
  
-Se destaca ​la urgencia de que las empresas adopten una postura valiente respecto a la IA y se aboga por una cultura empresarial basada en el pensamiento crítico, la interdisciplinariedad y la ética como valor activo, no como eslogan.+Destacamos ​la urgencia de que las empresas adopten una postura valiente respecto a la IA y se aboga por una cultura empresarial basada en el pensamiento crítico, la interdisciplinariedad y la ética como valor activo, no como eslogan. 
 + 
 + 
 + 
 +### 1. Las tensiones entre el desarrollo tecnológico y los marcos éticos reales 
 + 
 +Se evidencia un desajuste entre la velocidad del avance tecnológico y la implementación de marcos éticos sólidos. Noemí Álvarez describe cómo muchas propuestas políticas sobre IA se limitan a lugares comunes sin asumir riesgos ni profundidad,​ mientras que los desarrollos técnicos avanzan sin esperar a las regulaciones. El uso de IA se integra en procesos organizativos sin un mínimo debate ético previo, generando tensión entre el deseo de innovación y la necesidad de reflexión responsable. 
 + 
 + 
 +### 2. La brecha entre quienes desarrollan tecnología y quienes toman decisiones políticas o estratégicas 
 + 
 +Durante el AI Action Summit se hizo evidente una separación cultural y operativa entre técnicos y políticos. Los tecnólogos perciben que los políticos carecen del conocimiento técnico suficiente, mientras que los decisores estratégicos actúan bajo una lógica institucional que no contempla la complejidad real de la IA. Esto se traduce en iniciativas normativas que no responden a los desafíos reales y que a menudo se quedan en la superficie. 
 + 
 + 
 +### 3. La superficialidad con la que muchas veces se aborda la ética en foros internacionales 
 + 
 +En el Summit, los discursos sobre ética eran poco más que slogans políticamente correctos. La gobernanza se reduce a frases del tipo "hay que tener en cuenta a todos los actores sociales",​ sin abordar los dilemas reales ni asumir consecuencias. Las sesiones más críticas o técnicas tenían poco espacio, mientras que las grandes tecnológicas ocupaban el centro del escenario con discursos autopromocionales. 
 + 
 + 
 +### 4. El peligro de una visión de la IA sin pensamiento crítico 
 + 
 +Cuidado con el entusiasmo acrítico con el que muchas personas —incluidos profesionales— se aproximan a la IA. Se tiende a ver las respuestas de los modelos como soluciones mágicas, sin evaluar su validez o sus sesgos. Esto lleva a una dependencia creciente y a una pérdida de confianza en el propio criterio humano, un fenómeno que puede intensificar el síndrome del impostor y erosionar capacidades fundamentales como la reflexión y la creatividad. 
 + 
 + 
 +### 5. La importancia de los modelos teóricos previos a los modelos de datos 
 + 
 +Noemí insiste en que no se puede construir un modelo de datos sin un modelo teórico previo que lo oriente. Sin esta base, el análisis de datos se convierte en una operación hueca y oportunista. El modelo teórico permite definir los constructos,​ relaciones y objetivos, y se estructura muchas veces de forma sistémica, no lineal. La ausencia de este paso revela una comprensión muy pobre del comportamiento humano y limita el valor real de los modelos predictivos. 
 + 
 + 
 +### 6. Los problemas de gobernanza y responsabilidad en el uso de sistemas algorítmicos 
 + 
 +Hay una ilusión de control sobre la IA que no se corresponde con la realidad. Se delega la ética a normativas poco exigentes o se espera que las empresas regulen su propia ética, lo que no es viable. Además, los algoritmos ya disponibles se usan sin transparencia y sin entender del todo sus riesgos. Se propone, como posible solución, crear un organismo internacional análogo al que regula la energía nuclear, capaz de establecer estándares globales. 
 + 
 + 
 +### 7. El papel de la filosofía para abordar estas cuestiones desde una mirada crítica, interdisciplinar y situada 
 + 
 +Reivindicamos la filosofía como un hilo conductor que puede articular diferentes disciplinas —tecnología,​ sociología,​ derecho, neurociencia— ofreciendo una mirada crítica y situada. Se destaca su capacidad para generar pensamiento fuera de la caja, cuestionar los valores dominantes (como la rentabilidad) y construir conceptos nuevos. En este sentido, proponemos pensar un humanismo tecnológico crítico como alternativa a la visión instrumental y mercantilizada de la tecnología. 
 + 
  
 ## Libros o revistas a las que se hace referencia ## Libros o revistas a las que se hace referencia
Línea 76: Línea 114:
   - **Narrador interior**: Concepto psicológico que alude a una voz interna que acompaña y comenta la experiencia subjetiva del individuo.   - **Narrador interior**: Concepto psicológico que alude a una voz interna que acompaña y comenta la experiencia subjetiva del individuo.
  
 +{{:​podcast:​episodios:​infografia_episodio66_600.png?​600|}}
podcast/episodios/66.1744616395.txt.gz · Última modificación: 2025/04/14 07:39 por Joaquín Herrero Pintado