podcast:episodios:66
Diferencias
Muestra las diferencias entre dos versiones de la página.
| Ambos lados, revisión anteriorRevisión previaPróxima revisión | Revisión previa | ||
| podcast:episodios:66 [2025/04/10 22:52] – Joaquín Herrero Pintado | podcast:episodios:66 [2025/06/19 21:13] (actual) – Joaquín Herrero Pintado | ||
|---|---|---|---|
| Línea 2: | Línea 2: | ||
| - | {{: | + | {{: |
| Hoy hablamos de inteligencia artificial, ética, poder, algoritmos y, sobre todo, de cómo imaginamos el futuro tecnológico que queremos habitar. Porque la IA ya no es una promesa lejana: está aquí, reconfigurando el trabajo, las decisiones, incluso nuestras relaciones. | Hoy hablamos de inteligencia artificial, ética, poder, algoritmos y, sobre todo, de cómo imaginamos el futuro tecnológico que queremos habitar. Porque la IA ya no es una promesa lejana: está aquí, reconfigurando el trabajo, las decisiones, incluso nuestras relaciones. | ||
| Línea 28: | Línea 28: | ||
| < | < | ||
| - | FIXME | + | <iframe src=" |
| </ | </ | ||
| Línea 34: | Línea 34: | ||
| ===== Introducción ===== | ===== Introducción ===== | ||
| + | |||
| + | En este episodio del podcast *La filosofía no sirve para nada*, se aborda la intersección entre inteligencia artificial (IA), ética, poder, y gobernanza tecnológica. La conversación gira en torno a la experiencia de Noemí Álvarez, socióloga y CEO de Martin Brainon, en el [[https:// | ||
| + | |||
| + | Entre los temas clave se discuten: | ||
| + | - Las tensiones entre el desarrollo tecnológico y los marcos éticos reales. | ||
| + | - La brecha entre quienes desarrollan tecnología y quienes toman decisiones políticas o estratégicas. | ||
| + | - La superficialidad con la que muchas veces se aborda la ética en foros internacionales. | ||
| + | - El peligro de una visión de la IA sin pensamiento crítico. | ||
| + | - La importancia de los modelos teóricos previos a los modelos de datos. | ||
| + | - Los problemas de gobernanza y responsabilidad en el uso de sistemas algorítmicos. | ||
| + | - El papel de la filosofía para abordar estas cuestiones desde una mirada crítica, interdisciplinar y situada. | ||
| + | |||
| + | Destacamos la urgencia de que las empresas adopten una postura valiente respecto a la IA y se aboga por una cultura empresarial basada en el pensamiento crítico, la interdisciplinariedad y la ética como valor activo, no como eslogan. | ||
| + | |||
| + | |||
| + | |||
| + | ### 1. Las tensiones entre el desarrollo tecnológico y los marcos éticos reales | ||
| + | |||
| + | Se evidencia un desajuste entre la velocidad del avance tecnológico y la implementación de marcos éticos sólidos. Noemí Álvarez describe cómo muchas propuestas políticas sobre IA se limitan a lugares comunes sin asumir riesgos ni profundidad, | ||
| + | |||
| + | |||
| + | ### 2. La brecha entre quienes desarrollan tecnología y quienes toman decisiones políticas o estratégicas | ||
| + | |||
| + | Durante el AI Action Summit se hizo evidente una separación cultural y operativa entre técnicos y políticos. Los tecnólogos perciben que los políticos carecen del conocimiento técnico suficiente, mientras que los decisores estratégicos actúan bajo una lógica institucional que no contempla la complejidad real de la IA. Esto se traduce en iniciativas normativas que no responden a los desafíos reales y que a menudo se quedan en la superficie. | ||
| + | |||
| + | |||
| + | ### 3. La superficialidad con la que muchas veces se aborda la ética en foros internacionales | ||
| + | |||
| + | En el Summit, los discursos sobre ética eran poco más que slogans políticamente correctos. La gobernanza se reduce a frases del tipo "hay que tener en cuenta a todos los actores sociales", | ||
| + | |||
| + | |||
| + | ### 4. El peligro de una visión de la IA sin pensamiento crítico | ||
| + | |||
| + | Cuidado con el entusiasmo acrítico con el que muchas personas —incluidos profesionales— se aproximan a la IA. Se tiende a ver las respuestas de los modelos como soluciones mágicas, sin evaluar su validez o sus sesgos. Esto lleva a una dependencia creciente y a una pérdida de confianza en el propio criterio humano, un fenómeno que puede intensificar el síndrome del impostor y erosionar capacidades fundamentales como la reflexión y la creatividad. | ||
| + | |||
| + | |||
| + | ### 5. La importancia de los modelos teóricos previos a los modelos de datos | ||
| + | |||
| + | Noemí insiste en que no se puede construir un modelo de datos sin un modelo teórico previo que lo oriente. Sin esta base, el análisis de datos se convierte en una operación hueca y oportunista. El modelo teórico permite definir los constructos, | ||
| + | |||
| + | |||
| + | ### 6. Los problemas de gobernanza y responsabilidad en el uso de sistemas algorítmicos | ||
| + | |||
| + | Hay una ilusión de control sobre la IA que no se corresponde con la realidad. Se delega la ética a normativas poco exigentes o se espera que las empresas regulen su propia ética, lo que no es viable. Además, los algoritmos ya disponibles se usan sin transparencia y sin entender del todo sus riesgos. Se propone, como posible solución, crear un organismo internacional análogo al que regula la energía nuclear, capaz de establecer estándares globales. | ||
| + | |||
| + | |||
| + | ### 7. El papel de la filosofía para abordar estas cuestiones desde una mirada crítica, interdisciplinar y situada | ||
| + | |||
| + | Reivindicamos la filosofía como un hilo conductor que puede articular diferentes disciplinas —tecnología, | ||
| + | |||
| + | |||
| + | |||
| + | ## Libros o revistas a las que se hace referencia | ||
| + | |||
| + | - **"La singularidad está más cerca" | ||
| + | - **"La nueva ilustración. Ciencia, tecnología y humanidades en un mundo interdisciplinar" | ||
| + | - **" | ||
| + | - Referencias generales a publicaciones de Eric Larson y Pamela McCorduck | ||
| + | |||
| + | ## Autores relacionados | ||
| + | |||
| + | - **Eric Larson** – Crítico de la IA desde una perspectiva filosófica y científica. | ||
| + | - **Pamela McCorduck** – Historiadora de la IA. | ||
| + | - **John McCarthy** – Considerado uno de los padres fundadores de la IA, acuñó el término " | ||
| + | - **Claude Shannon** – Figura central en la teoría de la información, | ||
| + | - **Ray Kurzweil** – Futurólogo transhumanista. | ||
| + | - **Michel Foucault**, **Isaiah Berlin**, **Immanuel Kant** – Filósofos cuya obra es utilizada en el debate crítico sobre ciencia, poder y razón. | ||
| + | |||
| + | ## Glosario de términos | ||
| + | |||
| + | - **IA (Inteligencia Artificial)**: | ||
| + | - **Modelos generativos**: | ||
| + | - **Modelo teórico**: Marco conceptual previo que estructura cómo se entiende un fenómeno antes de aplicarle un modelo de datos. | ||
| + | - **Correlación vs. causalidad**: | ||
| + | - **Gobernanza algorítmica**: | ||
| + | - **Sesgo de automatización**: | ||
| + | - **Síndrome del impostor**: Sensación persistente de duda sobre las propias capacidades, | ||
| + | - **Humanismo tecnológico**: | ||
| + | - **Narrador interior**: Concepto psicológico que alude a una voz interna que acompaña y comenta la experiencia subjetiva del individuo. | ||
| + | |||
| + | {{: | ||
podcast/episodios/66.1744325529.txt.gz · Última modificación: por Joaquín Herrero Pintado
