~~NOTOC~~
====== Episodio 17: Es posible que la IA sea sensible. No hay quien vea si será una buena idea #Porvivir======
{{:podcast:episodios:julyandme-pio-pio.jpg?260 |}}
La filosofía del porvivir se proyecta hacia el futuro. Bajo esa premisa [[podcast:episodios:15|en el primer episodio de la serie, dedicado a la inteligencia artificial]], y a partir de los conceptos fundamentales de la filosofía de la mente, Yashir P. Casas dejó una serie de preguntas abiertas que pueden iniciar el camino para el debate:
Con el conocimiento actual, y viendo hacia donde parece que nos lleva la tecnología, **¿Cuál será el concepto de lo humano en el futuro?**. Llegados a un escenario de cierta estabilidad de la inteligencia artificial y situados en este posthumanismo, **¿Cómo será la convivencia entre el hombre y la inteligencia artificial?**. Al hilo de esta convivencia, surgen dos cuestiones relevantes: Inteligencia artificial frente al trabajo, cuáles serán los **modelos laborales del futuro**, y qué **implicaciones éticas** tiene esta relación entre el hombre y la máquina inteligente. En una perspectiva aún más global, establecidas las posibles relaciones de la inteligencia artificial con el mercado y el consumo, **¿Cómo será la interacción entre la inteligencia artificial y el ecosistema y la sostenibilidad?**
Hoy comenzaremos indagando cómo podrían ser los seres artificiales inteligentes del futuro y cuál será nuestra convivencia con ellos. Lo haremos de la mano de los trabajos del neurocientífico Antonio Damasio y del informático y filósofo Judea Pearl.
“La filosofía no sirve para nada” es un podcast sin pretensiones en el que reflexionaremos sobre el presente.
Participan: Joaquín Herrero @joakinen, José Carlos García @quobit, Juan Carlos Barajas @sociologiadiver y Sergio Muñoz @smunozroncero
----
^ Fecha | 18 de noviembre de 2019 |
^ Participan | Joaquín Herrero [[https://twitter.com/joakinen|@joakinen]]\\ José Carlos García [[https://twitter.com/quobit|@quobit]]\\ Juan Carlos Barajas [[https://twitter.com/sociologiadiver|@sociologiadiver]]\\ Sergio Muñoz [[https://twitter.com/smunozroncero|@smunozroncero]] |
^ Descarga | Puedes descargar todos los episodios en [[https://www.ivoox.com/podcast-filosofia-no-sirve-para-nada_sq_f1703682_1.html|iVoox]], en [[https://open.spotify.com/show/0yGS3c3LbeRdNZgXPMA5Pz|Spotify]], en [[https://podcasts.apple.com/us/podcast/la-filosof%C3%ADa-no-sirve-para-nada/id1464443772?uo=4&at=11l6hc&app=itunes&ct=fnd|iTunes]], [[https://podcasts.google.com/|Google Podcasts]] y en nuestro [[https://t.me/filosofianada|canal de Telegram]]. Si tienes un lector de podcasts que admite enlaces RSS, [[http://www.ivoox.com/filosofia-no-sirve-para-nada_fg_f1703682_filtro_1.xml|este es el enlace RSS a nuestro podcast]]. |
^ Sintonía | [[http://www.dilo.org/songs/robots/08-mass_invasion.mp3|Mass Invasion]], Dilo, álbum **Robots** (2004) |
^ Fotos | [[https://www.flickr.com/photos/77894959@N03/14938221985/in/photolist-oL3hXt-XySabh-bCWJn5-Hamt2R-2289qJ9-26obKU9-vzusTC-ssRknL-2e3wi6P-2fQx9hY-23S24NQ-25sNPb3-5fRZMF-26gKzLm-pWYNe-Q5Au8U-21ci3wJ-25rMaPi-aN8TxM-5rAeJa-JucsME-Jud4T1-24ei7Wr-HvzwMb-9wYs9X-23iEd1k-23brS3k-azruf9-bWjQfJ-GUqCvc-dnpAsZ-K9Enqq-5STGSE-K9EjX9-23iphXU-KcqSqx-YJ2gvy-ALvm1H-weU29w-26WQPpQ-27XZ3vs-bxJmWg-JnZ7nL-24E8BuQ-21KVM5r-HALrtt-8Auo99-cRjtoG-4zVrKK-63RqHj|PÍO,PÍO... >>>]], Julyandme, Flickr |
^ Intro | Conversación con Alexa |
^ Twitter | En [[https://twitter.com/filosofianada|@FilosofiaNada]] publicamos noticias que nos interesan y conversamos. |
^ Canal Telegram | Puedes seguir la preparación de nuevos episodios suscribiéndote al canal [[https://t.me/filosofianada|@FilosofiaNada]] en Telegram |
^ Grupo de opinión | Únete a nuestro grupo de opinión [[https://t.me/opinafilosofianada|Opina FilosofiaNada]] para opinar sobre el episodio en preparación y enviarnos audios con preguntas o críticas con humor para nuestra intro |
[[https://open.spotify.com/show/0yGS3c3LbeRdNZgXPMA5Pz|{{spotify-podcast-badge-blk-grn-165x40.png|}}]]
----
00:00 TIMELINE
===== Man versus Machine =====
Quizá la idea de la relación que los seres humanos mantendremos con la inteligencia artificial esté bastante influenciada por una semejanza ideal. Parece que flota en la cultura popular que tendemos a una equivalencia entre la forma en que se desenvuelve la mente humana y la mente artificial, cuando el conocimiento que tenemos de la primera no nos permite poder reconstruirla en la segunda. Los robots inteligentes descritos en la ciencia ficción han contribuido sin duda a esta visión de una futura relación entre iguales, e incluso de sumisión del hombre a la máquina una vez que ésta haya alcanzado la -hipotética- singularidad.
===== Antonio Damasio: homeostasis =====
No debemos desdeñar sin más estas líneas de la ficción especulativa, porque a nuestro juicio suponen una fuente muy fiable e interesante de anticipación a los problemas que podríamos llegar a afrontar. En este sentido, en el [[http://research.iac.es/proyecto/coffeebreak/?p=1938|capítulo 244 del podcast "Coffe Break: Señal y Ruido"]] han comentado el reciente estudio publicado por el neurocientífico Antonio Damasio en Nature, en el que reivindica una exploración de las capacidades de supervivencia de la inteligencia artificial como medio para su evolución, a través de sus conocida tesis de la [[https://www.intramed.net/contenidover.asp?contenidoid=92338|homeostasis]] aplicada a la IA.
* en torno al minuto 50 empiezan a hablar del algoritmo de google
* en el 59.30 empiezan con la homeostasis en IA, después de la pausa del programa de radio
===== Judea Pearl y Yoshua Bengio: Causalidad =====
Hicimos referencia al artículo de Damasio en [[https://twitter.com/FilosofiaNada/status/1182180188932726786?s=19|este hilo de Twitter]] en el que decíamos: "//¡Interesante! Qué añadir a un robot para que surja la inteligencia creativa: deben gestionar su propia supervivencia, sentir dolor/placer/empatía, comprender la causalidad y ser afectados por contrafácticos. Un robot así nos permitiría estudiar filosóficamente la consciencia. El trabajo se centra en qué materiales permitirían a un robot ser vulnerable y sentir dolor pues se propone la necesidad de supervivencia como una clave de la creatividad. Pero nos han llamado la atención otras cosas filosóficamente relevantes. Por ejemplo, el hecho de que haya que implementar en el robot la comprensión de qué es causalidad y qué es un contrafáctico. El aprendizaje no consistiría solo en buscar correlaciones en muchos datos pues hay casos individuales tan relevantes que deben cambiar el comportamiento. La "inferencia casual", propuesta por Judea Pearl y bien resumida en su libro "The Book of Why", planteaba la necesidad de incluir razonamiento contrafáctico en el campo de la Inteligencia Artificial. Parece que su mensaje está calando, como él mismo dice.//"
Citábamos un tuit del propio Judea Pearl en el que dice: "//Dana Mackenzie y yo estamos contentos de que una de las personas que ayudó a desarrollar el aprendizaje profundo entienda esta limitación. Esperamos escribir una segunda edición de #Bookofwhy donde el capítulo diez será reemplazado por historias de éxito sobre cómo la IA superará su ceguera causal//". Pearl se está refiriendo a un tuit de un Paul Hünermund que dice "//Yoshua Bengio está trabajando ya en inferencia causal y DAGs. El tema está ganando más y más impulso en la comunidad de ML e IA//". Al decir "DAGs" se refiere a los [[https://es.wikipedia.org/wiki/Grafo_ac%C3%ADclico_dirigido|Gráficos Acíclicos Dirigidos]] que Judea Pearl usa al modelar la causalidad.
{{ :podcast:episodios:directed_acyclic_graph.png |}}
Hünermund, a su vez, está citando un artículo de la revista Wired sobre [[https://mila.quebec/en/yoshua-bengio/|Yoshua Bengio]] titulado [[https://www.wired.com/story/ai-pioneer-algorithms-understand-why|An AI Pioneer Wants His Algorithms to Understand the 'Why']] y que anuncian con un tuit que dice "//El aprendizaje profundo es bueno para encontrar patrones en una gran cantidad de datos, pero no puede explicar por qué conectados. El ganador del Premio Turing, Yoshua Bengio, quiere cambiar eso//."
Bengio recibió en 2019 el ACM A.M. Turing Award, “el premio Nobel de la computación”, junto con Geoffrey Hinton y Yann LeCun por los avances conceptuales y de ingeniería que han hecho de las redes neuronales profundas (Deep Learning) un componente crítico de la computación actual.
Entendemos la alegría de Judea Pearl porque hasta el presente las técnicas desarrolladas son capaces de encontrar correlaciones imposibles de encontrar para nosotros los humanos pero no pueden explicar ninguna de esas correlaciones. Lo explicábamos en el episodio 15 con el ejemplo de la botella y el tapón de rosca de Gary Marcus.
En el episodio del pasado 11 de diciembre de su porcast "Artificial Intelligence" Lex Fridman entrevista a Judea Pearl.
[[https://www.youtube.com/watch?v=pEBI0vF45ic|{{:podcast:episodios:judea-pearl-lex-fridman.png?450|}}]]
[[https://www.youtube.com/watch?v=pEBI0vF45ic|{{:podcast:episodios:judea-pearl-they-bayesian-networks-need-human-expert.png?450|}}]]
[[https://www.youtube.com/watch?v=pEBI0vF45ic|{{:podcast:episodios:judea-pearl-initial-model-could-be-very-qualitative.png?450|}}]]
[[https://www.youtube.com/watch?v=pEBI0vF45ic|{{:podcast:episodios:judea-pearl-one-variable-listens-to-the-other.png?450|}}]]
[[https://www.youtube.com/watch?v=pEBI0vF45ic|{{:podcast:episodios:judea-pearl-do-operator.png?450|}}]]
* "The do-operator connects the operation of doing with something that you can see. So as opposed to the purely observing, you're making the choice to change a variable."
* En lugar de encontrar la causa de que en la naturaleza haya pasado en x causado por y lo que hacemos es intervenir, hacer y. Enconces comprobamos qué sucede a x. Tambiñen podemos operar en x y ver qué sucede con todos los y que supuestamente son causales de x.
* Para operaciones en las que no se puede intervenir en la realidad de x entonces intervenimos en el modelo que hemos creado de x
* La idea de "modelizar" es la idea contrafactica: qué sucede si lo cambio.
* Puede que el modelo no tenga suficiente información para averiguar relaciones causales. Entonces tenemos que hacer más intervenciones en el modelo (o en la realidad que se ha modelado) para agregar datos. Es decir, partimos de un modelo que un humano ha hecho y mediante experimentación podemos agregar más datos a porciones del modelo que sean cualitativas (¿incluso automáticamente?)
* El modelo comienza con una serie de suposiciones sobre qué causa qué, qué variables están causalmente relacionadas. Y entonces mediante intervenciones enriquecemos el modelo con datos.
* La presión inicial es sobre el humano que tiene que codificar su conocimiento sobre algo en un grafo. Pero hay que tener la precaución de que las flechas con las que se fabrica el grafo sean sobre conocimiento cierto o sobre conocimiento fruto de la experimentación. Si hay muchas flechas que marcan una hipótesis (como hacen los economistas) entonces nunca puedes averiguar causalidades porque el grafo se vuelve muy enrevesado y todo afecta a todo.
Para Judea Pearl la IA basada en redes neuronales es **aprendizaje por asociación** mientras que el [[https://arxiv.org/abs/1305.5506|do-calculus]] en [[https://es.wikipedia.org/wiki/Red_bayesiana|redes bayesianas]] codificadas como grafos DAG, es un **aprendizaje por intervención**. Para información más detallada ver [[https://slideplayer.com/slide/1652995/|Gated Graphs and Causal Inference. Networks, processes and causality]], de Microsoft Research.
¿Qué diferencia un contrafactico de una intervención? Si me tomo una aspirina y se me pasa el dolor de cabeza el pensamiento contrafactico es "¿seguiría el dolor de cabeza si no te hubieras tomado la aspirina permaneciendo el resto de factores igual?" Es un contrafactico porque ambas cosas (tomar la aspirina y no tomar la aspirina) no pueden suceder a la vez y por eso este tipo de razonamiento es la fuente de nuestras explicaciones. Los físicos razonan así todo el tiempo. La forma matemática de este razonamiento es la **ecuación**, igualando dos factores de tal forma que si altero uno tengo que alterar el otro para mantener la igualdad que describe la ecuación. Una ecuación nos permite pensar contrafacticamente. Un robot no puede hacer esto. Un robot no puede hacer una declaración causal a menos que tenga un modelo causal del mundo y haga deducciones a partir de él.
¿Cómo construimos un modelo causal sin un equipo de humanos expertos que lo hagan? Parece que los niños construyen un modelo contrafactual del mundo y lo hacen interviniendo sobre el mundo mediante sus juegos. Además de esto está la guia de los padres, las conversaciones con otros niños y los rumores que se propagan. Reciben información de muchas fuentes y la integran para completar su inicialmente precario modelo del mundo.
ESTO TIENE MUCHA RELACION CON LA FILOSOFIA DEL CUERPO Y CON LA PROPUESTA DE DAMASIO PORQUE NUESTRA **INTERVENCIÓN EN EL MUNDO USANDO NUESTRO CUERPO** Y RECIBIENDO FEEDBACK POR NUESTROS SENTIDOS COMPLETA NUESTRA RED BAYESIANA INTERNA CON LA QUE NOS RELACIONAMOS CAUSALMENTE CON EL MUNDO. Por tanto la inteligencia no es solo cuestión de tener un cerebro, es cuestión también de intervenir en el mundo con nuestro cuerpo.
Los humanos también somos capaces de COMBINAR DIFERENTES MODELOS CAUSALES SIMPLES procedentes de nuestras experiencias en diversas disciplinas y somos también capaces de usar metáforas sobre las experiencias. Pearl considera que LAS METAFORAS SON LA BASE DE LA INTELIGENCIA HUMANA ya que son un SISTEMA EXPERTO, son una forma de enfrentarse a un problema desconocido haciéndolo corresponder con un problema conocido, que te resulta familiar. ¿Qué es un problema conocido? Es uno en el que las respuestas a ciertas preguntas entán explícitas, no hace falta derivarlas. Un buen jugador de ajedrez tiene ciertas reglas interiorizadas en un conocimiento explícito mientras que los que no sabemos jugar bien al ajedrez tenemos que pensar qué hacer en cada jugada, tenemos que derivar lo que para el experto es explícito. Esas respuestas explicitas han sido conocidas a través de repetir experimentos, intervenciones en el mundo (como cuando un niño juega con pelotas y aprende las leyes del movimiento y de los choques elásticos). Pearl indica que toda nuestra inteligencia está construida alrededor de metáforas que hacen corresponder lo desconocido con lo conocido. Esto es "razonamiento por metáforas". Sin embargo aún no hemos sigo capaces de construir algoritmos que metaforicen, esto es, que relacionen lo desconocido con un modelo del mundo que tenemos interiorizado.
//Nota: En el [[podcast:episodios:3|episodio 3]] estuvimos hablando de la metáfora y dijimos que el uso más fuerte de la metáfora es el que hace la filosofía orientada a los objetos, una filosofía natural contemporánea que pretende captar una realidad más completa que la que proporcionan los modelos científicos y asegura que solo podemos relacionarnos con la “realidad ahí fuera” mediante aproximaciones metaforicas. El libro de Ian Bogost Alien phenomenology. What is like to be a thing hace un repaso a esta filosofía que parte de la idea de Thomas Nagel (Whas is like to be a bat?) y llega a conclusiones diferentes. El capítulo 3 del libro está dedicado entero al metaforismo de esta propuesta filosófica y que se titula así precisamente: “Metaphorism”.//
Indica Pearl que **estamos haciendo grandes progresos en el dominio del razonamiento causal**. Estos progresos son para él una **revolución causal**. En 30 años hemos hecho cosas que empequeñecen lo conseguido en el resto de historia humana. Estamos arrancando en el ejercicio de desarrollar modelos cualitativos del mundo, de cómo funciona el universo, que las máquinas usarán como punto de partida para derivar, aprender, todo lo que las matemáticas nos permitan aprender y llegar a respuestas cuantitativas a nuestras preguntas.
Respecto al **Big Data** muchas veces lo importante no es tanto tener muchos datos como tener datos de muchas fuentes. Esto último es mucho más importante porque nos permite extrapolar resultados médicos, por ejemplo, de intervenciones hechas en una población de deducir cómo afectarán a otra población diferente.
¿Qué es la **causalidad**? No solo la relación temporal entre eventos. Es también una relación estructural. La precedencia temporal no puede reemplazar la causalidad a pesar de que la causalidad nunca va "hacia atrás". Pearl usa grafos DAG para representar la causalidad. El do-calculus es una relación (de intervención) entre dos eventos que es estructural, es independiente del tiempo aunque la relación es una flecha dirigida que tiene un sentido y que no puede ir hacia atrás (por eso los Grafos de Pearl son DAG, la D significa "dirigido". Es acíclico, la "A", porque no contiene caminos que empiecen y acaben en el mismo punto). Los grafos de Pearl son una **generalización de la lógica booleana**, según él mismo indica. En este grafo se representan ciertas relaciones causales y podemos preguntarle sobre otras relaciones causales que no están representadas en el grafo, relaciones que rompen las reglas y se preguntan qué sucedería si las cosas se hubieran desarrollado de otra forma (pensamiento contrafáctico). Lo que Pearl desea es una máquina que sea capaz de hacer eso, de aplicar un pensamiento contrafáctico a un modelo causal del mundo y preguntarse sobre cosas que no están contempladas en el modelo.
¿Qué sería el **aprendizaje** según Pearl? Una máquina podría ir almacenando todos los hechos sucedidos relativos a algo en todos los lugares del mundo pero no tendría la capacidad para establecer la dirección causal de los hechos que sea capaz de relacionar. No es capaz de responder a una pregunta contrafáctica "qué sucedería si el evento X no hubiera sucedido". El machine learning tal como está concebido hoy solo ve datos, hechos y calcula correlaciones a ciegas, sin referirlas a causalidad. ¿Cómo se podría modificar el machine learning actual? Según Pearl solo mediante intervención en el mundo y comparar el dato antes de la intervención y el dato tras la intervención: //playful manipulation// (jugar a manipular el mundo). Podemos bajo ciertas circunstancias evitar la manipulación porque a veces de forma aleatoria sucede que los sucesos en el mundo cambian su curso de acción por accidente (los humanos enferman, tienen accidentes) y a veces ese "ruido" si es puramente aleatorio (y por tanto no sujeto a causalidad) nos puede servir para observar un suceso contrafactico del tipo "¿y si X no hubiera sucedido?".
El objetivo final, dice Pearl, es conseguir que una máquina sepa responder a cuestiones sofisticadas como los **contrafácticos**, la **compasión**, **lamentar algo**, la **responsabilidad** y el **libre albedrío**. No tenemos un equivalente al test de Turing para el libre albedrío pero sería posible hacerlo: si los robots fueran capaces de comunicarse como lo hacemos nosotros, es decir, con recompensas y castigos y dándole uno al otro un toque en la mano diciendo "no deberías de haber hecho eso" entonces el robot se cambiaría a sí mismo su software y haría las cosas de otra forma. Es parecido a como actuamos los humanos: no podemos cambiar al otro pero sí podemos motivarle y darle razones para que él mismo se cambie. Nosotros cambiamos nuestro patrón mental de comportamiento y los robots cambian su software, pero el efecto es el mismo: aprendizaje por contrafácticos. De esa forma un robot aprendería a hacer mejor algo que ya hace bien. Sin un aluvión de datos, solo con un buen argumento contrafáctico. Como hacemos nosotros.
**¿Cómo hacer que una máquina sea ética?** Necesita saber reconocer la causalidad y, a partir de ella, desarrollar empatía y deducir lo que es bueno para ti. Lo que llamamos compasión, es decir, hacer corresponder mi modelo causal interior (el único que conozco) con el modelo causal de otro (que no conozco). "Ah, eres como yo, entonces no haré esto porque supongo que te dolerá, como me dolería a mi".
>Nota: Aquí es importante recordar el **argumento de analogía de la voluntad** de Schopenhauer que, de forma similar, le permite hipotetizar sobre el funcionamiento de la naturaleza, la "voluntad" de la naturaleza, a partir de autoexaminar cómo funciona su propia voluntad, la única que conoce.
La **consciencia** sería ese modelo causal que cada uno tiene de sí mismo en contraposición con el entorno. Es un modelo causal, no es una lista detallada de reglas. La consciencia es un plano de tu propio software (//a blueprint of your own software//). Sobre ese modelo podemos pensar (reflexión) y decir "si cambio esto en mí sucederá esto otro" y entonces nos empezamos a desarrollar como personas. Eso es **libre albedrío**, la deducción de qué sucede si interferimos en el modelo causal y la capacidad de hacerlo.
**¿Qué hay de preocupante en el tema de la Inteligencia Artificial?** Pearl indica que estamos construyendo una nueva especie que nos va a superar en capacidades y no sabemos qué capacidad tendremos de controlarla. Ni siquiera sabemos qué es lo que tendremos que controlar. La única vez que ha sucedido algo similar ha sido con la evolución humana. Ha sido bueno para nosotros pero probablemente ha sido malo para otras especies. El problema es que tenemos un solo caso, un n=1, la evolución humana. Pero eso no es no saber nada porque también tenemos teorías y conjeturas sobre lo que podría suceder. Pero es dificil deducir nada a partir de ese conocimiento, solo preocupación.
**¿Deberíamos de equipar a un robot con creencias religiosas, con una metáfora de un dios?** Bueno, el robot tendrá un modelo de su entrenador, ya sea que dicho entrenador sea un humano u otro software. Todo lo que suceda en el mundo será referido a ese modelo que incluye a un entrenador último, un "dios", la relación mas primigenia, más fundamental. No hay Dios, hay creencia en Dios. Es interesante que Pearl dice que la religión funciona siempre que tengas en cuenta que es solo una metáfora. Pero entonces (esto no lo resuelve Pearl) el robot tendría que reconocer en su modelo **qué es la realidad**, si es su modelo o aquello a lo que el modelo se refiere, esto es, el mundo. Y esta es una pregunta filosófica por excelencia.
===== Fernando Broncano: las emociones, territorios intermedios de la mente =====
Una manera interesante de recorrer este camino puede ser recurrir a Fernando Broncano y sus notas acerca de las emociones como territorios intermedios de lo mental:
[[http://www.uma.es/contrastes/pdfs/SUPL2001/ContrastesE01-08.pdf|Las emociones: territorios intermedios en la mente - Fernando Broncano]]
En el artículo [[proyectos:westworld:start|]] Joaquín cita el trabajo de Broncano describiéndolo de esta forma:
[[proyectos:westworld:start|{{:podcast:episodios:broncano-emociones.png|}}]]
En este sentido, también Zamora Bonilla en su libro "Sacando Consecuencias" hace una distinción bastante acertada del estado de la cuestión: las normas de inferencia por las que los humanos //sacamos consecuencias// "no son solo algoritmos computacionales, algo así como líneas de un programa informático (...) el ordenador saca las consecuencias que está programado para sacar, no las saca porque le parezcan correctas. (...) El que nuestra deliberación sea un proceso al que cabe aplicar normas sobre lo que debemos o no debemos concluir, y no un ciego algoritmo que calcula las conclusiones a partir de las premisas, no implica de manera inevitable que nuestros procesos mentales no puedan ser reproducidos por un ordenador. (...) tal ordenador tendría que poseer al menos dos tipos de programas, uno que le permitiese realizar inferencias, y otro que le generase los estados que consisten en darse cuenta de si la inferencia realizada es correcta o incorrecta. (...) Para complicar las cosas, también tendría que tener un programa que le llevase a desear hacer ciertas cosas y a evitar otras". (Sacando consecuencias, p. 37)
El artículo [[https://www.eldiario.es/tecnologia/cientificos-Inteligencia-Artificial-prohibir-sostienen_0_975002803.html|Los científicos se cansan de la moda de la Inteligencia Artificial y piden prohibir algunos de sus usos]] contiene este gráfico que muestra muy bien los logros y carencias de la forma como actualmente estamos usando las técnicas de Inteligencia Artificial.
{{ :podcast:episodios:inteligencia-artificial-narayanan-universidad-eeuu_ediima20191217_0918_5.jpg?nolink&600 |}}
===== ¿Cómo será la convivencia entre el humano y la Inteligencia Artificial? =====
Hablamos sobre qué es mejor, si una inteligencia artificial autónoma que aprenda se su propia interacción con el mundo y se autocorrija o los sistemas actuales que buscan correlaciones en medio de un Big Data de información. ¿Queremos crear alguien semejante al personaje [[https://es.wikipedia.org/wiki/Data_(Star_Trek)|DATA de la serie Star Trek]] aún a riesgo de que pueda convertirse en algo parecido a lo que era su hermano en dicha serie, el [[https://es.wikipedia.org/wiki/Lore|personaje LORE]]?
===== Otras referencias =====
[[https://www.netflix.com/title/80190844|Netflix: Documental sobre AlphaGo]] \\
[[https://eldiariodelaeducacion.com/blog/2019/10/31/google-quiere-ser-la-gran-educadora-quiere-ser-el-tercer-hemisferio-cerebral-de-todas-las-personas/|Entrevista a Jose Antonio Marina]]