Herramientas de usuario

Herramientas del sitio


podcast:episodios:15

Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Ambos lados, revisión anterior Revisión previa
Próxima revisión
Revisión previa
podcast:episodios:15 [2019/11/19 08:17]
Joaquín Herrero Pintado [Peter Norvig y la confianza en la tecnología]
podcast:episodios:15 [2022/06/15 10:40] (actual)
Joaquín Herrero Pintado [Darmouth: diversidad de técnicas desde los inicios de la Inteligencia Artificial]
Línea 111: Línea 111:
 El campo de la Inteligencia Artificial nace oficialmente en 1956 en la llamada [[https://​en.wikipedia.org/​wiki/​Dartmouth_workshop|Conferencia de Darmouth]] si bien más que conferencia fue un taller (workshop) de dos meses de duración. Ya hacía años que se investigaba la posibilidad de inteligencia no humana y había ciertos avances en el conocimiento del funcionamiento de las neuronas y del comportamiento inteligente,​ dos investigaciones estas, la fisiológica y la sicológica,​ diferentes aunque cvomplementarias y que darán lugar a técnicas bien diferentes dentro del paradigma de la Inteligencia Artificial: lan investigaciones simbólicas y sub-simbólicas. El campo de la Inteligencia Artificial nace oficialmente en 1956 en la llamada [[https://​en.wikipedia.org/​wiki/​Dartmouth_workshop|Conferencia de Darmouth]] si bien más que conferencia fue un taller (workshop) de dos meses de duración. Ya hacía años que se investigaba la posibilidad de inteligencia no humana y había ciertos avances en el conocimiento del funcionamiento de las neuronas y del comportamiento inteligente,​ dos investigaciones estas, la fisiológica y la sicológica,​ diferentes aunque cvomplementarias y que darán lugar a técnicas bien diferentes dentro del paradigma de la Inteligencia Artificial: lan investigaciones simbólicas y sub-simbólicas.
  
-La gran narradora de cómo se inicia el campo de la Inteligencia Artificial es [[http://​www.pamelamc.com/​|Pamela McCorduck]],​ que ha sido entrevistada por Lex fridman en el episodio [[https://​lexfridman.com/​pamela-mccorduck/​|Pamela McCorduck: Machines Who Think and the Early Days of AI]]. Ella comenta cómo el campo de la IA comienza apostando por la [[Ver [[https://​es.wikipedia.org/​wiki/​Inteligencia_artificial_simb%C3%B3lica|Inteligencia Artificial Simbólica|Inteligencia Artificial simbólica]] y durante 20 años este sería el paradigma dominante en la investigación y el que atrajo más fondos para fundar centros de investigación.+La gran narradora de cómo se inicia el campo de la Inteligencia Artificial es [[http://​www.pamelamc.com/​|Pamela McCorduck]],​ que ha sido entrevistada por Lex fridman en el episodio [[https://​lexfridman.com/​pamela-mccorduck/​|Pamela McCorduck: Machines Who Think and the Early Days of AI]]. Ella comenta cómo el campo de la IA comienza apostando por la [[https://​es.wikipedia.org/​wiki/​Inteligencia_artificial_simb%C3%B3lica|Inteligencia Artificial simbólica]] y durante 20 años este sería el paradigma dominante en la investigación y el que atrajo más fondos para fundar centros de investigación.
  
 En estas imágenes tomadas de la documentación del curso [[https://​courses.media.mit.edu/​2016spring/​mass63//​wp-content/​uploads/​sites/​40/​2016/​02/​Symbolic-vs.-Subsymbolic.pptx_.pdf|Symbolic vs. Subsymbolic AI]] del MIT Media Lab se resumen las técnicas que agrupamos dentro de estas dos grandes categorías:​ IA simbólica e IA no-simbólica. En estas imágenes tomadas de la documentación del curso [[https://​courses.media.mit.edu/​2016spring/​mass63//​wp-content/​uploads/​sites/​40/​2016/​02/​Symbolic-vs.-Subsymbolic.pptx_.pdf|Symbolic vs. Subsymbolic AI]] del MIT Media Lab se resumen las técnicas que agrupamos dentro de estas dos grandes categorías:​ IA simbólica e IA no-simbólica.
Línea 186: Línea 186:
 La Unión Europea está regulando el [[https://​ora.ox.ac.uk/​catalog/​uuid:​593169ee-0457-4051-9337-e007064cf67c/​download_file?​file_format=pdf&​safe_filename=euregs.pdf&​type_of_work=Journal+article|Derecho a la Explicación]] respecto a decisiones automatizadas. ​ La Unión Europea está regulando el [[https://​ora.ox.ac.uk/​catalog/​uuid:​593169ee-0457-4051-9337-e007064cf67c/​download_file?​file_format=pdf&​safe_filename=euregs.pdf&​type_of_work=Journal+article|Derecho a la Explicación]] respecto a decisiones automatizadas. ​
  
 +{{:​podcast:​episodios:​peter-norvig.png?​360 |}}
 A esta problemática se refiere el científico de la computación Peter Norvig en [[https://​www.youtube.com/​watch?​v=_VPxEcT_Adc&​t=1111s|esta entrevista que le hace Lex Fridman]] en su podcast Artificial Intelligence (minutos 18 a 25), aunque Norvir desplaza el problema desde el tema de la "​explicabilidad"​ al tema de la confianza en la exactitud de los resultados proporcionados por sistemas de 'caja negra'​. A esta problemática se refiere el científico de la computación Peter Norvig en [[https://​www.youtube.com/​watch?​v=_VPxEcT_Adc&​t=1111s|esta entrevista que le hace Lex Fridman]] en su podcast Artificial Intelligence (minutos 18 a 25), aunque Norvir desplaza el problema desde el tema de la "​explicabilidad"​ al tema de la confianza en la exactitud de los resultados proporcionados por sistemas de 'caja negra'​.
 +
 +//secondly we could somehow learn yeah there'​s this rule that you can remove one grain of sand and you can do that a bunch of times but you can't do it the new your infinite amount of times but on the other hand when you're doing induction on the integers sure then it's fine to do it an infinite number of times. And if we could somehow we have to learn when these strategies are applicable rather than having the strategies be completely neutral and of it available everywhere anytime using you know networks anytime you learn from data form representation from day in an automated way it's not very explainable as to or it's not introspective to us humans in terms of how this neural network sees the world where why does it succeed so brilliantly on so many in so many cases and fail so miserably in surprising ways and small. So what do you think is this is the future there can simply more data better data more organized data solve that problem or is there elements of symbolic systems they need to be brought in which are a little bit more explainable. So I prefer to talk about trust and validation and verification rather than just about explain ability and then I think explanations are one tool that you use towards those goals and I think it is an important issue that we don't want to use these systems. Unless we trust them and we want to understand where they work and where they don't work and in an explanation can be part of that right. So I apply for loan and I get denied I want some explanation of why.  You have in Europe we have the GDPR that says you're required to be able to get that but on the other hand an explanation alone is not enough. So you know we were used to dealing with people and with organizations and corporations and so on and they can give you an explanation and you have no guarantee that that explanation relates to reality right right so the bank can tell me well you didn't get the loan 
 +because you didn't have enough collateral and that may be true or it may be true that they just didn't like my religion or or something else. I can't tell from the explanation and that's that's true whether the decision was made by computer or by a person. So I want more I do want to have the explanations and I want to be able to have a conversation to go back and forth and said well you 
 +gave this explanation but what about this and what would have happened if this had happened and what would I need to change that. So I think a conversation is a better way to think about it than 
 +just an explanation as a single output and I think we need testing of various kinds right so in order to know was the decision really based on my collateral or was it based on my religion or skin
 +color or whatever I can't tell if I'm only looking at my case. But if I look across all the cases then I can detect the pattern that's right so you want to have that kind of capability you want to
 +have these adversarial testing all right.//
  
  
Línea 195: Línea 203:
 ===== La ciudadanía digital ante una tecnología con sesgos e inexplicable ===== ===== La ciudadanía digital ante una tecnología con sesgos e inexplicable =====
  
 +Parece necesario que los ciudadanos comprendamos que determinadas decisiones que nos afectan en nuestra vida diaria estarán, si no lo están ya, ejecutadas por algoritmos. Desafortunadamente el contenido de la "caja negra" en la que se toman estas decisiones no es accesible para cualquiera, pero la legislación europea ha ido dando pasos en la protección del ciudadano frente a estas decisiones automatizadas basadas en grandes conjuntos de datos que incluyen los suyos y su identidad, de forma que cualquiera puede, al menos potencialmente,​ decidir no ser objeto de estas decisiones.
 +
 +El artículo 21.1 del **Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo** de 27 de abril de 2016 relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos (de aplicación obligatoria en todos los estados de la UE desde el 25 de mayo de 2018), dice textualmente:​
 +
 +"Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado,​ incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar."​
 +
 +[[http://​example.com|Texto completo en pdf del BOE]]
  
-<wrap hi>EN PREPARACIÓN</​wrap>​ 
 ===== ¿Correlaciones o causalidad? Judea Pearl y los contrafacticos ===== ===== ¿Correlaciones o causalidad? Judea Pearl y los contrafacticos =====
  
podcast/episodios/15.1574151464.txt.gz · Última modificación: 2019/11/19 08:17 por Joaquín Herrero Pintado