Herramientas de usuario

Herramientas del sitio


cts:el_cambio_tecnico:sistemas_expertos_agentes_artificiales

Decisiones tecnológicas: sistemas expertos, agentes artificiales y simulación

Una de las características de la última fase de la tecnociencia contemporánea es el desarrollo de sistemas artificiales dotados de muchas de nuestras capacidades cognitivas (“ciudades inteligentes”, sistemas de diagnóstico médico dotados de mecanismos de toma de decisiones), cuyos fundamentos filosóficos se originan en la teoría de la computación.

Marcelo Dascal en "Language as a cognitive technology":
“Entiendo por tecnología cognitiva (TC) todo medio –material o mental- sistemático creado por los humanos que se usa de manera significativa y rutinaria para la ejecución de objetivos cognitivos. Entiendo por objetivos cognitvos tanto los estados mentales de naturaleza cognitiva (por ejemplo, conocimiento, opinión, creencia, intención, expectativas, decisiones, planes de acción) como los procesos cognitivos (por ejemplo, percepción, memorización, conceptualización, clasificación, aprendizaje, anticipación, formulación de hipótesis, demostración, deliberación, evaluación, crítica, persuasión descubrimiento) que conducen a estados cognitivos o que ayudan a alcanzarlos.”

“Aunque detrás de cada tecnología creada por la humanidad, ya sea la rueda, la agricultura o la telefonía móvil, por supuesto que hay un enorme esfuerzo cognitivo. Esto mismo no las convierte, como tales, en tecnologías cognitivas, en el sentido en que propongo utilizar esta expresión. […] Las tecnologías cognitivas son aquellas que o han sido diseñados para usos cognitivos o de alguna manera resultan apropiadas para tales usos. Pueden desde luego mantener su uso original y tener efectos no cognitivos tales como producir empleo, provocar una guerra o viajar en el espacio.”

Álvarez: “Me parece sumamente importante explorar la línea trazada por Dascal en el sentido de que no se trata simplemente de estudiar la relación entre nuestra mente y las tecnologías, en nuestra capacidad de crear artefactos cognitivos que nos permiten ahorrar tiempo y energías.”

Agentes artificiales

Ver los tres conceptos de Álvarez descritos como “piezas mínimas para construir un modelo de ser humano” en los_aspectos_pragmatico-cognitivos.

Álvarez (2000) “Comprender las propiedades de los sistemas sociales complejos mediante el análisis de simulaciones (Axelrod 1977) nos presenta una “tercera” manera de hacer ciencia, diferente de la inducción y la deducción. Axelrod dice que, al igual que con la deducción, en la simulación comenzamos con un conjunto de supuestos explícitos, pero a diferencia de la situación deductiva, no se prueban teoremas. Se generan datos simulados que pueden ser analizados inductivamente pero, a diferencia de la inducción, los datos simulados proceden de un conjunto de reglas rigurosamente especificadas en lugar de proceder de mediciones directas del mundo real. O aún más, se trata de hacer experimentos mentales. Los supuestos pueden ser simples, pero las consecuencias pueden no ser obvias”.

La deducción de consecuencias a partir de los datos simulados no es posible sin antes presuponer un modelo de racionalidad en el agente. Evidentemente, como comenta Álvarez, si un agente utiliza estrategias optimizadoras en sus acciones la deducción a partir de los datos es mucho más sencilla que si el agente utiliza estrategias adaptativas.

Los intentos de Ariel rubinstein de modelar agentes racionales acotados abren las puertas a unos nuevos tipos de análisis de los datos simulados.

Simulaciones sociales

Álvarez (2004) indica que además de la conceptualización de Simon sobre la racionalidad acotada para pensar la articulación entre razón teórica y razón práctica, “otra línea que ha terminado por tener una enorme importancia en este asunto ha sido el camino de la simulación y los estudios de inteligencia artificial, combinados con resultados procedentes del estudio de las ciencias cognitivas. […] La modelización, al acercarse al dominio de la simulación social, está produciendo resultados muy llamativos en las relaciones entre lo micro y lo macro”.

Queda por ver si estas modelizaciones podrían “resolver el problemna teórico de los fundamentos de las ciencias sociales, a saber, la posibilidad de formas emergentes no planificadas e inconscientes de cooperación, organización y comprensión entre agentes intencionales que planifican”.

Ejemplo: Caso de Nate Silver, matemático norteamericano y autor del blog FiveThirtyEight publicado por el New York Times, cuyo modelo matemático predijo exactamente el ganador de las elecciones presidenciales USA de 2012 en cada uno de los estados. El diario La Vanguardia dijo sobre este caso: “Silver utiliza un modelo estadístico “secreto”, según ha señalado él mismo. Es “un simulador de elecciones” basado en parte en comicios pretéritos. Cada día introduce nuevos datos en su modelo matemático, principalmente cifras de votación y datos económicos, y comprueba quién gana y con qué frecuencia”.

"The Epistemological Foundations of Artificial Agents", N.J Lacey y M.H. Lee, 2003 Ya que el mundo en el que operan los agentes suele ser mucho más complejo que los propios agentes (humanos o artificiales), deben desarrollar técnicas para representarse esa complejidad en un marco, el propio, mucho más acotado. Dicen “algunos de los métodos que han desarrollado los filósofos para abordar los problemas de la epistemología pueden resultar pertinentes para la representación del conocimiento dentro de los agentes artificiales”

Heurísticas

La toma de decisiones en tiempo real supone utilizar un mecanismo de decisión rápido, es decir, que use poca información: heurísticas rápidas, frugales y ajustadas, como dicen Gigerenzer, G., y Todd, P.M., en Simple Heuristics that make us smart. Añadir más conocimiento puede reducir la precisión de la decisión: “normalmente no consideramos que saber más reduzca la eficacia de una decisión pero, cuando se utiliza una heurística sencilla que descansa sobre poco conocimiento, ocurre exactamente que ese es el resultado experimental”.

Peter M. Todd en “Fast and Frugal Heuristics for Environmentally Bounded Minds” (2001) afirma que “Las estrategias simples que utilizan pocas pistas pueden funcionar bien en entornos de decisión real, y las heurísticas rápidas y frugales que explotan ese rasgo pueden satisfacer las auténticas cotas temporales más que cognitivas, de nuestra racionalidad ecológica“.

Comprender los mecanismos de optimización de la tasa de información obtenida en función del tiempo empleado es el objetivo de las teorías generales que se están desarrollando para evaluar los sistemas de información, llamadas Foraging Information Theories (de “forage”, el acto de buscar comida o provisiones).

Referencias

Alvarez, J. F. (2004) “La tijera de Simón y la racionalidad ecológica: ecología y valores”

From Automaticity to Autonomy: The Frontier of Artificial Agents

cts/el_cambio_tecnico/sistemas_expertos_agentes_artificiales.txt · Última modificación: 2014/11/05 12:30 por jherrero