viernes, 26 de septiembre de 2014

EVOLUCIÓN DE LA INTELIGENCIA ARTIFICIAL


ANTECEDENTES
A lo largo de la historia del ser humano éste ha intentado crear construir e imaginar objetos que imiten sus capacidades cognitivas. Dado tal interés podemos citar la creación de objetos tales como el Napata de Egipto (800 a.C.) estatua construida con el fin de moverse y hablar; la pascalina de Pascal considerada la primer calculadora que funcionaba con engranajes; el pato de Vaucanson considerado el primer robot; el Turco de Von Kempelen, que construyó el primer autómata que jugaba ajedrez, etc. Todos estos inventores fungieron un papel importante como antecedentes de la antigüedad que moldearon la  actual Inteligencia Artificial (I.A.), no obstante, podemos decir que otra área importante de los fundamentos de esta ciencia son las aportaciones al álgebra del matemático y astrónomo persa al-Jwarizmi; el silogismo de Aristóteles considerado el primer sistema de razonamiento deductivo; las aportaciones de Descartes en cuanto al funcionamiento mecánico de los cuerpos vivientes; el álgebra binaria de George Boole que representa las leyes del pensamiento.

Dentro de las aportaciones relativamente actuales (siglo XX) podemos destacar "la principia matemática" de Russell y Whitehead; la publicación de "Un cálculo lógico de las ideas inmanentes en la actividad nerviosa" por dos científicos como Warren McCulloch (neurofisiólogo) y Walter Pitts (matemático), en el que plantean que la actividad neuronal puede ser estudiada en base a la lógica proposicional; los robots “Machina speculatrix” y llamado “Elmer y Elsie” de Grey Walter, con los que deseaba demostrar que las conexiones entre un pequeño número de células cerebrales podrían dar lugar a muy complejas conductas. Sin embargo, un aporte indudablemente significativo fue el de Alan Turing (matemático, considerado el padre de la ciencia de la computación) que en 1950 escribió “la maquinaria de computación e inteligencia” que planteaba una prueba para aplicarse a una máquina y así determinar la existencia de inteligencia. Durante ese mismo año en que Turing sorprendió a toda la comunidad científica implicada, otros hicieron sus aportes como Shannon en que programa una computadora para jugar ajedrez; y la publicación de las tres leyes de la robótica Asimov. Seis años después, en la conferencia de Dartmouth es considerado un evento cumbre de la I.A. ya que se acuñó el término y su campo de actividad. En ella participaron investigadores de diversas áreas como Minsky, McCarthy, Shannon, Newell y Simon entre otros. La idea principal fue que cada aspecto del aprendizaje y cada característica de la inteligencia podían ser tan precisamente descritos que se podían crear máquinas que las simularan. Otros aportes como el de Chomsky y su postulado sobre la sintaxis independiente de la semántica; la fundación del laboratorio de IA en el tecnológico de Massachusetts por Minsky y Mccarthy en 1958; Newell y Simon (1976) “ciencia computacional como indagación empírica: símbolos e investigación”; y en la década de 1980 la relación de las redes neurales con la IA, entre otros de los que hablaré más adelante.
A continuación expondré los puntos centrales de las lecturas revisadas en la clase de I.A.:
TURING
Sin lugar a dudas uno de los principales aportes fue el de Turing (1950) con la publicación “la maquinaria de la computación e inteligencia” en la que se preguntaba si las máquinas pueden pensar. En este artículo propuso “el juego de la imitación” para determinar la inteligencia de una máquina, ya que el juego consiste en un experimento mental en el cual participaban 2 personas (una funge como entrevistador y otra como entrevistado) y una máquina (su propósito es engañar al entrevistador, haciéndole creer que es una persona). Posteriormente si la máquina podía engañar al entrevistador demostraba su inteligencia al pasar desapercibido ante una persona, es decir, en palabras de Turing (1950) “proveer respuestas que podrían ser dadas naturalmente por un hombre”. Cabe destacar que una máquina de Turing es una computadora digital, puesto que tiene como características: unidad de almacenamiento, unidad ejecutiva y control, análogo al del ser humano. Incluso menciona que una máquina digital podría con un adecuado almacén, una velocidad de acción y un programa apropiado, tomar parte del juego de la imitación. Finalmente proporcionó una guía que muchos investigadores y científicos continuaron en los años venideros.
NEWELL Y SIMON
Otro de los puntos focales de la historia de los cimientos de la IA, fueron los aportes de Newell y Simon (1976) sobre el símbolo y el sistema de símbolos, en el artículo “ciencia computacional como indagación empírica: símbolos e investigación”. La propuesta de los autores fue básicamente dos, el primero fue la sentencia: los símbolos descansan en la raíz de la acción inteligente, es decir, que el símbolo es el tópico primario de la inteligencia y el principio de inteligencia debe tener la capacidad de almacenar y manipular símbolos. Otro postulado tiene que ver con el sistema de símbolos físicos (SSF) que se compone por dos principales elementos: a) set de entidades (conjunto de símbolos y a su vez componen expresiones) y b) de procesos (creación, modificación, reproducción, destrucción) así como dos nociones centrales: a) designación (una expresión designa un objeto) e interpretación (el sistema puede interpretar una expresión si ésta designa un proceso). Sobre el SSF, se generó la hipótesis la cual tiene como objetivo demostrar que el SSF cuenta con los medios necesarios y suficientes para realizar actos de inteligencia artificial, tal hipótesis surge debido a que el sistema simbólico del hombre puede ser equiparado al de la máquina, aunque a un bajo nivel perceptual. El concepto de símbolo fue importante para conceptualizar el programa en la unidad de almacenaje de la máquina de Turing, ya que podemos hacer visible el programa en un lugar interno de la unidad; además, la lista de procesamiento mantiene acceso a otras listas (estructuras de listas) se puede establecer gracias al símbolo y sus características. Podemos concluir que el SSF es el estudio de las computadoras que ha revelado que la inteligencia artificial reside en un sistema simbólico físico.
SEARLE
Ahora ya conocemos que, el test de Turing (juego de imitación) puede darnos pistas sobre si una máquina puede pensar, gracias a él conocemos cuales son los componentes que debe tener una máquina para poder emular la inteligencia humana (almacén, velocidad de acción y programa adecuado) y la base principal para tales principios como lo es el símbolo de Newell y Simon. Pero, ¿realmente puede una máquina pensar? se preguntó Searle (1980) en el artículo llamado “Mentes, cerebros y programas”. En el plantea dos tipos de inteligencia artificial, la primera llamada IA débil que postula que el principal valor de la computación en el estudio de la mente es que nos proporciona una herramienta poderosa; la IA fuerte expone que la programación apropiada de la computadora es realmente una mente, es decir, los programas no son herramientas sino son en sí mismos las explicaciones. Los partidarios de la IA fuerte explican que una máquina no simula la habilidad humana sino que, comprende y responde como lo haría un ser humano; Searle piensa que una computadora comprende lo mismo que un termostato o un automóvil, es decir, nada. El experimento mental llamado el cuarto chino, propone para refutar la validez del test de Turing. El cuarto chino no es más que una habitación en el cual se plantea que un sujeto que no sabe hablar el idioma chino, pueda entrar en ella y sentarse a responder ciertas preguntas que entran por lado del cuarto (en chino), y utilizar un libro o script de reglas y poder responder adecuadamente pero en idioma chino para así escribir las palabras y enviarlas de salida, afuera existe un hablante de tal idioma que entiende a la perfección lo que el sujeto le ha escrito desde dentro, ¿qué sucedió? Según Searle la máquina no entiende nada, por ejemplo cuando escribimos en un procesador de texto, o los cambios en un termostato, simplemente sigue ordenes por lo que ha sido hecha y sólo realiza manipulación de símbolos, sólo entiende de sintaxis (como en lógica proposicional o de predicados) y no de semántica. Para él una razón importante para atribuirle estados mentales a una máquina (como el pensamiento) es debido a que extendemos intencionalidad a las herramientas, porque son extensiones de nuestros propósitos.
HARNAD
Con lo revisado anteriormente, se establecen dos paradigmas importantes en el estudio de la cognición que influyen en el desarrollo de la inteligencia artificial. El cognitivismo (de la cual hace referencia autores como Turing, Newell y Simon) se basa en la manipulación simbólica como cognición y el otro paradigma importante es el conexionismo, en la cual se establece que la cognición no es manipulación de símbolos, ya que provee una teoría de procesamiento paralelo de información a nivel cerebral, es decir, existen patrones dinámicos de activación en una red multicapa, interconectadas a través de nodos. El resultado a grandes rasgos es una red que aprende, reconoce patrones y resuelve problemas. En el texto de Harnad sobre la cimentación del símbolo (1990), expone que los símbolos están implementados en máquinas y carecen del vínculo externo o en relación a los objetos del mundo, incapaces de establecer categorías de esos mismos objetos externos, y se pregunta ¿cómo es posible que un símbolo se pueda cimentar en otra cosa que no sea un símbolo sin sentido? Los cognitivistas explicarían que la mente es un sistema simbólico y la cognición es manipulación de símbolos, como conectar modulo autónomo funcional que necesite ser conectado a un dispositivo periférico para ver lo que el mundo es, de acuerdo a los símbolos de los que se refiere. Sin embargo, esto trivializa el problema de la cimentación del símbolo. Para explicar cómo es que la teoría cognitivista no responde a la relación entre el símbolo y su significado, se apoya de la teoría conexionista. Expone que las capacidades del conductuales del ser humano inicialmente deben discriminar e identificar objetos distales, todo esto en base a la categorización y representación icónica de los objetos.  Por ejemplo, cómo es que somos capaces de distinguir caballos de perros (representación categórica) y caballos de otros caballos (representación icónica). Estas representaciones son sensoriales no simbólicas. Pero se pregunta, ¿cómo es que podemos representar una zebra? Podemos distinguir entre rayas y caballo, pero ¿cómo hacemos esto si rayas y caballo están cimentadas en distintas representaciones categóricas? Por lo que propone un sistema hibrido entre los dos paradigmas dominantes y menciona lo siguiente: “la conexión entre los nombres y los objetos que dan lugar a  sus proyecciones sensoriales y sus iconos serían proporcionados por las redes conexionistas” (Harnad, 1990).

BROOKS

Podemos notar que Harnad comienza sigilosamente a salir del paradigma cognitivista y comienza a dar un vistazo al paradigma conexionista. Sin embargo, un ingeniero llamado Rodney Brooks abrió un camino diferente para una nueva inteligencia artificial. El trabajo de Brooks consistió en exponer que la inteligencia era poco entendida y sobre todo compleja, por lo que intentar descomponerla en sub-problemas traería consigo el conocer las interfaces de la misma. Su sugerencia fue incrementar la construcción de capacidades para tener sistemas complejos a cada paso para asegurar el funcionamiento de las interfaces; para así soltar a las criaturas (agentes) en el mundo real, ya que según Brooks lo ideal sería no construir un modelo del mundo para que interactuaran en él, sino usar el mismo mundo como modelo para su interacción, en palabras de él “soltarlos en un mundo real, con un sensor real y acción real”. Concluye que las representaciones explicitas y modelos se obtienen sobre la marcha, usando el mundo como modelo propio, ya que su hipótesis es que la representación es una unidad equivocada de abstracción.  La parte interesante de esta idea novedosa es la llamada Subsumption architecture, ésta arquitectura intenta descomponer el componente inteligente en módulos simples, organizado en capas y cada capa implementa el objetivo particular del agente, así las capas más altas son más abstractas” (Brooks, 1987). Su principal desventaja es que al implementarse más capas, el modulo se torna demasiado complejo, es decir, dada su complejidad es insostenible su implementación. Sin embargo, podemos resumir que el principal aporte en lo siguiente: para lograr algo similar a la inteligencia humana se deben construir agentes que tengan un cuerpo, interactúen con su medio y aprendan de ésta interacción (Brooks, 1987).

Obviar el trabajo de Brooks nos deja un panorama cerrado, ya que abandona al paradigma cognitivista (computacionalista, de procesamiento de información lineal) y el paradigma conexionista (de procesamiento paralelo) conocidos como la vieja inteligencia artificial (o la llamada GOFAI, basada en la lógica y la resolución de problemas) y emerge un paradigma distinto sobre la “embebed cognition”. Si pretendemos estudiar la cognición sin tomar la importancia del cuerpo inmerso en un ambiente y la interacción en él, es obviar que somos seres que percibimos objetos o disposiciones de los objetos como una piedra que usamos para un fin (de acuerdo a su potencial de interacción) por lo tanto, la experiencia que nace de la interacción es de suma importancia para comprender la cognición (el concepto de affordance de Gibson).

WILSON

Trabajos posteriores como el de Maggie Wilson (2002) en el que sugiere que la cognición debe cumplir estas características para hablar de cognición embebida tales como: 
1) el acto cognitivo toma lugar en el ambiente; 2) la cognición funciona bajo la presión del ambiente en tiempo real; 3) explotamos el ambiente para reducir nuestra carga cognitiva; 4) la mente guía la acción y la percepción y la memoria contribuyen a la conducta; 5) aunque la mente se desconecte del ambiente, esta se encuentra cimentada a mecanismos que se involucran con ella y el ambiente.

BARSALOU

Sin duda la cumbre de éste breve recuento de la evolución de la IA es el más importante de todos. Barsalou (2008), un psicólogo cognitivo que propone en su trabajo Grounded Cognition que, la cognición no puede ser una computación sobre símbolos amodales (la abstracción de los símbolos percibidos por medio de estructuras perceptuales) de un sistema modular e incluso menciona que es independiente de los sistemas modales cerebrales como la percepción, acción y la introspección. Expone que es probable entonces que el cerebro contenga tales símbolos amodales, y de ser así es probable que trabaje en conjunto con representaciones modales para crear cognición. Por lo que el rol del cuerpo es importante para hablar de procesos cognitivos ya que, un estado corporal puede causar estados cognitivos, y el rol de la simulación es importante para conocer las implicaciones del rol del cuerpo (Barsalou, 2008). Sin embargo, ¿qué podemos decir acerca del éste concepto? Para el autor la simulación es el reactuar de estados perceptuales, motores e introspectivos adquiridos durante la experiencia con el mundo, cuerpo y mente, es decir, las experiencias que tenemos con el mundo como un ejemplo el percibir una taza de café, nuestro cerebro captura estados cognitivos a través de las modalidades (como se ve y su sabor, olor, la acción de tomarla y beberla, así como la introspección de relajación o alteración debido a la cafeína que contiene la bebida) y los integra con una representación multimodal almacenada en la memoria. Después cuando necesitamos representar en una categoría p.e. la taza de café, las representaciones multimodales capturadas durante la experiencia con la taza de café se reactivan a simular las representaciones cerebrales asociadas con dicha taza (percepción, acción, introspección). Así una colección de mecanismos atraviesa los procesos cognitivos es entonces que la simulación provee un tipo de computo cerebral.
Esto implica que al leer una acción que es conocida por nosotros (es decir, que ya la tenemos almacenada en la memoria a través de la experiencia) el cerebro re-actúa y podemos decir que “casi estamos percibiendo el olor del café” aún sin tenerlo presente. El cuerpo es quien nos ha permitido tener tal conocimiento sobre el mundo.

CONCLUSIÓN
Como hemos visto, existen dos momentos importantes en la IA. En este primer momento notamos que se los paradigmas que acompañan a la IA son el procesamiento de información lineal y paralelo (ambos de naturaleza unidireccional) de acuerdo con los paradigmas computacionalista y conexionista respectivamente. El papel de la acción es tan sólo resultado de la entrada de un input y como reacción un output (p.e. la psicología conductista propuesta por Skinner) debido a mecanismos propios del agente. La razón del uso de la máquina fue el estudiar la inteligencia humana, ya que se entendía a la inteligencia como el cómputo de información y la máquina hacía lo mismo, computar símbolos (Newell, et al, 1976). Cabe señalar que este primer momento de la IA se enfocó a estudios o investigaciones sobre procesamiento de información que existía sólo dentro del cerebro y la máquina.
Al hablar del segundo momento de la IA, podemos destacar que el paradigma cambia radicalmente ya que se voltea la mirada al cuerpo y su relación con el entorno. Los  agentes deberían tener un cuerpo, interactuar con el ambiente y aprender de esa interacción (Brooks, 1987), por lo que la conclusión fue que el procesamiento de información no es un proceso unidireccional, sino que la interacción del cuerpo con el ambiente y la modificación del ambiente a través de la conducta, genera un aprendizaje que modifica aspectos sensoriales y motrices sobre la experiencia. La simulación (Barsalou, 2003) es otro factor importante en el desarrollo de la nueva IA, ya que ésta provee a los agentes del re-actuar experiencias sensorio-motrices con el ambiente.

Por: Erika Sánchez

Referencias:
Barsalou, L. (2008). Grounded Cognition. Annual Review of Psychology 59 (1): 617–645
Brooks, R. (1987) Intelligence without representation. MIT Artificial Intelligence Laboratory, 545 Technology Square, Rm. 836, Cambridge, MA 02139, USA.
Harnad, S. (1990) “The symbol grounding problem,” Physica D,vol.42,pp. 335–346.
Newell, A.; Simon, H. (1976): Computer Science as Empirical Inquiry: Symbols and Search. In Communications of the ACM, 19 (3) pp. 113-126.
Searle, J. (1980) Minds, brains, and programs. Behavioral and Brain Sciences 3 (3): 417-457
Turing, A. (1950), "Computing Machinery and Intelligence", Mind LIX (236): 433–460.

Wilson, M. (2002). Six views of embodied cognition. Psychonomic Bulletin and Review, 9, 625-636