HISTORIA DE LA INTELIGENCIA ARTIFICIAL
Génesis de la inteligencia artificial
(1943-1956)
Reconocido
en general como el primer trabajo de la
IA, fue realizado por Warren
MCculloch y Walter pitts
(1943).abrevaron de 3 fuentes:
conocimientos sobre la filosofía básica
y funcionamiento sobre las neuronas en el cerebro, en el análisis formal de la
lógica proposional de Russell y whitehead y la teoría de computación de tú
ring. Propusieron un modelo constituido por neuronas artificiales, en que cada una de ellas se caracteriza por estar “encendida” o
“apagada”; el encendido se debe como respuesta a la estimulación producida por
una cantidad suficiente de neuronas vecinas. El estado de las neuronas se veía
como equivalente, de hecho a una proposición que propusieran sus estímulos
adecuados.
Si
bien el taller de dartmouth no produjo
ningún avance notable, se contribuyó a que todos los personajes se conocieran.
Durante los siguientes 20 años el campo
estuvo denominado por estos personajes, así como por sus estudiantes y colegas del:
Ø MIT,
Ø UCT,
Ø STANFORD
Ø la IBM.
Quizás lo último
que resulto del taller fue el consenso
en adoptar el nuevo nombre propuesto por
McCarthy para este campo: inteligencia artificial.
Entusiasmo inicial, grandes
esperanzas (1952-1969)
En los primeros años de la IA hubo una plétora
de éxitos, de manera limitada. Tomando en
consideración lo primitivo de las computadoras y las herramientas de
programación de esa época, y el hecho de que solo unos cuantos años antes de
las computadoras se les consideraba como artefactos que solo podían hacer
cálculos aritméticos, resultan natural el azoro que causaran en que hicieran
algo remóntate más inteligente.
·
En
el laboratorio de IA de MIT memo
número 1, definió el lenguaje de
alto nivel lisp, que se convierte en el lenguaje de programación dominante en IA. Lisp
es el segundo lenguaje de programación más antiguo que todavía se utiliza actualmente.
·
Minsky
supervisaba el trabajo de unos estudiantes, quienes eligieron problemas limitados cuya solución parecía
requerir la inteligencia. Estos dominios limitados vinieron hacer conocidos con micro mundos.
·
Rosenblat
demostró el famoso teorema de
convergencia del perceptor, con lo que
demostró que su algoritmo de aprendizaje podría ajustar las intensidades
de conexión de un perceptor para que
correspondiera a cualquier dato de la entrada, siempre y cuando tal
correspondencia fuese factible.
Una dosis de
realidad (1966-1974)
Desde el principio de los investigadores de la
IA expresaron sin empacho predicciones
sobre el éxito futuro que les aguardaba.
Con frecuencia, se cita el siguiente comentario
hecho por Herbert simón en 1957:”
sin afán de sorprenderlos y dejarlos atómicos, debo informarles lisa y llenamente que el mundo existen maquinas capaces de pensar,
aprender y crear.”
La ilusoria noción de una limitada de
capacidad de cómputo no solo existió en
los programas para la resolución de
problemas.
v Los primeros experimentos en el
campo de la evolución de la maquina o
computadora (actualmente conocido como algoritmo genético) están basados en la sin
duda correcta premisa de que efectuando una adecuada serie
de pequeñas mutuaciones a un programa
el código de la maquina podría generar un programa con buen desempeño en la
realización en cualquier tarea sencilla.
Sistemas basados en el conocimiento: ¿clave del poder?
(1969-1979)
La naturaleza de la resolución de los
problemas durante la primera década de la investigación en IA residía a un mecanismo de búsqueda de
propósito general en la que se entrelazaban
pasos de razonamiento elementales para encontrar así soluciones complejas.
v A estos procedimientos se le dominaron métodos débiles, debido a que la
información sobre el dominio es
débil.
v Pph (hpp, heuristic programming Project), dedico a determinar el
grado con la que la nueva metodología del sistema experto podía aplicarse a otras áreas de la actividad humana.
v En Mycin se contaba con un cálculo de
incertidumbre denominado factores de certeza que al parecer correspondía muy
bien a la manera como los
médicos ponderaban las evidencias al
hacer un diagnostico.
v Con
base ala noción de marcos de
minsky (1975), se decidieron por un enfoque un poco mas estructurado de recopilar información sobre un objeto en particular y
tipos de eventos y organizando estos tipos en grandes jerarquías taxonómicas, similares alas de la
biología.
La
IA se convierte en una industria
(1980-1988)
En 1981 los
japoneses iniciaron el proyecto de la quinta generación, un plan de
10 años para construir computadoras inteligentes en los que se corrigen prolog, de manera idéntica a como
las computadoras comunes corren código de la máquina. La idea
era con la capacidad para
efectuar millones de inferencias
por segundo, las computadoras podrían a provechar las inmensas reservas de
reglas entre muchos de las ambiciosas
metas propuestas.
El regreso
de las redes neuronales (1986 al
presente)
La ciencia de la computación se a echo
aun lado el campo de las redes
neuronales luego de la publicación del libro
de minsky y papert se ha continuado trabajando
en otros campos especialmente
en física.
Acontecimiento recientes (1987 al presente)
En
los años recientes se les ha podido
atestiguar un cambio tanto en contenidos
como en metodología en las investigaciones de la IA
actualmente es más común
construir sobre teorías, ya existen que
proponer teorías totalmente novedosas, tomar como base rigurosos teoremas o
solidas evidencias experimentales
mas que la intuición y demostrar la utilidad de las aplicaciones
en el mundo real
En
años recientes en el área prevalecen los
enfoques basados en los modelos de markoy
ocultos, MMO (HMM, hidden markov models). Son dos las
características de los MMO
que tienen relevancia en estas explicaciones.
Primera, se basa en una rigurosa teoría matemática, lo
que ha permitido
a los investigadores matemáticas
echas en otros campos.