jueves, 21 de mayo de 2015
Historia de la inteligencia artifiacial
Breve historia de la Inteligencia Artificial
Los esfuerzos por reproducir algunas habilidades mentales humanas en máquinas y androides se remontan muy atrás en la historia. El mito del coloso de Rodas entre los griegos, las estatuas "parlantes" del medioevo, el androide de Von Kempelen que jugó al ajedrez con Napoleón, y el "motor analítico" de Charles Babbage que calculaba logaritmos, son sólo algunos de los ejemplos de este antiguo interés. Igualmente, la concepción de la inteligencia humana como un mecanismo no es reciente ni ha estado disociada de la psicología: Descartes, Hobbes, Leibniz, y el mismo Hume se refirieron a la mente humana como una forma de mecanismo.
Durante el siglo XIX y la primera mitad del XX, las analogías biológicas y fenomenológicas desplazaron a la noción de mecanismo en el estudio de la mente humana. Sin embargo, a partir de la segunda mitad de nuestro siglo, la noción de mecanismo renovó su poder heurístico con la formalización de la noción de "computación".
Como algunas máquinas, especialmente las calculadoras, se diseñaron para evitar el tener que pensar y para hacer el pensamiento más rápido y exacto, fue inevitable que desde sus orígenes las calculadoras, y más adelante las computadoras, se relacionaran con la inteligencia y el pensamiento enfatizando sus similitudes.
La IA fue introducida a la comunidad científica en 1950 por el inglés Alan Turing en su artículo "Maquinaria Computacional e Inteligencia." A pesar de que la investigación sobre el diseño y las capacidades de las computadoras comenzaron algún tiempo antes, fue hasta que apareció el artículo de Turing que la idea de una máquina inteligente cautivó la atención de los científicos.
La pregunta básica que Turing trató de responder afirmativamente en su artículo era: ¿pueden las máquinas pensar? Los argumentos de Turing en favor de la posibilidad de inteligencia en las máquinas, iniciaron un intenso debate que marcó claramente la primera etapa de interacción entre la IA y la psicología. Los debates en aquella época se centraron en el análisis de la serie de problemas implicados en la aplicación de términos mentalistas a las computadoras. La intención de Turing no era la de usar estos términos como analogías sino la de eliminar la distinción entre inteligencia natural e inteligencia artificial.
Dos de las contribuciones más importantes de Turing a la IA fueron el diseño de la primera computadora capaz de jugar ajedrez y, más importante que esto, el establecimiento de la naturaleza simbólica de la computación.
El trabajo de Turing, quien falleció prematuramente, fue continuado en los Estados Unidos por John Von Neumann durante la década de los cincuentas. Su contribución central fue la idea de que las computadoras deberían diseñarse tomando como modelo al cerebro humano. Von Neumann fue el primero en "antropomorfizar" el lenguaje y la concepción de la computación al hablar de la "memoria", los "sensores", etc., de las computadoras. Construyó una serie de máquinas utilizando lo que a principios de los cincuentas se conocía sobre el cerebro humano, y diseñó los primeros programas almacenados en la memoria de una computadora.
Sin embargo, esta línea de investigación pronto encontró serias limitaciones. La concentración en la imitación de la constitución físico-química del cerebro, no permitió ver, a Von Neumann y sus seguidores, que la analogía sería mucho más eficiente si se estudiaran las funciones del cerebro, es decir, sus capacidades como procesador de información.
Corresponde a McCulloch, a mediados de los cincuentas, formular una posición radicalmente distinta al sostener que las leyes que gobiernan al pensamiento deben buscarse entre las reglas que gobiernan a la información y no entre las que gobiernan a la materia. Esta idea abrió grandes posibilidades a la IA. En esta línea, Minsky (1959), uno de los padres fundadores de la IA, modificó su posición y sostuvo que la imitación del cerebro a nivel celular debería ser abandonada.
Es más o menos en esta época que ocurre un evento que organizaría y daría un gran impulso al desarrollo de la IA: el congreso en Darthmouth (1956). En este congreso, en el que se reunieron los padres fundadores de la disciplina, se llegó a la definición de las presuposiciones básicas del núcleo teórico de la IA:
Desde fines de los cincuentas la investigación en IA se expande y se multiplica en direcciones diversas. La capacidad simbólica de las computadoras es estudiada, entre otros, por Shanon (1950) y por Newell, Shaw y Simon (1958) quienes diseñan el primer programa inteligente basado en su modelo de procesamiento de información. Este modelo de Newell, Shaw y Simon habría de convertirse pronto en la teoría dominante en psicología cognoscitiva.
Algunos investigadores se dedicaron al estudio de la naturaleza del aprendizaje en las computadoras y a los procesos de reconocimiento de patrones visuales. Como resultado de ello Selfridge y Dinneen consiguen diseñar el primer programa capaz de aprender por experiencia (ver McCorduck, 1979).
Basándose en los estudios sobre memoria asociativa, el equipo Newell-Shaw-Simon construyó los primeros lenguajes de procesamiento de información (IPL-I, IPL-II) utilizados en el diseño de su "Logic Theorist Machine" que se convirtió en la primera máquina "inteligente". Esta máquina fue capaz no sólo de memorizar y aprender, sitio que consiguió demostrar de una manera original y "creativa", es decir no prevista por sus creadores, algunos de los teoremas propuestos por Bertrand Russell en los Principios (Russell and Whitehead, 1925).
Desde sus orígenes la IA se relacionó con juegos como el ajedrez y las damas, probablemente debido a que los juegos de mesa constituyen modelos de situaciones reales en las que hay que calcular, solucionar problemas, tomar decisiones, corregir errores, recordar, etc. A pesar de que esta línea de investigación ha sido casi totalmente abandonada en la actualidad, muchos de los avances teóricos y metodológicos de la IA se deben a ella. Por ejemplo, Samuel diseñó en 1961 un programa que jugaba damas y que era capaz de aprender de sus errores, es decir, era capaz de adaptar su comportamiento en relación a eventos pasados. Lo pasmoso de este programa fue que, aunada a su capacidad de aprendizaje la de memoria, con el tiempo consiguió derrotar invariablemente a su creador. El mismo resultado fue obtenido por Bernstein a través de un programa que jugaba ajedrez (Boden, 1977). Los grandes "retos" entre computadoras y seres humanos se multiplicaron, siendo el más famoso de ellos el que ocurrió entre Dreyfus (un enconado crítico de la IA) y el programa Machack, en el que Dreyfus fue derrotado en un juego de ajedrez de varias horas.
A principios de los sesentas, la IA comienza una fase distinta de su desarrollo. En 1962, McCarthy y Raphael inician sus trabajos sobre el diseño y la construcción de un robot móvil que llamarían "Shakey". La diferencia fundamental entre este robot y los programas en computadora utilizados hasta ahora por la IA, es que "Shakey" tendría que enfrentar el reto de interactuar con el mundo real en términos de espacio, tiempo, movimiento, etc. En otras palabras, el robot tendría que tener alguna forma de "conocimiento" del mundo que lo rodeaba. Este reto inició una fuerte preocupación en la IA por el estudio de la epistemología y los procesos cognoscitivos. La discusión se centró alrededor de los problemas de la representación mental o interna del conocimiento, la percepción y los problemas del significado. La idea básica de Raphael era la de reunir, en una sola, distintas máquinas con capacidad de aprender por experiencia, de reconocer patrones visuales, de modelar, de manipular símbolos, etc., y esperar que el todo fuera mayor que la suma de las partes. El resultado del experimento no fue el éxito que Raphael esperaba, pero fue un logro sin precedente que hizo posibles avances muy importantes. El aprendizaje más importante de esta experiencia fue la comprensión de que el problema más difícil por resolver en IA era el de construir una máquina capaz de funcionar con altos ni<,eles de incertidumbre, como lo hace un ser humano. Se hizo claro que construir una máquina que no lidiara efectivamente con la incertidumbre sería una de dos: o trivial, por la simpleza de la tarea, o imposible por la complejidad de la misma.
Hacia mediados de los sesentas la IA se convierte en un área en la que se interesan e interactúan especialistas de diversas disciplinas: lógicos, psicólogos, matemáticos, lingüistas, filósofos, etc. Uno de los grandes temas de IA en esta década fue el estudio del lenguaje. En la mayoría de los estudios iniciales sobre lenguaje, se atacó el problema de diseñar una máquina que fuera capaz de traducir de un idioma a otro. El énfasis se hizo en el análisis de la sintaxis, en lugar del significado, estrategia que se abandonó relativamente pronto. Los investigadores interesados en esta área de la IA pronto descubrieron que traducción no es lo mismo que transformación, y que, como consecuencia de ello, de alguna manera la máquina tendría que "entender" un texto antes de poder traducirlo. Los esfuerzos se orientaron hacia una definición de la comprensión que pudiera simularse en una computadora.
Con esta idea como lineamiento heurístico, se desarrolló una serie de programas que exploraban esta serie de habilidades relacionadas con el lenguaje y la comprensión: el "oráculo" de Phillips, "Sad Sam" de Lindzay que fue uno de los más exitosos, y "Eliza" de Wizenbaum y Colby. (ver Boden, 1977). El programa de Lindzay se orientó hacia el estudio del significado, connotativo y denotativo, y es capaz de hacer inferencias, conocer, y parafrasear sobre el mundo conocido. Eliza, por otra parte, consistió en un análisis de la conversación que se basa en la simulación de una terapia psicológica interactiva en la que el programa es el analista y el interlocutor es el analizado. Un ejemplo de una conversación sostenida con Eliza en la computadora de la Universidad de Stanford es el siguiente (el diálogo de la computadora en letras mayúsculas):
Según Colby, psicoanalista por entrenamiento, el programa resultó tan exitoso en términos clínicos que valdría la pena intentar reproducirlo masivamente como instrumento terapéutico. Intento al que Weizenbaum, coautor del programa, se opuso decididamente con el argumento de que no puede decirse desde ningún punto de vista que "Eliza" es capaz de entender lo que se le dice. "Eliza", Weizenbaum insiste, es un programa capaz de responder, que no es lo mismo que comprender.
Como resultado de este y otros debates, las preguntas de investigación siguieron girando alrededor de la noción de comprensión. Los seres humanos comprendemos en una plática mucho más de lo que se nos dice explícita y verbalmente (en parte porque la comunicación no~verbal juega un papel muy importante y en parte por nuestras capacidades para obtener información del contexto y para operar con altos niveles de incertidumbre) y pareció importante que estas habilidades fueran reproducidas en una computadora con pretensiones de inteligencia. Los investigadores se dedicaron entonces al estudio de los aspectos no-verbales del lenguaje y al de reconocimiento de patrones.
Para mediados de los sesentas, y como resultado de los estudios sobre lenguaje y comprensión. la IA se involucré en el estudio del problema de la representación mental del conocimiento. Igualmente, una gran preocupación en esta década fue la de encontrar aplicaciones prácticas de lo que se había aprendido hasta entonces. Entre las aplicaciones más exitosas debe mencionarse el diseño de DENDRAL en Stanford, un programa que hace espectogramas y diagnósticos médicos y que hasta ahora ha tenido la misma tasa de error que los seres humanos. La segunda aplicación importante tiene que ver con la psicología educativa y la mencionaré en la siguiente sección sobre la interacción entre la IA y la psicología.
Quien invento la inteligencia artificial
EL PADRE DE LA INTELIGENCIA ARTIFICIAL “JOHN MCCARTHY” FALLECIÓ
Pues bien este padre de la inteligencia artificial moderna, murió el lunes por la noche a los 84 años. Fue su hija quien dio la primera información del fallecimiento, aunque el anuncio lo hizo la Escuela de Ingeniería de la Universidad de Stanford en Twitter.“Las velocidades y capacidad de memoria de los ordenadores actuales pueden ser insuficientes para simular la mayoría de las funciones del cerebro humanos, pero el mayor obstáculo no es la falta de capacidad de la máquina, sino nuestra incapacidad para escribir programas que aprovechen todas las ventajas que tenemos”, así escribía McCarthy allá por 1955 y que lo hizo ser conocido a nivel mundial. De hecho aseguró que había aspectos de la inteligencia humana que podrían ser descritos con la suficiente precisión para que una máquina pudiera ser programada para simularlo.
Es más, reconocido como visionario, no se equivoco, en 1961 durante un discurso ofrecido en ocasión de celebrase el centenario del MIT vaticinó que los avances próximos avances relacionados con los ordenadores conducirían a un futuro en el que el poder de cómputo y las aplicaciones podrían ser vendidas como un servicio, tal como ocurría con el agua o la electricidad. Hoy días prácticamente todos pagamos mensualmente un abono que nos permite acceder a la red, como lo imaginara este hombre hace 50 años.
Pionero de la Inteligencia Artificial
McCarthy nació en 1927 en Boston. El término "Inteligencia Artificial", lo acuñó en la Conferencia de Dartmouth en 1956, que describió como la "ciencia y la ingeniería de hacer inteligentes a las máquinas". Otro de sus grandes logros fue el lenguaje de programación Lisp (LISt Processing), que se convirtió en uno de los lenguajes favoritos de los hackers originales, con el que intentaban hacer jugar al ajedrez a las primitivas máquinas de IBM de finales de los 50.
Hasta que él no desarrolló un nuevo lenguaje de programación, el LISP (Locator/Identifier Separation Protocol), los computadores no eran considerados más que unas máquinas de escribir algo sofisticadas. Cuando publicó su diseño de lenguaje en 1960 en la revista 'Comunicaciones del ACM', las posibilidades y proyectos comenzaron a crecer. Hoy, por ejemplo, no existirían los coches automáticos de Google que recorren en EEUU y que hacen las fotografías de Street View de Google Maps si "Tío McCarthy" no hubiera teorizado sobre la IA.
El lenguaje de programación LISP ha sido únicamente superado por FORTRAN, pero no hay duda que sin uno jamás hubiese existido el otro. Hoy en día, gracias a McCarthy, los ingenieros de IBM están cerca de lograr emular al ciento por ciento el funcionamiento del cerebro humano en una máquina, entregando a la humanidad los resultados finales en 2022, y aunque la existencia de componentes y tecnología necesaria para llevar a cabo la tarea mucho más rápidamente es ya una realidad, se ve que no desean correr el riesgo de imperfecciones, y aparentemente dentro de una década podremos ver lo que sería el primer cyborg real, dejando de lado la ciencia ficción por una nueva realidad
McCarthy trabajó durante casi cuatro décadas en la Universidad de Stanford, y colaboró en otros centros como Princeton o Darmouth, e incluso en el MIT (Instituto Tecnológico de Massachusetts), uno de los referentes de tecnología en el mundo.
Entre sus reconocimientos obtuvo un Premio Turing en 1971, el equivalente al premio Nobel de informática y la Medalla Nacional de las Ciencias en 1991.
Caracteristicas de la inteligencia artificial
Caracteristicas
Los computadores no pueden manejar verdaderos significados.- Los computadores no tienen auto conciencia (emociones, sociabilidad, etc.).
- Un computador sólo puede hacer aquello para lo que está programado.
- Las máquinas no pueden pensar realmente.
- uso de símbolos no matemáticos, aunque no es suficiente para distinguirlo completamente.
- El comportamiento de los programas no es descrito explícitamente por el algoritmo.
- El programa especifica cómo encontrar la secuencia de pasos necesarios para resolver un problema dado
- Las conclusiones de un programa declarativo no son fijas y son determinadas parcialmente por las conclusiones intermedias alcanzadas durante las consideraciones al problema específico
miércoles, 20 de mayo de 2015
Beneficios de la inteligencia artificial en la actualidad
Actualmente, las aplicaciones de la inteligencia artificial en la vida diaria son muy variadas, como ejemplo se pueden mencionar los siguientes casos: las redes neuronales se están usando para detectar fraudes en instituciones bancarias y para el análisis de riesgos financieros; los sistemas expertos se emplean en el ámbito comercial, para tomar decisiones con base en la información detallada de los clientes; la lógica difusa se aplica tanto en electrodomésticos (lavadoras, refrigeradores, sistemas de aire acondicionado, etc.) como en el control de sistemas tan complejos como el transporte Metro; los sistemas multiagente intervienen en la gestión de cadenas de suministro en procesos industriales y en actividades de mercadotecnia como subastas e inversiones; se están utilizando algoritmos genéticos para la optimización del corte en líneas de producción de papel y para pronósticos en mercados bursátiles; la visión artificial es de gran importancia en robótica, control de calidad y aplicaciones de diagnóstico médico; también se están aplicando técnicas de inteligencia artificial para el reconocimiento de voz en servicios de telefonía.
Por tanto, la importancia de la inteligencia artificial en nuestros días es innegable.
Sin embargo, a pesar de las ventajas de los sistemas inteligentes, estos no se aplican masivamente en las empresas debido entre otras causas a: la falta de personal especializado, la desconfianza en los beneficios de la inteligencia artificial y la incapacidad de detectar las áreas de oportunidad y definir un diseño adecuado a los requerimientos y restricciones de la situación a resolver. De ahí la necesidad de contar con gente especializada, en nuestro país, que sea capaz de diseñar sistemas basados en técnicas de inteligencia artificial, para resolver problemas, en los diferentes campos de trabajo, de una manera eficiente e innovadora.
Que es la inteligencia artificial
¿Qué es la inteligencia artificial?
La inteligencia artificial es considerada una rama de la computación y relaciona un fenómeno natural con una analogía artificial a través de programas de computador. La inteligencia artificial puede ser tomada como ciencia si se enfoca hacia la elaboración de programas basados en comparaciones con la eficiencia del hombre, contribuyendo a un mayor entendimiento del conocimiento humano.Si por otro lado es tomada como ingeniería, basada en una relación deseable de entrada-salida para sintetizar un programa de computador. "El resultado es un programa de alta eficiencia que funciona como una poderosa herramienta para quien la utiliza."
A través de la inteligencia artificial se han desarrollado los sistemas expertos que pueden imitar la capacidad mental del hombre y relacionan reglas de sintaxis del lenguaje hablado y escrito sobre la base de la experiencia, para luego hacer juicios acerca de un problema, cuya solución se logra con mejores juicios y más rápidamente que el ser humano. En la medicina tiene gran utilidad al acertar el 85 % de los casos de diagnóstico.
Suscribirse a:
Entradas (Atom)