Historia de la inteligencia artificial: sus tempranos inicios

Cuando nos hemos referido a la IA como una tecnología casi centenaria, es debido a que su origen más primigenio se remonta a la década de los 30 del pasado siglo, ya de manos de una figura muy relevante en el desarrollo de las que conocemos hoy día como nuevas tecnologías: Alan Turing.

Alan Turing no solo es considerado el padre de la inteligencia artificial, sino como el precursor de la informática moderna. Ingenió numerosas soluciones basadas en computación y el uso de algoritmos para la previsión y prevención de casuísticas ya en la primera mitad de siglo, siendo una de ellas relevante para que el bando aliado ganara la II GM al ser capaz de descifrar los mensajes ocultos que los nazis se enviaban a través de la máquina Enigma.

En cuanto al campo de la inteligencia artificial que nos ocupa, Turing ya afirmaba en la década de los 50 en su estudio “Computing machinery and intelligence” que las máquinas eran “capaces de pensar”: “Si una máquina tiene un comportamiento inteligente en todos los aspectos, entonces es inteligente”. Para poder teorizar con esta afirmación, ideó el aún vigente “Test de Turing” o juego de imitación, mediante el cual se prueba la eficacia de una IA sometiendo a juicio ciego las respuestas escritas de un ser humano y de una computadora. Se considera IA si el sistema electrónico consigue confundir al juez.

El reconocimiento de la inteligencia artificial como tal

 

Son muchos los casos en la historia en los que el reconocimiento por la innovación y creación de nuevas soluciones en un campo, no se lo lleva quien lo crea, sino quien le pone nombre: quien identifica los usos y los traslada a la vida cotidiana. Pese a lo relevante y reconocido de los aportes de Turing, no se empieza a hablar de inteligencia artificial en los términos que hoy la conocemos hasta 1956, cuando John McCarthy, Marvin Minsky y Claude Shannon acuñaron formalmente el término durante la conferencia de Dartmouth denominada “Dartmouth Summer Research Project on Artificial Intelligence” (Proyecto de investigación de verano de Dartmouth sobre inteligencia artificial).

En tal conferencia, se partía de la premisa de que “la conjetura de que cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, ser descrito con tanta precisión que puede fabricarse una máquina para simularlo”. De hecho, a McCarthy también se le atribuye acuñar el término “cloud computing”, y junto a Minsky, fundó el laboratorio del MIT donde surgirían las primeras teorizaciones y prototipados de inteligencia artificial.

Previamente, se atisbaron avances clave no solo en el desarrollo de la inteligencia artificial, sino en su teorización, como los aportes de Warren McCulloch y Walter Pitts a la conceptualización o modelado de neuronas artificiales cuando aún este nombre no era vigente.

La popularización del término IA y su impacto en la cultura

 

Que tengamos una concepción contemporánea sobre el término inteligencia artificial, es debido a que a pesar de los avances dados entre la década de los 30 y los 50, estableciéndose bases firmes sobre su desarrollo y conceptualizando sus posibles usos, la falta de resultados y su no materialización en proyectos concretos produjo un total vacío al respecto en las décadas de los 60 y 70, abordándose nuevamente de forma tímida en los 80 y 90, y explosionando ya a partir del nuevo siglo. Son los denominados “inviernos y veranos de la IA”: periodos en los que la inversión en esta materia fluctúa de alta a baja y viceversa sin un aparente término medio.

Así, el siguiente hito lo encontramos en 1987, cuando Martin Fischles y Oscar Firschein describieron lo que deberían ser los 12 atributos de un agente inteligente:

  • Tener actitudes mentales tales como creencias e intenciones.
  • Tener la capacidad de obtener conocimiento, es decir, aprender.
  • Poder resolver problemas, incluso descomponiendo problemas complejos en otros más simples.
  • Capaz de realizar operaciones más complejas.
  • Poseer la capacidad de dar sentido, si es posible, a ideas ambiguas o contradictorias.
  • Planificar, predecir consecuencias, evaluar alternativas (como en los juegos de ajedrez)
  • Conocer los límites de sus propias habilidades y conocimientos.
  • Poder distinguir a pesar de la similitud de las situaciones.
  • Poder ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando analogías.
  • Poder generalizar.
  • Poder percibir y modelar el mundo exterior.
  • Poder entender y utilizar el lenguaje y sus símbolos.

 

De esta forma, el fin de la creación de una inteligencia artificial no solo se basaría en ser capaz de imitar el raciocinio humano, sino emular la mente humana, funcionar y responder como tal, lo que conlleva evolucionar y alcanzar un conocimiento superior al que fue concebido.

Con estos principios como base, en los 90 se profundizó en el concepto y en el desarrollo de agentes inteligentes, siendo uno de los más famosos el icónico ordenador Deep Blue de IBM, que en 1997 consiguió ganar al entonces campeón mundial de ajedrez Gari Kasparov. Se toma esta fecha como referencia a la hora de hablar de la popularización del término, ya que este hecho hizo saltar a la IA de los laboratorios y entornos académicos, a la cultura popular.

La edad de oro de la inteligencia artificial

 

Llega el nuevo siglo y conceptos como chatbots, recomendadores, clasificadores, etc., se vuelven frecuentes y de común uso en sectores que, como es el caso de la atención al público, permiten que se aumente el servicio hasta las 24 h., pero aún con el hándicap que planteaba el decano test de Turing: un chatbot nos pueda ayudar a resolver cuestiones básicas, incluso complejas a medida que se le introduce más información, pero en los tempranos 2000 aún era muy sencillo distinguir la máquina del ser humano, sin ser posible el “engaño”.

No obstante, la mejora constante en esta tecnología permitió que supercomputadores de nueva generación como el supercomputador Watson (también perteneciente a IBM), siguieran marcando hitos, en este caso en 2011, ganando el concurso televisivo “Jeopardy!” a sus dos mejores concursantes.

Lo que diferenciaba a Watson de su antecesor Deep Blue no era el hecho de ganar en esta ocasión en un concurso en el que la interactuación con el resto y la capacidad y velocidad de improvisación son clave, sino en ser una computadora capaz de aprender a medida que trabaja y acumula información y que puede interactuar con el lenguaje humano en un lenguaje natural, saliéndose del simple prototipado y ser usada por numerosos clientes a través de la tecnología cloud, como ocurre en el caso de España con Caixabank y Repsol entre otros.

El funcionamiento de Watson fue una de las claves en el desarrollo y teorización del Deep Learning, acercándose al público masivo con aplicaciones como la creación de Siri ese mismo año de manos de Apple, comenzando las primeras experiencias de aprendizaje automático y los primeros indicios de aprendizaje profundo de forma globalizada. Ya no se habla de chatbots, sino de asistentes virtuales…

Pese a todos estos avances de pasos agigantados en un área estancada desde hace décadas, no fue hasta 2014 que, por vez primera, una inteligencia artificial se hizo merecedora del término al hacer creer a un tercio de sus  interrogadores que era un chico de 13 años llamado Eugene Goostman, respondiendo a preguntas de forma natural e incluso con sentido del humor, superando por tanto el test de Turing.

Desde entonces la inteligencia artificial se ha ido abriendo paso hasta ser de uso cotidiano, como es el caso de los traductores automáticos, la conducción autónoma en los Tesla o Google Lens, que utiliza el visor de la cámara de los smartphones para ser capaz de identificar todo tipo de imágenes y ofrecer información relevante al respecto.

 

عنوان البريد الإلكتروني هذا محمي من روبوتات السبام. يجب عليك تفعيل الجافاسكربت لرؤيته.

Top