Tu guía esencial para navegar la revolución de la IA: noticias, análisis y nuevas tendencias.

Historia de la IA

 

Historia
de la IA 

La idea de "una máquina que piensa" se remonta a la antigua Grecia. Sin embargo, desde la llegada de la informática electrónica (y en relación con algunos de los temas tratados en este artículo), los acontecimientos clave en la evolución de la IA son los siguientes:

1950
Alan Turing publica Computing Machinery and Intelligence. En este artículo, Turing, famoso por descifrar el código alemán ENIGMA durante la Segunda Guerra Mundial y a menudo considerado el "padre de la informática", se plantea la siguiente pregunta: "¿Pueden pensar las máquinas?"

A partir de ahí, propone una prueba, ahora conocida como la "Prueba de Turing", en la que un interrogador humano intentaría distinguir entre la respuesta de un ordenador y la de un texto humano. Aunque esta prueba ha sido objeto de mucho escrutinio desde que se publicó, sigue siendo una parte importante de la historia de la IA y un concepto vigente dentro de la filosofía, ya que utiliza ideas en torno a la lingüística.

1956
John McCarthy acuña el término "inteligencia artificial" en la primera conferencia sobre IA en el Dartmouth College. (McCarthy llegó a inventar el lenguaje Lisp). Más tarde, ese mismo año, Allen Newell, J.C. Shaw y Herbert Simon crearon Logic Theorist, el primer programa informático de IA operativo.

1967
Frank Rosenblatt construye el Mark 1 Perceptron, el primer ordenador basado en una red neuronal que "aprendía" por ensayo y error. Justo un año después, Marvin Minsky y Seymour Papert publican un libro titulado Perceptrons, que se convirtió tanto en la obra fundamental sobre redes neuronales como, al menos durante un tiempo, en un argumento en contra de futuras iniciativas de investigación en redes neuronales.

1980
Las redes neuronales, que utilizan un algoritmo de retropropagación para entrenarse, se han generalizado en las aplicaciones de IA.

1995
Stuart Russell y Peter Norvig publican Artificial Intelligence: A Modern Approach, que se convierte en uno de los principales libros de texto en el estudio de la IA. En él, profundizan en cuatro posibles objetivos o definiciones de la IA, que diferencian los sistemas informáticos en función de la racionalidad y el pensamiento frente a la actuación.

1997
Deep Blue de IBM vence al entonces campeón mundial de ajedrez Garry Kasparov, en una partida de ajedrez (y revancha).

2004
John McCarthy escribe un artículo, ¿Qué es la inteligencia artificial?, y propone una definición de IA que se cita con frecuencia. En este momento, la era del big data y el cloud computing ya ha empezado, lo que permite a las organizaciones gestionar conjuntos de datos cada vez mayores, que algún día se utilizarán para entrenar modelos de IA. 

2011
IBM Watson supera a los campeones Ken Jennings y Brad Rutter en el concurso televisivo "Jeopardy!". También en esta época, la ciencia de datos comienza a surgir como una disciplina popular.

2015
El superordenador Minwa de Baidu utiliza una red neuronal profunda especial denominada red neuronal convolucional para identificar y categorizar imágenes con una tasa de precisión superior a la del ser humano medio.

2016
El programa AlphaGo de DeepMind, impulsado por una red neuronal profunda, vence a Lee Sodol, campeón del mundo de Go, en un combate a cinco partidas. La victoria es importante dado el enorme número de movimientos posibles a medida que avanza la partida (más de 14,5 billones tras sólo cuatro movimientos). Más tarde, Google compró DeepMind por 400 millones de dólares.

2022
Un aumento de los modelos de lenguaje de gran tamaño, o LLM, como ChatGPT, de OpenAI, supone un enorme cambio en el rendimiento de la IA y su potencial para impulsar el valor empresarial. Con estas nuevas prácticas de IA generativa, los modelos de deep learning pueden entrenarse previamente con grandes cantidades de datos.

2024
Las últimas tendencias en IA apuntan a un continuo renacimiento de la IA. Los modelos multimodales que pueden tomar varios tipos de datos como entrada proporcionan experiencias más ricas y sólidas. Estos modelos reúnen las capacidades de reconocimiento de imágenes por visión artificial y de reconocimiento del habla por PLN. Los modelos más pequeños también están avanzando en una era de rendimientos decrecientes con modelos masivos que tienen un gran número de parámetros.





















No hay comentarios.:

Publicar un comentario