Source article: A Short History of Foundational AGI Theories | by SingularityNet | SingularityNET
Translation by: inesgav
Dework task link: https://app.dework.xyz/singularitynet-ambas/test-38287?taskId=0b6e37df-a451-44b4-aa3b-9accd487d061
Community review: Please leave comments below about translation quality or like this post if it is well translated
Una breve historia de las teorías fundamentales de la AGI
El sueño de la Inteligencia Artificial General (AGI), una máquina con inteligencia similar a la humana, es algo que podemos rastrear hasta las primeras teorías computacionales de la década de 1950, cuando pioneros como John von Neumann exploraron las posibilidades de replicar las funciones del cerebro humano.
Hoy en día, la AGI representa un cambio de paradigma respecto a la amplia variedad de herramientas y algoritmos de IA específica que utilizamos actualmente y que sobresalen en tareas específicas. Se trata de una forma de inteligencia que puede aprender, entender y aplicar su conocimiento en una amplia gama de tareas, a nivel o más allá del nivel humano.
Aunque la definición o caracterización precisa de la AGI no está ampliamente acordada, el término “Inteligencia Artificial General” tiene varios significados estrechamente relacionados, que se refieren a la capacidad de un sistema diseñado para:
· Mostrar el mismo tipo general de inteligencia que los seres humanos;
· Mostrar inteligencia que no está vinculada a un conjunto muy específico de tareas;
· Generalizar lo que ha aprendido, incluida la generalización a contextos cualitativamente
· Muy diferentes de aquellos que ha visto antes;
· Tener una visión amplia e interpretar las tareas en el contexto del mundo en general y su relación con él.
El camino hacia la AGI ha estado marcado por numerosas teorías y marcos conceptuales, cada uno contribuyendo a nuestra comprensión y aspiraciones de esta revolución tecnológica aparentemente inminente.
Vamos a retroceder en el tiempo y explorar algunas de las teorías y conceptualizaciones centrales que, a lo largo del tiempo, dieron origen al concepto que conocemos hoy como AGI.
Conceptualizaciones Iniciales de la AGI
Turing y el Test de Turing (1950) El influyente artículo de Alan Turing, “Computing Machinery and Intelligence,” introdujo la idea de que las máquinas podrían exhibir un comportamiento inteligente indistinguible del humano.
El Test de Turing, que evalúa la capacidad de una máquina para exhibir respuestas similares a las humanas, se convirtió en un concepto fundamental, subrayando la importancia del comportamiento en la definición de inteligencia.
Poco después, en 1958, el libro de John von Neumann, “The Computer and the Brain,” exploró los paralelismos entre los procesos neuronales y los sistemas computacionales, despertando un interés temprano en los modelos neurocomputacionales.
Estas conceptualizaciones iniciales dieron origen a la era de la IA Simbólica
En las décadas de 1950 y 1960, Allen Newell y Herbert A. Simon propusieron la Hipótesis del Sistema de Símbolos Físicos, afirmando que un sistema de símbolos físicos tiene los medios necesarios y suficientes para una acción inteligente general.
Esta teoría sustentó gran parte de la investigación temprana en IA, conduciendo al desarrollo de la IA simbólica, que se enfoca en representaciones simbólicas (legibles por humanos) de problemas y lógica.
A finales de la década de 1960, el libro de Marvin Minsky y Seymour Papert, “Perceptrons,” examinó críticamente los primeros modelos de redes neuronales, destacando sus limitaciones. Este trabajo, aunque inicialmente visto como un revés para los modelos conexionistas, eventualmente impulsó una investigación más profunda en redes neuronales y sus capacidades, influyendo en los desarrollos posteriores en aprendizaje automático.
En 1956, Newell y Simon desarrollaron el Logic Theorist, considerado por muchos como el primer programa de IA real. Era capaz de demostrar teoremas en lógica simbólica, marcando un hito significativo en I+D de IA. Un poco más tarde, en 1958, John McCarthy desarrolló LISP, un lenguaje de programación que se convirtió en fundamental para la investigación en IA en ese momento.
En la década de 1970, las promesas tempranas de la IA enfrentaron importantes contratiempos. Las expectativas eran altas, pero la tecnología no pudo cumplir algunos de los beneficios grandiosos que se prometieron.
Los sistemas lucharon con problemas complejos y las limitaciones de las primeras redes neuronales y la IA simbólica se hicieron evidentes. Debido a la falta de progreso y las expectativas exageradas, la financiación para la investigación en IA se redujo significativamente. Este período de financiación e interés reducido se conoce como el primer invierno de la IA.
Redes Neuronales y Conexionismo
En la década de 1980, ocurrió un resurgimiento en la investigación sobre redes neuronales.
El desarrollo y la comercialización de sistemas expertos llevaron a la IA nuevamente al centro de atención. Estos sistemas, que utilizaban bases de conocimiento y reglas de inferencia para imitar la experiencia humana en dominios específicos, demostraron ser útiles en industrias como la medicina, las finanzas y la manufactura.
Además, los avances en hardware informático de la época proporcionaron la potencia computacional necesaria para ejecutar algoritmos de IA más complejos. Esto llevó al desarrollo de nuevas técnicas y algoritmos, un mayor interés comercial y una mayor inversión en productos de IA.
El resurgimiento fue impulsado por el desarrollo del algoritmo de retropropagación de David Rumelhart, Geoffrey Hinton y Ronald Williams.
Este avance permitió a las redes neuronales multicapa aprender de los datos, entrenando efectivamente modelos complejos y reavivando el interés en los enfoques conexionistas de la IA.
John Hopfield introdujo las redes de Hopfield en 1982, demostrando cómo las redes neuronales podían resolver problemas de optimización. Entre 1983 y 1985, Geoffrey Hinton y Terry Sejnowski desarrollaron las máquinas de Boltzmann, avanzando aún más en la teoría de redes neuronales al demostrar el potencial de las redes neuronales para resolver problemas complejos a través de representaciones distribuidas y razonamiento probabilístico.
El Surgimiento del Aprendizaje Automático y el Aprendizaje Profundo
Aprendizaje Hebbiano y Mapas Auto-Organizativos (1949, 1982)
El principio de Donald Hebb, a menudo resumido como “las células que disparan juntas, se conectan juntas”, sentó las bases para los algoritmos de aprendizaje no supervisado. Los mapas auto-organizativos del profesor finlandés Teuvo Kohonen en 1982 se basaron en estos principios, mostrando cómo los sistemas podían auto-organizarse para formar patrones significativos sin supervisión explícita.
Aprendizaje Profundo y el Avance de ImageNet (2012)
El avance de ImageNet en 2012, marcado por el éxito de AlexNet, revolucionó el campo de la IA y el aprendizaje profundo. Desarrollada por Alex Krizhevsky, Ilya Sutskever y Geoffrey Hinton, la arquitectura de red neuronal convolucional profunda de AlexNet, con innovaciones como la activación ReLU, el dropout y la utilización de GPU, logró una tasa de error top-5 del 15.3%, superando con creces a los modelos anteriores.
Este éxito demostró el poder del aprendizaje profundo para la clasificación de imágenes y encendió un interés generalizado y avances en visión por computadora y procesamiento de lenguaje natural.
Arquitecturas Cognitivas e Inteligencia Artificial Integrada
SOAR y ACT-R (década de 1980)
Las arquitecturas cognitivas como SOAR (State, Operator, And Result) y ACT-R (Adaptive Control of Thought-Rational) surgieron como modelos integrales de la cognición humana. Desarrollado por John Laird, Allen Newell y Paul Rosenbloom, SOAR buscaba replicar el comportamiento inteligente general a través de la resolución de problemas y el aprendizaje. ACT-R, desarrollado por John Anderson, se centró en simular los procesos cognitivos humanos, proporcionando conocimientos sobre la memoria, la atención y el aprendizaje.
Teorías de la Cognición Incorporada (década de 1990)
Las teorías de la cognición incorporada enfatizaban el papel del cuerpo y del entorno en la formación del comportamiento inteligente. Investigadores como Rodney Brooks argumentaron que la verdadera inteligencia surge de la interacción entre un agente y su entorno, lo que llevó al desarrollo de sistemas de IA incorporada que aprenden y se adaptan a través de experiencias físicas.
Investigación y Teorías Modernas de AGI
Inteligencia Artificial Universal y AIXI (2005)
La teoría de la Inteligencia Artificial Universal de Marcus Hutter y el modelo AIXI proporcionaron un marco matemático para AGI. AIXI, un agente idealizado, está diseñado para lograr un comportamiento óptimo al maximizar las recompensas esperadas basadas en la probabilidad algorítmica. Aunque AIXI es computacionalmente inviable, ofrece un punto de referencia teórico para la investigación en AGI.
OpenCog Classic (2008)
Uno de los desarrollos significativos en la teoría de AGI es la creación de OpenCog, un marco de software de código abierto para la investigación en inteligencia general artificial. Fundado por Ben Goertzel, quien acuñó el término AGI, OpenCog Classic se centra en integrar diversas metodologías de IA, incluyendo IA simbólica, redes neuronales y programación evolutiva. El objetivo es crear una arquitectura unificada capaz de lograr una inteligencia similar a la humana.
Integración Neuronal-Simbólica (década de 2010)
Los esfuerzos por integrar enfoques neuronales y simbólicos buscaban combinar las fortalezas de ambos paradigmas. Los sistemas neurales-simbólicos aprovechan las capacidades de aprendizaje de las redes neuronales con la interpretabilidad y el razonamiento de la IA simbólica, ofreciendo una vía prometedora hacia la AGI.
Fronteras Actuales en IA y AGI
2000s-2010s: Ingeniería de Capacidades Especializadas en IA Las arquitecturas algorítmicas han mostrado una competencia sobrehumana en torneos de juegos especializados, clasificación de imágenes, predicciones estadísticas, etc., pero siguen siendo limitadas en cuanto a la generalización y carecen de adaptabilidad multicanal uniforme.
Década de 2020: Modelos de Lenguaje Grande Modelos fundacionales como GPT-3 muestran una promesa inicial en aplicaciones de generación de texto, mostrando cierto aprendizaje de transferencia entre contextos. Sin embargo, aún son limitados en razonamiento de espectro completo, inteligencia emocional y transparencia, destacando desafíos hacia integraciones seguras y responsables.
Década de 2020: OpenCog Hyperon Basado en los cimientos de OpenCog Classic, OpenCog Hyperon representa la siguiente generación de arquitectura AGI. Este marco de software de código abierto sinergiza múltiples paradigmas de IA dentro de una arquitectura cognitiva unificada, impulsándonos hacia la realización de AGI a nivel humano y más allá. Con el reciente lanzamiento de OpenCog Hyperon Alpha, SingularityNET ha creado un marco robusto para la innovación colaborativa dentro de la comunidad AGI.
Para Dr. Ben Goertzel, todo ha estado claro desde el principio.
Él cree que la mayoría de las ideas clave en el campo comercial ya existían en las décadas de 1960 y 1970, ya que fue en ese momento cuando se desplegaron los primeros sistemas prácticos de IA. Dicho esto, la IA ha avanzado mucho desde su inicio a mediados del siglo XX.
Por ejemplo, en la década de 1960 ya existían redes neuronales, incluidas redes neuronales profundas con múltiples capas de neuronas simuladas intentando simular las células cerebrales. También había sistemas automáticos de razonamiento lógico que utilizaban lógica formal para sacar conclusiones basadas en pruebas.
También discutió el estado actual de la IA, destacando cómo los sistemas de IA son capaces de hacer cosas increíbles, incluso si aún no están al nivel humano: “Lo que está ocurriendo ahora es que se está utilizando una gran cantidad de potencia de procesamiento y datos para llevar estos antiguos enfoques de IA a nuevos niveles de éxito”.
Los modelos de lenguaje grandes (LLMs) son un buen ejemplo de esto. Pueden generar texto, traducir idiomas, escribir diferentes tipos de contenido creativo y responder preguntas de manera informativa, pero solo pueden “ser muy inteligentes en el contexto de realizar una de estas funciones específicas”. Entonces, ¿qué sigue?
El Dr. Goertzel ha declarado: “Es intuitivamente claro que la AGI está ahora al alcance, y es probable que se logre en los próximos años”. Esto se debe a que tenemos varios enfoques diferentes hacia la AGI que parecen plausibles en este momento. Un enfoque que están persiguiendo equipos de investigación y empresas como OpenAI es actualizar los LLMs que ya han demostrado ser capaces de hacer cosas impresionantes. Otro enfoque es conectar diferentes tipos de redes neuronales profundas. Un tercer enfoque es conectar redes neuronales con otros tipos de herramientas de IA en una arquitectura distribuida basada en metagrafos, como OpenCog Hyperon.
Él recuerda a todos que lograr la AGI plantea algunos problemas sociales, económicos y éticos interesantes, pero que “no está tan preocupado por esos problemas como algunas personas”, porque si podemos mantener el despliegue de la AGI descentralizado, la gobernanza participativa y democrática, podemos tener mucha fe en que la AGI crecerá para ser beneficiosa para la humanidad y ayudarnos a llevar vidas más plenas.
En SingularityNET, estamos trabajando arduamente para empujar los límites de lo que actualmente se considera posible en AGI.
Pero una cosa está clara: estamos de pie sobre los hombros de gigantes. Desde los primeros días de Turing y von Neumann hasta el trabajo pionero en IA simbólica, redes neuronales y aprendizaje profundo, cada hito nos ha acercado más a la realización del sueño de la AGI.
A medida que seguimos avanzando con modelos de lenguaje grandes y arquitecturas cognitivas integradas como OpenCog Hyperon, el horizonte de la AGI se acerca cada vez más. El camino está lleno de desafíos, pero el esfuerzo colectivo de investigadores, visionarios y profesionales sigue impulsándonos hacia adelante.
Juntos, estamos creando el futuro de la inteligencia, transformando lo abstracto en lo tangible y acercándonos cada vez más a máquinas que puedan pensar, aprender y entender de manera tan profunda como lo hacen los humanos.
Acerca de SingularityNET
SingularityNET fue fundada por el Dr. Ben Goertzel con la misión de crear una Inteligencia Artificial General (AGI) descentralizada, democrática, inclusiva y beneficiosa. Una AGI no depende de ninguna entidad central, está abierta a todos y no está restringida a los objetivos específicos de una sola corporación o incluso de un solo país. El equipo de SingularityNET está compuesto por ingenieros, científicos, investigadores, emprendedores y especialistas en marketing experimentados. Nuestra plataforma central y equipos de IA se complementan aún más con equipos especializados dedicados a áreas de aplicación como finanzas, robótica, IA biomédica, medios, artes y entretenimiento.
Plataforma de IA Descentralizada | OpenCog Hyperon | Ecosistema
Mantente al Día con las Últimas Noticias y Actualizaciones de SingularityNET:
- Visita nuestro sitio web
- Únete a nuestro servidor de Discord
- Síguenos en X
- Síguenos en Mindplex Social
- Únete a nuestro Canal Principal de Telegram
- Suscríbete a nuestro Canal de Anuncios en Telegram
- Únete a nuestro canal de WhatsApp
- Síguenos en Instagram: SingularityNET y Visions of AGI
- Síguenos en Warpcast
- Explora nuestra Página de Empleos → Estamos contratando.
Consulta el Calendario de Eventos de la Comunidad de SingularityNET — ¡Mantente al tanto de los eventos comunitarios, del programa de embajadores y del Deep Funding!