Source article: A Short History of Foundational AGI Theories | by SingularityNet | SingularityNET
Translation by: apex
Dework task link: https://app.dework.xyz/singularitynet-ambas/test-38287?taskId=34e70da8-eb3e-49da-a9fa-56126625fa85
Community review: Please leave comments below about translation quality or like this post if it is well translated
Le rêve de l’intelligence artificielle générale (AGI), une machine dotée d’une intelligence semblable à celle de l’homme, remonte aux premières théories informatiques des années 1950, lorsque des pionniers comme John von Neumann ont exploré les possibilités de reproduire les fonctions du cerveau humain.
Aujourd’hui, l’IAG représente un changement de paradigme par rapport à la grande variété d’outils et d’algorithmes d’IA étroits que nous utilisons aujourd’hui et qui excellent dans des tâches spécifiques. Une évolution vers une forme d’intelligence capable d’apprendre, de comprendre et d’appliquer ses connaissances à un large éventail de tâches au niveau humain ou au-delà.
Bien que la définition ou la caractérisation précise de l’IAG ne fasse pas l’objet d’un large consensus, le terme « intelligence artificielle générale » a plusieurs significations étroitement liées, faisant référence à la capacité d’un système conçu à :
· Faites preuve de la même sorte d’intelligence générale grossière que les êtres humains ;
· Faire preuve d’intelligence qui n’est pas liée à un ensemble de tâches très spécifiques ;
· Généraliser ce qu’il a appris, y compris la généralisation à des contextes qualitatifs
· Très différent de ceux qu’il a vus auparavant ;
· Adoptez une vision large et interprétez avec souplesse les tâches à accomplir dans le contexte du monde en général et de sa relation avec celui-ci.
Le parcours vers l’IAG a été marqué par de nombreuses théories et cadres conceptuels, chacun contribuant à notre compréhension et à nos aspirations de cette révolution technologique apparemment imminente.
Jetons un coup d’œil en arrière et explorons certaines des théories et conceptualisations de base qui, à long terme, ont donné naissance au concept que nous connaissons aujourd’hui sous le nom d’AGI.
Les premières conceptualisations de l’IAG
Turing et le test de Turing (1950) L’article fondateur d’Alan Turing, « Computing Machinery and Intelligence », a introduit l’idée que les machines pourraient potentiellement présenter un comportement intelligent indiscernable de celui des humains.
Le test de Turing, qui évalue la capacité d’une machine à présenter des réponses semblables à celles de l’homme, est devenu un concept fondamental, mettant l’accent sur l’importance du comportement dans la définition de l’intelligence.
Peu de temps après, en 1958, le livre de John von Neumann, « The Computer and the Brain », a exploré les parallèles entre les processus neuronaux et les systèmes informatiques, suscitant un intérêt précoce pour les modèles neurocomputationnels.
Ces conceptualisations initiales ont donné naissance à l’ère de l’IA symbolique
Dans les années 1950 à 1960, Allen Newell et Herbert A. Simon ont proposé l’hypothèse du système de symboles physiques, affirmant qu’un système de symboles physiques dispose des moyens nécessaires et suffisants pour une action intelligente générale.
Cette théorie sous-tend une grande partie des premières recherches sur l’IA, conduisant au développement de l’IA symbolique, qui se concentre sur des représentations symboliques de haut niveau (lisibles par l’homme) des problèmes et de la logique.
À la fin des années 1960, le livre de Marvin Minsky et Seymour Papert, « Perceptrons », a examiné de manière critique les premiers modèles de réseaux neuronaux, soulignant leurs limites. Ces travaux, bien qu’initialement considérés comme un revers pour les modèles connexionnistes, ont finalement stimulé des recherches plus approfondies sur les réseaux neuronaux et leurs capacités, influençant les développements ultérieurs de l’apprentissage automatique.
En 1956, Newell et Simon ont développé le Logic Theorist, considéré par beaucoup comme le premier véritable programme d’IA. Il a été capable de prouver des théorèmes en logique symbolique, marquant une étape assez importante dans la R&D de l’IA. Et un peu plus tard, en 1958, John McCarthy a développé LISP, un langage de programmation qui est devenu fondamental pour la recherche sur l’IA à l’époque.
Dans les années 70, les premières promesses de l’IA ont connu des revers importants. Les attentes étaient élevées, mais la technologie n’a pas pu offrir certains des avantages grandioses qui lui avaient été promis.
Les systèmes étaient confrontés à des problèmes complexes, et les limites des premiers réseaux neuronaux et de l’IA symbolique sont devenues évidentes. En raison de l’absence de progrès et des attentes exagérées, le financement de la recherche sur l’IA a été considérablement réduit. Cette période de réduction du financement et de l’intérêt est appelée le premier hiver de l’IA.
Réseaux neuronaux et connexionnisme
Dans les années 1980, la recherche sur les réseaux neuronaux a connu un renouveau.
Le développement et la commercialisation de systèmes experts ont remis l’IA sur le devant de la scène. Ces systèmes, qui utilisaient des bases de connaissances et des règles d’inférence pour imiter l’expertise humaine dans des domaines spécifiques, se sont avérés utiles dans des secteurs tels que la médecine, la finance et la fabrication.
Sans oublier que les progrès du matériel informatique de l’époque ont fourni la puissance de calcul nécessaire pour exécuter des algorithmes d’IA plus complexes. Cela a conduit à de nouvelles techniques et à de nouveaux algorithmes, à un intérêt commercial accru et à une augmentation des investissements dans les produits d’IA.
La résurgence a été stimulée par David Rumelhart, Geoffrey Hinton et Ronald Williams dans le développement de l’algorithme de rétropropagation.
Cette percée a permis aux réseaux neuronaux multicouches d’apprendre à partir des données, d’entraîner efficacement des modèles complexes et de raviver l’intérêt pour les approches connexionnistes de l’IA.
John Hopfield a introduit les réseaux Hopfield en 1982, démontrant comment les réseaux neuronaux pouvaient résoudre des problèmes d’optimisation. Entre 1983 et 1985, Geoffrey Hinton et Terry Sejnowski ont développé des machines de Boltzmann, faisant progresser la théorie des réseaux neuronaux en démontrant le potentiel des réseaux neuronaux à résoudre des problèmes complexes grâce à des représentations distribuées et à un raisonnement probabiliste.
L’avènement du Machine Learning et du Deep Learning
Cartes d’apprentissage et d’auto-organisation de Hebbian (1949, 1982)
Le principe de Donald Hebb, souvent résumé par « des cellules qui se déclenchent ensemble, se connectent ensemble », a jeté les bases des algorithmes d’apprentissage non supervisé. Les cartes d’auto-organisation du professeur finlandais Teuvo Kohonen en 1982 se sont appuyées sur ces principes, montrant comment les systèmes pouvaient s’auto-organiser pour former des modèles significatifs sans supervision explicite.
L’apprentissage profond et la percée d’ImageNet (2012)
La percée d’ImageNet en 2012, marquée par le succès d’AlexNet, a révolutionné le domaine de l’IA et de l’apprentissage profond. Développée par Alex Krizhevsky, Ilya Sutskever et Geoffrey Hinton, l’architecture de réseau neuronal convolutif profond d’AlexNet, avec des innovations telles que l’activation de ReLU, l’abandon et l’utilisation du GPU, a atteint un taux d’erreur de 15,3 %, surpassant largement les modèles précédents.
Ce succès a démontré la puissance de l’apprentissage profond pour la classification d’images et a suscité un intérêt généralisé et des progrès dans le domaine de la vision par ordinateur et du traitement du langage naturel.
Architectures cognitives et IA intégrée
SOAR et ACT-R (années 1980)
Des architectures cognitives telles que SOAR (State, Operator, And Result) et ACT-R (Adaptive Control of Thought-Rational) sont apparues comme des modèles complets de la cognition humaine. Développé par John Laird, Allen Newell et Paul Rosenbloom, SOAR visait à reproduire le comportement intelligent général par la résolution de problèmes et l’apprentissage. L’ACT-R, développé par John Anderson, s’est concentré sur la simulation des processus cognitifs humains, fournissant des informations sur la mémoire, l’attention et l’apprentissage.
Théories de la cognition incarnée (années 1990)
Les théories de la cognition incarnée ont mis l’accent sur le rôle du corps et de l’environnement dans la formation d’un comportement intelligent. Des chercheurs comme Rodney Brooks ont fait valoir que la véritable intelligence découle de l’interaction entre un agent et son environnement, conduisant au développement de systèmes d’IA incarnés qui apprennent et s’adaptent à travers des expériences physiques.
Recherches et théories modernes sur l’IAG
L’intelligence artificielle universelle et AIXI (2005)
La théorie de l’intelligence artificielle universelle de Marcus Hutter et le modèle AIXI ont fourni un cadre mathématique à l’AGI. AIXI, un agent idéalisé, est conçu pour obtenir un comportement optimal en maximisant les récompenses attendues en fonction de la probabilité algorithmique. Bien qu’AIXI soit inréalisable sur le plan informatique, il offre une référence théorique pour la recherche AGI.
OpenCog Classique (2008)
L’un des développements significatifs de la théorie de l’IAG est la création d’OpenCog, un cadre logiciel open source pour la recherche sur l’intelligence artificielle générale. Fondée par Ben Goertzel, qui a inventé le terme AGI, OpenCog Classic se concentre sur l’intégration de diverses méthodologies d’IA, notamment l’IA symbolique, les réseaux neuronaux et la programmation évolutive. L’objectif est de créer une architecture unifiée capable d’atteindre une intelligence semblable à celle de l’homme.
Intégration neuronale-symbolique (années 2010)
Les efforts d’intégration des approches neuronales et symboliques visaient à combiner les forces des deux paradigmes. Les systèmes neuronaux-symboliques exploitent les capacités d’apprentissage des réseaux neuronaux avec l’interprétabilité et le raisonnement de l’IA symbolique, offrant une voie prometteuse vers l’AGI.
Les frontières actuelles de l’IA et de l’IAG
Années 2000-2010 : Capacités d’IA spécialisées en ingénierie Les architectures algorithmiques ont fait preuve d’une compétence surhumaine dans les tournois de jeux spécialisés, la classification d’images, les prédictions statistiques, etc., mais restent limitées en termes de généralisabilité et manquent uniformément d’adaptabilité multi-domaines.
Les années 2020 : les grands modèles de langage Les modèles de base comme GPT-3 sont initialement prometteurs dans les applications de génération de texte, affichant un certain apprentissage par transfert intercontextuel. Cependant, ils sont encore limités dans le raisonnement à spectre complet, l’intelligence émotionnelle et la transparence, mettant en évidence les défis à relever pour des intégrations sûres et responsables.
Les années 2020 : OpenCog Hyperon S’appuyant sur les bases d’OpenCog Classic, OpenCog Hyperon représente la prochaine génération d’architecture AGI. Ce cadre logiciel open source met en synergie plusieurs paradigmes d’IA au sein d’une architecture cognitive unifiée, nous propulsant vers la réalisation de l’IAG au niveau humain et au-delà. Avec la sortie récente d’OpenCog Hyperon Alpha, SingularityNET a créé un cadre solide pour l’innovation collaborative au sein de la communauté AGI.
Pour le Dr Ben Goertzel, tout est clair depuis le début.
Il pense que la plupart des idées clés dans le domaine commercial existaient déjà dans les années 1960 et 1970, puisque c’est à ce moment-là que les premiers systèmes d’IA pratiques ont été déployés. Cela dit, l’IA a parcouru un long chemin depuis sa création au milieu du 20e siècle.
Par exemple, dans les années 1960, il existait déjà des réseaux neuronaux, y compris des réseaux neuronaux profonds avec plusieurs couches de neurones simulés tentant de simuler des cellules cérébrales. Il y avait aussi des systèmes de raisonnement logique automatique utilisant la logique formelle pour tirer des conclusions basées sur des preuves.
Il a également discuté de l’état actuel de l’IA, soulignant comment les systèmes d’IA sont capables de faire des choses incroyables, même s’ils ne sont pas encore au niveau humain : « Ce qui se passe maintenant, c’est beaucoup de puissance de traitement et beaucoup de données sont mises à contribution pour que ces anciennes approches d’IA atteignent de nouveaux niveaux de succès. »
Les grands modèles de langage (LLM) en sont un bon exemple. Ils peuvent générer du texte, traduire des langues, écrire différents types de contenu créatif et répondre à vos questions de manière informative, mais ils ne peuvent être que « très intelligents dans le contexte de l’exécution de l’une de ces fonctions étroites ». Quelle est la prochaine étape ?
Le Dr Goertzel a déclaré : « Il est intuitivement clair que l’IAG est maintenant à portée de main, et il est probable qu’elle sera réalisée dans les prochaines années. » En effet, nous avons un certain nombre d’approches différentes de l’AGI qui semblent plausibles à l’heure actuelle. L’une des approches poursuivies par les équipes de recherche et les entreprises comme OpenAI consiste à mettre à niveau les LLM qui se sont déjà révélés capables de choses impressionnantes. Une autre approche consiste à connecter différents types de réseaux neuronaux profonds entre eux. Une troisième approche consiste à connecter les réseaux neuronaux à d’autres types d’outils d’IA dans une architecture basée sur des métagraphes distribués comme OpenCog Hyperon.
Il rappelle à tout le monde que la réalisation de l’IAG pose des problèmes sociaux, économiques et éthiques intéressants, mais qu’il n’est « pas aussi préoccupé par ceux-ci que certaines personnes », car si nous pouvons maintenir le déploiement de l’IAG décentralisé, la gouvernance participative et démocratique, nous pouvons avoir beaucoup de foi que l’AGI grandira pour être bénéfique à l’humanité et nous aider à mener une vie plus épanouissante.
Chez SingularityNET, nous travaillons dur pour repousser les limites de ce que l’on pensait actuellement possible dans le domaine de l’AGI.
Mais une chose est claire : nous sommes sur les épaules de géants. Des débuts de Turing et von Neumann aux travaux pionniers dans le domaine de l’IA symbolique, des réseaux neuronaux et de l’apprentissage profond, chaque étape nous a rapprochés de la réalisation du rêve de l’AGI.
Alors que nous continuons à repousser ces limites avec de grands modèles de langage et des architectures cognitives intégrées comme OpenCog Hyperon, l’horizon de l’AGI se rapproche. Le chemin est semé d’embûches, mais l’effort collectif des chercheurs, des visionnaires et des praticiens continue de nous propulser vers l’avant.
Ensemble, nous créons l’avenir de l’intelligence, transformons l’abstrait en tangible et nous nous rapprochons de plus en plus des machines capables de penser, d’apprendre et de comprendre aussi profondément que les humains.
À propos de SingularityNET
SingularityNET a été fondée par le Dr Ben Goertzel avec pour mission de créer une intelligence artificielle générale (AGI) décentralisée, démocratique, inclusive et bénéfique. Une AGI ne dépend d’aucune entité centrale, est ouverte à tout le monde et n’est pas limitée aux objectifs étroits d’une seule société ou même d’un seul pays. L’équipe SingularityNET est composée d’ingénieurs, de scientifiques, de chercheurs, d’entrepreneurs et de spécialistes du marketing chevronnés. Notre plateforme principale et nos équipes d’IA sont complétées par des équipes spécialisées consacrées à des domaines d’application tels que la finance, la robotique, l’IA biomédicale, les médias, les arts et le divertissement.
Plateforme d’IA décentralisée | OpenCog Hyperon | Écosystème | L’Alliance ASI
Restez à jour avec les dernières nouvelles et mises à jour de SingularityNET :
- Visitez notre site Web
- Abonnez-vous à notre newsletter
- Rejoignez notre serveur Discord
- Suivez-nous sur X
- Suivez-nous sur Mindplex Social
- Rejoignez notre chaîne Telegram principale
- Abonnez-vous à notre chaîne d’annonces sur Telegram
- Rejoignez notre chaîne de diffusion WhatsApp
- Suivez-nous sur Instagram : SingularityNET et Visions of AGI
Suivez-nous sur Warpcast