Portuguese - A Short History of Foundational AGI Theories

Source article: A Short History of Foundational AGI Theories | by SingularityNet | SingularityNET
Translation by: Han TutuH
Dework task link: https://app.dework.xyz/singularitynet-ambas/test-38287?taskId=c98adc81-15c8-460d-ad93-edd930cd2a7a
Community review: Please leave comments below about translation quality or like this post if it is well translated

Breve história das teorias fundamentais de AGI

O sonho da Inteligência Geral Artificial (AGI), uma máquina com inteligência semelhante à humana, remonta às primeiras teorias computacionais da década de 1950, quando pioneiros como John von Neumann exploraram a possibilidade de replicar as funções do cérebro humano.

Hoje, a IA representa uma mudança de paradigma em relação à grande variedade de ferramentas e algoritmos de IA que usamos hoje e que se destacam em tarefas específicas. Uma mudança para uma forma de inteligência capaz de aprender, compreender e aplicar o seu conhecimento numa ampla gama de tarefas iguais ou superiores ao nível humano.

Embora a definição ou caracterização precisa de AGI não seja amplamente aceita, o termo “Inteligência Artificial Geral” tem significados múltiplos e intimamente relacionados, referindo-se à capacidade de um sistema projetado para:

  • Mostrar o mesmo tipo aproximado de inteligência geral dos humanos;

  • demonstrar inteligência não vinculada a um conjunto de tarefas altamente específicas;

  • Generalizar o que foi aprendido, incluindo generalização para contextos qualitativos

  • qualitativamente muito diferente dos anteriores;

  • ter uma visão ampla e interpretar com flexibilidade as tarefas a realizar no contexto do mundo em geral e das suas relações com ele.

A jornada para a AGI foi marcada por inúmeras teorias e estruturas conceituais, cada uma das quais contribuiu para a compreensão e as aspirações desta revolução tecnológica aparentemente iminente.

Vamos olhar para trás e explorar algumas das principais teorias e conceituações que, ao longo do tempo, deram origem ao conceito que conhecemos hoje como AGI.

As primeiras conceituações de AGI

Turing e o Teste de Turing (1950) O artigo seminal de Alan Turing, “Computing Machinery and Intelligence”, introduziu a ideia de que as máquinas poderiam potencialmente exibir um comportamento inteligente indistinguível dos humanos.

O Teste de Turing, que avalia a capacidade de uma máquina de exibir respostas semelhantes às humanas, tornou-se um conceito fundamental, sublinhando a importância do comportamento na definição da inteligência.

Pouco tempo depois, em 1958, o livro de John von Neumann “The Computer and the Brain” explorou paralelos entre processos neurais e sistemas computacionais, despertando o primeiro interesse em modelos neurocomputacionais.

Essas conceituações iniciais deram origem à era da IA ​​simbólica.

Nas décadas de 1950 e 1960, Allen Newell e Herbert A. Simon propuseram a hipótese do sistema de símbolos físicos, afirmando que um sistema de símbolos físicos possui os meios necessários e suficientes para uma ação inteligente geral.

Esta teoria sustentou grande parte das primeiras pesquisas sobre IA e levou ao desenvolvimento da IA ​​simbólica, que se concentra em representações simbólicas de alto nível (legíveis por humanos) de problemas e lógica.

No final da década de 1960, o livro de Marvin Minsky e Seymour Papert, “Perceptrons”, examinou criticamente os primeiros modelos de redes neurais, destacando suas limitações. Este trabalho, embora inicialmente considerado um revés para os modelos conexionistas, acabou por estimular pesquisas mais profundas sobre redes neurais e suas capacidades, influenciando desenvolvimentos subsequentes no aprendizado de máquina.

Em 1956, Newell e Simon desenvolveram o Logic Theorist, considerado por muitos como o primeiro verdadeiro programa de inteligência artificial. Foi capaz de provar teoremas da lógica simbólica, marcando um marco bastante significativo na pesquisa e desenvolvimento de IA. Pouco tempo depois, em 1958, John McCarthy desenvolveu o LISP, uma linguagem de programação que se tornou central para a pesquisa em IA da época.

Na década de 1970, as primeiras promessas da IA ​​sofreram reveses notáveis. As expectativas eram altas, mas a tecnologia não conseguiu cumprir alguns dos grandes benefícios que prometia.

Os sistemas encontraram problemas complexos e as limitações das primeiras redes neurais e da IA ​​simbólica tornaram-se aparentes. Devido à falta de progressos e às expectativas excessivas, o financiamento para a investigação em IA foi significativamente reduzido. Este período de financiamento e juros reduzidos é referido como o primeiro inverno da IA.

Redes Neurais e Conexionismo

A década de 1980 viu um ressurgimento da pesquisa em redes neurais.

O desenvolvimento e a comercialização de sistemas especialistas trouxeram a IA de volta ao centro das atenções. Estes sistemas, que utilizam bases de conhecimento e regras de inferência para imitar a experiência humana em domínios específicos, revelaram-se úteis em indústrias como a medicina, finanças e produção.

Além disso, os avanços no hardware de computador da época forneceram o poder computacional necessário para executar algoritmos de IA mais complexos. Isto levou a novas técnicas e algoritmos, aumentou o interesse comercial e aumentou o investimento em produtos de IA.

O ressurgimento foi impulsionado pelo desenvolvimento do algoritmo de retropropagação por David Rumelhart, Geoffrey Hinton e Ronald Williams.

Esta descoberta permitiu que redes neurais multicamadas aprendessem com os dados, treinando efetivamente modelos complexos e reacendendo o interesse em abordagens conexionistas à IA.

John Hopfield introduziu as redes Hopfield em 1982, demonstrando como as redes neurais poderiam resolver problemas de otimização. Entre 1983 e 1985, Geoffrey Hinton e Terry Sejnowski desenvolveram máquinas Boltzmann, avançando ainda mais a teoria das redes neurais e demonstrando o potencial das redes neurais para resolver problemas complexos através de representações distribuídas e raciocínio probabilístico.

O advento do aprendizado de máquina e do aprendizado profundo

Aprendizagem hebbiana e mapas auto-organizados (1949, 1982)

O princípio de Donald Hebb, muitas vezes resumido como “células que disparam juntas, se conectam”, lançou as bases para algoritmos de aprendizagem não supervisionados. Os mapas auto-organizados do professor finlandês Teuvo Kohonen em 1982 basearam-se nestes princípios, mostrando como os sistemas poderiam auto-organizar-se para formar padrões significativos sem supervisão explícita.

Aprendizado profundo e descoberta do ImageNet (2012)

A descoberta do ImageNet em 2012, marcada pelo sucesso do AlexNet, revolucionou o campo da IA ​​e do aprendizado profundo. Desenvolvida por Alex Krizhevsky, Ilya Sutskever e Geoffrey Hinton, a arquitetura de rede neural convolucional profunda AlexNet, apresentando inovações como ativação ReLU, dropout e utilização de GPU, alcançou uma taxa de erro top-5 de 15,3%, excedendo em muito os modelos anteriores .

Este sucesso demonstrou o poder do aprendizado profundo para classificação de imagens e despertou amplo interesse e avanços na visão computacional e no processamento de linguagem natural.

Arquiteturas cognitivas e IA integrada

SOAR é ACT-R (anos 80)

Arquiteturas cognitivas como SOAR (Estado, Operador e Resultado) e ACT-R (Controle Adaptativo do Pensamento Racional) surgiram como modelos abrangentes de cognição humana. Desenvolvido por John Laird, Allen Newell e Paul Rosenbloom, o SOAR teve como objetivo replicar o comportamento inteligente geral por meio da resolução de problemas e do aprendizado. O ACT-R, desenvolvido por John Anderson, focou na simulação de processos cognitivos humanos, fornecendo insights sobre memória, atenção e aprendizagem.

Teorias da cognição incorporada (década de 1990)

As teorias da cognição incorporada enfatizam o papel do corpo e do ambiente na formação do comportamento inteligente. Pesquisadores como Rodney Brooks argumentaram que a verdadeira inteligência surge do corpo e do meio ambiente. interação entre um agente e seu ambiente, levando ao desenvolvimento de sistemas de IA incorporados que aprendem e se adaptam por meio de experiências físicas.

Pesquisas modernas e teorias sobre inteligência artificial

Inteligência Artificial Universal e AIXI (2005)

A teoria da Inteligência Artificial Universal de Marcus Hutter e o modelo AIXI forneceram uma estrutura matemática para AGI. AIXI, um agente idealizado, foi projetado para atingir um comportamento ideal, maximizando as recompensas esperadas com base na probabilidade algorítmica. Embora o AIXI seja computacionalmente inviável, ele oferece uma referência teórica para pesquisas em IA.

OpenCog clássico (2008)

Um dos desenvolvimentos significativos na teoria AGI é a criação do OpenCog, uma estrutura de software de código aberto para pesquisas em inteligência artificial geral. Fundado por Ben Goertzel, que cunhou o termo AGI, o OpenCog Classic concentra-se na integração de várias metodologias de inteligência artificial, incluindo inteligência simbólica, redes neurais e programação evolutiva. O objetivo é criar uma arquitetura unificada capaz de alcançar inteligência semelhante à humana.

Integração neural-simbólica (década de 2010)

Os esforços para integrar abordagens neurais e simbólicas visam combinar os pontos fortes de ambos os paradigmas. Os sistemas neurais-simbólicos aproveitam as capacidades de aprendizagem das redes neurais com a interpretabilidade e o raciocínio da IA ​​simbólica, oferecendo um caminho promissor para a AGI.

Fronteiras atuais de IA e AGI

2000-2010: Engenharia das capacidades especializadas da inteligência artificial Arquiteturas de algoritmos que demonstraram capacidade sobre-humana em torneios de jogos especializados, classificação de imagens, previsões estatísticas e assim por diante, mas permanecem limitadas em generalização e carecem de adaptabilidade uniforme em vários domínios.

Década de 2020: grandes modelos de linguagem Modelos básicos como o GPT-3 mostram-se promissores em aplicações de geração de texto, mostrando alguma aprendizagem por transferência intercontextual. No entanto, ainda são limitados no raciocínio global, na inteligência emocional e na transparência, realçando os desafios para uma integração segura e responsável.

Década de 2020: OpenCog Hyperon Construído com base no OpenCog Classic, o OpenCog Hyperon representa a próxima geração da arquitetura AGI. Esta estrutura de software de código aberto sinergiza vários paradigmas de IA dentro de uma arquitetura cognitiva unificada, levando-nos em direção à IA de nível humano e além. Com o recente OpenCog Hyperon Alpha lançado, SingularityNET criou uma estrutura robusta para inovação colaborativa dentro da comunidade AGI.

Para o Dr. Ben Goertzel, tudo ficou claro desde o início.

Ele acredita que a maioria das ideias-chave nos negócios já existiam nas décadas de 1960 e 1970, quando foram lançados os primeiros sistemas práticos de IA. Dito isto, a IA percorreu um longo caminho desde a sua criação em meados do século XX.

Por exemplo, as redes neurais já existiam na década de 1960, incluindo redes neurais profundas com múltiplas camadas de neurônios simulados que tentavam simular células cerebrais. Havia também sistemas automáticos de raciocínio lógico que usavam lógica formal para tirar conclusões baseadas em evidências.

O orador falou ainda sobre o estado atual da IA, sublinhando como os sistemas de IA são capazes de fazer coisas incríveis, mesmo que ainda não estejam ao nível dos humanos: “O que está a acontecer agora é que muito poder de processamento e muito os dados estão sendo usados ​​para fazer com que essas antigas abordagens de IA alcancem novos níveis de sucesso.”

Grandes modelos de linguagem (LLMs) são um bom exemplo disso. Eles podem gerar texto, traduzir idiomas, escrever diferentes tipos de conteúdo criativo e responder às suas perguntas de forma informativa, mas só podem “ser muito inteligentes no contexto do desempenho de uma dessas funções restritas”. Qual é o próximo passo?

Goertzel disse: “É intuitivamente claro que a Inteligência Artificial está agora ao nosso alcance e provavelmente será alcançada nos próximos anos”. Isso ocorre porque temos diversas abordagens diferentes para AGI que parecem plausíveis no momento. Uma abordagem seguida por grupos de pesquisa e empresas como a OpenAI é ampliar LLMs que já provaram que podem fazer coisas impressionantes. Outra abordagem é conectar diferentes tipos de redes neurais profundas. Uma terceira abordagem é conectar redes neurais com outros tipos de ferramentas de IA em uma arquitetura distribuída baseada em metagráficos, como OpenCog Hyperon.

Ele lembra a todos que alcançar a AGI coloca alguns problemas sociais, económicos e éticos interessantes, mas que “não está tão preocupado com estes como algumas pessoas estão”, porque se conseguirmos manter a distribuição da AGI descentralizada, a governação participativa e democrática, poderemos ter grande confiança de que a AGI crescerá para ser benéfica para a humanidade e nos ajudará a levar vidas mais gratificantes.

Na SingularityNET, estamos trabalhando duro para ultrapassar os limites do que atualmente é considerado possível em AGI.

Mas uma coisa é certa: estamos sobre ombros de gigantes. Desde os primeiros dias de Turing e von Neumann até ao trabalho pioneiro em IA simbólica, redes neurais e aprendizagem profunda, cada marco aproximou-nos da realização do sonho da AGI.

À medida que continuamos a ampliar esses limites com grandes modelos de linguagem e arquiteturas cognitivas integradas como OpenCog Hyperon, o horizonte da AGI se aproxima. O caminho está repleto de desafios, mas o esforço coletivo de investigadores, visionários e profissionais continua a impulsionar-nos.

Juntos, estamos a criar o futuro da inteligência, transformando o abstrato em tangível e aproximando-nos cada vez mais de máquinas que podem pensar, aprender e compreender com a mesma profundidade que os humanos.

Sobre SingularityNET

SingularityNET foi fundada pelo Dr. Ben Goertzel com a missão de criar Inteligência Geral Artificial (AGI) descentralizada, democrática, inclusiva e benéfica. Uma IA geral não depende de nenhuma entidade central, está aberta a qualquer pessoa e não se limita aos objetivos restritos de uma única empresa ou país. A equipe SingularityNET é formada por engenheiros, cientistas, pesquisadores, empreendedores e profissionais de marketing experientes. As equipes de plataforma e IA são complementadas por equipes especializadas em áreas de aplicação como finanças, robótica, IA biomédica, mídia, artes e entretenimento.

Plataforma de IA descentralizada | Hiperon OpenCog | Ecossistema | Aliança ASI

Mantenha-se atualizado com as últimas notícias e atualizações da SingularityNET: