Source article: A Short History of Foundational AGI Theories | by SingularityNet | SingularityNET
Translation by: Hugodove
Dework task link: https://app.dework.xyz/singularitynet-ambas/test-38287?taskId=4935f1ef-f24e-4224-bb65-24d3e5e9e04e
Community review: Please leave comments below about translation quality or like this post if it is well translated
Breve storia delle teorie AGI fondamentali
Il sogno dell’Intelligenza Generale Artificiale (AGI), una macchina con un’intelligenza simile a quella umana, risale alle prime teorie computazionali degli anni Cinquanta, quando pionieri come John von Neumann esplorarono la possibilità di replicare le funzioni del cervello umano.
Oggi l’intelligenza artificiale rappresenta un cambiamento di paradigma rispetto all’ampia varietà di strumenti e algoritmi di IA che utilizziamo oggi e che eccellono in compiti specifici. Un cambiamento verso una forma di intelligenza in grado di apprendere, comprendere e applicare le proprie conoscenze in un’ampia gamma di compiti a livello umano o superiore.
Sebbene la definizione o la caratterizzazione precisa di AGI non sia ampiamente condivisa, il termine “Intelligenza Generale Artificiale” ha molteplici significati strettamente correlati, riferendosi alla capacità di un sistema ingegnerizzato di:
-
Mostrare lo stesso tipo approssimativo di intelligenza generale degli esseri umani;
-
mostrare un’intelligenza non legata a un insieme di compiti altamente specifici;
-
Generalizzare ciò che ha imparato, compresa la generalizzazione a contesti qualitativamente
-
qualitativamente molto diversi da quelli precedenti;
-
avere una visione ampia e interpretare in modo flessibile i compiti da svolgere nel contesto del mondo in generale e delle sue relazioni con esso.
Il viaggio verso l’AGI è stato segnato da numerose teorie e quadri concettuali, ognuno dei quali ha contribuito alla comprensione e alle aspirazioni di questa rivoluzione tecnologica apparentemente imminente.
Diamo uno sguardo indietro ed esploriamo alcune delle principali teorie e concettualizzazioni che, nel corso del tempo, hanno dato vita al concetto che oggi conosciamo come AGI.
Le prime concettualizzazioni di AGI
Turing e il Test di Turing (1950) L’articolo fondamentale di Alan Turing, “Computing Machinery and Intelligence”, introdusse l’idea che le macchine potessero potenzialmente esibire un comportamento intelligente indistinguibile dagli esseri umani.
Il Test di Turing, che valuta la capacità di una macchina di mostrare risposte simili a quelle umane, divenne un concetto fondamentale, sottolineando l’importanza del comportamento nella definizione dell’intelligenza.
Poco dopo, nel 1958, il libro di John von Neumann “The Computer and the Brain” (Il computer e il cervello) esplorò i parallelismi tra i processi neurali e i sistemi computazionali, suscitando il primo interesse per i modelli neuro computazionali.
Queste concettualizzazioni iniziali hanno dato vita all’era dell’IA simbolica.
Negli anni '50 e '60, Allen Newell e Herbert A. Simon proposero l’ipotesi del sistema di simboli fisici, affermando che un sistema di simboli fisici possiede i mezzi necessari e sufficienti per un’azione intelligente generale.
Questa teoria è stata alla base di gran parte delle prime ricerche sull’IA e ha portato allo sviluppo dell’IA simbolica, che si concentra su rappresentazioni simboliche di alto livello (leggibili dall’uomo) di problemi e logica.
Alla fine degli anni Sessanta, il libro di Marvin Minsky e Seymour Papert, “Perceptrons”, esaminò criticamente i primi modelli di reti neurali, evidenziandone i limiti. Questo lavoro, sebbene inizialmente considerato una battuta d’arresto per i modelli connessionisti, alla fine ha stimolato una ricerca più approfondita sulle reti neurali e sulle loro capacità, influenzando i successivi sviluppi dell’apprendimento automatico.
Nel 1956, Newell e Simon svilupparono il Logic Theorist, considerato da molti il primo vero programma di intelligenza artificiale. Era in grado di dimostrare teoremi di logica simbolica, segnando una pietra miliare piuttosto significativa nella ricerca e sviluppo dell’IA. Poco dopo, nel 1958, John McCarthy sviluppò il LISP, un linguaggio di programmazione che divenne fondamentale per la ricerca sull’IA dell’epoca.
Negli anni '70, le prime promesse dell’IA subirono notevoli battute d’arresto. Le aspettative erano alte, ma la tecnologia non riuscì a mantenere alcuni dei grandiosi benefici promessi.
I sistemi si sono scontrati con problemi complessi e i limiti delle prime reti neurali e dell’IA simbolica sono diventati evidenti. A causa della mancanza di progressi e di aspettative eccessive, i finanziamenti per la ricerca sull’IA furono ridotti in modo significativo. Questo periodo di riduzione dei finanziamenti e dell’interesse viene definito il primo inverno dell’IA.
Reti neurali e connessionismo
Negli anni '80 si è assistito a una rinascita della ricerca sulle reti neurali.
Lo sviluppo e la commercializzazione dei sistemi esperti hanno riportato l’IA sotto i riflettori. Questi sistemi, che utilizzano basi di conoscenza e regole di inferenza per imitare le competenze umane in domini specifici, si sono rivelati utili in settori come la medicina, la finanza e la produzione.
Inoltre, i progressi nell’hardware dei computer dell’epoca hanno fornito la potenza di calcolo necessaria per eseguire algoritmi di IA più complessi. Ciò ha portato a nuove tecniche e algoritmi, a un aumento dell’interesse commerciale e a un incremento degli investimenti nei prodotti di IA.
La rinascita è stata guidata dallo sviluppo dell’algoritmo di backpropagation da parte di David Rumelhart, Geoffrey Hinton e Ronald Williams.
Questa scoperta ha permesso alle reti neurali multistrato di apprendere dai dati, addestrando efficacemente modelli complessi e riaccendendo l’interesse per gli approcci connessionisti all’IA.
John Hopfield ha introdotto le reti Hopfield nel 1982, dimostrando come le reti neurali potessero risolvere problemi di ottimizzazione. Tra il 1983 e il 1985, Geoffrey Hinton e Terry Sejnowski hanno sviluppato le macchine di Boltzmann, facendo progredire ulteriormente la teoria delle reti neurali e dimostrando il potenziale delle reti neurali nel risolvere problemi complessi attraverso rappresentazioni distribuite e ragionamenti probabilistici.
L’avvento dell’apprendimento automatico e dell’apprendimento profondo
Apprendimento hebbiano e mappe auto-organizzanti (1949, 1982)
Il principio di Donald Hebb, spesso riassunto come “le cellule che sparano insieme, si collegano”, ha gettato le basi per gli algoritmi di apprendimento non supervisionato. Le mappe auto-organizzanti del professore finlandese Teuvo Kohonen, nel 1982, si basarono su questi principi, mostrando come i sistemi potessero auto-organizzarsi per formare modelli significativi senza una supervisione esplicita.
L’apprendimento profondo e la scoperta di ImageNet (2012)
La scoperta di ImageNet nel 2012, segnata dal successo di AlexNet, ha rivoluzionato il campo dell’IA e del deep learning. Sviluppata da Alex Krizhevsky, Ilya Sutskever e Geoffrey Hinton, l’architettura della rete neurale convoluzionale profonda AlexNet, caratterizzata da innovazioni come l’attivazione ReLU, il dropout e l’utilizzo della GPU, ha raggiunto un tasso di errore nella top-5 del 15,3%, superando di gran lunga i modelli precedenti.
Questo successo ha dimostrato la potenza dell’apprendimento profondo per la classificazione delle immagini e ha suscitato un interesse diffuso e progressi nella computer vision e nell’elaborazione del linguaggio naturale.
Architetture cognitive e IA integrata
SOAR e ACT-R (anni '80)
Architetture cognitive come SOAR (State, Operator, And Result) e ACT-R (Adaptive Control of Thought-Rational) sono emerse come modelli completi della cognizione umana. Sviluppato da John Laird, Allen Newell e Paul Rosenbloom, SOAR mirava a replicare il comportamento intelligente generale attraverso la risoluzione di problemi e l’apprendimento. ACT-R, sviluppato da John Anderson, si concentrava sulla simulazione dei processi cognitivi umani, fornendo approfondimenti su memoria, attenzione e apprendimento.
Teorie della cognizione incarnata (anni '90)
Le teorie della cognizione incarnata sottolineano il ruolo del corpo e dell’ambiente nella formazione del comportamento intelligente. Ricercatori come Rodney Brooks sostenevano che la vera intelligenza nasce dal corpo e dall’ambiente. interazione tra un agente e il suo ambiente, portando allo sviluppo di sistemi di IA incarnati che apprendono e si adattano attraverso esperienze fisiche.
Ricerca e teorie moderne sull’intelligenza artificiale
Intelligenza artificiale universale e AIXI (2005)
La teoria dell’Intelligenza Artificiale Universale di Marcus Hutter e il modello AIXI hanno fornito un quadro matematico per l’AGI. AIXI, un agente idealizzato, è progettato per ottenere un comportamento ottimale massimizzando le ricompense attese sulla base della probabilità algoritmica. Sebbene AIXI sia computazionalmente irrealizzabile, offre un punto di riferimento teorico per la ricerca sull’intelligenza artificiale.
OpenCog classico (2008)
Uno degli sviluppi significativi nella teoria dell’AGI è la creazione di OpenCog, un framework software open-source per la ricerca sull’intelligenza artificiale generale. Fondato da Ben Goertzel, che ha coniato il termine AGI, OpenCog Classic si concentra sull’integrazione di varie metodologie di intelligenza artificiale, tra cui l’intelligenza simbolica, le reti neurali e la programmazione evolutiva. L’obiettivo è creare un’architettura unificata in grado di raggiungere un’intelligenza simile a quella umana.
Integrazione neurale-simbolica (anni 2010)
Gli sforzi per integrare approcci neurali e simbolici mirano a combinare i punti di forza di entrambi i paradigmi. I sistemi neurali-simbolici sfruttano le capacità di apprendimento delle reti neurali con l’interpretabilità e il ragionamento dell’IA simbolica, offrendo un percorso promettente verso l’AGI.
Frontiere attuali dell’IA e dell’AGI
Anni 2000-2010: Ingegneria delle capacità specializzate dell’intelligenza artificiale Le architetture algoritmi che hanno dimostrato una capacità sovrumana nei tornei di gioco specializzati, nella classificazione delle immagini, nelle previsioni statistiche e così via, ma rimangono limitate nella generalizzabilità e mancano di adattabilità multidominio in modo uniforme.
Gli anni 2020: Modelli linguistici di grandi dimensioni Modelli di fondazione come il GPT-3 mostrano una promessa iniziale nelle applicazioni di generazione di testi, mostrando un certo apprendimento di trasferimento inter contestuale. Tuttavia, sono ancora limitati nel ragionamento a tutto campo, nell’intelligenza emotiva e nella trasparenza, evidenziando le sfide per un’integrazione sicura e responsabile.
Gli anni 2020: OpenCog Hyperon Costruito sulle fondamenta di OpenCog Classic, OpenCog Hyperon rappresenta la prossima generazione di architettura AGI. Questo framework software open-source sinergizza diversi paradigmi di IA all’interno di un’architettura cognitiva unificata, spingendoci verso la realizzazione di un’IA di livello umano e oltre. Con il recente rilascio di OpenCog Hyperon Alpha, SingularityNET ha creato un quadro solido per l’innovazione collaborativa all’interno della comunità AGI.
Per il dottor Ben Goertzel, tutto è stato chiaro fin dall’inizio.
Ritiene che la maggior parte delle idee chiave in campo commerciale esistessero già negli anni '60 e '70, quando sono stati lanciati i primi sistemi pratici di IA. Detto questo, l’IA ha fatto molta strada dalla sua nascita a metà del XX secolo.
Ad esempio, negli anni '60 esistevano già le reti neurali, comprese le reti neurali profonde con più strati di neuroni simulati che cercavano di simulare le cellule cerebrali. Esistevano anche sistemi di ragionamento logico automatico che utilizzavano la logica formale per trarre conclusioni basate sull’evidenza.
Il relatore ha anche parlato dello stato attuale dell’IA, sottolineando come i sistemi di IA siano in grado di fare cose incredibili, anche se non sono ancora al livello dell’uomo: “Quello che sta accadendo ora è che molta potenza di elaborazione e molti dati vengono utilizzati per far sì che questi vecchi approcci all’IA raggiungono nuovi livelli di successo”.
I grandi modelli linguistici (LLM) ne sono un buon esempio. Possono generare testo, tradurre lingue, scrivere diversi tipi di contenuti creativi e rispondere alle vostre domande in modo informativo, ma possono solo “essere molto intelligenti nel contesto dello svolgimento di una di queste funzioni ristrette”. Qual è il prossimo passo?
Goertzel ha dichiarato: “È intuitivamente chiaro che l’Intelligenza Artificiale è ora a portata di mano, ed è probabile che venga raggiunta nei prossimi anni”. Questo perché abbiamo una serie di approcci diversi all’AGI che sembrano plausibili in questo momento. Un approccio perseguito da gruppi di ricerca e aziende come OpenAI è quello di potenziare le LLM che hanno già dimostrato di essere in grado di fare cose impressionanti. Un altro approccio consiste nel collegare tra loro diversi tipi di reti neurali profonde. Un terzo approccio consiste nel collegare reti neurali con altri tipi di strumenti di intelligenza artificiale in un’architettura distribuita basata su metagrafi come OpenCog Hyperon.
Ricorda a tutti che il raggiungimento dell’AGI pone alcuni interessanti problemi sociali, economici ed etici, ma che lui “non è preoccupato di questi come lo sono alcune persone”, perché se riusciamo a mantenere la distribuzione dell’AGI decentralizzata, la governance partecipativa e democratica, possiamo avere molta fiducia che l’AGI crescerà per essere benefica per l’umanità e ci aiuterà a condurre vite più soddisfacenti.
A SingularityNET, stiamo lavorando duramente per spingere i confini di ciò che è attualmente ritenuto possibile nell’AGI.
Ma una cosa è chiara: siamo sulle spalle di giganti. Dai primi tempi di Turing e von Neumann al lavoro pionieristico nell’IA simbolica, nelle reti neurali e nell’apprendimento profondo, ogni pietra miliare ci ha portato più vicino alla realizzazione del sogno dell’AGI.
Continuando a spingere questi confini con modelli linguistici di grandi dimensioni e architetture cognitive integrate come OpenCog Hyperon, l’orizzonte dell’AGI si avvicina. Il percorso è irto di sfide, ma lo sforzo collettivo di ricercatori, visionari e professionisti continua a spingerci in avanti.
Insieme, stiamo creando il futuro dell’intelligenza, trasformando l’astratto in tangibile e avvicinandoci sempre di più a macchine in grado di pensare, imparare e capire con la stessa profondità degli esseri umani.
Informazioni su SingularityNET
SingularityNET è stata fondata dal Dr. Ben Goertzel con la missione di creare un’Intelligenza Artificiale Generale (AGI) decentralizzata, democratica, inclusiva e vantaggiosa. Un’intelligenza artificiale generale non dipende da alcuna entità centrale, è aperta a chiunque e non è limitata agli obiettivi ristretti di una singola società o di un singolo Paese. Il team di SingularityNET è composto da ingegneri, scienziati, ricercatori, imprenditori e marketer esperti. I team della piattaforma e dell’IA sono integrati da team specializzati in aree applicative come la finanza, la robotica, l’IA biomedica, i media, le arti e l’intrattenimento.
Piattaforma AI decentralizzata | OpenCog Hyperon | Ecosistema | ASI Alliance
Rimani aggiornato con le ultime notizie e gli aggiornamenti di SingularityNET:
- Visita il nostro Sito web
- Iscriviti alla nostra Newsletter
- Unisciti al nostro server Discord
- Seguici su X
- Seguici su Mindplex Social
- Iscriviti al nostro Canale Telegram principale
- Iscriviti al nostro canale Annunci su Telegram
- Iscriviti al nostro canale di trasmissione WhatsApp.
- Seguici su Instagram: SingularityNET e Visions of AGI
- Seguici su Warpcast
- Esplora la nostra pagina delle offerte di lavoro → Stiamo assumendo.
- Aggiungi il calendario degli eventi della comunità SingularityNET per rimanere aggiornato sugli eventi della comunità, degli ambasciatori e del Deep Funding!