Arabic - A Short History of Foundational AGI Theories

Source article: A Short History of Foundational AGI Theories
Translation by: $cardano_class
Dework task link: https://app.dework.xyz/singularitynet-ambas/test-38287?taskId=e27c3291-ee81-4a21-b4dc-ae4f54d8eef0
Community review: Please leave comments below about translation quality or like this post if it is well translated

تاريخ قصير لنظريات AGI التأسيسية

إن حلم الذكاء الاصطناعي العام (AGI)، وهي آلة ذات ذكاء يشبه ذكاء الإنسان، هو شيء يمكننا إرجاعه إلى النظريات الحسابية المبكرة في الخمسينيات من القرن العشرين، عندما استكشف رواد مثل جون فون نيومان إمكانيات تكرار وظائف الدماغ البشري.

اليوم، يمثل الذكاء الاصطناعي العام تحولاً جذرياً من مجموعة واسعة من أدوات وخوارزميات الذكاء الاصطناعي الضيقة التي نستخدمها اليوم والتي تتفوق في أداء مهام محددة. وهو تحول نحو شكل من أشكال الذكاء الذي يمكنه التعلم والفهم وتطبيق معرفته عبر مجموعة واسعة من المهام على المستوى البشري أو ما هو أبعد من ذلك.

في حين أن التعريف الدقيق أو توصيف الذكاء الاصطناعي العام ليس متفقًا عليه على نطاق واسع، فإن مصطلح “الذكاء الاصطناعي العام” له معاني متعددة وثيقة الصلة، حيث يشير إلى قدرة النظام الهندسي على:

· إظهار نفس النوع الخشن من الذكاء العام الذي يتمتع به البشر؛

· إظهار الذكاء الذي لا يرتبط بمجموعة محددة للغاية من المهام؛

· تعميم ما تعلمه، بما في ذلك التعميم على السياقات نوعيًا

· مختلفة جدًا عن تلك التي شاهدتها من قبل؛

· اتخاذ وجهة نظر واسعة، وتفسير المهام المطروحة بشكل مرن في سياق العالم بأسره وعلاقته به.

تميزت الرحلة نحو الذكاء الاصطناعي العام بالعديد من النظريات والأطر المفاهيمية، حيث ساهمت كل منها في فهمنا وتطلعاتنا لهذه الثورة الوشيكة في التكنولوجيا.

دعونا نلقي نظرة إلى الوراء ونستكشف بعض النظريات والمفاهيم الأساسية التي أدت، على المدى الطويل، إلى ولادة المفهوم الذي نعرفه اليوم باسم الذكاء الاصطناعي العام.

أقدم المفاهيم المتعلقة بالذكاء الاصطناعي العام

تورينج واختبار تورينج (1950) قدمت ورقة آلان تورينج الرائدة “الآلات الحاسوبية والذكاء” فكرة مفادها أن الآلات قد تظهر سلوكًا ذكيًا لا يمكن تمييزه عن البشر.

لقد أصبح اختبار تورينج، الذي يقيم قدرة الآلة على إظهار استجابات تشبه تلك التي يبديها الإنسان، مفهوماً أساسياً، مؤكداً على أهمية السلوك في تحديد الذكاء.

وبعد فترة وجيزة، في عام 1958، استكشف كتاب جون فون نيومان، “الكمبيوتر والدماغ”، أوجه التشابه بين العمليات العصبية والأنظمة الحسابية، مما أثار الاهتمام المبكر بالنماذج العصبية الحسابية.

أدت هذه المفاهيم الأولية إلى ولادة عصر الذكاء الاصطناعي الرمزي

في الخمسينيات والستينيات من القرن العشرين، اقترح آلن نيويل وهربرت أ. سيمون فرضية نظام الرمز الفيزيائي، مؤكدين أن نظام الرمز الفيزيائي لديه الوسائل الضرورية والكافية للعمل الذكي العام.

شكلت هذه النظرية أساسًا لكثير من أبحاث الذكاء الاصطناعي المبكرة، مما أدى إلى تطوير الذكاء الاصطناعي الرمزي، الذي يركز على التمثيلات الرمزية عالية المستوى (التي يمكن للإنسان قراءتها) للمشاكل والمنطق.

بحلول نهاية ستينيات القرن العشرين، قام مارفن مينسكي وسيمور بابيرت في كتابهما “المُدركات” بفحص نماذج الشبكات العصبية المبكرة بشكل نقدي، مسلطين الضوء على حدودها. وعلى الرغم من أن هذا العمل كان يُنظر إليه في البداية على أنه انتكاسة للنماذج الاتصالية، إلا أنه حفز في نهاية المطاف أبحاثًا أعمق في الشبكات العصبية وقدراتها، مما أثر على التطورات اللاحقة في التعلم الآلي.

في عام 1956، طور نيويل وسايمون برنامج Logic Theorist، الذي يعتبره الكثيرون أول برنامج ذكاء اصطناعي حقيقي. وكان البرنامج قادرًا على إثبات نظريات في المنطق الرمزي، مما يمثل إنجازًا مهمًا في مجال البحث والتطوير في مجال الذكاء الاصطناعي. وبعد ذلك بقليل، في عام 1958، طور جون مكارثي لغة LISP، وهي لغة برمجة أصبحت أساسية لأبحاث الذكاء الاصطناعي في ذلك الوقت.

في سبعينيات القرن العشرين، واجهت الوعود المبكرة للذكاء الاصطناعي انتكاسات كبيرة. كانت التوقعات عالية، لكن التكنولوجيا لم تتمكن من تحقيق بعض الفوائد العظيمة التي وعدت بها.

لقد واجهت الأنظمة صعوبات في التعامل مع مشاكل معقدة، وأصبحت القيود التي فرضتها الشبكات العصبية المبكرة والذكاء الاصطناعي الرمزي واضحة. ونتيجة لعدم إحراز أي تقدم والتوقعات المبالغ فيها، انخفض تمويل أبحاث الذكاء الاصطناعي بشكل كبير. ويشار إلى هذه الفترة من انخفاض التمويل والاهتمام بـ “شتاء الذكاء الاصطناعي الأول”.

الشبكات العصبية والترابطية

وفي ثمانينيات القرن العشرين، حدث انتعاش في أبحاث الشبكات العصبية.

لقد أعاد تطوير وتسويق أنظمة الخبراء الذكاء الاصطناعي إلى دائرة الضوء. لقد أثبتت هذه الأنظمة، التي تستخدم قواعد المعرفة وقواعد الاستدلال لمحاكاة الخبرة البشرية في مجالات محددة، أنها مفيدة عمليًا في صناعات مثل الطب والتمويل والتصنيع.

ناهيك عن أن التطورات التي شهدتها أجهزة الكمبيوتر في ذلك الوقت وفرت القوة الحسابية اللازمة لتشغيل خوارزميات الذكاء الاصطناعي الأكثر تعقيدًا. وقد أدى هذا إلى ظهور تقنيات وخوارزميات جديدة، وزيادة الاهتمام التجاري، وزيادة الاستثمار في منتجات الذكاء الاصطناعي.

وكان هذا الانتعاش مدفوعًا بتطوير خوارزمية الانتشار الخلفي التي قام بها ديفيد روميلهارت، وجيفري هينتون، ورونالد ويليامز.

لقد مكّن هذا الاختراق الشبكات العصبية متعددة الطبقات من التعلم من البيانات، وتدريب النماذج المعقدة بشكل فعال، وإعادة إحياء الاهتمام بالنهج الاتصالية للذكاء الاصطناعي.

قدم جون هوبفيلد شبكات هوبفيلد في عام 1982، موضحًا كيف يمكن للشبكات العصبية حل مشكلات التحسين. بين عامي 1983 و1985، طور جيفري هينتون وتيري سينوفسكي آلات بولتزمان، مما أدى إلى تقدم أكبر في نظرية الشبكات العصبية من خلال إظهار إمكانات الشبكات العصبية في حل المشكلات المعقدة من خلال التمثيلات الموزعة والمنطق الاحتمالي.

ظهور التعلم الآلي والتعلم العميق

التعلم الهيبي وخرائط التنظيم الذاتي (1949، 1982)

لقد أرسى مبدأ دونالد هيب، الذي يُختصر غالبًا في “الخلايا التي تنطلق معًا، وتتصل معًا”، الأساس لخوارزميات التعلم غير الخاضعة للإشراف. وفي عام 1982، استندت خرائط التنظيم الذاتي التي وضعها الأستاذ الفنلندي تيوفو كوهونين إلى هذه المبادئ، فأظهرت كيف يمكن للأنظمة أن تنظم نفسها لتكوين أنماط ذات مغزى دون إشراف صريح.

التعلم العميق واختراق ImageNet (2012)

أحدثت طفرة ImageNet في عام 2012، والتي تميزت بنجاح AlexNet، ثورة في مجال الذكاء الاصطناعي والتعلم العميق. فقد طور أليكس كريزيفسكي وإيليا سوتسكيفر وجيفري هينتون بنية الشبكة العصبية التلافيفية العميقة AlexNet، والتي تتميز بابتكارات مثل تنشيط ReLU، والانقطاع، واستخدام وحدة معالجة الرسومات، وحققت معدل خطأ من بين أفضل 5 بلغ 15.3%، متفوقة بشكل كبير على النماذج السابقة.

أثبت هذا النجاح قوة التعلم العميق في تصنيف الصور وأثار اهتمامًا واسع النطاق وتقدمًا في مجال الرؤية الحاسوبية ومعالجة اللغة الطبيعية.

الهندسة المعرفية والذكاء الاصطناعي المتكامل

SOAR وACT-R (ثمانينيات القرن العشرين)

ظهرت نماذج إدراكية مثل SOAR (الحالة والمشغل والنتيجة) وACT-R (التحكم التكيفي في الفكر العقلاني) كنماذج شاملة للإدراك البشري. وقد طور جون ليريد وألين نيويل وبول روزنبلوم نموذج SOAR بهدف تكرار السلوك الذكي العام من خلال حل المشكلات والتعلم. وركز نموذج ACT-R، الذي طوره جون أندرسون، على محاكاة العمليات الإدراكية البشرية، وتوفير رؤى حول الذاكرة والانتباه والتعلم.

نظريات الإدراك المتجسد (تسعينيات القرن العشرين)

أكدت نظريات الإدراك المتجسد على دور الجسم والبيئة في تشكيل السلوك الذكي. وزعم باحثون مثل رودني بروكس أن الذكاء الحقيقي ينشأ من التفاعل بين العامل وبيئته، مما أدى إلى تطوير أنظمة الذكاء الاصطناعي المتجسد التي تتعلم وتتكيف من خلال التجارب المادية.

أبحاث ونظريات الذكاء الاصطناعي الحديثة

الذكاء الاصطناعي العالمي و AIXI (2005)

لقد وفرت نظرية الذكاء الاصطناعي الشامل لماركوس هوتر ونموذج AIXI إطارًا رياضيًا للذكاء الاصطناعي العام. تم تصميم AIXI، وهو وكيل مثالي، لتحقيق السلوك الأمثل من خلال تعظيم المكافآت المتوقعة بناءً على الاحتمالية الخوارزمية. وفي حين أن AIXI غير قابل للتطبيق حسابيًا، فإنه يوفر معيارًا نظريًا لأبحاث الذكاء الاصطناعي العام.

أوبن كوج كلاسيك (2008)

أحد التطورات المهمة في نظرية الذكاء الاصطناعي العام هو إنشاء OpenCog، وهو إطار عمل برمجي مفتوح المصدر لأبحاث الذكاء الاصطناعي العام. أسسه بن جورتزيل، الذي صاغ مصطلح الذكاء الاصطناعي العام، يركز OpenCog Classic على دمج منهجيات الذكاء الاصطناعي المختلفة، بما في ذلك الذكاء الاصطناعي الرمزي والشبكات العصبية والبرمجة التطورية. والهدف هو إنشاء بنية موحدة قادرة على تحقيق ذكاء يشبه الذكاء البشري.

التكامل العصبي الرمزي (2010)

تهدف الجهود المبذولة لدمج النهجين العصبي والرمزي إلى الجمع بين نقاط القوة في كلا النموذجين. تستفيد الأنظمة العصبية الرمزية من قدرات التعلم التي تتمتع بها الشبكات العصبية مع القدرة على التفسير والاستدلال في الذكاء الاصطناعي الرمزي، مما يوفر مسارًا واعدًا نحو الذكاء الاصطناعي العام.

الحدود الحالية في الذكاء الاصطناعي والذكاء الاصطناعي العام

2000-2010: هندسة قدرات الذكاء الاصطناعي المتخصصة لقد أظهرت البنيات الخوارزمية كفاءة خارقة في بطولات الألعاب المتخصصة، وتصنيف الصور، والتنبؤات الإحصائية، وما إلى ذلك، ولكنها تظل مقيدة في القدرة على التعميم وتفتقر إلى القدرة على التكيف متعدد المجالات بشكل موحد.

عشرينيات القرن الحادي والعشرين: نماذج اللغة الكبيرة تُظهر نماذج الأساس مثل GPT-3 وعدًا أوليًا في تطبيقات إنشاء النصوص، حيث تعرض بعض التعلم الانتقالي عبر السياقات. ومع ذلك، لا تزال هذه النماذج محدودة في التفكير الشامل والذكاء العاطفي والشفافية، مما يسلط الضوء على التحديات التي تواجه التكامل الآمن بشكل مسؤول.

عشرينيات القرن الحادي والعشرين: OpenCog Hyperon بناءً على أسس OpenCog Classic، يمثل OpenCog Hyperon الجيل التالي من بنية الذكاء الاصطناعي العام. يعمل إطار العمل البرمجي مفتوح المصدر هذا على تآزر نماذج الذكاء الاصطناعي المتعددة داخل بنية معرفية موحدة، مما يدفعنا نحو تحقيق الذكاء الاصطناعي العام على مستوى الإنسان وما بعده. مع الإصدار الأخير من OpenCog Hyperon Alpha ، أنشأت SingularityNET إطار عمل قويًا للابتكار التعاوني داخل مجتمع الذكاء الاصطناعي العام.

بالنسبة للدكتور بن جورتزل، كان كل شيء واضحًا منذ البداية.

يعتقد أن أغلب الأفكار الرئيسية التي ظهرت في المجال التجاري كانت موجودة بالفعل في الستينيات والسبعينيات من القرن الماضي، حيث تم طرح أول أنظمة الذكاء الاصطناعي العملية في ذلك الوقت. ومع ذلك، فقد قطع الذكاء الاصطناعي شوطًا طويلاً منذ نشأته في منتصف القرن العشرين.

على سبيل المثال، في ستينيات القرن العشرين، كانت الشبكات العصبية موجودة بالفعل، بما في ذلك الشبكات العصبية العميقة التي تتألف من طبقات متعددة من الخلايا العصبية المحاكاة التي تحاول محاكاة خلايا المخ. وكانت هناك أيضاً أنظمة الاستدلال المنطقي الآلي التي تستخدم المنطق الرسمي لاستخلاص النتائج استناداً إلى الأدلة.

كما ناقش الحالة الحالية للذكاء الاصطناعي، مسلطًا الضوء على قدرة أنظمة الذكاء الاصطناعي على القيام بأشياء لا تصدق، حتى لو لم تصل بعد إلى المستوى البشري: “ما يحدث الآن هو قدر كبير من قوة المعالجة والكثير من البيانات التي يتم استخدامها لجعل هذه الأساليب القديمة للذكاء الاصطناعي تحقق مستويات جديدة من النجاح”.

إن نماذج اللغات الكبيرة (LLMs) تشكل مثالاً جيداً على هذا. فهي قادرة على توليد النصوص، وترجمة اللغات، وكتابة أنواع مختلفة من المحتوى الإبداعي، والإجابة على أسئلتك بطريقة إعلامية، ولكنها لا تستطيع “أن تكون ذكية للغاية إلا في سياق تنفيذ إحدى هذه الوظائف الضيقة”. إذن ما الذي ينتظرنا بعد ذلك؟

صرح الدكتور جورتزل قائلاً: “من الواضح بشكل بديهي أن الذكاء الاصطناعي العام أصبح في متناول اليد الآن، ومن المرجح أن يتحقق في غضون السنوات القليلة المقبلة”. وذلك لأن لدينا عددًا من الأساليب المختلفة للذكاء الاصطناعي العام والتي تبدو معقولة في الوقت الحالي. أحد الأساليب التي تتبعها فرق البحث والشركات مثل OpenAI هو ترقية برامج التعلم العميق التي ثبت بالفعل أنها قادرة على بعض الأشياء المثيرة للإعجاب. نهج آخر هو ربط أنواع مختلفة من الشبكات العصبية العميقة معًا. النهج الثالث هو ربط الشبكات العصبية بأنواع أخرى من أدوات الذكاء الاصطناعي معًا في بنية تعتمد على الميتاجراف الموزع مثل OpenCog Hyperon.

ويذكّر الجميع بأن تحقيق الذكاء الاصطناعي العام يطرح بعض القضايا الاجتماعية والاقتصادية والأخلاقية المثيرة للاهتمام، لكنه “ليس قلقاً بشأن تلك القضايا كما يشعر بعض الناس”، لأنه إذا تمكنا من الحفاظ على نشر الذكاء الاصطناعي العام بشكل لامركزي، والحوكمة التشاركية والديمقراطية، فيمكننا أن نثق كثيراً في أن الذكاء الاصطناعي العام سوف ينمو ليكون مفيداً للإنسانية ويساعدنا على عيش حياة أكثر إشباعاً.

في SingularityNET، نحن نعمل بجد لتجاوز حدود ما يُعتقد حاليًا أنه ممكن في مجال الذكاء الاصطناعي العام.

ولكن هناك أمر واحد واضح ــ إننا نقف على أكتاف عمالقة. فمن الأيام الأولى لتورنج وفون نيومان إلى العمل الرائد في مجال الذكاء الاصطناعي الرمزي والشبكات العصبية والتعلم العميق، كان كل إنجاز يقربنا من تحقيق حلم الذكاء الاصطناعي العام.

مع استمرارنا في دفع هذه الحدود باستخدام نماذج لغوية كبيرة وبنى معرفية متكاملة مثل OpenCog Hyperon، فإن أفق الذكاء الاصطناعي العام يقترب. إن الطريق محفوف بالتحديات، ومع ذلك فإن الجهود الجماعية للباحثين وأصحاب الرؤى والممارسين لا تزال تدفعنا إلى الأمام.

نحن نعمل معًا على خلق مستقبل الذكاء، وتحويل المجرد إلى ملموس، والاقتراب أكثر فأكثر من الآلات القادرة على التفكير والتعلم والفهم بعمق مثل البشر.

حول SingularityNET

تأسست شركة SingularityNET على يد الدكتور بن جورتزل بهدف إنشاء ذكاء اصطناعي عام لامركزي وديمقراطي وشامل ومفيد. لا يعتمد الذكاء الاصطناعي العام على أي كيان مركزي، وهو مفتوح لأي شخص، ولا يقتصر على الأهداف الضيقة لشركة واحدة أو حتى دولة واحدة. يضم فريق SingularityNET مهندسين وعلماء وباحثين ورجال أعمال ومسوقين محنكين. كما يتم استكمال فرق منصتنا الأساسية وفرق الذكاء الاصطناعي بفرق متخصصة مكرسة لمجالات التطبيق مثل التمويل والروبوتات والذكاء الاصطناعي الطبي الحيوي والإعلام والفنون والترفيه.

منصة الذكاء الاصطناعي اللامركزية | OpenCog Hyperon | النظام البيئي | ASI Alliance

ابق على اطلاع بأحدث أخبار وتحديثات SingularityNET: