مفارقات رياضية تضع حدوداً لتطور الذكاء الاصطناعي

تقليص
X
 
  • تصفية - فلترة
  • الوقت
  • عرض
إلغاء تحديد الكل
مشاركات جديدة

  • مفارقات رياضية تضع حدوداً لتطور الذكاء الاصطناعي

    عادةً نجيد نحن البشر إدراك ما نرتكبه من أخطاء، ولكن ذلك لا ينطبق على أنظمة الذكاء الاصطناعي، فوفقًا لدراسة حديثة تعاني أنظمة الذكاء الاصطناعي عمومًا قيودًا جذريةً متأصلةً تعود لمفارقة رياضية عمرها قرن من الزمن.

    حالها حال بعض الناس، أنظمة الذكاء الاصطناعي عادةً تمتلك درجةً من الموثوقية أعلى بكثير من قدراتها الفعلية، وكما نقابل أشخاصًا شديدي الثقة لدرجة أنهم لا يدركون متى يقعون بالخطأ، كذلك أنظمة الذكاء الاصطناعي، إذ يكون إدراك الخطأ أحيانًا أصعب عليها من إعطاء نتيجة صحيحة.



    تحدث باحثون من جامعتي كامبريدج وأوسلو عن نقطة الضعف الأساسية في أنظمة الذكاء الاصطناعي وهي عدم الاستقرار وأكدوا وجود مفارقة رياضية تضع حدودًا لهذه الأنظمة.

    إن أحدث أداة في أنظمة الذكاء الاصطناعي التي تسمى بالشبكات العصبية تشبه في عملها الدماغ وتحاكي الارتباطات بين الخلايا العصبية، أظهر الباحثون أنه توجد مسائل لها شبكات عصبية مستقرة ودقيقة، لكن لا يمكن لأي خوارزمية إنتاج مثل هذه الشبكات، وتنحصر قدرة الخوارزميات على إنتاج شبكات مستقرة ودقيقة في حالات محددة فقط.

    اقترح الباحثون نظرية تصنيف توضح متى يمكن تدريب تلك الشبكات العصبية لتوفير نظام ذكاء اصطناعي جدير بالثقة في ظل ظروف معينة ومحددة، ونشروها في مجلة PNAS العلمية المرموقة.

    من جهة أخرى، يُعد التعلم العميق واحدًا من أبرز تقنيات الذكاء الاصطناعي الأساسية والرائدة في التعرف على الأنماط، ولطالما كان موضوعًا لكثير من العناوين الجذابة المثيرة، منها قدرة الذكاء الاصطناعي على تشخيص الأمراض بدقة أكبر من الأطباء أنفسهم، أو منع الحوادث المرورية من خلال القيادة الذاتية. ومع ذلك فإن كثيرًا من أنظمة التعلم العميق لا زالت غير جديرة بالثقة وسهلة الخداع.

    يقول المؤلف المشارك البروفيسور في قسم الرياضيات التطبيقية والفيزياء النظرية في جامعة كامبريدج أندرس هانسن: «كثير من أنظمة الذكاء الاصطناعي غير مستقرة، وتزداد المسؤولية الكبيرة بخصوصها مع تزايد استخدامها في المجالات الحساسة عالية الخطورة، مثل تشخيص الأمراض أو المركبات ذاتية القيادة، إذ تستخدم هذه الأنظمة في المجالات التي قد يتسبب الخطأ فيها بأضرار جسيمة، فموثوقية هذه الأنظمة يجب أن تكون أولويتنا القصوى».

    وبالعودة إلى موضوعنا الأساسي، فإن المفارقة الرياضية التي تحدث عنها الباحثون تعود إلى العملاقين الرياضيين من القرن العشرين آلان تورينغ وكورت جودل، ففي بداية القرن الماضي حاول علماء الرياضيات تعريف الرياضيات وتقديمها بوصفها اللغة النهائية المتناسقة للعلوم كافة. ومع ذلك، أظهر العالمان تورينغ وجودل مفارقةً في قلب وصلب الرياضيات، مفادها أنه من المستحيل إثبات ما إذا كانت بعض العبارات الرياضية صحيحة أم خاطئة، وبعض المسائل الحسابية لا يمكن معالجتها باستخدام الخوارزميات، ومهما كان النظام الرياضي غنيًا كفايةً لوصف العمليات الرياضية التي نتعلمها في المدرسة، فإنه يعجز عن إثبات اتساقه مع ذاته.

    وبمرور عدة عقود، اقترح عالم الرياضيات ستيف سميل قائمةً من 18 مسألةً رياضيةً غير محلولة للقرن الحادي والعشرين، وتتعلق المشكلة الثامنة عشر والأخيرة منها بحدود الذكاء لكل من البشر والآلات على حد سواء.

    وتحدث المؤلف المشارك الدكتور ماثيو كولبروك من قسم الرياضيات التطبيقية والفيزياء النظرية فقال: «إن المفارقة التي حددها لأول مرة تورينغ وجودل مطروحة الآن في عصر الذكاء الاصطناعي بواسطة سميل وآخرين … توجد حدود أساسية متأصلة وجوهرية في الرياضيات، وبالمثل لا يمكن أن توجد خوارزميات خاصة بالذكاء الاصطناعي لمعالجة مسائل معينة».

    ويؤكد الباحثون أنه بسبب هذا التناقض، تظهر حالات قد توجد فيها شبكات عصبية جيدة ولكن مع ذلك لا يمكن بناء شبكة جديرة بالثقة بطبيعة الحال، فكما قال المؤلف المشارك الدكتور فيجارد أنتون من جامعة أوسلو: «بغض النظر عن مدى دقة بياناتك، لا يمكنك أبدًا الحصول على المعلومات المثالية لبناء الشبكة العصبية المطلوبة».

    وبهذا فإن استحالة حساب الشبكة العصبية الجيدة والملائمة هو أمر موجود فعلًا، بغض النظر عن مقدار بيانات التدريب التي نمتلكها ونريد إدخالها للشبكة، فمهما كان مقدار البيانات التي تستطيع الخوارزمية الوصول إليها، فإن ذلك لا يهم طالما أنها لن تنتج الشبكة المطلوبة الملائمة. قال هانسن :«هذا مشابه لحجة تورينغ: توجد مشاكل حسابية لا يمكن حلها بغض النظر عن قوة الحوسبة وسرعة التشغيل».

    ومع ذلك يقول الباحثون أن الذكاء الاصطناعي بالعموم ليس بهذا السوء، ولكنه موثوق فقط في مجالات محددة باستخدام طرق محددة. يقول كولبروك: «تكمن المشكلة في المجالات التي تحتاج فيها إلى ضمان وموثوقية، لأن كثيرًا من أنظمة الذكاء الاصطناعي هي كصندوق أسود، من المقبول أن يرتكب الذكاء الاصطناعي الأخطاء في بعض المواقف ولكن يجب أن يكون صادقًا بشأنها، وهذا لا ينطبق على ما نراه في كثير من الأنظمة؛ إذ لا توجد طريقة لمعرفة إذا ما كانت أكثر أو أقل موثوقيةً بخصوص قرار ما».

    أما هانسن فقال: «حاليًا، قد تتمتع أنظمة الذكاء الاصطناعي بلمسة من التخمين أحيانًا، فإنك تجرب شيئًا، وإذا لم ينجح تضيف المزيد من الأمور على أمل أن تحقق نجاحك، وفي مرحلة ما، سوف تستاء لعدم حصولك على ما تريد، ومن ثم ستجرب طريقةً مختلفةً، فمن المهم أن تفهم القيود الخاصة بكل أسلوب من الأساليب المختلفة التي تجربها، نحن الآن في مرحلة تكون فيها النجاحات العملية للذكاء الاصطناعي متقدمة جدًا على مستوى النظرية والاستيعاب، وتوجد حاجة ماسة لبرنامج يفهم أسس حوسبة الذكاء الاصطناعي لسد هذه الفجوة».

    ويقول كولبروك: «عندما حدد علماء رياضيات القرن العشرين مفارقات رياضية مختلفة، لم يتوقفوا حينها عن دراسة الرياضيات، بل كان عليهم فقط إيجاد مسارات وأساليب جديدة، لأنهم فهموا القيود حينها. والآن بالنسبة للذكاء الاصطناعي، قد يتعلق الأمر بتغيير المسارات والتوجهات أو تطوير طرق جديدة تمكننا من بناء أنظمة تستطيع حل المشكلات بطريقة موثوقة وشفافية عالية، مع فهم حدودها وقيودها».

    ونتيجة لما سبق، تتمثل المرحلة التالية للباحثين في الجمع بين نظرية التقريب والتحليل العددي من جهة وأسس الحسابات من جهة أخرى، وذلك لتحديد الشبكات العصبية التي يمكن حسابها بواسطة الخوارزميات، وأي منها قد تصبح مستقرة وجديرة بالثقة.

    وتمامًا كما أدت المفارقات حول قيود الرياضيات وأجهزة الكمبيوتر التي حددها تورينغ وجودل إلى نظريات تأسيسية غنية تصف كلًا من قيود الرياضيات والحسابات وإمكانياتها، قد تظهر نظرية أسس مماثلة وتزدهر في الذكاء الاصطناعي، تقودنا إلى استيعاب قيود أساليبنا الحالية ومحدوديتها، ومنها ننطلق إلى أساليب ثورية جديدة تمثل مستقبل تكنولوجيا الذكاء الاصطناعي.

    المصدر:ibelieveinsci
يعمل...
X