ظلت فكرة تقدم الذكاء الاصطناعي لمرحلة يحل فيها مكان البشر موضوعًا شائعًا لعدة عقود. في سنة 2021، قدم العلماء الجواب النهائي لاحتمالية حدوث ذلك.
الجواب: مُحال.
لا يُمكن للبشر خلق ذكاء اصطناعي فائق طالما يعجزون عن استيعابه والسيطرة عليه، فذلك النوع من الذكاء الاصطناعي سيحتاج إلى من يتحكم به ويُحلله بواسطة بناء محاكاة خاصة.
صورة ثابتة لمقطع من الفيلم: (Warner Bros. Discovery). 2001:Space Odyssey
يقول مؤلفو البحث، لا يُمكن وضع قواعد للذكاء الاصطناعي الفائق مثل “لا تؤذي البشر”، إذ يستحيل التنبؤ بما قد يفعله. في حال أصبح الذكاء الاصطناعي خارج قدرة سيطرة المبرمجين عليه، فمن الممكن أن يفعل ما يشاء.
يكتب الباحثون: «إن الذكاء الاصطناعي الفائق يُمثل مشكلة جديدة لا تندرج تحت أخلاقيات صنع الرجل الآلي التي عهدناها. السبب وراء ذلك هو تشعّب الذكاء الاصطناعي، وقدرته على استخدام موارد متنوعة لتحقيق أهداف يعجز البشر عن استيعابها، ناهيك عن التحكم بنتائجها».
ظهرت استحالة بناء ذكاء اصطناعي فائق بعد مناقشة ألان تورينغ سنة 1936 لما يُسمى بمسألة التوقف. تعتمد هذه النظرية على بحث الحاسوب عن حل لمشكلة ما وتوقفه بعد ذلك، أو في حال عدم العثور على حل، الدخول في حلقة لا نهائية حتى يعثر على الحل المناسب.
أثبت تورينغ باستخدام الرياضيات الذكية إمكانية وصول بعض برامج الحاسوب لنتيجة نهائية، لكن من المستحيل فعل ذلك لكافة البرامج الموجودة أو التي قد تُبرمج. وعند ربط هذه المعلومات بمفهوم الذكاء الاصطناعي الفائق، يتضح أن هذا النوع من الذكاء الاصطناعي قد يحوي في ذاكرته كل البرامج الموجودة والممكنة بآن واحد وهذا مخالف للمنطق.
أيّ برنامج يُكتب لمنع الذكاء الاصطناعي من أذية البشر وتدمير العالم يترتب عليه احتمال الوصول إلى نتيجة نهائية والتوقف أو الاستمرار في البحث. رياضيًا، يستحيل على البشر التأكد من أحد الاحتمالين، ما يعني العجز عن احتواء هذا النوع من البرامج.
يقول عالم الحاسوب إياد رهوان من معهد ماكس بلانك للتنمية البشرية في ألمانيا سنة 2021: «إن مسألة التوقف تُبطل عمل خوارزمية الاحتواء».
يصعب تعليم الذكاء الاصطناعي الالتزام بالمعايير الأخلاقية وعدم إبادة البشرية. لذلك، الحل البديل هو الحد من قدرات هذا الذكاء الاصطناعي. مثال، يُمكن قطع اتصال الذكاء الاصطناعي بالشبكة أو أجزاء منها.
رُفض هذا الاقتراح السابق، لأن ذلك يحد من قدرة الذكاء الاصطناعي. يقول مؤيدو هذه الحجة أنه لا فائدة من صنع هذا النوع من الذكاء الاصطناعي المتقدم إن لم يكن قادرًا على حل مشكلات يعجز البشر عنها.
إذا كان البشر يرغبون بإحراز التقدم في مجال الذكاء الاصطناعي الفائق، فعليهم الاستعداد للوصول إلى مرحلة يستحيل فيها فهم الذكاء الاصطناعي، ومن ثمّ سيستحيل التحكم به. إذن، يترتب على البشر طرح الكثير من التساؤلات حول المسار الذي يودون المضي فيه قدمًا في هذا المجال.
يقول عالم الحاسوب مانويل سبريان من معهد ماكس بلانك للتنمية البشرية في ألمانيا في نفس العام 2021: «قد يبدو ظهور ذكاء اصطناعي فائق قادر على التحكم بالعالم من محض الخيال العلمي. لكن حتى في وقتنا الحالي، توجد آلات مستقلة تنفذ مهمات هامة، دون فهم المبرمجين لكيفية وصول الآلة إلى هذه المرحلة من الذكاء. هنا يتساءل البعض ما إن كان من الممكن تقدم هذا الذكاء الاصطناعي حتى يُصبح خارجًا عن سيطرة البشر ويُشكل خطرًا علينا».
المصدر:.ibelieveinsci