أنظمة الذكاء الاصطناعي ليست ألعابا.. حان وقت الجد
بريطانيا تستضيف قمة لأمن المعلومات.. فماذا يمكن أن نتوقع؟
الجمعة 2023/10/27
ShareWhatsAppTwitterFacebook
هل يعيد التاريخ نفسه وتقدم بريطانيا خدمة للبشرية من المكان نفسه الذي عمل فيه أبو علوم الكمبيوتر؟
الذكاء الاصطناعي التوليدي يهدد بإغراقنا في عالم من الاحتيال والخداع والمعلومات المضللة على نطاق لم يسبق له مثيل، وفق خبراء سيجتمعون خلال أيام في ميلتون كينز ببريطانيا للعمل على إعداد قانون منظم قادر على الإبحار بنا بعيدا عن مستقبل بائس.
ميلتون كينز (المملكة المتحدة) - أيام قليلة تفصلنا عن انعقاد أول قمة في بريطانيا تتعلق بسلامة الذكاء الاصطناعي. وفي خطوة ذات دلالات اختار القائمون على الحدث، الذي سيعقد يومي الأول والثاني من نوفمبر القادم، قصر “بلتشلي بارك” التاريخي لتنظيم القمة، وكان مقراً لمنظمة بريطانية سرية تسمى محطة إكس (Station X)، مهمتها فك شفرات الاتصالات العسكرية الألمانية خلال الحرب العالمية الثانية.
عمل في بلتشلي بارك عدد من العلماء والرياضيين والعسكريين والمخبرين، أبرزهم آلان تورينغ، الذي يعتبر أبا علوم الكمبيوتر. استخدم فريق بلتشلي بارك آلات حوسبة متطورة لاختراق تشفير جهاز إنيغما (Enigma)، الذي كان يستخدمه الألمان لإرسال رسائل سرية بين قادتهم. وقد نجح فريق بلتشلي بارك في فك شفرة إنيغما، وتمكن من قراءة آلاف الرسائل الألمانية يوميا، وإرسال المعلومات المهمة إلى الحلفاء. وقد أثر عمل بلتشلي بارك بشكل كبير على مجرى الحرب، وساهم في تقصير مدتها وإنقاذ ملايين الأرواح.
هل يعيد التاريخ نفسه وتتمكن المملكة المتحدة من تقديم خدمة للبشرية من المكان نفسه الذي عمل فيه أبو علوم الكمبيوتر؟
ستيوارت راسل: لقد حان الوقت لنصبح جدّيين تجاه أنظمة الذكاء الاصطناعي
هذا ما تأمله الحكومة البريطانية من القمة التي تهدف إلى تعزيز وتشجيع نهج دولي بشأن معايير السلامة في الذكاء الاصطناعي، والتركيز بشكل خاص على “نماذج الأساس”. وتجمع القمة بين واضعي سياسات وشركات الذكاء الاصطناعي والخبراء والباحثين لمناقشة المخاطر التي تشكلها هذه النماذج وتشجيع التنمية الآمنة والمسؤولة.
وستركز القمة على خمسة محاور هي: تطوير فهم مشترك للمخاطر التي يشكلها الذكاء الاصطناعي الحدودي، وطرح عملية للتعاون الدولي بشأن سلامة التكنولوجيا الجديدة، واقتراح التدابير المناسبة التي ينبغي على المنظمات الفردية اتخاذها لتحسين السلامة، وتحديد مجالات التعاون المحتملة في أبحاث سلامة الذكاء الاصطناعي، بما في ذلك تقييم القدرات المحتملة للذكاء الاصطناعي وتطوير معايير جديدة لدعم الحوكمة، ومن ثم ضمان التنمية الآمنة للاستخدام على مستوى العالم.
وستركز أيضا على المخاطر التي يمكن أن تنشأ عن المزيد من التقدم في تكنولوجيا الذكاء الاصطناعي.
ونلاحظ استخدام مصطلح جديد هو “الذكاء الاصطناعي الحدودي”، ويستخدم لوصف الذكاء الاصطناعي الذي يعمل في بيئات معقدة وغير محددة، وتتطلب منه التكيف والتعلم والتعاون مع البشر أو الآلات الأخرى.
وفي حين أن هذه النماذج لها إمكانات هائلة وفوائد ابتكارية، إلا أنها تتمتع بقدرات خطيرة لا ينبغي الاستهانة بها وتشكل تهديدا للسلامة العامة والأمن العالمي، وهناك تخوّف من إمكانية أن يتم توظيفها في استغلال نقاط الضعف في أنظمة البرمجيات ونشر معلومات مضللة ومقنعة على نطاق واسع.
وتشكل هذه النماذج المعقدة تحديا تنظيميا؛ فقد يطور الذكاء الاصطناعي قدرات خطيرة غير متوقعة، تظل غير مكتشفة حتى بعد حدوث الضرر. ومن الصعب على المبدعين والمنظمين تحديد ما ينبغي للذكاء الاصطناعي القيام به. وقد يكون من الصعب التمييز بين المخرجات الخطيرة ونظيرتها المفيدة دون معرفة السياق، والذي غالبا ما يكون غير معروف للمطورين في البداية.
وكانت الحكومة البريطانية قد شكلت مؤخرا فريق عمل الذكاء الاصطناعي الحدودي للتركيز على المخاطر الكبيرة التي تشكلها هذه الأنظمة الخاصة. وروجت بريطانيا حتى الآن لنهج مؤيد للابتكار واختارت عدم فرض تشريعات في هذا المجال، ومع ذلك كان هناك اعتراف بأن نماذج الأساس تحتاج إلى المزيد من التفكير والتدخل.
في ورقته البيضاء التي قُدمت في 29 مارس 2023 اقترح مكتب الذكاء الاصطناعي نهجا لامركزيا من أجل تشجيع الابتكار. ومنذ نشر الورقة تعمل الحكومة مع المنظمين على تحديد ما إذا كانت المبادئ تطبق بطريقة مناسبة وفعالة، وما إذا كانت هناك حاجة إلى تدخل قانوني.
وأشارت لجنة العلوم والابتكار والتكنولوجيا في مجلس العموم البريطاني إلى مواضيع محددة للمناقشة في القمة وسلطت الضوء على 12 تحديا للحوكمة يجب أن تعالَج لضمان السلامة العامة والثقة بالذكاء الاصطناعي.
وستكون المواضيع نقاطا مهمة لتأطير المناقشة. ولكن فيما يتعلق بالذكاء الاصطناعي الحدودي، فإن بعض أهم التحديات هي التحيز والتحريف والوصول إلى البيانات.
ماهي المخاطر التي يشكلها الذكاء الاصطناعي الحدودي
وبينما يتطلع المراقبون إلى القمة الوشيكة ليروا كيف سيتم تأطير النقاش حول التحديات المذكورة، وما هي النتائج وكيف يمكن تغيير النهج تجاه المخاطر والحوكمة، أصدر أكثر من عشرين خبيرا ورقة قصيرة وملحقا سياسيا يحث البشرية على “معالجة الأضرار المستمرة وتوقع المخاطر الناشئة” المرتبطة بالتكنولوجيا سريعة التطور.
وكتب الخبراء -بمن فيهم يوشوا بينجيو وجيفري هينتون وأندرو ياو- أن “الذكاء الاصطناعي قد يكون التكنولوجيا التي تشكل هذا القرن. وفي حين أن قدرات الذكاء الاصطناعي تتقدم بسرعة، فإن التقدم في مجال السلامة والحوكمة لا يزال متخلفا. ولتوجيه الذكاء الاصطناعي نحو نتائج إيجابية وبعيدا عن الكارثة نحتاج إلى إعادة التوجيه. هناك طريق مسؤول، إذا كانت لدينا الحكمة للسير فيه”.
وأشاروا إلى أنه بالفعل “يمكن لأنظمة التعلم العميق العالية كتابة البرامج، وإنشاء مشاهد واقعية عند الطلب، وتقديم المشورة بشأن المواضيع الفكرية، والجمع بين اللغة ومعالجة الصور لتوجيه الروبوتات”، مؤكدين على مدى التقدم الذي تحقق في السنوات القليلة الماضية فقط. ومع ذلك “لا يوجد سبب جوهري لإبطاء تقدم الذكاء الاصطناعي أو توقفه”.
وحذر الخبراء من أن “أنظمة الذكاء الاصطناعي يمكن أن تتفوق بسرعة على البشر في عدد متزايد من المهام -إذا لم يتم الاتفاق على هذه الأنظمة ونشرها بعناية- وتشكل مجموعة من المخاطر على نطاق المجتمع”.
وقال الخبراء “إن أنظمة الذكاء الاصطناعي تهدد بتضخيم الظلم الاجتماعي، وتآكل الاستقرار، وإضعاف فهمنا المشترك للواقع الذي هو أساس المجتمع، ويمكنها أيضا تمكين الأنشطة الإجرامية أو الإرهابية على نطاق واسع. خاصة في أيدي عدد قليل من الجهات الفاعلة، ويمكن أن تعزز أنظمةُ الذكاء الاصطناعي أو تفاقم التفاوتات العالمية، أو تسهل الحرب الآلية والتلاعب الجماعي المخصص والمراقبة المنتشرة”.
وأكد الخبراء أن “الكثير من هذه المخاطر يمكن تضخيمها قريبا، وخلق مخاطر جديدة، حيث تقوم الشركات بتطوير أنظمة ذكاء اصطناعي مستقلة يمكنها التخطيط والعمل في العالم ومتابعة الأهداف. بمجرد أن تسعى أنظمة الذكاء الاصطناعي المستقلة إلى تحقيق أهداف غير مرغوب فيها، تطورها جهات لغايات خبيثة، أو عن طريق الصدفة، نعجز عن إبقائها تحت السيطرة”.
الخبراء يؤكدون على أن أنظمة الذكاء الاصطناعي يمكن أن تتفوق بسرعة على البشر في عدد متزايد من المهام وفد تشكل مجموعة من المخاطر على نطاق المجتمع
الذكاء الاصطناعي يشارك اليوم بالفعل في كتابة رموز الكمبيوتر في جميع أنحاء العالم. ويمكن للأنظمة المستقبلية إدخال نقاط الضعف الأمنية ثم استغلالها للتحكم في أنظمة الكمبيوتر التي تتحكم في اتصالاتنا ووسائل الإعلام والبنوك وسلاسل التوريد والجيوش والحكومات”.
وفي صراع مفتوح مثل هذا يمكن أن يشكل الذكاء الاصطناعي تهديدا بأسلحة ذاتية التشغيل أو بيولوجية سيكون من الصعب على البشر التدخل لإيقافها.
إلى أن توجد لوائح كافية، يجب على الشركات الكبرى “وضع التزامات وتدابير سلامة محددة تتخذها إذا تم العثور على قدرات قد تتجاوز الخط الأحمر المرسوم لأنظمة الذكاء الاصطناعي”.
ودعا الخبراء عمالقة التكنولوجيا والممولين العموميين إلى تخصيص ما لا يقل عن ثلث ميزانيات البحث والتطوير في مجال الذكاء الاصطناعي لـ”ضمان السلامة والاستخدام الأخلاقي، في مقابل تمويلهم قدرات الذكاء الاصطناعي”.
كما دعوا إلى تحميل مطوري ومالكي أنظمة الذكاء الاصطناعي المسؤولية القانونية عن الأضرار التي يمكن حدوثها.
وقال ستيوارت راسل، أحد الخبراء وأستاذ علوم الكمبيوتر في جامعة كاليفورنيا في بيركلي، لصحيفة الغارديان إن “هناك لوائح على محلات بيع السندويش أكثر مما هو موجود في شركات الذكاء الاصطناعي”.
وتابع راسل “لقد حان الوقت لنصبح جديين تجاه أنظمة الذكاء الاصطناعي المتقدمة؛ فهذه ليست ألعابا. إن زيادة قدراتها قبل أن نفهم كيفية جعلها آمنة سلوك متهور جدا”.
بريطانيا تستضيف قمة لأمن المعلومات.. فماذا يمكن أن نتوقع؟
الجمعة 2023/10/27
ShareWhatsAppTwitterFacebook
هل يعيد التاريخ نفسه وتقدم بريطانيا خدمة للبشرية من المكان نفسه الذي عمل فيه أبو علوم الكمبيوتر؟
الذكاء الاصطناعي التوليدي يهدد بإغراقنا في عالم من الاحتيال والخداع والمعلومات المضللة على نطاق لم يسبق له مثيل، وفق خبراء سيجتمعون خلال أيام في ميلتون كينز ببريطانيا للعمل على إعداد قانون منظم قادر على الإبحار بنا بعيدا عن مستقبل بائس.
ميلتون كينز (المملكة المتحدة) - أيام قليلة تفصلنا عن انعقاد أول قمة في بريطانيا تتعلق بسلامة الذكاء الاصطناعي. وفي خطوة ذات دلالات اختار القائمون على الحدث، الذي سيعقد يومي الأول والثاني من نوفمبر القادم، قصر “بلتشلي بارك” التاريخي لتنظيم القمة، وكان مقراً لمنظمة بريطانية سرية تسمى محطة إكس (Station X)، مهمتها فك شفرات الاتصالات العسكرية الألمانية خلال الحرب العالمية الثانية.
عمل في بلتشلي بارك عدد من العلماء والرياضيين والعسكريين والمخبرين، أبرزهم آلان تورينغ، الذي يعتبر أبا علوم الكمبيوتر. استخدم فريق بلتشلي بارك آلات حوسبة متطورة لاختراق تشفير جهاز إنيغما (Enigma)، الذي كان يستخدمه الألمان لإرسال رسائل سرية بين قادتهم. وقد نجح فريق بلتشلي بارك في فك شفرة إنيغما، وتمكن من قراءة آلاف الرسائل الألمانية يوميا، وإرسال المعلومات المهمة إلى الحلفاء. وقد أثر عمل بلتشلي بارك بشكل كبير على مجرى الحرب، وساهم في تقصير مدتها وإنقاذ ملايين الأرواح.
هل يعيد التاريخ نفسه وتتمكن المملكة المتحدة من تقديم خدمة للبشرية من المكان نفسه الذي عمل فيه أبو علوم الكمبيوتر؟
ستيوارت راسل: لقد حان الوقت لنصبح جدّيين تجاه أنظمة الذكاء الاصطناعي
هذا ما تأمله الحكومة البريطانية من القمة التي تهدف إلى تعزيز وتشجيع نهج دولي بشأن معايير السلامة في الذكاء الاصطناعي، والتركيز بشكل خاص على “نماذج الأساس”. وتجمع القمة بين واضعي سياسات وشركات الذكاء الاصطناعي والخبراء والباحثين لمناقشة المخاطر التي تشكلها هذه النماذج وتشجيع التنمية الآمنة والمسؤولة.
وستركز القمة على خمسة محاور هي: تطوير فهم مشترك للمخاطر التي يشكلها الذكاء الاصطناعي الحدودي، وطرح عملية للتعاون الدولي بشأن سلامة التكنولوجيا الجديدة، واقتراح التدابير المناسبة التي ينبغي على المنظمات الفردية اتخاذها لتحسين السلامة، وتحديد مجالات التعاون المحتملة في أبحاث سلامة الذكاء الاصطناعي، بما في ذلك تقييم القدرات المحتملة للذكاء الاصطناعي وتطوير معايير جديدة لدعم الحوكمة، ومن ثم ضمان التنمية الآمنة للاستخدام على مستوى العالم.
وستركز أيضا على المخاطر التي يمكن أن تنشأ عن المزيد من التقدم في تكنولوجيا الذكاء الاصطناعي.
ونلاحظ استخدام مصطلح جديد هو “الذكاء الاصطناعي الحدودي”، ويستخدم لوصف الذكاء الاصطناعي الذي يعمل في بيئات معقدة وغير محددة، وتتطلب منه التكيف والتعلم والتعاون مع البشر أو الآلات الأخرى.
وفي حين أن هذه النماذج لها إمكانات هائلة وفوائد ابتكارية، إلا أنها تتمتع بقدرات خطيرة لا ينبغي الاستهانة بها وتشكل تهديدا للسلامة العامة والأمن العالمي، وهناك تخوّف من إمكانية أن يتم توظيفها في استغلال نقاط الضعف في أنظمة البرمجيات ونشر معلومات مضللة ومقنعة على نطاق واسع.
وتشكل هذه النماذج المعقدة تحديا تنظيميا؛ فقد يطور الذكاء الاصطناعي قدرات خطيرة غير متوقعة، تظل غير مكتشفة حتى بعد حدوث الضرر. ومن الصعب على المبدعين والمنظمين تحديد ما ينبغي للذكاء الاصطناعي القيام به. وقد يكون من الصعب التمييز بين المخرجات الخطيرة ونظيرتها المفيدة دون معرفة السياق، والذي غالبا ما يكون غير معروف للمطورين في البداية.
وكانت الحكومة البريطانية قد شكلت مؤخرا فريق عمل الذكاء الاصطناعي الحدودي للتركيز على المخاطر الكبيرة التي تشكلها هذه الأنظمة الخاصة. وروجت بريطانيا حتى الآن لنهج مؤيد للابتكار واختارت عدم فرض تشريعات في هذا المجال، ومع ذلك كان هناك اعتراف بأن نماذج الأساس تحتاج إلى المزيد من التفكير والتدخل.
في ورقته البيضاء التي قُدمت في 29 مارس 2023 اقترح مكتب الذكاء الاصطناعي نهجا لامركزيا من أجل تشجيع الابتكار. ومنذ نشر الورقة تعمل الحكومة مع المنظمين على تحديد ما إذا كانت المبادئ تطبق بطريقة مناسبة وفعالة، وما إذا كانت هناك حاجة إلى تدخل قانوني.
وأشارت لجنة العلوم والابتكار والتكنولوجيا في مجلس العموم البريطاني إلى مواضيع محددة للمناقشة في القمة وسلطت الضوء على 12 تحديا للحوكمة يجب أن تعالَج لضمان السلامة العامة والثقة بالذكاء الاصطناعي.
وستكون المواضيع نقاطا مهمة لتأطير المناقشة. ولكن فيما يتعلق بالذكاء الاصطناعي الحدودي، فإن بعض أهم التحديات هي التحيز والتحريف والوصول إلى البيانات.
ماهي المخاطر التي يشكلها الذكاء الاصطناعي الحدودي
وبينما يتطلع المراقبون إلى القمة الوشيكة ليروا كيف سيتم تأطير النقاش حول التحديات المذكورة، وما هي النتائج وكيف يمكن تغيير النهج تجاه المخاطر والحوكمة، أصدر أكثر من عشرين خبيرا ورقة قصيرة وملحقا سياسيا يحث البشرية على “معالجة الأضرار المستمرة وتوقع المخاطر الناشئة” المرتبطة بالتكنولوجيا سريعة التطور.
وكتب الخبراء -بمن فيهم يوشوا بينجيو وجيفري هينتون وأندرو ياو- أن “الذكاء الاصطناعي قد يكون التكنولوجيا التي تشكل هذا القرن. وفي حين أن قدرات الذكاء الاصطناعي تتقدم بسرعة، فإن التقدم في مجال السلامة والحوكمة لا يزال متخلفا. ولتوجيه الذكاء الاصطناعي نحو نتائج إيجابية وبعيدا عن الكارثة نحتاج إلى إعادة التوجيه. هناك طريق مسؤول، إذا كانت لدينا الحكمة للسير فيه”.
وأشاروا إلى أنه بالفعل “يمكن لأنظمة التعلم العميق العالية كتابة البرامج، وإنشاء مشاهد واقعية عند الطلب، وتقديم المشورة بشأن المواضيع الفكرية، والجمع بين اللغة ومعالجة الصور لتوجيه الروبوتات”، مؤكدين على مدى التقدم الذي تحقق في السنوات القليلة الماضية فقط. ومع ذلك “لا يوجد سبب جوهري لإبطاء تقدم الذكاء الاصطناعي أو توقفه”.
وحذر الخبراء من أن “أنظمة الذكاء الاصطناعي يمكن أن تتفوق بسرعة على البشر في عدد متزايد من المهام -إذا لم يتم الاتفاق على هذه الأنظمة ونشرها بعناية- وتشكل مجموعة من المخاطر على نطاق المجتمع”.
وقال الخبراء “إن أنظمة الذكاء الاصطناعي تهدد بتضخيم الظلم الاجتماعي، وتآكل الاستقرار، وإضعاف فهمنا المشترك للواقع الذي هو أساس المجتمع، ويمكنها أيضا تمكين الأنشطة الإجرامية أو الإرهابية على نطاق واسع. خاصة في أيدي عدد قليل من الجهات الفاعلة، ويمكن أن تعزز أنظمةُ الذكاء الاصطناعي أو تفاقم التفاوتات العالمية، أو تسهل الحرب الآلية والتلاعب الجماعي المخصص والمراقبة المنتشرة”.
وأكد الخبراء أن “الكثير من هذه المخاطر يمكن تضخيمها قريبا، وخلق مخاطر جديدة، حيث تقوم الشركات بتطوير أنظمة ذكاء اصطناعي مستقلة يمكنها التخطيط والعمل في العالم ومتابعة الأهداف. بمجرد أن تسعى أنظمة الذكاء الاصطناعي المستقلة إلى تحقيق أهداف غير مرغوب فيها، تطورها جهات لغايات خبيثة، أو عن طريق الصدفة، نعجز عن إبقائها تحت السيطرة”.
الخبراء يؤكدون على أن أنظمة الذكاء الاصطناعي يمكن أن تتفوق بسرعة على البشر في عدد متزايد من المهام وفد تشكل مجموعة من المخاطر على نطاق المجتمع
الذكاء الاصطناعي يشارك اليوم بالفعل في كتابة رموز الكمبيوتر في جميع أنحاء العالم. ويمكن للأنظمة المستقبلية إدخال نقاط الضعف الأمنية ثم استغلالها للتحكم في أنظمة الكمبيوتر التي تتحكم في اتصالاتنا ووسائل الإعلام والبنوك وسلاسل التوريد والجيوش والحكومات”.
وفي صراع مفتوح مثل هذا يمكن أن يشكل الذكاء الاصطناعي تهديدا بأسلحة ذاتية التشغيل أو بيولوجية سيكون من الصعب على البشر التدخل لإيقافها.
إلى أن توجد لوائح كافية، يجب على الشركات الكبرى “وضع التزامات وتدابير سلامة محددة تتخذها إذا تم العثور على قدرات قد تتجاوز الخط الأحمر المرسوم لأنظمة الذكاء الاصطناعي”.
ودعا الخبراء عمالقة التكنولوجيا والممولين العموميين إلى تخصيص ما لا يقل عن ثلث ميزانيات البحث والتطوير في مجال الذكاء الاصطناعي لـ”ضمان السلامة والاستخدام الأخلاقي، في مقابل تمويلهم قدرات الذكاء الاصطناعي”.
كما دعوا إلى تحميل مطوري ومالكي أنظمة الذكاء الاصطناعي المسؤولية القانونية عن الأضرار التي يمكن حدوثها.
وقال ستيوارت راسل، أحد الخبراء وأستاذ علوم الكمبيوتر في جامعة كاليفورنيا في بيركلي، لصحيفة الغارديان إن “هناك لوائح على محلات بيع السندويش أكثر مما هو موجود في شركات الذكاء الاصطناعي”.
وتابع راسل “لقد حان الوقت لنصبح جديين تجاه أنظمة الذكاء الاصطناعي المتقدمة؛ فهذه ليست ألعابا. إن زيادة قدراتها قبل أن نفهم كيفية جعلها آمنة سلوك متهور جدا”.