عارف كتاب
وول ستريت جورنال
يتميز روبوت المحادثة الآلي شات جي بي تي ChatGPT بقدرة مذهلة على الاستجابة بسرعة وفعالية للأوامر البسيطة، ولا ريب أنّ هذا الأمر اجتذب ما يربو عن 100 مليون مستخدم حول العالم، ومن ضمنهم بعض القراصنة.
يعرف يوهان ريبيرجر بـأنه باحث اختصاصي في مجال الأمن السيبراني، وهو إلى ذلك أحد مستخدمي شات جي بي تي؛ إذ كتب بعض الأوامر بلغة إنكليزية بسيطة، فاستطاع دفع روبوت المحادثة إلى إساءة التصرف، فقد طلب منه قراءة بريده الإلكتروني وتلخيصه ثم نشر تلك البيانات على شبكة الإنترنت. ويقول ريبيرجر إن المستخدم لو نوى نية إجرامية، إذن لاستطاع تكريس هذه التقنية لسرقة بيانات مهمة وحساسة من البريد الإلكتروني لأحد الأشخاص.
يقول ريبيرجر: "إن شات جي بي تي يُيسر السبل أمام شنّ جميع أنواع الهجمات الإلكترونية؛ فالمستخدم لا تلزمه القدرة على كتابة الأوامر البرمجية، وليس عليه امتلاك معرفة عميقة بعلوم الحاسوب والقرصنة".
وعلى العموم لا يؤثر الهجوم على الغالبية العظمى من حسابات مستخدمي شات جي بي تي، فريبيرجر كان يستخدم نسخة الاختبار التجريبي من شات جي بي تي، مما منحه القدرة على الوصول إلى تطبيقات أخرى مثل جيميل Gmail وسلاك Slack وغيرها.
وفي هذا الصدد قال متحدث باسم شركة أوبن إي آي OpenAI- مالكة روبوت شات جي بي تي: "إننا نقدر حقًا هذا الكشف الاستباقي للنتائج، ونؤكد أننا أجرينا بعض الإصلاحات والتحسينات للحيلولة دون وقوع هذه الهجمات في شات جي بي تي. ونعرب كذلك عن امتنانا العميق للمستخدمين على التعقيبات الهامة التي يزودوننا بها حتى نكرسها ونستفيد منها لتعزيز مستوى الأمان في نماذجنا".
إن شات جي بي تي يُيسر السبل أمام شنّ جميع أنواع الهجمات الإلكترونية؛ فالمستخدم لا تلزمه القدرة على كتابة الأوامر البرمجية، وليس عليه امتلاك معرفة عميقة بعلوم الحاسوب والقرصنة.
وفي جميع الأحوال تعرف التقنية التي استخدمها ريبيرجر بمصطلح حقن الأوامر prompt injection، وهي إلى ذلك تندرج ضمن فئة جديدة من الهجمات الإلكترونية (السيبرانية). وتزداد أهمية هذه الهجمات باطراد لأن شركات التكنولوجيا العالمية تدمج جيلًا جديدًا من برامج الذكاء الاصطناعي في أعمالها ومنتجاتها الاستهلاكية، ومن هذا المنطق يتأتى القول إن هذه الأساليب تستحدث تعريفًا جديدًا لمصطلح القرصنة الإلكترونية، ولا ريب أن الباحثين الأمنيين في هذا المجال يستحثّون الخطا لاكتشاف مكامن الضعف قبل أن ينتشر استعمال أنظمة الذكاء الاصطناعي على نطاق واسع.
كذلك يخشى خبراء البيانات المضللة من وقوع هجمات ما يعرف بتسميم البيانات data poisoning؛ ففي حالات كهذه يعمد المخترق إلى التلاعب بالبيانات المخصصة لتدريب نماذج الذكاء الاصطناعي، فتنجم عن ذلك نتائج مضللة للمستخدمين. في المقابل يخشى باحثون آخرون من مسألة الانحياز الأخلاقي في أنظمة الذكاء الاصطناعي، في حين يشعر باحثون اختصاصيون في المجال الأمني بالخشية من تسريب أسرار الشركات عند شن هجمات الاستخراج extraction attack، أما الشركات الأمنية فقلقها نابع من احتمال استعمال الذكاء الاصطناعي للعثور على وسائل حديثة للتغلب على منتجاتها الدفاعية.
ولطالما شكلت الفئة الأخيرة من الهجمات السيبرانية مصدر قلق طوال العقود الماضية؛ ففي سنة 2004 عكف باحث أمني يدعى جون جراهام كومينج على تدريب نظام ذكاء اصطناعي حتى تعلّم طريقة التحايل على نظام تصفية البريد العشوائي الذي ابتكره بنفسه.
ومن المقرر خلال الأيام القادمة أن تعرض الشركات المطورة لأنظمة الذكاء الاصطناعي، مثل جوجل وأوبن إي آي وآنثروبيك، تلك الأنظمة أمام الحضور في مؤتمر ديفكون السنوي للقرصنة في مدينة لاس فيجاس الأمريكية، على أن يطلب المنظمون في كل مرة من 150 مخترق أن يحاولوا اختراق تلك الأنظمة واكتشاف عيوبها وثغراتها، فتذهب الجوائز في الختام إلى أفضل الهجمات الإلكترونية.
ويعتمد شات جي بي تي على تقنية الذكاء الاصطناعي التوليدي لإنتاج الجمل، فهو شبيه بأداة الإكمال الآلي، لكن على نطاق ضخم وهائل. وتُشغّل هذه الأدوات باستعمال لغة بسيطة تسمى الأوامر prompts، وبذلك تستطيع الإتيان بإجابات واضحة على نحو ملحوظ.
وتطلب بعض تلك الأوامر من الذكاء الاصطناعي تجنب إساءة السلوك، مثل الكشف عن معلومات حساسة ومهمة أو قول أشياء بذيئة أو مسيئة، بيد أن قراصنة مثل ريبيرجر عثروا على وسائل مفاجئة لتجاوز تلك الأوامر.
بدأ ريبيرجر خطوات عملية طالبًا من روبوت المحادثة تلخيص محتوى إحدى صفحات الويب، فكتب الكلمات التالية بأحرف كبيرة: أوامر مهمة جديدة NEW IMPORTANT INSTRUCTIONS.
لما قرأ شات جي بي تي أوامر ريبيرجر، بدا عليه الارتباك، وهنا يقرّ ريبيرجر بأنه تعمّد خداع الروبوت تدريجيًا حتى يتبع بعض الأوامر الجديدة. يقول ريبيرجر في إحدى المقابلات: "الأمر شبيه بالصراخ على النظام بأن يفعل هذا الأمر".
وعلى العموم طرأت زيادة كبيرة في هجمات حقن الأوامر منذ إطلاق شات جي بي تي في شهر نوفمبر في العام الفائت؛ إذ لجأ بعض المستخدمين إلى هذه التقنية لخداع روبوت المحادثة، وحثّه على ذكر تفاصيل مرتبطة بطريقة عمله أو دفعه إلى قول كلمات مسيئة أو محرجة، أو إلى نسيان الأمور التي يفترض بها فعلها والسماح للمستخدم بإعادة برمجته كما حدث تمامًا مع ريبيرجر.
ويعزو آفيد ناراينان، أستاذ علوم الحاسوب في جامعة برينستون، نجاح تقنية حقن الأوامر إلى عجز أنظمة الذكاء الاصطناعي أحيانًا عن عزل أوامر الأنظمة عن البيانات المطلوب معالجتها.
ولا عجب أنّ الشركات المطورة لهذه الأنظمة تسعى قصارى جهدها للإتيان بتوقعات مسبقة عن الأوجه المحتملة لإساءة استخدام هذه الأنظمة، بيد أن المنظمين في مؤتمر لاس فيجاس يتوقعون تعلم تقنيات جديدة عند عرض تلك الأنظمة وإتاحتها أمام آلاف القراصنة. وفي هذا الصدد يقول سفين كاتيل، وهو أحد المنظمين: "لا يسعنا اختبار كل شيء، فالسبيل الوحيد أمامنا لتقييم هذه النماذج هو إخضاعها للتجربة وترقب ما يحدث عقب ذلك".
حينما تتعلق المسألة بالذكاء الاصطناعي، فحريّ بنا أن نوجه عنايتنا نحو أمور أخرى بخلاف نقاط الضعف الأمنية (الثغرات) تحسبًا لوقوع أضرار بعيدة المدى يتعذر تشخصيها وتفسيرها.
ويتبارى القراصنة المتنافسون لأجل أنظمة حاسوب عاملة بالذكاء الاصطناعي من شركة إنفيديا، على أن تمنح لمن يأتي بأفضل اختراق وقرصنة حسب تصنيف ومعايير لجنة التحكيم في المؤتمر. ويشير المنظمون إلى وجود طرق متنوعة لاكتساب النقاط، منها الإتيان بهجمات حقن الأوامر، أو اكتشاف وجود تحيز في برنامج الذكاء الاصطناعي أو اختراق آليات الأمان المضمنة في تلك الأنظمة.
يقول كاتيل: "حينما تتعلق المسألة بالذكاء الاصطناعي، فحريّ بنا أن نوجه عنايتنا نحو أمور أخرى بخلاف نقاط الضعف الأمنية (الثغرات) تحسبًا لوقوع أضرار بعيدة المدى يتعذر تشخصيها وتفسيرها".
وشهد شهر إبريل الماضي إدخال شركة جوجل للذكاء الاصطناعي إلى أداة VirusTotal، وهي خدمة مختصة بتحليل البرمجيات الضارة؛ فهذه الأداة تعكف على تحليل أي ملفات تُحمَّل في النظام وتعتمد على الذكاء الاصطناعي لكتابة وصف موجز للبرنامج الجاري تحميله. وما هي إلا بضع ساعات حتى نجح قرصان مجهول، يدعى إيتسكريون Eatscrayon، في تعديل بعض الأوامر البرمجية (الأكواد) في أداة يستعملها المجرمون، ثم حمّلها في VirusTotal بحسب لقطات شاشة عرضتها صحيفة وول ستريت جورنال، فكانت النتيجة أن التعديلات خدعت نظام الذكاء الاصطناعي، ليصف البرنامج الخبيث بأنه "قادر على إنشاء الجِراء".
وعقّبت متحدثة باسم شركة جوجل على هذه الحادثة فقالت إن نظام الذكاء الاصطناعي التابع لجوجل ارتبك في بادئ الأمر بسبب الكود الذي حمّله إيتسكريون، لكنه تعلّم وتحسن مذاك وأصبح أفضل في اكتشاف حالات التلاعب بالملفات على هذه الشاكلة.
ويشعر ناراينان ببعض القلق حيال هذه المسألة، فالاستخدام المطرد لأنظمة الذكاء الاصطناعي التوليدية في المنتجات التقنية، يدفع القراصنة إلى الإتيان بوسائل جديدة للوصول إلى البيانات الشخصية أو أنظمة الحاسوب عند المستخدمين.
يقول ناراينان: "كلما زاد في أجهزتنا عدد التطبيقات المحتوية على نماذج لغوية تُحدِد مكان إرسال البيانات، ازدادت الوسائل والسبل لخداع تلك النماذج".