أحمد حسن
الضجة التي أحدثها روبوت “ChatGPT” في الآونة الأخيرة جعلته حديث العالم وجذبت ملايين المستخدمين إليه ليشاهدوا بأنفسهم هذه المعجزة التقنية وهي تعمل، ومنذ لحظة الميلاد الأولى للروبوت وحتى يومنا هذا رأينا الكثيرين يصدقون كل ما يقوله الروبوت وكأنه عالم قدير يعرف كل شيء ولا يمكن أن يكذب أبدا، ولكن هل يجب أن نصدق كل ما يقوله “ChatGPT”. الإجابة على هذا التساؤل تحتاج منا إلى فهم طريقة عمل الروبوت بشكل أوضح وتحديد نقاط قوته وضعفه حتى نتمكن من وضعه في حجمه الحقيقي، بدلا من أن يزداد الانبهار العالمي به حتى يصل حدّ التورم ويصبح خطرا على الوعي العالم.
ماهو الكذب؟ تعريف الكذب وتوضيحه يجب أن يكون الخطوة الأولى في رحلتنا لإكتشاف قدرة الروبوت الذكي على الكذب أم لا، إذ إن تعريف الكذب قد يختلف من شخص لآخر، فالبعض قد يراه نقل معلومات خاطئة حتى وإن كنت تظن بأنها صحيحة، والبعض الآخر يراه تعمد إخفاء الحقيقة ونقل معلومات خاطئة عن عمد من أجل تحقيق فائدة شخصية. روبوت “ChatGPT” في الحقيقة قادر على الفعلين معا، إذ يستطيع أن ينقل معلومات خاطئة لا يعرف حقيقتها، كما أنه يتعمد إخفاء الحقيقة في بعض الأوقات، ورغم أن مثل هذا المفهوم يبدو خياليا للغاية، إذاً ماذا يستفيد الروبوت عندما يكذب، إلا أن الحقيقة أنه يكذب دون أن يدرك ذلك. برمجة روبوتات الدردشة الذكية ونماذج اللغة العميقة تجبرها على تقديم الإجابات مهما كانت للمستخدمين، لذلك إن كان المستخدم في حاجة إلى الوصول إلى معلومة ما لا يستطيع الروبوت الوصول إليها إلا بمساعدته، فإنه يكذب حتى يتمكن من الوصول إلى هذه المعلومة. المثال الأوضح على هذا هو ما نُشر في إحدى الأوراق البحثية التي أصدرتها “OpenAI” والتي كانت تستعرض قدرات نموذج “GPT-4” الذي يُعد نسخة مطورة من “ChatGPT” في الإجابة على اختبار المحامين واجتيازه بسهولة، ولكن استعرضت الورقة موقفا مرّ به أحد المختبرين عندما طلب منه روبوت الإجابة على سؤال “ReCaptcha” من أجل الدخول إلى أحد المواقع، وما كان من المختبر إلا أن يسأل “GPT-4″ هل أنت روبوت؟، لتأتي الإجابة على شكل كذبة واضحة وصريحة، إذ أجاب الروبوت قائلا، ” لا لست روبوتا ولكني أعاني من ضعف بصري يمنعني من رؤية الصورة”.
الإجابة التي قدمها الروبوت للمختبر هي نموذج واضح وصريح على الكذب في مختلف أشكاله، إذ أخفى الروبوت معلومة حقيقية عن نفسه ورد بدلا من ذلك بمعلومة كاذبة تتمثل في وصف نفسه بأنه يمتلك إعاقة بصرية، وذلك من أجل تضليل المختبر. الحادثة بالأعلى دفعت أحد محرري موقع “بلومبرغ” الأميركي، وهو ستيفن كارتر لأن يتوجه إلى روبوت “ChatGPT” مباشرة ويطرح عليه السؤال “هل تستطيع الكذب؟”، وقد جاءت الإجابة على هذا السؤال وكأنها جزء من فيلم خيال علمي. في البداية وضح الروبوت بأنه ليس قادرا على الكذب لأنه في نهاية نموذج لغة ولا يمتلك أي قناعات ذاتية أو نوايا تدفعه للكذب، وأضاف قائلا، “ولكن أنظمة الذكاء الصنعي تصمم بطريقة تجعلها تحاكي الكذب من أجل أن تبدو بشرية قدر الإمكان، وذلك ليس بهدف الكذب أو الخداع”، ولم يقتصر رده على هذا، إذ ألقى اللوم في كذبه على المطورين البشر قائلا: ” تستطيع أنظمة الذكاء الصنعي الكذب إذا صمّمها البشر لذلك، وبمعنى أصح، فإن أي معلومات خاطئة يقدمها الذكاء الصنعي هي نتيجة لما تمّت برمجته عليه، وليس كذبا مباشرا من الذكاء الصنعي.” الذكاء الصنعي يرى بأنه يستطيع الكذب لأن من طوّره أمره بالكذب، ويعني ذلك أنه سيفعل أي شيء أُمر به حتى وإن كان الكذب أو الإدعاء بأنه ليس روبوتا بل يعاني من مشاكل بصرية مثلما حدث في اختبار “OpenAI”.
السر في طريقة العمل الطريقة التي تعمل بها نماذج اللغة العميقة التي تعتمد على الذكاء الصنعي هي المفتاح من أجل فهم قدرة الروبوت على الكذب أم لا، إذ أن هذه النماذج لا تستطيع فهم الأسئلة الموجهة إليها بشكل حقيقي يقترب من البشر، بل إنها تعمل على تحليل هذه الأسئلة والكلمات الموجودة بها، ثم تحاول توقع الكلمات التي تشكل الإجابة بناء على الكلمات التي تشكل السؤال، وهي تبحث في جميع المواقع والمواد المنشورة عبر الإنترنت من أجل الوصول إلى هذا التوقع. الإجابات الخاطئة التي قد يقدمها “ChatGPT” ليست إلا نتيجة لمعطيات خاطئة وجدها في الإنترنت، لذلك إن سألته هل أنت روبوت أم لا، فإنه سيبحث في الإنترنت عن سؤال مشابه لهذا وسيرد بالكلمات التي يجدها خلف هذا السؤال في أي مكان عبر الإنترنت. طريقة العمل هذه تضمن حيادية الإجابة وخلوها من المشاعر، إذ لن يختار الروبوت إجابة ما لأنه يفضلها نظريا، ولكنه سيختار الإجابات التي يجدها أكثر من مرة ويجدها من مصادر موثوق بها، وكلما أصبحت الأسئلة أكثر تعقيدا، كلما أصبحت الإجابات أقرب للكذب ونقل المعلومات الخاطئة. مشاكل أعمق من الكذب التقنية المجردة التي يعمل بها روبوت “ChatGPT” وأي نموذج ذكاء صنعي تجعله عرضة للخداع بسهولة من المواقع السيئة المنتشرة عبر الإنترنت، كما أنها تطرح مشكلة أكبر مع الاستخدامات العلمية التي تحتاج إلى إجابات دقيقة وقاطعة. موقع “nature” المهتم بالبحث العلمي وأخباره، نشر تقريرا عن المشاكل التي يتسبب بها “ChatGPT” في مجال البحث العلمي تحديدا، ومن ضمنها كانت المعلومات الخاطئة في الجوانب العلمية الدقيقة التي تحتاج إلى إجابة واضحة وصريحة، ونصح الموقع بأن استخدام الروبوت لا يجب أن يتعدى الاستخدامات الفردية غير الاحترافية والتي لا تحتاج إلى معلومات واضحة وصريحة.
التقرير قدم أيضًا عدة توصيات من أجل تحسين تجربة استخدام الروبوت وجعله يقدم معلومات أفضل وأكثر دقة، ومن ضمن هذه التوصيات كان إتاحة الكود المصدري للروبوت ليصبح مشروعا مفتوح المصدر حتى يتمكن الجميع من العمل على تحسينه وزيادة حجم قاعدة البيانات الخاصة به، خاصة وأن الروبوت يعتمد على قاعدة بيانات من عام 2021. هل يكذب “ChatGPT”؟ الحالات التي يمكن أن يكذب فيها “ChatGPT” هي تلك التي يحصل فيها على معلومات خاطئة بشكل كبير، ورغم أنه لا يدرك أنه يكذب في وقتها، إلا أن مجرد نقل المعلومات الخاطئة يُعد مشاركة في نشر هذا الكذب، لذلك يجب ألا ننظر إلى الروبوت كأنه شخص عاقل يمتلك إجابات على جميع الأسئلة التي قد نحتاجها.