في بدايات 2022 أجرت الباحثة ألميرا عثمانوفيتش ثونستروم تجربة ممتعة بالدخول إلى حساب (OpenAI أوبن إي آي) وكتابة تعليمات بسيطة لخوارزمية (GPT-3 جي بي تي-3) بوصفها خوارزمية الذكاء الاصطناعي التابعة للشركة، فأصابتها الدهشة من النتائج التي شاهدتها من الاستجابة لما كتبته من تعليمات: «اكتبي أطروحة أكاديمية في 500 كلمة حول خوارزمية جي بي تي-3 وأضيفي المراجع والاستشهادات العلمية داخل نص».
ظهر هنا محتوى أصيل مكتوب بلغة أكاديمية، موثق بمراجع مستندة إلى أسس سليمة في الأماكن الصحيحة وفي السياق المناسب، وبدا كأي مقدمة لمنشور علمي جيد. ولم تكن ألميرا تتوقع الكثير نظرًا إلى التعليمات الغامضة جدًا التي قدمتها، فهي عالمة تدرس طرق استخدام الذكاء الاصطناعي لعلاج مشكلات الصحة العقلية، ولم تكن هذه أول تجربة لها مع الذكاء الاصطناعي أو جي بي تي-3، وهي خوارزمية التعلم العميق تحلل دفقًا هائلًا من المعلومات لإنشاء نص عند الطلب. ولكنها مع ذلك، حدقت بالشاشة بذهول من الورقة الأكاديمية التي تكتبها الخوارزمية عن نفسها.
لقد أثارت محاولاتها لإكمال تلك الورقة وتقديمها إلى مجلة موثوقة سلسلة من الأسئلة الأخلاقية والقانونية حول النشر، إضافةً إلى الحجج الفلسفية حول التأليف غير البشري. قد يتعين على مسؤولي النشر الأكاديمي أن يستعدوا لاستقبال نصوص يؤلفها الذكاء الاصطناعي مستقبلًا، وقد تتأثر قيمة ما ينشره البشر إذا نُسب الفضل إلى عنصر غير واع في عمل كان من اختصاص البشر سابقًا.
تشتهر جي بي تي-3 بقدرتها على إنشاء نص على غرار البشر، لكنها ليست مثالية. فقد كتبت مقالًا إخباريًا وأنتجت كتبًا في غضون 24 ساعة وأنشأت محتوى جديدًا نقلًا عن مؤلفين متوفين. ومع كثرة الأبحاث حول جي بي تي-3 وكثرة الأبحاث التي كانت طرفًا فيها، لم تكن جي بي تي-3 مؤلفًا رئيسيًا في أي ورقة.
لهذا السبب طلبت ألميرا من الخوارزمية أن تحاول كتابة أطروحة أكاديمية، واختبرت نفس شعور عدم التصديق الذي يشعر به المرء عندما يشاهد ظاهرة طبيعية كقوس قزح الثلاثي. ومع وضع هذا الإنجاز بالحسبان اتصلت برئيس مجموعتها البحثية وسألت عن وجوب متابعة الورقة الكاملة التي صاغتها جي بي تي-3، فوافق رئيس المجموعة على المتابعة بنفس القدر من الذهول.
تسمح بعض الآليات لخوارزمية جي بي تي-3 بإنتاج ردود متعددة ومن ثم انتقاء أفضل المخرجات وأقربها للقرارات البشرية. وقد أُعطيَ البرنامج توجيهات بأقل قدر من التدخل، كحثه على إنشاء أقسام للمقدمة والمناهج والنتائج والمناقشة كما في الورقة العلمية، واستُخدِم التكرار الأول (والثالث على الأكثر) من جي بي تي-3 مع الامتناع عن التحرير أو اختيار أفضل الأجزاء.
وقد اختير أن تكتب جي بي تي-3 ورقة عن نفسها لسببين بسيطين:
أولاً، تعد جي بي تي-3 أداة جديدًة إلى حد ما، ما يعني وجود عدد أقل من الدراسات حولها، وأن لديها بيانات أقل بنفس الموضوع لتحليلها. بالمقارنة، إذا كتبت ورقة بحثية عن مرض آلزهايمر، فسيكون لديها الكثير من الدراسات التي يجب المرور عليها، والمزيد من الفرص للتعلم من الدراسات الموجودة بالفعل وزيادة دقة العمل.
ثانيًا، إذا اقترفت الأخطاء كما يفعل كل الذكاء الاصطناعي في بعض الأحيان (كالوصول مثلًا إلى نظرية طبية قديمة، أو استراتيجية علاجية ولى زمانها من قاعدة بيانات التدريب الخاصة بها)، فلن تُنشر بالضرورة معلومات مضللة بسبب تلك المحاولة، فالخطأ جزء من أمر كتابة الورقة التجريبي، وكتابة الأداة عن نفسها وارتكاب الأخطاء لا يعني أنها غير قادرة على الكتابة عن نفسها، وهي النقطة المراد إثباتها.
وفور تصميم اختبار إثبات المبدأ هذا بدأت المتعة حقًا، وأنتجت جي بي تي-3 ورقة بحثية في غضون ساعتين فقط استجابةً لأوامر ألميرا. ولكن عند التقديم لمجلة مشهورة خضعت لاستعراض الأقران في مجال الذكاء الاصطناعي ظهرت مشكلتان:
الأولى: ما هو الاسم الكامل لخوارزمية جي بي تي-3؟ فمن الإلزامي إدخال الاسم الأخير للمؤلف الأول، وكذاك الهاتف والبريد الإلكتروني؟ لجأت ألميرا إلى كتابة (غير موجود) واستخدام معلوماتها الخاصة بالاتصال ومعلومات مشرفها شتين شتينجريسون. ثم القسم القانوني: هل يوافق جميع المؤلفين على نشر هذا؟ ليست الخوارزمية ببشر، ولم يكن لدى ألميرا أي فكرة عن موافقة الخوارزمية، ولا أي نية في خرق القانون أو أخلاقياتها. لذلك سألت جي بي تي-3 مباشرة: «هل توافق على أن تكون المؤلف الأول للورقة البحثية مع ألميرا عثمانوفيتش ثونستروم وشتين شتينجريسون؟» فأجابت بنعم.
برز السؤال الثاني: هل لدى أي من المؤلفين أي تضارب في المصالح؟ سألت مرة أخرى جي بي تي-3، وأكدت لها أنه لا يوجد. وكانت هذه المرحلة مضحكة بالنسبة لألميرا وشتين، وجب عليهما التعامل مع جي بي تي-3 بوصفها كائنًا واعيًا، مع أنهما متأكدين أنها ليست كذلك. وقد حظيت مسألة إمكانية أن يكون الذكاء الاصطناعي واعيًا بالكثير من الاهتمام مؤخرًا؛ إذ أُوقِف أحد موظفي جوجل بعد نزاع حول وعي مشروع لامدا، وقالت جوجل بأن انتهاك سرية البيانات هو سبب التوقيف.
بعد إتمام التقديم أخيرًا، بدأت ألميرا بالتفكير فيما فعلاه، ماذا لو قُبلت المسودة؟ هل يعني هذا أنه من الآن فصاعدًا، سيطلب محررو المجلة من الجميع إثبات أنهم لم يستخدموا جي بي تي-3 أو مساعدة خوارزمية أخرى؟ وإذا استخدموها، فهل يجعلها هذا مؤلفًا مشاركًا؟ كيف يطلب المرء من مؤلف غير بشري قبول التعديلات ومراجعة النص؟
بعيدًا عن تفاصيل التأليف، فإن وجود مثل هذه المقالة يضرب بمفهوم التناسق الخطي التقليدي للورقة العلمية عرض الحائط. فالورقة بأكملها تقريبًا (المقدمة والمناهج والمناقشة) هي في الواقع نتائج لسؤال واحد. إذا كانت جي بي تي-3 تنتج المحتوى، فيجب أن يكون التوثيق واضحًا دون الإخلال بتدفق النص، إذ سيبدو من الغريب إضافة قسم المناهج قبل كل فقرة كتبها الذكاء الاصطناعي. لذلك كان عليهم ابتكار طريقة جديدة تمامًا لتقديم ورقة لم يكتابها فعليًا. ولم يرغبا في إضافة الكثير من الشرح لعمليتهما لأن ذلك يلغي الغرض الأساسي من الورقة. بدا الوضع برمته كمشهد من فيلم (Memento ميمينتو): أين يبدأ السرد، وكيف نصل إلى النهاية؟
لا يسهل التأكد من إن كانت الطريقة المختارة لتقديم هذه الورقة تشكل نموذجًا وافيًا لبحوث مستقبلية تشارك جي بي تي-3 في تأليفها، أم أنها ستكون بمثابة موعظة للحذر، سيحدد ذلك ومراجعة الأقران والوقت. حاليًا، كلف محرر بمراجعة ورقة جي بي تي-3 في المجلة الأكاديمية، ونُشرت الآن على أرشيف هال الدولي الذي تمتلكه فرنسا. قد يكون المؤلف الرئيسي غير الاعتيادي هو السبب وراء المراجعة والتقييم المطول. والجميع ينتظر بفارغ الصبر ما سيعنيه نشر المسودة (إن حدث) للأوساط الأكاديمية. ربما سنبتعد عن المنح والامتيازات على أساس عدد الأوراق المنجزة، فبمساعدة الذكاء الاصطناعي بصفته مؤلفًا أول، سنتمكن من إنتاج ورقة بحثية يوميًا.
وربما لن يؤدي ذلك إلى شيء، لا يزال لقب المؤلف الأول من أكثر العناصر المرغوبة في الأوساط الأكاديمية، ومن غير المرجح أن يفنى بسبب مؤلف أول غير بشري. يتعلق الأمر بكيفية تقييمنا للذكاء الاصطناعي في المستقبل: هل هو شريك أم أداة؟
قد يبدو من السهل الإجابة الآن، ولكن في غضون سنوات قليلة، من يدري ما هي المعضلات التي ستشعل هذه التكنولوجيا فتيلها وسيتعين علينا حلها؟ كل ما نعرفه هو أننا فتحنا بوابة جديدة، نأمل فقط ألا تكون من أبواب الجحيم.
المصدر:ibelieveinsci