كيف يتم التحقق واكتشاف الصور المولدة بالذكاء الاصطناعي؟
بواسطةأحمد عاطف رمضان
يجد الكثير من الصحفيين العرب صعوبات بالغة في عملية اكتشاف الصور التي تمّ توليدها بواسطة برامج وتطبيقات الذكاء الاصطناعي، لا سيما أنها في كثير من الأحيان تكون أقرب للصور الحقيقية وبجودة فائقة.
وفي ظلّ تسونامي المحتوى المضلل على منصات التواصل الاجتماعي والذي يتم تداوله بشكل كبير بدون التحقق منه وتدقيق صحته، تكافح مبادرات التحقق وتدقيق المعلومات لمواجهة المحتوى المفبرك بشكله وسياقه المعتاد، فكيف الحال إذا كانت الصور "قد تم توليدها ببرامج وتطبيقات الذكاء الاصطناعي؟".
وعلى الرغم من التطور التكنولوجي الكبير في الأدوات التي تعتمد على تقنيات الذكاء الاصطناعي للتحقق من المحتوى المضلل بأشكاله المختلفة وعلى رأسه الصور والفيديوهات والرسوم واللوحات، إلا أنّ الخبراء يؤكدون أنه ليس هناك أداة بعينها تشكل سحرًا لإجابة قاطعة تميّز بين ما هو حقيقي وما هو مضلل، مشددين على أنّ التفكير النقدي هو الأساس، أي الذي يعتمد على الشك واستخدام العقل والمنطق قبل أي شيء.
توليد وتدقيق في آن واحد
لا شك في أنّ بعض برمجيات الذكاء الاصطناعي تتيح إنتاج صور لأشخاص أو مناطق أو حتى أحداث، وبحسب فرانس برس فعلى رأسها "دال-إي"، "ميدجورني" و"ستايبل ديفيوجن" و"كرايون"، لكن بعضها وباستخدام البحث بالصور فيها يكشف أنها مولدة من خلاله بما يمكن كخطوة أخيرة للتحقق من الصور إن كانت مولدة بالذكاء الاصطناعي أم لا.
ليس هذا فقط، فهناك العديد من التطبيقات المتاحة مجانًا على الإنترنت، من بينها برنامج AI Content Detector، الذي يمكنه فحص أي جزء من النص بحثًا عن علامات تدل على أنه لم يكتبه إنسان، بنسبة دقة تبلغ 97.8%.
كما أنشأت وكالة مشاريع الأبحاث المتقدمة التابعة لوزارة الدفاع الأميركية، أدوات تهدف إلى تحديد ما إذا كانت الصور قد تم إنشاؤها أو التلاعب بها من خلال الذكاء الاصطناعي. وتعمل إحدى الأدوات، المعروفة باسم MediFor من خلال مقارنة الصورة التي أنشأها الذكاء الاصطناعي بصور العالم الحقيقي، والبحث عن علامات إرشادية مثل الاختلافات في تأثير الإضاءة والتلوين التي لا تتوافق مع الواقع.
في هذا السياق، يعتبر عضو مجلس الإعلام الجديد في نقابة الصحفيين البريطانية أحمد الشيخ، خلال حديثه لـ"شبكة الصحفيين الدوليين" أنّ أدوات التحقق من المحتوى متاحة للجميع لكن بعضها لا يجدي نفعًا مع الصور المولدة بالذكاء الاصطناعي التي تطلب "صحفيين" وليس "مستخدمين" ممن يلهثون خلف الترندات ونشر صور كالتي تمّ تداولها لترامب خلال الإيحاء بالقبض عليه أو للملك تشارلز الثاني بدون أدنى تحقق منها.
ولفت الشيخ إلى أنّ الذكاء الاصطناعي وخاصة "chat gpt" لا يمكن التعامل معه كأنه كائن غامض قادم من الفضاء ليغزو الأرض، مؤكدًا أنّ "هناك خطوات أولية حينما تقع أمامنا صور من هذا النوع حيث علينا في البداية توقع أكانت حقيقية أم غير منطقية، فهل يعقل أن تكون صور الملك تشارلز في حفلة راقصة حقيقية خاصة أنها أتت بعد تتويجه ووفاة والدته بشهر واحد فقط، ثم تأتي المرحلة الثانية وهي مرحلة الشك إن كانت الصور مولدة بالذكاء الاصطناعي أو إن كانت معدّلة بالفوتوشوب". وأوضح الشيخ أن تطبيقات الذكاء الاصطناعي تولد صورًا كثيرة في ثوانٍ معدودة، وبالتالي من المستحيل أن تكون بلا أخطاء.
بدورها، أوضحت المدربة جويس حنا وهي صحفية في خدمة تقصي صحة الأخبار في وكالة فرانس برس في حديث لـ"شبكة الصحفيين الدوليين" أنّ تقنيات الذكاء الاصطناعي شهدت في الآونة الأخيرة تطورات كبيرة لدرجة أنّ الصور التي تنتجها تبدو شديدة الواقعية، وهذا الأمر يجعل عمل المدقق شاقًا في بعض الأحيان. ولفتت الى أنّ كل أداة متوفرة لكشف الصور المولدة بالذكاء الاصطناعي حتى الآن لا تعطي نتيجة حاسمة.
ولفتت جويس إلى أنّ كثيرين ينكبون اليوم على تطوير أدوات تساعد في كشف المادة المولدة بالذكاء الاصطناعي، مؤكدةً: "لكن نحن كصحفيين مدققين باتت لدينا الخبرة للشك في أن تكون صورة وليدة برنامج ذكاء اصطناعي"، فحتى اليوم تولد برامج كثيرة كـ"ميدجورني" و"دال - إي" و"كرايون" صورًا بمجرد إدخال بعض الكلمات المفتاحية، لكن في كثير من الأحيان تعتري الصور شوائب.
وأوضحت جويس أننا نلاحظ أن شكل الأيادي غريب لناحية عدد الأصابع أو الشكل أو أن العينين تنقصهما شفافية أو بريق محدد، مشيرة إلى أنه إذا تم التدقيق في بعض الأحيان في الأسنان، قد يكون عددها أكثر مما هي عليه في الواقع، ولكن كل ذلك ممكن أن يختفي قريبًا لأن البرامج تشهد تطورًا باهرًا.
بالإضافة إلى ذلك، أشارت جويس إلى أن المدققين ينظرون في الخلفيات التي قد تضم عناصر غريبة في بعض الأحيان أو يكون فيها حجم الأشياء غير متناسق، مثلًا: إشارات سير غير معتمدة في بلد محدد أو ألوان علم مقلوبة أو حتى زجاج سيارة مشوه، الأيادي والأرجل في الخلفيات تكون في بعض الأحيان غريبة الشكل أو مقصوصة.
وحثت جويس بضرورة متابعة الصحفيين للتطورات السياسية وبالتالي لا يمكن أن يكون رئيس دولة يقوم بمهمة ما ولا تلتقطه عدسات الصحفيين أو حتى تنقله القنوات الإخبارية وبالتالي لا يمكن لرئيس أن يكون قد قام بزيارة لنظير له ولم توثق الزيارة بالصور مثلًا. واعتبرت أنّ الصور المولدة ببرامج الذكاء الاصطناعي تعتمد على ملايين الصور الموجودة لتركيب صورة جديدة وبالتالي لا يمكن العثور على نسخة من هذه الصور على الإنترنت، إلا أنّ محركات البحث قد تساعدنا في أمر واحد وهو العثور على الصورة على حساب من صممها أو على حسابات مجموعات تنشر نتاج الذكاء الاصطناعي وتشير صراحة إلى أنها مولدة باستخدام هذه البرامج. إثر ذلك قد ترشدنا المحركات إلى حساب شخص ولد صورة رئيس دولة وقال إنه استخدم هذا البرنامج أو ذاك لتوليدها، لكن كثيرين يعمدون إلى إزالة التعليقات الوصفية لاستخدام هذه الصور في سياق مضلل.
ونصحت جويس الصحفيين بأهمية اللجوء إلى خبراء الذكاء الاصطناعي والاستعانة بخبراتهم في حال شككوا بصورة ولم يصلوا إلى مصدرها، فهم قد يساعدون أيضًا.
من جهتها، اعتبرت الصحفية الحاصلة على ماجستير في صحافة الذكاء الاصطناعي منار بحيري، خلال حديثها لـ"شبكة الصحفيين الدوليين" أن الذكاء الاصطناعي اليوم ضرورة وليس رفاهية وأنه "يجب علينا كصحفيين أن نستمر في تطوير مهارتنا من خلال التعليم المستمر لأساسيات الذكاء الاصطناعي وتعلم الآلة، لا سيما أن هناك العديد من الدورات التدريبية المجانية على الإنترنت التي تساعدنا في فهم هذه التقنيات الجديدة وكيف تعمل"، مؤكدة أنه ليس بالضرورة أن نتقن أو نصبح خبراء في الذكاء الاصطناعي ولكن نتعلم ما يساعدنا في عمله وتحسينه وتقديم أفضل منتج.
وبعد إجراء بحوث في الماجستير، شاركت بعض النصائح التي يمكن من خلالها اكتشاف ما إذا كانت الصور مولدة أم حقيقية:
أولًا، قم بعملية البحث العكسي للصور وهي الطريقة التي يستخدمها أغلب الصحفيين للبحث عن صور مشابهة للصورة المولدة، فإذا كانت الصورة مولدة، من المحتمل ألا تجد مشابهًا لها.
ثانيًا، تحليل النص، إذا كنت تمتلك نصًا للصورة المولدة يمكنك استخدام خوارزميات تحليل النص للتحقق من مدى توافق الصورة مع النص.
ثالثًًا، تحليل تكوين الصورة من خلال دراسة الإضاءة والتفاصيل والألوان، فإذا كانت تظهر بشكل غير طبيعي ومتناسق فقد يدل على أن الصورة مولدة بالذكاء الاصطناعي.
في النهاية، لا يمكننا القول إنّ الصور المولدة بالذكاء الاصطناعي تشكل خطرًا ولكن هناك بعض التحديات التي يجب مراعاتها وقد تكون الصور المولدة بالذكاء الاصطناعي والتي يتم استخدامها بطريقة غير قانونية لانتهاك خصوصية الأفراد، كما يجب أن ندرك أن نماذج الذكاء الاصطناعي قد تكون مبرمجة بتحيزات مقصودة مما يؤثر على الصورة التي تولدها. واعتبرت منار أنّ التأثير الحقيقي للصور المولدة بالذكاء الاصطناعي يتوقف على كيفية استخدامها والسياق الذي تحدث فيه.
بواسطةأحمد عاطف رمضان
يجد الكثير من الصحفيين العرب صعوبات بالغة في عملية اكتشاف الصور التي تمّ توليدها بواسطة برامج وتطبيقات الذكاء الاصطناعي، لا سيما أنها في كثير من الأحيان تكون أقرب للصور الحقيقية وبجودة فائقة.
وفي ظلّ تسونامي المحتوى المضلل على منصات التواصل الاجتماعي والذي يتم تداوله بشكل كبير بدون التحقق منه وتدقيق صحته، تكافح مبادرات التحقق وتدقيق المعلومات لمواجهة المحتوى المفبرك بشكله وسياقه المعتاد، فكيف الحال إذا كانت الصور "قد تم توليدها ببرامج وتطبيقات الذكاء الاصطناعي؟".
وعلى الرغم من التطور التكنولوجي الكبير في الأدوات التي تعتمد على تقنيات الذكاء الاصطناعي للتحقق من المحتوى المضلل بأشكاله المختلفة وعلى رأسه الصور والفيديوهات والرسوم واللوحات، إلا أنّ الخبراء يؤكدون أنه ليس هناك أداة بعينها تشكل سحرًا لإجابة قاطعة تميّز بين ما هو حقيقي وما هو مضلل، مشددين على أنّ التفكير النقدي هو الأساس، أي الذي يعتمد على الشك واستخدام العقل والمنطق قبل أي شيء.
توليد وتدقيق في آن واحد
لا شك في أنّ بعض برمجيات الذكاء الاصطناعي تتيح إنتاج صور لأشخاص أو مناطق أو حتى أحداث، وبحسب فرانس برس فعلى رأسها "دال-إي"، "ميدجورني" و"ستايبل ديفيوجن" و"كرايون"، لكن بعضها وباستخدام البحث بالصور فيها يكشف أنها مولدة من خلاله بما يمكن كخطوة أخيرة للتحقق من الصور إن كانت مولدة بالذكاء الاصطناعي أم لا.
ليس هذا فقط، فهناك العديد من التطبيقات المتاحة مجانًا على الإنترنت، من بينها برنامج AI Content Detector، الذي يمكنه فحص أي جزء من النص بحثًا عن علامات تدل على أنه لم يكتبه إنسان، بنسبة دقة تبلغ 97.8%.
كما أنشأت وكالة مشاريع الأبحاث المتقدمة التابعة لوزارة الدفاع الأميركية، أدوات تهدف إلى تحديد ما إذا كانت الصور قد تم إنشاؤها أو التلاعب بها من خلال الذكاء الاصطناعي. وتعمل إحدى الأدوات، المعروفة باسم MediFor من خلال مقارنة الصورة التي أنشأها الذكاء الاصطناعي بصور العالم الحقيقي، والبحث عن علامات إرشادية مثل الاختلافات في تأثير الإضاءة والتلوين التي لا تتوافق مع الواقع.
في هذا السياق، يعتبر عضو مجلس الإعلام الجديد في نقابة الصحفيين البريطانية أحمد الشيخ، خلال حديثه لـ"شبكة الصحفيين الدوليين" أنّ أدوات التحقق من المحتوى متاحة للجميع لكن بعضها لا يجدي نفعًا مع الصور المولدة بالذكاء الاصطناعي التي تطلب "صحفيين" وليس "مستخدمين" ممن يلهثون خلف الترندات ونشر صور كالتي تمّ تداولها لترامب خلال الإيحاء بالقبض عليه أو للملك تشارلز الثاني بدون أدنى تحقق منها.
ولفت الشيخ إلى أنّ الذكاء الاصطناعي وخاصة "chat gpt" لا يمكن التعامل معه كأنه كائن غامض قادم من الفضاء ليغزو الأرض، مؤكدًا أنّ "هناك خطوات أولية حينما تقع أمامنا صور من هذا النوع حيث علينا في البداية توقع أكانت حقيقية أم غير منطقية، فهل يعقل أن تكون صور الملك تشارلز في حفلة راقصة حقيقية خاصة أنها أتت بعد تتويجه ووفاة والدته بشهر واحد فقط، ثم تأتي المرحلة الثانية وهي مرحلة الشك إن كانت الصور مولدة بالذكاء الاصطناعي أو إن كانت معدّلة بالفوتوشوب". وأوضح الشيخ أن تطبيقات الذكاء الاصطناعي تولد صورًا كثيرة في ثوانٍ معدودة، وبالتالي من المستحيل أن تكون بلا أخطاء.
بدورها، أوضحت المدربة جويس حنا وهي صحفية في خدمة تقصي صحة الأخبار في وكالة فرانس برس في حديث لـ"شبكة الصحفيين الدوليين" أنّ تقنيات الذكاء الاصطناعي شهدت في الآونة الأخيرة تطورات كبيرة لدرجة أنّ الصور التي تنتجها تبدو شديدة الواقعية، وهذا الأمر يجعل عمل المدقق شاقًا في بعض الأحيان. ولفتت الى أنّ كل أداة متوفرة لكشف الصور المولدة بالذكاء الاصطناعي حتى الآن لا تعطي نتيجة حاسمة.
ولفتت جويس إلى أنّ كثيرين ينكبون اليوم على تطوير أدوات تساعد في كشف المادة المولدة بالذكاء الاصطناعي، مؤكدةً: "لكن نحن كصحفيين مدققين باتت لدينا الخبرة للشك في أن تكون صورة وليدة برنامج ذكاء اصطناعي"، فحتى اليوم تولد برامج كثيرة كـ"ميدجورني" و"دال - إي" و"كرايون" صورًا بمجرد إدخال بعض الكلمات المفتاحية، لكن في كثير من الأحيان تعتري الصور شوائب.
وأوضحت جويس أننا نلاحظ أن شكل الأيادي غريب لناحية عدد الأصابع أو الشكل أو أن العينين تنقصهما شفافية أو بريق محدد، مشيرة إلى أنه إذا تم التدقيق في بعض الأحيان في الأسنان، قد يكون عددها أكثر مما هي عليه في الواقع، ولكن كل ذلك ممكن أن يختفي قريبًا لأن البرامج تشهد تطورًا باهرًا.
بالإضافة إلى ذلك، أشارت جويس إلى أن المدققين ينظرون في الخلفيات التي قد تضم عناصر غريبة في بعض الأحيان أو يكون فيها حجم الأشياء غير متناسق، مثلًا: إشارات سير غير معتمدة في بلد محدد أو ألوان علم مقلوبة أو حتى زجاج سيارة مشوه، الأيادي والأرجل في الخلفيات تكون في بعض الأحيان غريبة الشكل أو مقصوصة.
وحثت جويس بضرورة متابعة الصحفيين للتطورات السياسية وبالتالي لا يمكن أن يكون رئيس دولة يقوم بمهمة ما ولا تلتقطه عدسات الصحفيين أو حتى تنقله القنوات الإخبارية وبالتالي لا يمكن لرئيس أن يكون قد قام بزيارة لنظير له ولم توثق الزيارة بالصور مثلًا. واعتبرت أنّ الصور المولدة ببرامج الذكاء الاصطناعي تعتمد على ملايين الصور الموجودة لتركيب صورة جديدة وبالتالي لا يمكن العثور على نسخة من هذه الصور على الإنترنت، إلا أنّ محركات البحث قد تساعدنا في أمر واحد وهو العثور على الصورة على حساب من صممها أو على حسابات مجموعات تنشر نتاج الذكاء الاصطناعي وتشير صراحة إلى أنها مولدة باستخدام هذه البرامج. إثر ذلك قد ترشدنا المحركات إلى حساب شخص ولد صورة رئيس دولة وقال إنه استخدم هذا البرنامج أو ذاك لتوليدها، لكن كثيرين يعمدون إلى إزالة التعليقات الوصفية لاستخدام هذه الصور في سياق مضلل.
ونصحت جويس الصحفيين بأهمية اللجوء إلى خبراء الذكاء الاصطناعي والاستعانة بخبراتهم في حال شككوا بصورة ولم يصلوا إلى مصدرها، فهم قد يساعدون أيضًا.
من جهتها، اعتبرت الصحفية الحاصلة على ماجستير في صحافة الذكاء الاصطناعي منار بحيري، خلال حديثها لـ"شبكة الصحفيين الدوليين" أن الذكاء الاصطناعي اليوم ضرورة وليس رفاهية وأنه "يجب علينا كصحفيين أن نستمر في تطوير مهارتنا من خلال التعليم المستمر لأساسيات الذكاء الاصطناعي وتعلم الآلة، لا سيما أن هناك العديد من الدورات التدريبية المجانية على الإنترنت التي تساعدنا في فهم هذه التقنيات الجديدة وكيف تعمل"، مؤكدة أنه ليس بالضرورة أن نتقن أو نصبح خبراء في الذكاء الاصطناعي ولكن نتعلم ما يساعدنا في عمله وتحسينه وتقديم أفضل منتج.
وبعد إجراء بحوث في الماجستير، شاركت بعض النصائح التي يمكن من خلالها اكتشاف ما إذا كانت الصور مولدة أم حقيقية:
أولًا، قم بعملية البحث العكسي للصور وهي الطريقة التي يستخدمها أغلب الصحفيين للبحث عن صور مشابهة للصورة المولدة، فإذا كانت الصورة مولدة، من المحتمل ألا تجد مشابهًا لها.
ثانيًا، تحليل النص، إذا كنت تمتلك نصًا للصورة المولدة يمكنك استخدام خوارزميات تحليل النص للتحقق من مدى توافق الصورة مع النص.
ثالثًًا، تحليل تكوين الصورة من خلال دراسة الإضاءة والتفاصيل والألوان، فإذا كانت تظهر بشكل غير طبيعي ومتناسق فقد يدل على أن الصورة مولدة بالذكاء الاصطناعي.
في النهاية، لا يمكننا القول إنّ الصور المولدة بالذكاء الاصطناعي تشكل خطرًا ولكن هناك بعض التحديات التي يجب مراعاتها وقد تكون الصور المولدة بالذكاء الاصطناعي والتي يتم استخدامها بطريقة غير قانونية لانتهاك خصوصية الأفراد، كما يجب أن ندرك أن نماذج الذكاء الاصطناعي قد تكون مبرمجة بتحيزات مقصودة مما يؤثر على الصورة التي تولدها. واعتبرت منار أنّ التأثير الحقيقي للصور المولدة بالذكاء الاصطناعي يتوقف على كيفية استخدامها والسياق الذي تحدث فيه.