الذكاء الاصطناعي شريك في التضليل بزمن ما بعد الحقيقة
تحليل محتوى الشبكات الاجتماعية يكشف تكتيكات لغوية للتأثير على المستخدمين.
شركات الإنترنت تحلل النشاط الروسي على مواقع التواصل
بمثل سرعة انتشار فايروس كورونا في العالم أجمع، تنتشر المعلومات المضللة والأخبار الكاذبة حول الوباء، ويساهم التقدم التقني أو الكمبيوتر أيضا في المشكلة، حيث يستخدم البعض حملات التضليل التي تعمل بالذكاء الاصطناعي لتوسيع مدى وصول المعلومات المضللة عبر الإنترنت.
لندن - أصبحت المعلومات المضللة سمة لأزمة وباء كورونا حيث تصل المعلومات الكاذبة أو المضللة بشأنه إلى ما يقرب من نصف جميع مستهلكي الأخبار عبر الإنترنت في المملكة المتحدة وحدها، ما جعل شركات التكنولوجيا تركز أنشطتها في مجال الذكاء الاصطناعي لمحاربة المعلومات المضللة والتي أنتجتها أحيانا تقنيات مماثلة.
وتمثل المعلومات المضللة والصور المفبركة التي تنتشر بسرعة كبيرة عبر الإنترنت خطرا على المجتمعات الديمقراطية في جميع أنحاء العالم، حيث تتسبب في تزايد عدم الثقة العامة في الحكومات والسلطات العامة في ظاهرة تعرف باسم “اضمحلال الحقيقة”، ووفقا لبحث حديث، يسلط الضوء على طرق جديدة لاكتشاف التضليل وإزالته على شبكات الإنترنت.
ويقول المحللون كيت كوكس وليندا سلاباكوفا وويليام مارسيلينو في تقرير نشر على منصة “RAND” إن هناك العديد من العوامل التي قد تفسر الانتشار السريع للمعلومات المضللة خلال جائحة كورونا.
وبالنظر إلى انتشار الوباء في جميع أنحاء العالم، فإن المزيد من المجموعات والجهات المختلفة تستخدم المعلومات المضللة لتعزيز أجنداتها. كما يساهم التقدم التقني أو الكمبيوتر أيضا في المشكلة، حيث يستخدم البعض حملات التضليل التي تعمل بالذكاء الاصطناعي لتوسيع مدى وصول المعلومات المضللة عبر الإنترنت وعلى منصات وسائل التواصل الاجتماعي.
وتشير الأبحاث التي أجرتها جامعة “كارنيغي ميلون” إلى أن “برامج الروبوت” على الشبكات الاجتماعية قد تمثل 45 إلى 60 في المئة من أنشطة تويتر التي تمت مراجعتها والمتعلقة بفايروس كورونا، على عكس 10 إلى 20 في المئة من نشاط تويتر خلال أحداث أخرى مثل الانتخابات الأميركية والكوارث الطبيعية.
ويمكن لهذه الروبوتات إنشاء الرسائل تلقائيا، والدعوة إلى الأفكار، ومتابعة المستخدمين الآخرين، واستخدام الحسابات المزيفة لاكتساب المتابعين.
وقد حددت أبحاث الجامعة أكثر من 100 نظرية متعلقة بوباء كورونا غير دقيقة، بما في ذلك التقارير المضللة عن الوقاية والعلاج وتدابير الطوارئ التي تنفذها حكومات الدول والسلطات المحلية.
وزادت المخاوف من استخدام تقنيات الذكاء الاصطناعي لنشر الأخبار الكاذبة منذ العام الماضي، مع إعلان شركة “أوبن.إي.آي” الأميركية الناشئة لأبحاث الذكاء الاصطناعي عن ابتكار جي.بي.تي-2؛ خوارزمية الذكاء الاصطناعي القادرة على كتابة نصوص مترابطة جدا.
وذكرت الشركة أن “احتمال إساءة استخدام خوارزميات كتابة النصوص يزداد كلما ازدادت دقة مخرجاتها وترابطها”. ولم يحاول جاك كلارك مدير الاتصالات والسياسات في “أوبن.إي.آي”، إخفاء مخاوفه من إمكانية استخدام البرنامج لنشر معلومات مضللة عبر الشبكة العالمية.
وقال كلارك في شهادة عن تهديد المواد المفبركة الناتجة عن برامج الذكاء الاصطناعي، خلال جلسة استماع أمام لجنة المخابرات بمجلس الشيوخ الأميركي، إنه يتوقع أن يستخدم البرنامج لتحرير أخبار كاذبة، أو لانتحال هوية أشخاص نشروا كميات هائلة من النصوص، كما يمكن أن تستغل الخاصيات المبتكرة لخدمة دعايات معينة.
ويمكن أن تكون للتضليل آثار ضارة على الأفراد والمجتمعات والمجتمع والحكم الديمقراطي. فقد تشجع الإدعاءات الزائفة أو المضللة المتعلقة بالفايروس الأشخاص على مواجهة المزيد من المخاطر وبالتالي سيشكلون تهديدا على صحتهم وصحة الآخرين، على سبيل المثال، من خلال استهلاك المواد الضارة أو تجاهل المبادئ التوجيهية للتباعد الاجتماعي.
كما يمكن استخدام المعلومات المضللة لاستهداف الفئات السكانية الضعيفة بما في ذلك المهاجرون واللاجئون، مما يزيد من خطر العنف ضد الأجانب وجرائم الكراهية.
وقد أدخلت مجموعات من القطاعين العام والخاص، وكذلك منظمات المجتمع المدني، بالفعل تدابير مضادة مختلفة لمعالجة التضليل عبر الإنترنت. يتضمن هذا مبادرات للإشراف على المحتوى واستخدام خوارزميات وسائل التواصل الاجتماعي لتحديد وجود التضليل.
ويمكن أن تساعد برامج محو الأمية الإعلامية عبر الإنترنت المصممة لتعزيز قدرة المستخدمين للإنترنت على التعرف على المعلومات الكاذبة أو المضللة على تعزيز مرونة الجمهور تجاه المعلومات المضللة. كما فرضت شركة واتساب التي تملكها فيسبوك الآن قيودا جديدة على إعادة توجيه الرسائل لمعالجة انتشار المعلومات الزائفة عبر قنوات المراسلة الخاصة بها.
ويمكن أن تساعد نتائج دراسة جديدة نشرتها مؤسسة “راند يوروب” الآن في تعزيز هذه الجهود بشكل أكبر، بتكليف من مختبر علوم وتكنولوجيا الدفاع في المملكة المتحدة، وتوضح هذه الدراسة كيف يمكن استخدام نماذج الذكاء الاصطناعي للكشف عن المتلاعبين عبر الإنترنت، أحدهم من الممكن أن يكون مدعوما من روسيا.
واستمرت تكتيكات التضليل في الكرملين خلال فترة الوباء وتتضمن روايات منسقة مع الصين تدعي أن الفايروس تسبب فيه مهاجرون أو نشأ كسلاح بيولوجي تم تطويره في مختبر عسكري أميركي.
كما تضمن التضليل ادعاءات كاذبة بشأن “مساعدات إنسانية” روسية لدول من بينها الولايات المتحدة وإيطاليا. تعمل كل هذه الجهود على تقويض مرونة الحكومات الوطنية وتعافيها واستجابتها للأزمات. وفي دراسة مختبر علوم وتكنولوجيا الدفاع في المملكة المتحدة، استفاد الباحثون من بيانات تويتر التي ترجع إلى الانتخابات الرئاسية الأميركية لعام 2016، واستخدموا نموذج كمبيوتر للتمييز بين روايات “المتلاعبين” الروس والداعمين السياسيين الحقيقيين.
وتمكن النموذج من تحديد المتلاعبين بنجاح من خلال الكشف عن لغة “نحن وهم” المتلاعبة المستخدمة لاستهداف الحزبين الديمقراطي والجمهوري.
يشرح التحليل كيف يمكن استخدام تكتيكات لغوية محددة لتحديد المتلاعبين في الوقت الحقيقي، مع إبراز أهداف تكتيكات التلاعب هذه. وتتم إثارة الفتنة عبر الإنترنت من خلال تسليط الضوء على مشاعر كل جانب باستخدام الأنماط اللغوية المتكررة.
ولزيادة الوعي حول هذه التكتيكات، يمكن للهيئات الحكومية الكشف عنها لأعضاء المجموعات المستهدفة حتى يتمكنوا من التعرف على تقنيات التلاعب في وسائل التواصل الاجتماعي.
ومن خلال دراسة كيف استهدف المتلاعبون المناقشات عبر الإنترنت في ما يتعلق بالانتخابات الرئاسية الأميركية لعام 2016، فإنه يمكن استخدام بنود مثل الكشف عن المجتمع، وتحليل النص، والذكاء الاصطناعي، والمقاطع المصورة كنموذج في المستقبل لإنشاء وسائط اجتماعية قوية للأغراض العامة وأيضا كأداة مراقبة.
ويمكن لهذه الأداة أن تساعد في تركيز جهود القطاع العام لمواجهة التضليل عبر الإنترنت في ما يتعلق بوباء كورونا، من بين قضايا أخرى ذات أهمية عامة.
ويمكن أن يكون فهم كيفية عمل الجهات الفاعلة عبر الإنترنت لاستهداف نقاط الضعف في الدول بمثابة خطوة أولى نحو مرونة أكبر في التعامل مع المعلومات المضللة. ويمكن أن يكون تطوير مثل هذه الأساليب للدفاع ضد تكتيكات التلاعب هذه مفيدا في مكافحة التضليل على نطاق واسع، وهي مشكلة من الواضح أنها في صميم أزمة الوباء التي نمر بها الآن.
تحليل محتوى الشبكات الاجتماعية يكشف تكتيكات لغوية للتأثير على المستخدمين.
شركات الإنترنت تحلل النشاط الروسي على مواقع التواصل
بمثل سرعة انتشار فايروس كورونا في العالم أجمع، تنتشر المعلومات المضللة والأخبار الكاذبة حول الوباء، ويساهم التقدم التقني أو الكمبيوتر أيضا في المشكلة، حيث يستخدم البعض حملات التضليل التي تعمل بالذكاء الاصطناعي لتوسيع مدى وصول المعلومات المضللة عبر الإنترنت.
لندن - أصبحت المعلومات المضللة سمة لأزمة وباء كورونا حيث تصل المعلومات الكاذبة أو المضللة بشأنه إلى ما يقرب من نصف جميع مستهلكي الأخبار عبر الإنترنت في المملكة المتحدة وحدها، ما جعل شركات التكنولوجيا تركز أنشطتها في مجال الذكاء الاصطناعي لمحاربة المعلومات المضللة والتي أنتجتها أحيانا تقنيات مماثلة.
وتمثل المعلومات المضللة والصور المفبركة التي تنتشر بسرعة كبيرة عبر الإنترنت خطرا على المجتمعات الديمقراطية في جميع أنحاء العالم، حيث تتسبب في تزايد عدم الثقة العامة في الحكومات والسلطات العامة في ظاهرة تعرف باسم “اضمحلال الحقيقة”، ووفقا لبحث حديث، يسلط الضوء على طرق جديدة لاكتشاف التضليل وإزالته على شبكات الإنترنت.
ويقول المحللون كيت كوكس وليندا سلاباكوفا وويليام مارسيلينو في تقرير نشر على منصة “RAND” إن هناك العديد من العوامل التي قد تفسر الانتشار السريع للمعلومات المضللة خلال جائحة كورونا.
وبالنظر إلى انتشار الوباء في جميع أنحاء العالم، فإن المزيد من المجموعات والجهات المختلفة تستخدم المعلومات المضللة لتعزيز أجنداتها. كما يساهم التقدم التقني أو الكمبيوتر أيضا في المشكلة، حيث يستخدم البعض حملات التضليل التي تعمل بالذكاء الاصطناعي لتوسيع مدى وصول المعلومات المضللة عبر الإنترنت وعلى منصات وسائل التواصل الاجتماعي.
وتشير الأبحاث التي أجرتها جامعة “كارنيغي ميلون” إلى أن “برامج الروبوت” على الشبكات الاجتماعية قد تمثل 45 إلى 60 في المئة من أنشطة تويتر التي تمت مراجعتها والمتعلقة بفايروس كورونا، على عكس 10 إلى 20 في المئة من نشاط تويتر خلال أحداث أخرى مثل الانتخابات الأميركية والكوارث الطبيعية.
ويمكن لهذه الروبوتات إنشاء الرسائل تلقائيا، والدعوة إلى الأفكار، ومتابعة المستخدمين الآخرين، واستخدام الحسابات المزيفة لاكتساب المتابعين.
وقد حددت أبحاث الجامعة أكثر من 100 نظرية متعلقة بوباء كورونا غير دقيقة، بما في ذلك التقارير المضللة عن الوقاية والعلاج وتدابير الطوارئ التي تنفذها حكومات الدول والسلطات المحلية.
برامج محو الأمية الإعلامية عبر الإنترنت تساعد في تعزيز قدرة المستخدمين على التعرف على المعلومات الكاذبة
وزادت المخاوف من استخدام تقنيات الذكاء الاصطناعي لنشر الأخبار الكاذبة منذ العام الماضي، مع إعلان شركة “أوبن.إي.آي” الأميركية الناشئة لأبحاث الذكاء الاصطناعي عن ابتكار جي.بي.تي-2؛ خوارزمية الذكاء الاصطناعي القادرة على كتابة نصوص مترابطة جدا.
وذكرت الشركة أن “احتمال إساءة استخدام خوارزميات كتابة النصوص يزداد كلما ازدادت دقة مخرجاتها وترابطها”. ولم يحاول جاك كلارك مدير الاتصالات والسياسات في “أوبن.إي.آي”، إخفاء مخاوفه من إمكانية استخدام البرنامج لنشر معلومات مضللة عبر الشبكة العالمية.
وقال كلارك في شهادة عن تهديد المواد المفبركة الناتجة عن برامج الذكاء الاصطناعي، خلال جلسة استماع أمام لجنة المخابرات بمجلس الشيوخ الأميركي، إنه يتوقع أن يستخدم البرنامج لتحرير أخبار كاذبة، أو لانتحال هوية أشخاص نشروا كميات هائلة من النصوص، كما يمكن أن تستغل الخاصيات المبتكرة لخدمة دعايات معينة.
ويمكن أن تكون للتضليل آثار ضارة على الأفراد والمجتمعات والمجتمع والحكم الديمقراطي. فقد تشجع الإدعاءات الزائفة أو المضللة المتعلقة بالفايروس الأشخاص على مواجهة المزيد من المخاطر وبالتالي سيشكلون تهديدا على صحتهم وصحة الآخرين، على سبيل المثال، من خلال استهلاك المواد الضارة أو تجاهل المبادئ التوجيهية للتباعد الاجتماعي.
كما يمكن استخدام المعلومات المضللة لاستهداف الفئات السكانية الضعيفة بما في ذلك المهاجرون واللاجئون، مما يزيد من خطر العنف ضد الأجانب وجرائم الكراهية.
وقد أدخلت مجموعات من القطاعين العام والخاص، وكذلك منظمات المجتمع المدني، بالفعل تدابير مضادة مختلفة لمعالجة التضليل عبر الإنترنت. يتضمن هذا مبادرات للإشراف على المحتوى واستخدام خوارزميات وسائل التواصل الاجتماعي لتحديد وجود التضليل.
ويمكن أن تساعد برامج محو الأمية الإعلامية عبر الإنترنت المصممة لتعزيز قدرة المستخدمين للإنترنت على التعرف على المعلومات الكاذبة أو المضللة على تعزيز مرونة الجمهور تجاه المعلومات المضللة. كما فرضت شركة واتساب التي تملكها فيسبوك الآن قيودا جديدة على إعادة توجيه الرسائل لمعالجة انتشار المعلومات الزائفة عبر قنوات المراسلة الخاصة بها.
ويمكن أن تساعد نتائج دراسة جديدة نشرتها مؤسسة “راند يوروب” الآن في تعزيز هذه الجهود بشكل أكبر، بتكليف من مختبر علوم وتكنولوجيا الدفاع في المملكة المتحدة، وتوضح هذه الدراسة كيف يمكن استخدام نماذج الذكاء الاصطناعي للكشف عن المتلاعبين عبر الإنترنت، أحدهم من الممكن أن يكون مدعوما من روسيا.
واستمرت تكتيكات التضليل في الكرملين خلال فترة الوباء وتتضمن روايات منسقة مع الصين تدعي أن الفايروس تسبب فيه مهاجرون أو نشأ كسلاح بيولوجي تم تطويره في مختبر عسكري أميركي.
يستخدم البعض حملات التضليل التي تعمل بالذكاء الاصطناعي لتوسيع مدى وصول المعلومات المضللة عبر الإنترنت وعلى منصات وسائل التواصل الاجتماعي.
كما تضمن التضليل ادعاءات كاذبة بشأن “مساعدات إنسانية” روسية لدول من بينها الولايات المتحدة وإيطاليا. تعمل كل هذه الجهود على تقويض مرونة الحكومات الوطنية وتعافيها واستجابتها للأزمات. وفي دراسة مختبر علوم وتكنولوجيا الدفاع في المملكة المتحدة، استفاد الباحثون من بيانات تويتر التي ترجع إلى الانتخابات الرئاسية الأميركية لعام 2016، واستخدموا نموذج كمبيوتر للتمييز بين روايات “المتلاعبين” الروس والداعمين السياسيين الحقيقيين.
وتمكن النموذج من تحديد المتلاعبين بنجاح من خلال الكشف عن لغة “نحن وهم” المتلاعبة المستخدمة لاستهداف الحزبين الديمقراطي والجمهوري.
يشرح التحليل كيف يمكن استخدام تكتيكات لغوية محددة لتحديد المتلاعبين في الوقت الحقيقي، مع إبراز أهداف تكتيكات التلاعب هذه. وتتم إثارة الفتنة عبر الإنترنت من خلال تسليط الضوء على مشاعر كل جانب باستخدام الأنماط اللغوية المتكررة.
ولزيادة الوعي حول هذه التكتيكات، يمكن للهيئات الحكومية الكشف عنها لأعضاء المجموعات المستهدفة حتى يتمكنوا من التعرف على تقنيات التلاعب في وسائل التواصل الاجتماعي.
ومن خلال دراسة كيف استهدف المتلاعبون المناقشات عبر الإنترنت في ما يتعلق بالانتخابات الرئاسية الأميركية لعام 2016، فإنه يمكن استخدام بنود مثل الكشف عن المجتمع، وتحليل النص، والذكاء الاصطناعي، والمقاطع المصورة كنموذج في المستقبل لإنشاء وسائط اجتماعية قوية للأغراض العامة وأيضا كأداة مراقبة.
ويمكن لهذه الأداة أن تساعد في تركيز جهود القطاع العام لمواجهة التضليل عبر الإنترنت في ما يتعلق بوباء كورونا، من بين قضايا أخرى ذات أهمية عامة.
ويمكن أن يكون فهم كيفية عمل الجهات الفاعلة عبر الإنترنت لاستهداف نقاط الضعف في الدول بمثابة خطوة أولى نحو مرونة أكبر في التعامل مع المعلومات المضللة. ويمكن أن يكون تطوير مثل هذه الأساليب للدفاع ضد تكتيكات التلاعب هذه مفيدا في مكافحة التضليل على نطاق واسع، وهي مشكلة من الواضح أنها في صميم أزمة الوباء التي نمر بها الآن.