ما مخاطر الذكاء الاصطناعي التوليدي وكيف يمكن الحد منها؟
4 دقائق
وفقًا لاستطلاع أجرته شركة Gartner على 2500 مدير تنفيذي في الربيع الماضي، أفاد ما تقرب نسبته من 70% من المستجيبين بأن منظماتهم تستكشف كيفية إدماج الذكاء الاصطناعي التوليدي في مؤسساتهم، وأشار تقرير مؤشر الذكاء الاصطناعي الذي نشرته جامعة ستانفورد آخرًا إلى أن معدلات اعتماد الذكاء الاصطناعي العالمية ازدادت في كل المجالات التي شملها التقرير.
عمالقة التكنولوجيا، مثل: مايكروسوفت و Salesforce، أدمجوا الذكاء الاصطناعي التوليدي في العديد من منتجاتهم وقدموا خيارًا للمؤسسات لإنشاء إصدارات خاصة من نماذج اللغات الكبيرة (LLMs). والكثير من الشركات العالمية تفكر في كيفية استخدام الذكاء الاصطناعي التوليدي في الإنتاج والتسويق وغير ذلك.
ومع ذلك، ما تزال العديد من الشركات مترددة في تبني تطبيقات الذكاء الاصطناعي التوليدي بسبب المخاوف المرتبطة بالخصوصية والتهديدات الأمنية، وانتهاك حقوق النشر، وإمكانية التحيز والتمييز في المخرجات، ومخاطر أخرى. وقد منعت بعض الشركات موظفيها من استخدام هذه التقنية.
إذن، ما المخاطر المرتبطة باستخدام هذه التقنية، وما التحديات المحتملة لاستخدامها وكيف يمكن الحد منها؟
أولًا: ما مخاطر الذكاء الاصطناعي التوليدي؟
تَنتُج مخاطر الذكاء الاصطناعي التوليدي بنحو أساسي بسبب سوء استخدام الأدوات المعتمدة على هذه التقنية، وبسبب نشر المحتوى المضلل الذي تولّده هذه الأدوات.
وفيما يلي سنوضح مخاطر الذكاء الاصطناعي التوليدي الناتجة عن سوء الاستخدام والنشر دون التحقق من صحة المعلومات:
1- إساءة الاستخدام:
يشير سوء الاستخدام إلى الاستغلال غير الأخلاقي أو غير القانوني لقدرات الذكاء الاصطناعي التوليدي لأغراض ضارة مثل: عمليات الاحتيال والحملات المضللة.
فمع تحسّن قدرات الذكاء الاصطناعي، استخدمه المحتالون في أنواع مختلفة من الهجمات الإلكترونية. على سبيل المثال: أدى انخفاض تكلفة إنشاء المحتوى بواسطة الذكاء الاصطناعي التوليدي إلى زيادة ما يُعرف بالتزييف العميق (deepfakes) الذي يُستخدم لنشر المعلومات غير الصحيحة وعمليات الاحتيال المالي، وسرقة الهوية، وللتلاعب بنتائج الانتخابات أيضًا.
2- تقديم معلومات غير صحيحة:
من المشكلات الأساسية المرتبطة باستخدام الذكاء الاصطناعي التوليدي تقديم مخرجات غير دقيقة أو غير صحيحة بنحو كامل، وهذه المشكلة تُعرف باسم (الهلوسة) hallucination. على سبيل المثال: في يونيو 2023، رفع مقدم برنامج إذاعي في جورجيا دعوى قضائية على OpenAI بعد أن صرح ChatGPT خطأً أنه متهم بالاحتيال واختلاس الأموال من منظمة غير ربحية.
3- نشر المحتوى دون التحقق من صحته:
من أهم المخاطر المرتبطة بتقنية الذكاء الاصطناعي التوليدي استخدام مخرجات الذكاء الاصطناعي التي أنشأها طرف ثالث عن قصد ونشرها مع وجود شكوك في مصداقيتها.
ففي الآونة الأخيرة، انتشرت العديد من مقاطع الفيديو والصور المصممة بتقنية التزييف العميق من أشخاص غير معروفين، ونشرها الكثير من الناس. على سبيل المثال: انتشر مقطع فيديو يُظهر تحطم سيارة تسلا على منصة Reddit في مارس، وقد انتشر هذا المقطع على نطاق واسع قبل التحقق من أن الفيديو كان مزيفًا باستخدام تقنية التزييف العميق.
بالإضافة إلى ذلك، يتسبب المحتوى الذي قد ينشره العديد من المستخدمين دون أن يدركوا عدم صحته بمشكلات كبيرة لشركات أو أفراد.
على سبيل المثال: شارك العديد من مستخدمي منصة x صورة مصممة بتقنية التزييف العميق لانفجار في البنتاغون؛ مما أدى إلى تراجع الأسهم في وول ستريت مؤقتًا؛ إذ اعتقد الكثيرون أن الصورة حقيقية.
من ناحية أخرى، يُستخدم التزييف العميق بنحو متزايد بطرق تتجاوز البروتوكولات الأمنية. ففي عام 2019، وَقَع الرئيس التنفيذي لشركة بريطانية ضحية للاحتيال الصوتي المزيف، فقد وردته مكالمة مزيفة من الرئيس التنفيذي للشركة الألمانية الأم، وطلب منه المُحتال خلالها تحويل مبلغ مالي قدره 220,000 يورو إلى الحساب المصرفي لمُورّد.
ثانيًا: كيفية الحد من مخاطر الذكاء الاصطناعي التوليدي:
تمثل كل من المخاطر المذكورة سابقًا تحديات فريدة، ومع ذلك هناك إجراءات يمكن للمسؤولين في كل من الشركات العامة والخاصة اتخاذها للتخفيف من هذه المخاطر.
ولكن يجب في البداية تحديد إذا كانت المخاطر ناتجة عن إنشاء محتوى غير صحيح باستخدام الذكاء الاصطناعي التوليدي، أو نشر المحتوى المزيف المصمم بهذه التقنية، وهذا التفريق هو ما يجب أن يُشكّل الأساس لاختيار الطرق المناسبة للحد من المخاطر.
تخفيف المخاطر الناتجة عن إساءة استخدام الذكاء الاصطناعي التوليدي:
للتخفيف من مخاطر إساءة استخدام الذكاء الاصطناعي التوليدي، تحتاج المؤسسات إلى تطوير أدوات لاكتشاف المحتوى المضلل ومنع انتشاره. ونظرًا إلى الضرر المُحتمل الذي قد يترتب على السمعة، يجب على المديرين التنفيذيين أن يكونوا سباقين إلى إدراك هذا الخطر وإنشاء حواجز حماية فعالة في المنظمة. ويمكن للإجراءات التالية المساعدة في ذلك:
1- وضع مبادئ وتوجيهات حول استخدام الذكاء الاصطناعي:
يجب أن تبدأ الشركة أو المنظمة التي ترغب في استخدام الذكاء الاصطناعي التوليدي بوضع مبادئ وتوجيهات واضحة لاستخدام هذه التقنية بهدف ضمان عدم التسبب بأي ضرر شخصي أو مجتمعي. ويجب أن تُراعي المبادئ التي تختار المنظمة الالتزام بها القيم الأخلاقية للمنظمة.
إذ يجب على أي منظمة تنشئ أو تستخدم هذه التقنية ضمان التوافق بين القيم الأخلاقية ومبادئ استخدام الذكاء الاصطناعي. ولا يعمل هذا التوافق كضمان للمنظمة وحسب، بل يعمل أيضًا إستراتيجية للتفكير المستقبلي لضمان الاستخدام المسؤول والمستدام والمفيد للذكاء الاصطناعي.
2- وضع علامة مائية على المحتوى المصمم باستخدام الذكاء الاصطناعي:
عند إنشاء محتوى بواسطة الذكاء الاصطناعي، يجب أن تكون هذه الحقيقة متاحة للجمهور بوضوح، فهذا يضمن إمكانية تعرّف المحتوى الناتج عن استخدام أدوات معتمدة على هذه التقنية.
التزم عمالقة الذكاء الاصطناعي، مثل: OpenAI و Alphabet وميتا بوضع علامات مائية على المحتوى الناتج عن الذكاء الاصطناعي لمعالجة المخاوف المتعلقة بالتهديدات المرتبطة بالذكاء الاصطناعي التوليدي.
3- إنشاء بيئة تحكم في الذكاء الاصطناعي داخل المنظمة:
تتسابق العديد من المنظمات لإنشاء أدوات الذكاء الاصطناعي الخاصة بها عبر ضبط النماذج اللغوية LLM وفقًا لاحتياجاتها، وإضافة أدوات لإدارة الخصوصية تكون مناسبة للمنظمة.
بالإضافة إلى ذلك، تُتيح النماذج اللغوية LLM المصممة خصوصًا للشركة قدرًا كبيرًا من التحكم في الخصوصية ويمكن للمؤسسات تنظيم مجموعات بيانات التدريب والتحقق من أنها غير متحيزة ولديها مزايا خصوصية لحماية المعلومات التي يُحتمل أن تكون سرية أو حساسة.
تخفيف المخاطر المرتبطة بنشر المحتوى المزيف:
إن نشر المحتوى المزيف المولّد بالذكاء الاصطناعي واستخدامه سواء كان متعمدًا أم لا يمكن أن يُحدِث ضررًا بالسمعة وعواقب سلبية أخرى للشركات والأفراد. وللتخفيف من هذه المشكلات يمكن اتباع الطرق التالية:
1- التوعية في مجال الذكاء الاصطناعي:
من المهم وضع سياسات حول الوقت الذي يمن فيه استخدام هذه التقنية داخل الشركات ومتى يجب عدم استخدامها، كما يجب توفير برامج تدريبية يمكنها زيادة الوعي بالاستهلاك الآمن والمسؤول للمحتوى المصمم بالذكاء الاصطناعي التوليدي.
2- التحقق من صحة مخرجات الذكاء الاصطناعي من خلال أنظمة متخصصة:
بالإضافة إلى ضرورة إضافة العلامات المائية إلى المحتوى المولّد بالذكاء الاصطناعي، تحتاج المنظمات إلى إنشاء أنظمة أخرى متطورة للتحقق من المحتوى المنشور عبر الإنترنت، وهذا يقلل من مخاطر نشر المحتوى المُزيف الذي قد يؤثر سلبًا في سُمعة الشركات.
4 دقائق
وفقًا لاستطلاع أجرته شركة Gartner على 2500 مدير تنفيذي في الربيع الماضي، أفاد ما تقرب نسبته من 70% من المستجيبين بأن منظماتهم تستكشف كيفية إدماج الذكاء الاصطناعي التوليدي في مؤسساتهم، وأشار تقرير مؤشر الذكاء الاصطناعي الذي نشرته جامعة ستانفورد آخرًا إلى أن معدلات اعتماد الذكاء الاصطناعي العالمية ازدادت في كل المجالات التي شملها التقرير.
عمالقة التكنولوجيا، مثل: مايكروسوفت و Salesforce، أدمجوا الذكاء الاصطناعي التوليدي في العديد من منتجاتهم وقدموا خيارًا للمؤسسات لإنشاء إصدارات خاصة من نماذج اللغات الكبيرة (LLMs). والكثير من الشركات العالمية تفكر في كيفية استخدام الذكاء الاصطناعي التوليدي في الإنتاج والتسويق وغير ذلك.
ومع ذلك، ما تزال العديد من الشركات مترددة في تبني تطبيقات الذكاء الاصطناعي التوليدي بسبب المخاوف المرتبطة بالخصوصية والتهديدات الأمنية، وانتهاك حقوق النشر، وإمكانية التحيز والتمييز في المخرجات، ومخاطر أخرى. وقد منعت بعض الشركات موظفيها من استخدام هذه التقنية.
إذن، ما المخاطر المرتبطة باستخدام هذه التقنية، وما التحديات المحتملة لاستخدامها وكيف يمكن الحد منها؟
أولًا: ما مخاطر الذكاء الاصطناعي التوليدي؟
تَنتُج مخاطر الذكاء الاصطناعي التوليدي بنحو أساسي بسبب سوء استخدام الأدوات المعتمدة على هذه التقنية، وبسبب نشر المحتوى المضلل الذي تولّده هذه الأدوات.
وفيما يلي سنوضح مخاطر الذكاء الاصطناعي التوليدي الناتجة عن سوء الاستخدام والنشر دون التحقق من صحة المعلومات:
1- إساءة الاستخدام:
يشير سوء الاستخدام إلى الاستغلال غير الأخلاقي أو غير القانوني لقدرات الذكاء الاصطناعي التوليدي لأغراض ضارة مثل: عمليات الاحتيال والحملات المضللة.
فمع تحسّن قدرات الذكاء الاصطناعي، استخدمه المحتالون في أنواع مختلفة من الهجمات الإلكترونية. على سبيل المثال: أدى انخفاض تكلفة إنشاء المحتوى بواسطة الذكاء الاصطناعي التوليدي إلى زيادة ما يُعرف بالتزييف العميق (deepfakes) الذي يُستخدم لنشر المعلومات غير الصحيحة وعمليات الاحتيال المالي، وسرقة الهوية، وللتلاعب بنتائج الانتخابات أيضًا.
2- تقديم معلومات غير صحيحة:
من المشكلات الأساسية المرتبطة باستخدام الذكاء الاصطناعي التوليدي تقديم مخرجات غير دقيقة أو غير صحيحة بنحو كامل، وهذه المشكلة تُعرف باسم (الهلوسة) hallucination. على سبيل المثال: في يونيو 2023، رفع مقدم برنامج إذاعي في جورجيا دعوى قضائية على OpenAI بعد أن صرح ChatGPT خطأً أنه متهم بالاحتيال واختلاس الأموال من منظمة غير ربحية.
3- نشر المحتوى دون التحقق من صحته:
من أهم المخاطر المرتبطة بتقنية الذكاء الاصطناعي التوليدي استخدام مخرجات الذكاء الاصطناعي التي أنشأها طرف ثالث عن قصد ونشرها مع وجود شكوك في مصداقيتها.
ففي الآونة الأخيرة، انتشرت العديد من مقاطع الفيديو والصور المصممة بتقنية التزييف العميق من أشخاص غير معروفين، ونشرها الكثير من الناس. على سبيل المثال: انتشر مقطع فيديو يُظهر تحطم سيارة تسلا على منصة Reddit في مارس، وقد انتشر هذا المقطع على نطاق واسع قبل التحقق من أن الفيديو كان مزيفًا باستخدام تقنية التزييف العميق.
بالإضافة إلى ذلك، يتسبب المحتوى الذي قد ينشره العديد من المستخدمين دون أن يدركوا عدم صحته بمشكلات كبيرة لشركات أو أفراد.
على سبيل المثال: شارك العديد من مستخدمي منصة x صورة مصممة بتقنية التزييف العميق لانفجار في البنتاغون؛ مما أدى إلى تراجع الأسهم في وول ستريت مؤقتًا؛ إذ اعتقد الكثيرون أن الصورة حقيقية.
من ناحية أخرى، يُستخدم التزييف العميق بنحو متزايد بطرق تتجاوز البروتوكولات الأمنية. ففي عام 2019، وَقَع الرئيس التنفيذي لشركة بريطانية ضحية للاحتيال الصوتي المزيف، فقد وردته مكالمة مزيفة من الرئيس التنفيذي للشركة الألمانية الأم، وطلب منه المُحتال خلالها تحويل مبلغ مالي قدره 220,000 يورو إلى الحساب المصرفي لمُورّد.
ثانيًا: كيفية الحد من مخاطر الذكاء الاصطناعي التوليدي:
تمثل كل من المخاطر المذكورة سابقًا تحديات فريدة، ومع ذلك هناك إجراءات يمكن للمسؤولين في كل من الشركات العامة والخاصة اتخاذها للتخفيف من هذه المخاطر.
ولكن يجب في البداية تحديد إذا كانت المخاطر ناتجة عن إنشاء محتوى غير صحيح باستخدام الذكاء الاصطناعي التوليدي، أو نشر المحتوى المزيف المصمم بهذه التقنية، وهذا التفريق هو ما يجب أن يُشكّل الأساس لاختيار الطرق المناسبة للحد من المخاطر.
تخفيف المخاطر الناتجة عن إساءة استخدام الذكاء الاصطناعي التوليدي:
للتخفيف من مخاطر إساءة استخدام الذكاء الاصطناعي التوليدي، تحتاج المؤسسات إلى تطوير أدوات لاكتشاف المحتوى المضلل ومنع انتشاره. ونظرًا إلى الضرر المُحتمل الذي قد يترتب على السمعة، يجب على المديرين التنفيذيين أن يكونوا سباقين إلى إدراك هذا الخطر وإنشاء حواجز حماية فعالة في المنظمة. ويمكن للإجراءات التالية المساعدة في ذلك:
1- وضع مبادئ وتوجيهات حول استخدام الذكاء الاصطناعي:
يجب أن تبدأ الشركة أو المنظمة التي ترغب في استخدام الذكاء الاصطناعي التوليدي بوضع مبادئ وتوجيهات واضحة لاستخدام هذه التقنية بهدف ضمان عدم التسبب بأي ضرر شخصي أو مجتمعي. ويجب أن تُراعي المبادئ التي تختار المنظمة الالتزام بها القيم الأخلاقية للمنظمة.
إذ يجب على أي منظمة تنشئ أو تستخدم هذه التقنية ضمان التوافق بين القيم الأخلاقية ومبادئ استخدام الذكاء الاصطناعي. ولا يعمل هذا التوافق كضمان للمنظمة وحسب، بل يعمل أيضًا إستراتيجية للتفكير المستقبلي لضمان الاستخدام المسؤول والمستدام والمفيد للذكاء الاصطناعي.
2- وضع علامة مائية على المحتوى المصمم باستخدام الذكاء الاصطناعي:
عند إنشاء محتوى بواسطة الذكاء الاصطناعي، يجب أن تكون هذه الحقيقة متاحة للجمهور بوضوح، فهذا يضمن إمكانية تعرّف المحتوى الناتج عن استخدام أدوات معتمدة على هذه التقنية.
التزم عمالقة الذكاء الاصطناعي، مثل: OpenAI و Alphabet وميتا بوضع علامات مائية على المحتوى الناتج عن الذكاء الاصطناعي لمعالجة المخاوف المتعلقة بالتهديدات المرتبطة بالذكاء الاصطناعي التوليدي.
3- إنشاء بيئة تحكم في الذكاء الاصطناعي داخل المنظمة:
تتسابق العديد من المنظمات لإنشاء أدوات الذكاء الاصطناعي الخاصة بها عبر ضبط النماذج اللغوية LLM وفقًا لاحتياجاتها، وإضافة أدوات لإدارة الخصوصية تكون مناسبة للمنظمة.
بالإضافة إلى ذلك، تُتيح النماذج اللغوية LLM المصممة خصوصًا للشركة قدرًا كبيرًا من التحكم في الخصوصية ويمكن للمؤسسات تنظيم مجموعات بيانات التدريب والتحقق من أنها غير متحيزة ولديها مزايا خصوصية لحماية المعلومات التي يُحتمل أن تكون سرية أو حساسة.
تخفيف المخاطر المرتبطة بنشر المحتوى المزيف:
إن نشر المحتوى المزيف المولّد بالذكاء الاصطناعي واستخدامه سواء كان متعمدًا أم لا يمكن أن يُحدِث ضررًا بالسمعة وعواقب سلبية أخرى للشركات والأفراد. وللتخفيف من هذه المشكلات يمكن اتباع الطرق التالية:
1- التوعية في مجال الذكاء الاصطناعي:
من المهم وضع سياسات حول الوقت الذي يمن فيه استخدام هذه التقنية داخل الشركات ومتى يجب عدم استخدامها، كما يجب توفير برامج تدريبية يمكنها زيادة الوعي بالاستهلاك الآمن والمسؤول للمحتوى المصمم بالذكاء الاصطناعي التوليدي.
2- التحقق من صحة مخرجات الذكاء الاصطناعي من خلال أنظمة متخصصة:
بالإضافة إلى ضرورة إضافة العلامات المائية إلى المحتوى المولّد بالذكاء الاصطناعي، تحتاج المنظمات إلى إنشاء أنظمة أخرى متطورة للتحقق من المحتوى المنشور عبر الإنترنت، وهذا يقلل من مخاطر نشر المحتوى المُزيف الذي قد يؤثر سلبًا في سُمعة الشركات.