تضيء زلات الذكاء الاصطناعي على النفوذ المفرط لعمالقة التكنولوجيا.

تقليص
X
 
  • تصفية - فلترة
  • الوقت
  • عرض
إلغاء تحديد الكل
مشاركات جديدة

  • تضيء زلات الذكاء الاصطناعي على النفوذ المفرط لعمالقة التكنولوجيا.



    (تعبيرية)
    ذكاء اصطناعي
    زلات الذكاء الاصطناعي تضيء على النفوذ المفرط لعمالقة التكنولوجيا

    الرئيس التنفيذي لمجموعة غوغل أقر بوجود أخطاء "غير مقبولة على الإطلاق" من جانب تطبيق "جيميناي إيه آي" التابع لشركته

    أوستن – فرانس برس
    نشر في: 17 مارس ,2024م
    نموذج قائم على الذكاء الاصطناعي يخترع نازيين من ذوي البشرة السمراء.. خطأ وقع فيه برنامج "جيميناي" المطوّر من غوغل كان ليمرّ مرور الكرام بعد المسارعة إلى تصحيحه، لكنه يسلّط الضوء على النفوذ المفرط الذي تتمتع به حفنة من الشركات على هذه التكنولوجيا الأساسية بشكل متزايد.

    وقد تحدث الرئيس التنفيذي لمجموعة غوغل سوندر بيتشاي الشهر الماضي عن أخطاء "غير مقبولة على الإطلاق" من جانب تطبيق "جيميناي إيه آي" التابع لشركته، بعد أن أجبرته زلات مثل صور لقوات نازية متنوعة عرقياً على منع المستخدمين مؤقتاً من إنشاء صور لأشخاص.




    صور لجنود ألمان نازيين ابتكرها برنامج جيميناي

    وسخر مستخدمو وسائل التواصل الاجتماعي من غوغل، وانتقدوها بسبب صور غير دقيقة تاريخياً، مثل تلك التي تظهر امرأة أميركية سوداء تُنتخب عضواً في مجلس الشيوخ في القرن التاسع عشر، فيما لم يحصل ذلك على أرض الواقع قبل العام 1992.

    وقال المؤسس المشارك في غوغل سيرغي برين، في "هاكاثون" للذكاء الاصطناعي أقيم أخيراً: "لقد حصلت أخطاء بالتأكيد لدينا في عملية توليد الصور"، مضيفاً أنه كان ينبغي على الشركة اختبار برنامج "جيميناي" بشكل أكثر شمولاً.

    واعتبر أشخاص جرت مقابلتهم خلال مهرجان "ساوث باي ساوثوست" الشهير للفنون والتكنولوجيا في أوستن، أن تعثّر "جيميناي" يسلط الضوء على القوة المفرطة التي تمتلكها حفنة من الشركات على منصات الذكاء الاصطناعي التي تتجه لتغيير طريقة عيش الناس وعملهم.

    صورتان لبابا الفاتيكان من تصميم جيميناي

    ورأى المحامي ورائد الأعمال في مجال التكنولوجيا جوشوا ويفر أن غوغل اعتمدت في برمجيتها هذه في بادئ الأمر مساراً يعتنق بشكل "مفرط" مبادئ حركة الـ"ووك" (المناهضة لكل أشكال التمييز وعدم المساواة)، ما يعني أنها ذهبت بعيداً في جهودها لإبراز الشمول والتنوع.

    وقال تشارلي بيرغوين، الرئيس التنفيذي لمختبر فالكيري للعلوم التطبيقية في تكساس، إن غوغل صححت أخطاءها بسرعة، لكنّ المشكلة الأساسية لا تزال قائمة. وشبّه إصلاح غوغل لخطأ "جيميناي" بوضع ضمادة على جرح ناتج عن تلقي رصاصة.

    وأشار ويفر إلى أنه في حين كانت غوغل تتمتع برفاهية الحصول على الوقت الكافي لتحسين منتجاتها، فإنها الآن تندفع في سباق الذكاء الاصطناعي مع "مايكروسوفت"، و"أوبن إيه آي" و"أنثروبيك" وغيرها، مضيفاً "إنهم يتحركون بسرعة تتخطى حدود معارفهم".

  • #2
    كما أن الأخطاء التي ارتُكبت في إطار الجهود الرامية إلى مراعاة الحساسية الثقافية تشكّل نقاطاً متفجرة، خصوصاً في ضوء الانقسامات السياسية المتوترة في الولايات المتحدة، وهو الوضع الذي تفاقم بسبب منصة إكس المملوكة للملياردير إيلون ماسك.

    وقال ويفر "لا يتوانى الناس على تويتر ("إكس" حالياً) عن الاحتفال بأي حدث محرج في مجال التكنولوجيا"، مضيفاً أن رد الفعل على الزلة التي حصلت عبر برنامج جيميناي كان "مبالغاً فيه".

    ومع ذلك، أكد ويفر أن هذه الحادثة أثارت تساؤلات حول درجة تحكّم أولئك الذين يستخدمون أدوات الذكاء الاصطناعي بالمعلومات.

    وأشار إلى أنه في العقد المقبل، يمكن أن تتجاوز كمية المعلومات - الصحيحة منها أو الخاطئة - التي يولّدها الذكاء الاصطناعي تلك التي يولّدها البشر، ما يعني أن أولئك الذين يتحكمون في ضمانات الذكاء الاصطناعي سيكون لهم تأثير كبير على العالم.
    تحيز داخلي وخارجي


    من جهتها قالت كارين بالمر، وهي صانعة محتوى بالواقع المختلط حائزة جوائز لدى شركة "إنترأكتيف فيلمز ليمتد" Interactive Films Ltd.، إنها تتخيل مستقبلاً يركب فيه شخص ما سيارة أجرة آلية، و"إذا قام الذكاء الاصطناعي بمسح وجهك واعتقد أن هناك أي انتهاكات عالقة ضدك.. سينقلك إلى مركز الشرطة المحلي"، وليس الوجهة المقصودة.
    تكنولوجيافيسبوكفيسبوك وانستغرام متهمان بتسهيل بيع أدوية بشكل غير قانوني
    ويتم تدريب الذكاء الاصطناعي باستخدام كميات هائلة من البيانات ويمكن استخدامه في مجموعة متزايدة من المهام، بدءاً من إنشاء الصور أو الصوت وحتى تحديد ما إذا كان شخص ما مخوّلاً الحصول على قرض، أو ما إذا كان فحص طبي يكشف الإصابة بالسرطان.

    لكن هذه البيانات تأتي من عالم مليء بالتحيز الثقافي والمعلومات المضللة وعدم المساواة الاجتماعية، فضلاً عن محتويات عبر الإنترنت يمكن أن تتضمن محادثات غير رسمية بين أصدقاء أو مشاركات استفزازية ومبالغ فيها عن عمد، ويمكن لنماذج الذكاء الاصطناعي أن تكرر هذه العيوب.

    مع "جيميناي"، حاول مهندسو غوغل إعادة التوازن للخوارزميات لتقديم نتائج تعكس التنوع البشري بشكل أفضل. لكن جاءت هذه الجهود بنتائج عكسية.

    وقال المحامي المتخصص بالتكنولوجيا أليكس شهرستاني، وهو شريك إداري في شركة المحاماة "بروميس ليغال" المتعاونة مع شركات التكنولوجيا "قد يكون من الصعب حقاً معرفة موضع التحيز وكيف جرى تضمينه".

    ويعتقد هو وآخرون أنه حتى المهندسين ذوي النوايا الحسنة المشاركين في تدريب الذكاء الاصطناعي لا يمكنهم إلا أن يجلبوا خبراتهم الحياتية وتحيزهم اللاواعي إلى العملية.

    كما انتقد بورغوين من مختبر فالكيري شركات التكنولوجيا الكبرى على إبقاء أعمالها الداخلية في مجال الذكاء الاصطناعي التوليدي مخفية في "صناديق سوداء"، بحيث لا يتمكن المستخدمون من اكتشاف أي انحيازات مخفية. وقال "لقد تجاوزت قدرات النواتج فهمنا للمنهجية بكثير".

    ويدعو خبراء وناشطون إلى مزيد من التنوع في الفرق التي تنشئ الذكاء الاصطناعي والأدوات ذات الصلة، وزيادة الشفافية على صعيد كيفية عملها - خصوصاً عندما تعيد الخوارزميات كتابة طلبات المستخدمين "لتحسين" النتائج.

    تعليق

    يعمل...
    X