أعلنت شركة Meta يوم الأربعاء عن إنشاء مجلس استشاري للذكاء الاصطناعي يتكون فقط من رجال بيض. هذا القرار ليس مفاجئًا للبعض، خاصة وأن النساء والأشخاص من ذوي البشرة الملونة قد تحدثوا لعقود عن تعرضهم للتجاهل والاستبعاد من عالم الذكاء الاصطناعي، رغم أنهم مؤهلون ويلعبون دورًا رئيسيًا في تطور هذا المجال.
وعلى الفور، لم تستجب Meta لطلبنا بالتعليق على تنوع المجلس الاستشاري.
يختلف هذا المجلس الاستشاري الجديد عن مجلس إدارة Meta الفعلي ومجلس الرقابة الخاص بها، واللذين يتميزان بتمثيل أكثر تنوعًا من حيث الجنس والعرق. ومن المهم ملاحظة أن المساهمين لم ينتخبوا هذا المجلس الخاص بالذكاء الاصطناعي، ولا يتحمل أي واجب ائتماني أيضًا. وأوضحت Meta في تصريح لـ Bloomberg أن المجلس سيقدم “رؤى وتوصيات حول التقدم التكنولوجي والابتكار وفرص النمو الاستراتيجي”. وسيجتمع المجلس “دوريًا”.
من اللافت أن المجلس الاستشاري للذكاء الاصطناعي يتكون بالكامل من رجال الأعمال ورواد الأعمال، وليس من الأخلاقيين أو أي شخص لديه خلفية أكاديمية أو بحث عميق. بينما يمكن القول إن المديرين التنفيذيين الحاليين والسابقين من شركات مثل Stripe وShopify وMicrosoft مؤهلون للإشراف على خارطة طريق منتجات الذكاء الاصطناعي الخاصة بـ Meta نظرًا للعدد الكبير من المنتجات التي قدموها إلى السوق، فقد ثبت مرارًا وتكرارًا أن الذكاء الاصطناعي ليس مثل المنتجات الأخرى. إنه مجال محفوف بالمخاطر، وعواقب الخطأ فيه يمكن أن تكون بعيدة المدى، لا سيما بالنسبة للفئات المهمشة.
في مقابلة حديثة مع TechCrunch، أكدت سارة مايرز ويست، المديرة التنفيذية لمعهد AI Now، وهي منظمة غير ربحية تدرس التأثيرات الاجتماعية للذكاء الاصطناعي، على ضرورة “الفحص النقدي” للمؤسسات التي تنتج الذكاء الاصطناعي لضمان “تلبية احتياجات الجمهور”. وأوضحت أن “هذه تكنولوجيا عرضة للأخطاء، ونعلم من الأبحاث المستقلة أن هذه الأخطاء لا توزع بالتساوي، بل تضر بشكل غير متناسب بالمجتمعات التي طالما تحملت وطأة التمييز”. وأضافت: “يجب علينا وضع معايير أعلى بكثير”.
النساء أكثر عرضة من الرجال لتجربة الجانب المظلم من الذكاء الاصطناعي. فقد وجدت Sensity AI في عام 2019 أن 96% من مقاطع الفيديو الزائفة العميقة بالذكاء الاصطناعي على الإنترنت كانت مقاطع فيديو غير توافقية ومثيرة جنسيًا. منذ ذلك الحين، أصبح الذكاء الاصطناعي التوليدي أكثر انتشارًا، ولا تزال النساء هن الهدف لهذا السلوك المخالف. في حادثة بارزة من يناير الماضي، انتشرت مقاطع فيديو إباحية زائفة غير توافقية لتايلور سويفت على منصة X، حيث حصد أحد المنشورات الأكثر انتشارًا مئات الآلاف من الإعجابات و45 مليون مشاهدة. لم تتمكن منصات التواصل الاجتماعي مثل X تاريخيًا من حماية النساء من هذه الظروف، ولكن نظرًا لأن تايلور سويفت هي واحدة من أقوى النساء في العالم، تدخلت X بحظر مصطلحات البحث مثل “تايلور سويفت AI” و”تايلور سويفت ديبفايك”.
ولكن إذا حدث لك هذا الأمر ولم تكن نجمًا عالميًا، فقد تكون غير محظوظ. هناك العديد من التقارير عن طلاب المدارس الإعدادية والثانوية يصنعون مقاطع فيديو زائفة عميقة صريحة لزملائهم في الصف. بينما كانت هذه التكنولوجيا موجودة منذ فترة، لم يكن الوصول إليها أسهل من الآن. لا تحتاج إلى أن تكون ملمًا بالتكنولوجيا لتنزيل تطبيقات تُعلن خصيصًا عن “تعري” صور النساء أو تبديل وجوههن بالمواد الإباحية. في الواقع، وفقًا لتقرير من كات تينبارج من NBC، استضافت منصتا فيسبوك وإنستغرام إعلانات لتطبيق يسمى Perky AI، الذي وصف نفسه كأداة لإنشاء صور صريحة.
اثنان من هذه الإعلانات، التي هربت على ما يبدو من اكتشاف Meta حتى نبهت تينبارج الشركة إلى المشكلة، أظهرت صورًا للمشاهير سابرينا كاربنتر وجينا أورتيغا مع أجسادهم ضبابية، مشجعة العملاء على استخدام التطبيق لإزالة ملابسهم. استخدمت الإعلانات صورة لأورتيغا عندما كانت تبلغ من العمر 16 عامًا فقط.
لم تكن حادثة السماح لـ Perky AI بالإعلان حالة معزولة. فمؤخرًا فتح مجلس الإشراف في Meta تحقيقات في فشل الشركة في التعامل مع تقارير المحتوى الجنسي الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.
من الضروري تضمين أصوات النساء والأشخاص الملونين في ابتكار منتجات الذكاء الاصطناعي. لفترة طويلة، تم استبعاد هذه الفئات المهمشة من تطوير التقنيات والأبحاث التي تغير العالم، وكانت النتائج كارثية. مثال بسيط هو أن النساء كن مستبعدات من التجارب السريرية حتى السبعينيات، مما يعني أن مجالات البحث الكاملة تطورت دون فهم كيف سيؤثر ذلك على النساء. الأشخاص السود، على وجه الخصوص، يرون تأثيرات التكنولوجيا التي تم بناؤها بدون مراعاة لهم. على سبيل المثال، السيارات ذاتية القيادة من المرجح أن تصدمهم لأن أجهزة الاستشعار قد تجد صعوبة في اكتشاف البشرة السوداء، وفقًا لدراسة أجريت في عام 2019 من معهد جورجيا للتكنولوجيا.
الخوارزميات المدربة على بيانات متحيزة بالفعل لا تعيد سوى نفس التحيزات التي دربها البشر على تبنيها. بشكل عام، نرى بالفعل أنظمة الذكاء الاصطناعي تكرر وتضخم التمييز العنصري في التوظيف والإسكان والعدالة الجنائية. المساعدات الصوتية تجد صعوبة في فهم اللهجات المختلفة وغالبًا ما تميز العمل من المتحدثين غير الأصليين للغة الإنجليزية كعمل تم إنشاؤه بواسطة الذكاء الاصطناعي لأن، كما لاحظت Axios، الإنجليزية هي اللغة الأم للذكاء الاصطناعي. أنظمة التعرف على الوجه تحدد الأشخاص السود كمشتبهين محتملين أكثر من الأشخاص البيض.
تجسّد تطوير الذكاء الاصطناعي الحالي نفس هياكل القوة الموجودة بشأن الطبقة والعرق والجنس والمركزية الأوروبية التي نراها في أماكن أخرى، ويبدو أن القادة لا يعالجونها بالشكل الكافي. بدلاً من ذلك، يعززونها. المستثمرون والمؤسسون وقادة التكنولوجيا يركزون بشكل كبير على التحرك بسرعة وكسر الأشياء لدرجة أنهم لا يستطيعون فهم أن الذكاء الاصطناعي التوليدي، التقنية الساخنة في الوقت الحالي، قد يجعل المشاكل أسوأ، وليس أفضل. وفقًا لتقرير من McKinsey، يمكن للذكاء الاصطناعي أن يؤتمت حوالي نصف الوظائف التي لا تتطلب شهادة جامعية لمدة أربع سنوات وتدفع أكثر من 42000 دولار سنويًا، وهي وظائف يتم تمثيل العمال من الأقليات فيها بشكل زائد.
هناك سبب للقلق حول كيف يمكن لفريق مكون من رجال بيض فقط في واحدة من أبرز شركات التكنولوجيا في العالم، المشاركة في هذا السباق لإنقاذ العالم باستخدام الذكاء الاصطناعي، أن يقدم نصائح حول منتجات للجميع عندما يتم تمثيل شريحة ضيقة واحدة فقط. سيتطلب الأمر جهدًا هائلًا لبناء تكنولوجيا يمكن للجميع، حقًا للجميع، استخدامها. في الواقع، الطبقات اللازمة لبناء ذكاء اصطناعي آمن وشامل، من البحث إلى الفهم على المستوى الاجتماعي المتقاطع، معقدة للغاية لدرجة أنه من الواضح تقريبًا أن هذا المجلس الاستشاري لن يساعد Meta في تحقيق ذلك. على الأقل عندما تفشل Meta، يمكن أن تظهر شركة ناشئة أخرى.
الخلاصة
بشكل مختصر: أعلنت شركة Meta عن تشكيل مجلس استشاري جديد للذكاء الاصطناعي يتكون فقط من رجال بيض، مما أثار انتقادات بشأن نقص التنوع. تأتي هذه الخطوة في وقت تشهد فيه التكنولوجيا انتقادات متزايدة بسبب التحيز والتمييز ضد النساء والأشخاص الملونين. المجلس الاستشاري الجديد يختلف عن مجالس Meta الأخرى الأكثر تنوعًا، ويتكون من رجال الأعمال ورواد الأعمال بدلاً من الأخلاقيين والباحثين. تظهر التقارير أن التكنولوجيا، بما في ذلك الذكاء الاصطناعي، غالبًا ما تعزز التحيزات القائمة وتؤثر بشكل غير متناسب على الفئات المهمشة. يؤكد النقاد على ضرورة إشراك أصوات متنوعة في تطوير التكنولوجيا لضمان أن تكون شاملة وآمنة للجميع.
مصدر المقال
موقع : techcrunch.com