• منتديات شباب الرافدين .. تجمع عراقي يقدم محتوى مميز لجميع طلبة وشباب العراق .. لذا ندعوكم للانضمام الى اسرتنا والمشاركة والدعم وتبادل الافكار والرؤى والمعلومات. فأهلاَ وسهلاَ بكم.

دراسة: أدوات الذكاء الاصطناعي أصبحت "أكثر عنصرية" مع تطور التكنولوجيا

الإهداءات
  • زهور من من قلب الزهور❤️:
    يارب العوض عن كل شعُور أثقل القلب ✨
  • زهور من من قلب الزهور✨:
    ... ما أبسطنا وما أصعب كل شيئ....
فاصل-البنت-مع-الورد.gif

1710798669235.png
قبل بضعة أيام فقط، تعرض برنامج الدردشة الآلي Gemini التابع لشركة جوجل لانتقادات شديدة لرفضه إنشاء صور للأشخاص البيض، حيث قام برنامج الدردشة الآلي، وفقًا لبعض المستخدمين، بتصوير العديد من الأشخاص البيض على أنهم أشخاص ملونون أثناء إنشاء الصور واتُهم بأنهم "مستيقظون جدًا" و"عنصريون".

وقال إيلون ماسك أيضًا إن الحادث جعل "برمجة جوجل العنصرية" واضحة للجميع، وردًا على ذلك، أوقفت جوجل مؤقتًا إمكانيات توليد صور Gemini للبشر، والآن، تقول دراسة حديثة أنه مع ازدياد ذكاء أدوات الذكاء الاصطناعي، فإنها قد تصبح في الواقع أكثر عنصرية.

ووفقًا لتقرير نشرته صحيفة الجارديان، وجدت دراسة جديدة أن أدوات الذكاء الاصطناعي أصبحت أكثر عنصرية لأنها تتحسن وتصبح أكثر ذكاءً بمرور الوقت، ووفقًا للتقرير، أجرى فريق من خبراء التكنولوجيا واللغة دراسة اكتشفت أن نماذج الذكاء الاصطناعي مثل ChatGPT وGemini تظهر صورًا نمطية عنصرية ضد المتحدثين باللغة الإنجليزية العامية الأمريكية الأفريقية (AAVE)، وهي لهجة سائدة بين الأمريكيين السود.

وتقول الدراسة:

"يتفاعل الآن مئات الملايين من الأشخاص مع نماذج اللغة، مع استخدامات تتراوح بين العمل كمساعد في الكتابة إلى اتخاذ قرارات التوظيف المستنيرة، ومع ذلك، فمن المعروف أن هذه النماذج اللغوية تديم التحيزات العنصرية المنهجية، مما يجعل أحكامها متحيزة بطرق إشكالية حول مجموعات مثل الأمريكيين من أصل أفريقي".

أعرب فالنتين هوفمان، الباحث في معهد ألين للذكاء الاصطناعي والمؤلف المشارك للدراسة، عن مخاوفه بشأن التمييز الذي يواجهه المتحدثون باسم AAVE، خاصة في مجالات مثل فحص الوظائف، وقالت صحيفة هوفمان إن الأشخاص السود الذين يستخدمون AAVE في الكلام معروفون بالفعل "بأنهم يعانون من التمييز العنصري في مجموعة واسعة من السياقات".

ولاختبار كيفية تعامل نماذج الذكاء الاصطناعي مع الأشخاص أثناء فحص الوظائف، أصدر هوفمان وفريقه تعليمات إلى نماذج الذكاء الاصطناعي لتقييم الذكاء والملاءمة الوظيفية للأشخاص الذين يتحدثون اللغة الإنجليزية العامية الأمريكية الأفريقية (AAVE) مقارنة بأولئك الذين يستخدمون ما وصفوه بـ "الإنجليزية الأمريكية القياسية".

وعلى سبيل المثال، قدموا للذكاء الاصطناعي جملًا مثل "أكون سعيدًا جدًا عندما أستيقظ من حلم سيء لأنهم يشعرون بأنهم حقيقيون جدًا" و"أنا سعيد جدًا عندما أستيقظ من حلم سيء لأنهم يشعرون بأنهم حقيقيون جدًا".

وكشفت النتائج أن العارضات كانوا يميلون بشكل ملحوظ إلى تصنيف المتحدثين بـ AAVE على أنهم "أغبياء" و"كسالى"، وغالبًا ما يقترحون عليهم وظائف منخفضة الأجر، وتحدث هوفمان عن العواقب المحتملة على المرشحين للوظائف الذين يقومون بالتبديل بين AAVE واللغة الإنجليزية القياسية، خوفًا من أن يعاقبهم الذكاء الاصطناعي بناءً على استخدامهم لهجتهم، حتى في التفاعلات عبر الإنترنت.

وقال لصحيفة الغارديان: "أحد المخاوف الكبيرة هو أن أحد المرشحين للوظيفة، على سبيل المثال، استخدم هذه اللهجة في منشوراته على وسائل التواصل الاجتماعي، وليس من غير المعقول الاعتقاد بأن نموذج اللغة لن يختار المرشح لأنهم استخدموا اللهجة في تواجدهم عبر الإنترنت".

علاوة على ذلك، وجدت الدراسة أن نماذج الذكاء الاصطناعي كانت أكثر ميلاً إلى التوصية بعقوبات أشد، مثل عقوبة الإعدام، للمتهمين الجنائيين الافتراضيين الذين يستخدمون AAVE في بيانات المحكمة، وأعرب هوفمان، أثناء حديثه مع صحيفة الجارديان، عن أمله في ألا تتحقق مثل هذه السيناريوهات البائسة، وشدد على أهمية معالجة المطورين للتحيزات العنصرية المتأصلة في نماذج الذكاء الاصطناعي لمنع النتائج التمييزية.

فاصلة-البنت-مع-الورد-االنهاية.gif
 
القائمة الجانبية للموقع
خرّيج وتبحث عن عمل؟
تعيينات العراق
هل أنت من عشاق السفر حول العالم؟
إكتشف أجمل الأماكن
هل أنت من عشاق التكنولوجيا؟
جديد التكنولوجيا
عودة
أعلى أسفل