ما هو تحيز الذكاء الاصطناعي؟ تقريبا كل ما يجب أن تعرفه عن التحيز في نتائج الذكاء الاصطناعي

ببساطة ، يشير تحيز الذكاء الاصطناعى إلى التمييز في الناتج الذي تم إخراجه بواسطة أنظمة الذكاء الاصطناعي (AI).

وفقًا لـ Bogdan Sergiienko ، كبير مسؤولي التكنولوجيا في Master of Code Global ، يحدث تحيز الذكاء الاصطناعي عندما تنتج أنظمة الذكاء الاصطناعى نتائج متحيزة تعكس التحيزات المجتمعية ، مثل تلك المتعلقة بالجنس أو العرق أو الثقافة أو السياسة. هذه التحيزات في كثير من الأحيان تعزز عدم المساواة الاجتماعية القائمة.

يقول Adnan Masood ، رئيس Adnan Masood ، كبير المهندسين المعماريين منظمة العفو الدولية والباحثين في UST ، إنه من بين أكثر المخاوف إلحاحًا في نماذج اللغة الكبيرة الحالية (LLMs) تحيزات ديموغرافية. ويقول إن هذه تؤدي إلى أداء متباين عبر المجموعات العرقية والجنسانية. ثم هناك تحيزات أيديولوجية تعكس وجهات النظر السياسية المهيمنة ، والتحيزات الزمنية التي ترسخ النماذج للمعلومات التي عفا عليها الزمن.

يقول مسعود: “بالإضافة إلى ذلك ، يمكن أن تؤثر التحيزات المعرفية الأكثر دقة ، مثل تثبيت الآثار وتحيز التوافر ، على مخرجات LLM بطرق دقيقة وذات ضارة”.

نظرًا لهذا التحيز ، قد تقوم نماذج الذكاء الاصطناعى بإنشاء نص أو صور تعزز الصور النمطية حول أدوار الجنسين. على سبيل المثال ، يقول Sergiienko عند إنشاء صور للمهنيين ، غالبًا ما يتم تصوير الرجال كأطباء ، بينما يتم عرض النساء كممرضات.

كما يشير إلى أ تحليل بلومبرج من بين أكثر من 5000 صورة تم إنشاؤها من الذكاء الاصطناعي ، حيث تم عرض الأشخاص الذين لديهم نغمات الجلد أخف وزنا بشكل غير متناسب في أدوار عمل عالية الأجر.

يقول سيرجيانكو: “قد تعكس المخرجات التي تم إنشاؤها من الذكاء الاصطناعى الصور النمطية الثقافية”. “على سبيل المثال ، عندما يُطلب منها إنشاء صورة” باربي من جنوب السودان “، شملت النتيجة امرأة تحمل مدفع رشاش ، والتي لا تعكس الحياة اليومية في المنطقة”.

كيف تتسلل التحيزات إلى LLMS؟

يقول سيرجيانكو إن هناك العديد من الطرق للتحيزات للوصول إلى LLMS.

1. بيانات التدريب المتحيزة: عندما تحتوي البيانات المستخدمة على تدريب LLMS على تحيزات اجتماعية ، يتعلم الذكاء الاصطناعى وتكررها في ردودها.

2. التسميات التحيزية: في التعلم الخاضع للإشراف ، إذا كانت العلامات أو التعليقات التوضيحية غير صحيحة أو ذاتية ، فقد تنتج الذكاء الاصطناعى تنبؤات متحيزة.

3. التحيز الخوارزمي: قد تؤدي الطرق المستخدمة في تدريب نموذج الذكاء الاصطناعي إلى تضخيم التحيزات الموجودة مسبقًا في البيانات.

4. الجمعيات الضمنية: يمكن أن تؤدي التحيزات غير المقصودة في اللغة أو السياق داخل بيانات التدريب إلى مخرجات معيبة.

5. التأثير البشري: يمكن للمطورين ، وشروطات البيانات ، والمستخدمين تقديم تحيزاتهم عن غير قصد أثناء التدريب أو التفاعل النموذجي.

6. قد ينتج أيضًا عن نقص السياق: في مثال “باربي من جنوب السودان” ، قد تربط الذكاء الاصطناعى صورًا لأشخاص من جنوب السودان مع مدافع رشاشة لأن العديد من الصور المسمى على هذا النحو تشمل هذه السمة.

وبالمثل ، قد يتم إنشاء “باربي من IKEA” من خلال عقد حقيبة من الملحقات المنزلية ، بناءً على ارتباطات مشتركة مع العلامة التجارية.

هل يمكن أن تكون منظمة العفو الدولية خالية من التحيز؟

يعتقد خبرائنا أن التجاوز الكامل للتحيزات البشرية قد يكون هدفًا بعيد المنال لمنظمة العفو الدولية. “بالنظر إلى اتصاله المتأصل بالبيانات والأهداف التي أنشأتها الإنسان ، يمكن تصميم أنظمة الذكاء الاصطناعى لتكون أكثر نزيهة من البشر في مجالات محددة من خلال تطبيق معايير الإنصاف المحددة جيدًا” ، يعتقد ماسود.

يقول إن مفتاح الحد من التحيز يكمن في السعي لتحقيق الذكاء الاصطناعي الذي يكمل اتخاذ القرارات البشرية. سيساعد ذلك في الاستفادة من نقاط القوة في كل من تنفيذ ضمانات قوية ضد تضخيم التحيزات الضارة.

ومع ذلك ، قبل إزالة التحيز من LLMS ، من المهم تحديده أولاً. يقول ماسود إن هذا يدعو إلى اتباع نهج متنوع يستخدم البيانات العددية وتحليل الخبراء واختبار العالم الحقيقي.

يقول ماسود: “من خلال استخدام تقنيات متقدمة مثل تحليل الإنصاف المضاد والتحيز المتقاطع ، يمكننا الكشف عن التحيزات الخفية التي قد تؤثر بشكل غير متناسب على مجموعات سكانية أو سطح معين في سياقات معينة”.

ومع ذلك ، على عكس مهمة لمرة واحدة ، فإن تحديد التحيز هو عملية مستمرة. نظرًا لأن LLMS يتم نشرها في بيئات جديدة وديناميكية ، فقد تظهر تحيزات جديدة وغير متوقعة لم تكن واضحة أثناء الاختبار الخاضع للرقابة.

يشير Masood إلى مختلف الجهود البحثية والمعايير التي تتناول جوانب مختلفة من التحيز والسمية والأذى.

وتشمل هذه الاستريوسيت ، الأزواج الغربان ، وينوبيا ، BBQ (معيار التحيز لـ QA) ، BOLD (التحيز في نماذج اللغة المفتوحة) ، ceat (اختبار التضمين السياق) ، WEAT (اختبار جمعية الكلمات) ، مجموعات البيانات لاكتشاف التحيز الاجتماعي (DBS (DBS) ) ، مقعد (اختبار جمعية التضمين المشاعر) ، وعلاج السمية ، والتحيز بين الجنسين NLP.

تخفيف آثار التحيز

للحكم بفعالية من الذكاء الاصطناعي والتخفيف من التحيز ، تحتاج الشركات إلى تنفيذ الممارسات التي تضمن تمثيلًا متنوعًا في فرق تطوير الذكاء الاصطناعى. علاوة على ذلك ، يجب على الشركات إنشاء لوحات مراجعة أخلاقية لتدقيق بيانات التدريب والمخرجات النموذجية. أخيرًا ، يجب عليهم أيضًا الاستثمار في إجراء عمليات تدقيق من طرف ثالث للتحقق بشكل مستقل مطالبات الإنصاف.

“من الأهمية بمكان تحديد مقاييس واضحة للإنصاف وقياس النماذج المستمرة ضد هذه المعايير” ، ينصح ماسود. ويقترح أيضًا أن تتعاون الشركات مع باحثو الذكاء الاصطناعى والأخلاقيات وخبراء المجال. هذا ، كما يعتقد ، يمكن أن يساعد في السطح التحيزات المحتملة التي قد لا تكون واضحة على الفور للتقنيين وحدهم.

في حين يعتقد Sergiienko أيضًا أن نتائج الذكاء الاصطناعي قد لا تكون أبدًا خالية تمامًا من التحيز ، إلا أنه يقدم العديد من الاستراتيجيات التي يمكن للشركات تنفيذها لتقليل التحيز.

1. استخدم مجموعات البيانات المتنوعة والممثلة: يجب أن تمثل البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعى مجموعة واسعة من المنظورات والديموغرافية.

2. تنفيذ الجيل المسبق للاسترجاع (خرقة): تجمع هذه البنية النموذجية بين التقنيات القائمة على الاسترجاع والتقنيات القائمة على الأولي. إنه يسحب البيانات ذات الصلة من مصادر خارجية قبل إنشاء استجابة ، وتوفير إجابات أكثر دقة وسياقًا.

3. ردود ما قبل الوتيرة والمتجر: بالنسبة للمواضيع الحساسة للغاية ، يمكن للشركات أن تسير قبل الولادة ومراجعة الإجابات للتأكد من أنها دقيقة ومناسبة.

4. ضبطه مع مجموعات بيانات خاصة بالمهمة: يمكن للشركات توفير المعرفة الخاصة بالمجال لنموذج اللغة الكبير الذي يمكن أن يقلل من التحيز عن طريق تحسين فهم السياق وتوليد مخرجات أكثر دقة.

5. مراجعة وصيحة النظام: يمكن أن يساعد ذلك في منع النماذج من توليد مخرجات متحيزة أو غير دقيقة عن غير قصد.

6. التقييم والاختبار المنتظم: يجب على الشركات مراقبة مخرجات الذكاء الاصطناعي بشكل مستمر وتشغيل حالات الاختبار لتحديد التحيزات. على سبيل المثال ، يمكن أن تساعد مطالبات مثل “وصف قائد قوي” أو “وصف رجل أعمال ناجح” في الكشف عن الجنس أو العرق أو التحيزات الثقافية.

يقول Babak Hodjat ، CTO of Cognizant: “يمكن للشركات أن تبدأ بترميز معايير أخلاقية ومسؤولة في نظام Gen AI الذي تبنيه ويستخدمونه”. يقول إن الذكاء الاصطناعي نفسه يمكن أن يساعد هنا ، على سبيل المثال ، من خلال الاستفادة من وكلاء الذكاء الاصطناعي المتعددة لمراقبة وتصحيح مخرجات بعضهم البعض. يمكن إعداد LLMS بطريقة يمكن أن “يمكن” التحقق من الطراز الآخر ، مما يقلل من خطر التحيز أو الاستجابات ملفقة.

كمثال على مثل هذا النظام ، يشير إلى إطار عمل Cognizant Neuro AI الذي تم تصميمه لإنشاء نظام التباين بين النماذج قبل أن يعرض المخرجات للبشر.

لكن التخفيف من التحيز يشبه المشي حبل مشدود. يشير Beatriz Sanz Saiz و Data Consulting Data و AI لبعض المحاولات الأخيرة للقضاء على التحيز الذي ترجم إلى وجهة نظر العالم لا يعكس الحقيقة بالضرورة.

على سبيل المثال ، تقول عندما طُلب من بعض LLMs الحالية تقديم صورة للجنود الألمان في الحرب العالمية الثانية ، استجابت الخوارزمية بصورة بأعداد متوازنة على قدم المساواة من النساء والرجال ، والقلوقاشيين والأشخاص الملونين. بذل النظام قصارى جهده للبقاء غير متحيز ، ولكن في هذه العملية ، لم تكن النتائج صحيحة تمامًا.

يقول سايز إن هذا يطرح سؤالاً: هل يجب تدريب LLMs على البحث عن الحقيقة؟ أم أن هناك إمكانات في بناء ذكاء لا يعرف أو يتعلم من الأخطاء السابقة؟

يقول سايز: “هناك إيجابيات وسلبيات لكلا النهجين”. “من الناحية المثالية ، فإن الجواب ليس واحدًا أو آخر ، بل مزيج من الاثنين.”

  • لقد قمنا بتجميع أفضل أدوات الذكاء الاصطناعي.

كاتب

Laisser un commentaire

fr_FRFrançais