'Nerd' ، 'Nonsmoker' ، 'Wrongdoer': How Might A.I. تسميك؟

ImageNet Roulette ، مشروع فني رقمي وتطبيق سيلفي سريع الانتشار ، يكشف كيف تسللت التحيزات إلى تقنيات الذكاء الاصطناعي التي غيرت حياتنا.

يُظهر معرض تدريب البشر ، وهو معرض للتصوير الفوتوغرافي تم الكشف عنه هذا الأسبوع في متحف Fondazione Prada في ميلانو ، كيف تم تدريب أنظمة الذكاء الاصطناعي على رؤية العالم وتصنيفه.

عندما قام تابونغ كيما بفحص موجز تويتر الخاص به في وقت مبكر من صباح الأربعاء ، كان وسم اللحظة هو #ImageNetRoulette.

يبدو أن الجميع كانوا يقومون بتحميل صور شخصية على موقع ويب حيث يقوم نوع من الذكاء الاصطناعي بتحليل كل وجه ووصف ما شاهده. الموقع ، ImageNet Roulette ، ربط رجل واحد بأنه يتيم. وكان آخر غير مدخن. والثالث ، يرتدي نظارات ، كان سوت ، طحن ، يذاكر كثيرا ، وونك ، دويب.



عبر موجز Twitter الخاص بالسيد كيما ، تم تشغيل هذه التسميات - بعضها دقيق ، وبعضها غريب ، وبعضها بعيد عن القاعدة - من أجل الضحك. لذا انضم إليه. لكن السيد كيما ، وهو أمريكي من أصل أفريقي يبلغ من العمر 24 عامًا ، لم يعجبه ما رآه. عندما قام بتحميل صورته المبتسمة ، وصفه الموقع بأنه مذنب ومذنب.

قد يكون لدي حس دعابة سيء ، هو غرد ، لكنني لا أعتقد أن هذا مضحك بشكل خاص.

كما اتضح ، كان رده هو بالضبط ما كان الموقع يهدف إليه. روليت ImageNet هو مشروع فني رقمي يهدف إلى تسليط الضوء على السلوك الغريب وغير السليم والعدواني الذي يمكن أن يتسلل إلى تقنيات الذكاء الاصطناعي التي تغير حياتنا اليومية بسرعة ، بما في ذلك خدمات التعرف على الوجه التي تستخدمها شركات الإنترنت وإدارات الشرطة والحكومات الأخرى وكالات.

التعرف على الوجوه والذكاء الاصطناعي الأخرى تتعلم التقنيات مهاراتها من خلال تحليل كميات هائلة من البيانات الرقمية. غالبًا ما تحتوي هذه البيانات المستمدة من مواقع الويب القديمة والمشاريع الأكاديمية على تحيزات دقيقة وعيوب أخرى لم يلاحظها أحد لسنوات. تهدف ImageNet Roulette ، التي صممها الفنان الأمريكي تريفور باجلين وباحثة في Microsoft تدعى كيت كروفورد ، إلى إظهار عمق هذه المشكلة.

قال السيد باجلين في مقابلة هاتفية من باريس ، نريد أن نظهر كيف تنتقل طبقات التحيز والعنصرية وكراهية النساء من نظام إلى آخر. الهدف هو السماح للأشخاص برؤية العمل الذي يتم إجراؤه خلف الكواليس ، ليروا كيف تتم معالجتنا وتصنيفنا طوال الوقت.

تم الكشف عن الموقع هذا الأسبوع كجزء من معرض في متحف Fondazione Prada في ميلانو ، ويركز الموقع الانتباه على قاعدة بيانات ضخمة للصور تسمى ImageNet. تم تجميع ImageNet لأول مرة منذ أكثر من عقد من قبل مجموعة من الباحثين في جامعة ستانفورد ، الواقعة في وادي السيليكون في كاليفورنيا ، ولعبت ImageNet دورًا حيويًا في صعود التعلم العميق ، وهي التقنية الرياضية التي تسمح للآلات بالتعرف على الصور ، بما في ذلك الوجوه.

معبأة بأكثر من 14 مليون صورة مأخوذة من جميع أنحاء الإنترنت ، كانت ImageNet وسيلة لتدريب الذكاء الاصطناعي. الأنظمة والحكم على دقتها. من خلال تحليل أنواع مختلفة من الصور - مثل الزهور والكلاب والسيارات - تعلمت هذه الأنظمة التعرف عليها.

نادرًا ما نوقش ما نوقش بين المجتمعات المطلعة على الذكاء الاصطناعي. هو أن ImageNet احتوت أيضًا على صور لآلاف الأشخاص ، تم تصنيف كل منهم في فئاته الخاصة. وشمل ذلك علامات مباشرة مثل المصفقين واللحام وفتيان الكشافة بالإضافة إلى الملصقات المشحونة للغاية مثل الفشل ، الخاسر ، غير المبتدئ ، الشخص غير الناجح والقذيفة ، الفاسقة ، المرأة القذرة ، القزم.

من خلال إنشاء مشروع يطبق مثل هذه الملصقات ، سواء كانت غير ضارة على ما يبدو أم لا ، يوضح السيد باجلين والسيدة كروفورد كيف يمكن أن يؤدي الرأي والتحيز وأحيانًا وجهات النظر الهجومية إلى إنشاء الذكاء الاصطناعي.

تم تطبيق ملصقات ImageNet بواسطة آلاف الأشخاص المجهولين ، على الأرجح في الولايات المتحدة ، وظفهم فريق من ستانفورد. من خلال العمل من خلال خدمة التعهيد الجماعي Amazon Mechanical Turk ، ربحوا بنسات مقابل كل صورة قاموا بتسميتها ، مما أدى إلى ظهور مئات العلامات في الساعة. كما فعلوا ، تم إدراج التحيزات في قاعدة البيانات ، على الرغم من أنه من المستحيل معرفة ما إذا كانت هذه التحيزات قد تم وضعها من قبل أولئك الذين يقومون بوضع العلامات.

لقد حددوا شكل الخاسر. وفاسقة. وفاسد.

جاءت التسميات في الأصل من مجموعة أخرى مترامية الأطراف من البيانات تسمى WordNet ، وهو نوع من القاموس المفاهيمي للآلات التي بناها باحثون في جامعة برينستون في الثمانينيات. ولكن مع تضمين هذه الملصقات الالتهابية ، ربما لم يدرك باحثو ستانفورد ما كانوا يفعلونه.

غالبًا ما يتم تدريب الذكاء الاصطناعي على مجموعات بيانات ضخمة لم يلفها حتى منشئوها. قالت ليز أوسوليفان ، التي أشرفت على تصنيف البيانات في شركة Clarifai الناشئة للذكاء الاصطناعي وهي الآن جزء من مجموعة الحقوق المدنية والخصوصية تسمى Surveillance Technology ، إن هذا يحدث طوال الوقت على نطاق واسع جدًا - وهناك عواقب. مشروع الرقابة الذي يهدف إلى زيادة الوعي بمشاكل الذكاء الاصطناعي أنظمة.

كانت العديد من التسميات المستخدمة في مجموعة بيانات ImageNet متطرفة. لكن المشاكل نفسها يمكن أن تتسلل إلى تسميات قد تبدو غير مؤذية. بعد كل شيء ، ما يميز الرجل أو المرأة مفتوح للنقاش.

قالت السيدة أوسوليفان عند تصنيف صور النساء أو الفتيات ، قد لا يشمل الأشخاص الأشخاص غير ثنائيي الجنس أو النساء ذوات الشعر القصير. ثم ينتهي بك الأمر مع A.I. النموذج الذي يشمل فقط النساء ذوات الشعر الطويل.

في الأشهر الأخيرة ، أظهر الباحثون أن خدمات التعرف على الوجوه من شركات مثل أمازون ومايكروسوفت وآي بي إم يمكن أن تكون متحيزة ضد النساء والأشخاص ذوي البشرة السمراء. مع هذا المشروع ، كان السيد باجلين والسيدة كروفورد يأملان في لفت الانتباه إلى المشكلة - وقد فعلوا ذلك. في وقت ما من هذا الأسبوع ، عندما انتشر المشروع على خدمات مثل Twitter ، كانت ImageNet Roulette تنتج أكثر من 100000 ملصق في الساعة.

قالت السيدة كروفورد ، أثناء تواجدها مع السيد باجلين في باريس ، لقد كانت مفاجأة كاملة لنا أنها انطلقت بالطريقة التي فعلت بها. إنه يتيح لنا حقًا رؤية ما يعتقده الناس في هذا الأمر والتفاعل معهم حقًا.

بالنسبة للبعض ، كانت مزحة. لكن آخرين ، مثل السيد كيما ، استوعبوا الرسالة. لقد قاموا بعمل جيد في إظهار المشكلة - ليس لأنني لم أكن على علم بالمشكلة من قبل ، كما قال.

ومع ذلك ، يعتقد السيد باجلين والسيدة كروفورد أن المشكلة قد تكون أعمق مما يتصور الناس.

ImageNet هي مجرد واحدة من العديد من مجموعات البيانات التي تم استخدامها على نطاق واسع وإعادة استخدامها من قبل عمالقة التكنولوجيا والشركات الناشئة والمختبرات الأكاديمية أثناء تدريبهم على أشكال مختلفة من الذكاء الاصطناعي. لقد انتشرت بالفعل أي عيوب في مجموعات البيانات هذه على نطاق واسع.

في الوقت الحاضر ، يعمل العديد من الشركات والباحثين على إزالة هذه العيوب. استجابة لشكاوى التحيز ، قامت Microsoft و IBM بتحديث خدمات التعرف على الوجوه. في كانون الثاني (يناير) ، في الوقت الذي ناقش فيه السيد باجلين والسيدة كروفورد لأول مرة التسميات الغريبة المستخدمة في ImageNet ، حظر باحثو ستانفورد تنزيل جميع الوجوه من مجموعة البيانات. يقولون الآن إنهم سيحذفون العديد من الوجوه.

قال فريق ستانفورد في بيان تمت مشاركته مع صحيفة نيويورك تايمز إن هدفهم الطويل الأمد هو معالجة قضايا مثل مجموعة البيانات وعدالة الخوارزميات والمساءلة والشفافية.

لكن بالنسبة لباجلين ، هناك قضية أكبر تلوح في الأفق. الحقيقة الأساسية هي أن A.I. يتعلم من البشر - والبشر مخلوقات متحيزة. قال إن الطريقة التي نصنف بها الصور هي نتاج نظرتنا للعالم. سيعكس أي نوع من أنظمة التصنيف دائمًا قيم الشخص الذي يقوم بالتصنيف.