مع اعتماد الشركات بشكل متزايد على منصات التوظيف المعتمدة على الذكاء الاصطناعي، يجد العديد من المرشحين المؤهلين أنفسهم قد تمكنوا من الحصول على الوظيفة.
تحليل لغة الجسد، التقييمات الصوتية، اختبارات مفصلة، ماسحات السيرة الذاتية. هذه بعض الأدوات التي تستخدمها الشركات لفحص المرشحين باستخدام برامج توظيف الذكاء الاصطناعي. يمر المتقدمون للوظائف ببعض من هذه الاختبارات، ويقرر الذكاء الاصطناعي ما إذا كانوا مناسبين أم لا.
وباتت الشركات تعتمد عليها بشكل متزايد، إذ أظهر استطلاع أجرته شركة IBM في أواخر عام 2023 وشمل أكثر من 8500 متخصص عالمي في مجال تكنولوجيا المعلومات أن 42 في المئة من الشركات تستخدم فحص الذكاء الاصطناعي "لتحسين التوظيف وخدمات الموارد البشرية".
وكان 40 في المئة آخرين من المشاركين يفكرون في بدء استخدام هذه التكنولوجيا.
كان العديد من أصحاب الشركات في جميع أنحاء العالم، يأملون أن تؤدي تقنية التوظيف باستخدام الذكاء الاصطناعي إلى إنهاء "التحيزات" في عملية التوظيف. لكن في بعض الحالات، يحدث العكس. يقول بعض الخبراء إن هذه الأدوات تقوم بشكل غير دقيق بفحص بعض المتقدمين للوظائف الأكثر تأهيلاً - وتتزايد المخاوف من أن البرنامج قد يستثني أفضل المرشحين.
تقول هيلك شيلمان، أستاذة مساعدة للصحافة في جامعة نيويورك، ومؤلفة كتاب "الخوارزمية: كيف يمكن للذكاء الاصطناعي أن يخطف حياتك المهنية ويسرقك": لم نر الكثير من الأدلة على عدم وجود تحيز هنا، أو أن الأداة تختار المرشحين الأكثر كفاءة.
وتعتقد أن الخطر الأكبر الذي تشكله مثل هذه البرامج على الوظائف ليس أن تأخذ الآلات مكان البشر، كما يُخشى في كثير من الأحيان - بل في منعهم من الحصول على وظيفة على الإطلاق.
"ضرر لا يوصف"
لقد وجد بعض المرشحين المؤهلين للوظائف أنفسهم على خلاف مع منصات التوظيف هذه.
في إحدى الحالات في عام 2020، قالت أخصائية التجميل أنثيا ميروديو، المقيمة في المملكة المتحدة، إن شركتها طلبت منها إعادة التقدم للمنصب بعد أن حصلت على إجازة أثناء انتشار وباء كورونا. وقد تم تقييمها بناءً على أدائها السابق وعبر برنامج فحص الذكاء الاصطناعي هاير فيو "HireView".
وتقول إنها حصلت على تصنيف جيد في تقييم المهارات - ولكن بعد أن سجلت أداة الذكاء الاصطناعي لغة جسدها بشكل "سيئ"، أصبحت عاطلة عن العمل إلى الأبد. قامت الشركة بإزالة وظيفة تحليل الوجه في عام 2021 وقد قدم موظفون آخرون شكاوى ضد منصات مماثلة، بحسب قول الأستاذة الجامعية شيلمان.
تضيف شيلمان أن المرشحين للوظائف نادراً ما يعرفون ما إذا كانت هذه الأدوات هي السبب الوحيد وراء رفض الشركات لهم، إذ لا يخبر البرنامج المستخدمين بنتيجة تقييمهم. ومع ذلك، فهي تقول إن هناك العديد من الأمثلة على العيوب النظامية في هذه التكنولوجيا.
في إحدى الحالات، قدم أحد المستخدمين الذين تم استبعادهم نفس الطلب ولكنه قام بتعديل تاريخ الميلاد ليجعل نفسه أصغر سناً. ومع هذا التغيير، تمكن من الحصول على مقابلة.
وفي شركة أخرى، تم تدريب أحد القائمين على فحص السيرة الذاتية باستخدام الذكاء الاصطناعي على السير الذاتية للموظفين الموجودين أصلاً في الشركة، مما يمنح الأشخاص علامات إضافية إذا أدرجوا "البيسبول" أو "كرة السلة" ضمن هواياتهم - وهي الهوايات المرتبطة بموظفين "أكثر نجاحاً"، بحسب الشركة، وغالباً ما يكونون من الرجال. أما أولئك الذين ذكروا "الكرة اللينة" كهوايتهم المفضلة - عادة النساء - تم تخفيض تصنيفهم.
تقول شيلمان إن المجموعات المهمشة "تفشل في كثير من الأحيان، لأن لديهم هوايات مختلفة، وذهبوا إلى مدارس مختلفة".
في بعض الحالات، تكون معايير الاختيار المتحيزة واضحة - مثل التمييز على أساس السن أو التمييز على أساس الجنس - ولكن في حالات أخرى، تكون غامضة. في بحثها، تقدمت شيلمان بطلب للحصول على وظيفة في مركز اتصال، ليتم فحصها بواسطة الذكاء الاصطناعي.
ثم قامت بتسجيل الدخول من حساب صاحب العمل، وحصلت على تقييم عالٍ في المقابلة، على الرغم من تحدثها باللغة الألمانية بشكل سيئ بينما كان من المفترض أن تتحدث الإنجليزية، لكنها حصلت على تقييم ضعيف لأوراق اعتمادها الفعلية ذات الصلة في ملفها الشخصي على موقع لينكد إن للتوظيف.
"لا أحد يعرف بالضبط أين يقع الضرر"
وتوضح قائلة: "المشكلة هي أنه لا أحد يعرف بالضبط أين يقع الضرر". وبالنظر إلى أن الشركات وفرت المال عن طريق استبدال موظفي الموارد البشرية البشرية بالذكاء الاصطناعي - الذي يمكنه معالجة أكوام من السير الذاتية في جزء صغير من الوقت - فهي تعتقد أن الشركات قد يكون لديها القليل من الحافز لفحص الخلل في الآلة.
ومن خلال بحثها، أعربت شيلمان أيضاً عن قلقها من أن شركات برمجيات الفحص "تسرع" في تسويق المنتجات غير المتطورة.
"لن يخرج أصحاب الشركات علناً ويقولوا إن أداتنا لم تنجح، أو أنها كانت ضارة للناس"، ولا تزال الشركات التي استخدمتها "خائفة من أنه ستكون هناك دعوى قضائية جماعية ضخمة ضدهم".
تقول ساندرا واتشر، أستاذة التكنولوجيا والتنظيم في معهد الإنترنت بجامعة أكسفورد، إنه من المهم الحصول على هذه التكنولوجيا ولكن، بشكل صحيح.
وتقول: إن وجود ذكاء اصطناعي غير متحيز وعادل ليس فقط الشيء الأخلاقي والقانوني الضروري الذي يجب القيام به، بل هو أيضاً شيء يزيد من أرباح الشركة. وتضيف "هناك فرصة للسماح بتطبيق الذكاء الاصطناعي بطريقة تجعله يتخذ قرارات أكثر عدلاً وإنصافاً تعتمد على الجدارة والتي تزيد أيضاً من أرباح الشركة."
تعمل أداة واتشر أو Wachter المتاحة للجمهور، كنظام إنذار يخطرك إذا كانت الخوارزمية الخاصة بك متحيزة أم لا، ثم تمنحك الفرصة لمعرفة نقاط الخلل. ومنذ تطويرها في عام 2020، تعد أمازون وآي بي إم من بين الشركات الأبرز التي اعتمدتها.
وفي الوقت نفسه، تدعو شيلمان إلى وضع "حواجز حماية وتنظيم" على مستوى الصناعة من جانب الحكومات أو المنظمات غير الربحية لضمان عدم استمرار المشاكل الحالية. إذا لم يكن هناك تدخل الآن، فهي تخشى أن يؤدي الذكاء الاصطناعي إلى جعل مكان العمل في المستقبل غير متكافئ أكثر من قبل.
التعليقات {{getCommentCount()}}
كن أول من يعلق على الخبر
رد{{comment.DisplayName}} على {{getCommenterName(comment.ParentThreadID)}}
{{comment.DisplayName}}
{{comment.ElapsedTime}}