
ابزارهای هوش مصنوعی برای فرآیند استخدام به یک موضوع داغ تبدیل شده است، اما وزارت دادگستری هشدار می دهد که استفاده بی دقت از این فرآیندها می تواند منجر به نقض قوانین ایالات متحده در حمایت از دسترسی برابر برای افراد دارای معلولیت شود. اگر شرکت شما از مرتبسازی الگوریتمی، ردیابی چهره یا سایر روشهای پیشرفته برای مرتبسازی و ارزیابی کاندیداها استفاده میکند، ممکن است بخواهید نگاه دقیقتری به کاری که آنها انجام میدهند بیندازید.
کمیسیون فرصتهای شغلی برابر این وزارتخانه، که بر روندهای صنعت و اقدامات مرتبط با همین موضوع نظارت و مشاوره میدهد، دستورالعملهایی را درباره نحوه استفاده ایمن از ابزارهای مبتنی بر الگوریتم بدون خطر حذف سیستماتیک افراد دارای معلولیت، صادر کرده است.
«فناوری های جدید نباید به شیوه های جدید تبعیض تبدیل شوند. شارلوت باروز، رئیس EEOC، در بیانیهای مطبوعاتی با اعلام این دستورالعملها گفت: اگر کارفرمایان از روشهایی که هوش مصنوعی و سایر فناوریها میتوانند علیه افراد دارای معلولیت تبعیض قائل شوند، آگاه باشند، میتوانند برای جلوگیری از آن اقداماتی انجام دهند.
معنای کلی دستورالعمل ها این است که با دقت فکر کنید (و نظر گروه های مربوطه را جویا شوید) در مورد اینکه آیا این فیلترها، تست ها، شاخص ها و غیره هستند. اندازه گیری کیفیت یا کمیت های مربوط به عملکرد کار. آنها چندین مثال ارائه می دهند:
- کاندیدایی که دارای اختلال بینایی است باید یک آزمون یا تکلیف را با یک جزء بصری انجام دهد تا واجد شرایط مصاحبه باشد، مانند یک بازی. مگر اینکه کار دارای مولفه بصری باشد، این به طور ناعادلانه نامزدهای نابینا را قطع می کند.
- غربالگری چت بات سوالاتی را می پرسد که بیان یا طراحی ضعیفی دارند، مانند اینکه آیا فرد می تواند چندین ساعت بایستد یا خیر، و پاسخ “نه” نامزد را رد صلاحیت می کند. فردی که روی ویلچر مینشیند مطمئناً میتواند کارهای زیادی را انجام دهد که برخی ممکن است فقط از حالت نشسته انجام دهند.
- یک سرویس تجزیه و تحلیل CV مبتنی بر هوش مصنوعی برنامه را به دلیل عدم اشتغال کاهش می دهد، اما این شکاف ممکن است به دلیل ناتوانی یا شرایطی باشد که تحریم آن نادرست است.
- فیلمنامهنویس صوتی خودکار از داوطلبان میخواهد که به سؤالات پاسخ دهند یا مشکلات را به صورت صوتی آزمایش کنند. طبیعتاً این امر ناشنوایان و کم شنواها و همچنین افراد دارای نقص گفتار را مستثنی می کند. مگر اینکه کار شامل گفتار زیاد باشد، این اشتباه است.
- یک الگوریتم تشخیص چهره احساسات افراد را در طول یک مصاحبه ویدیویی ارزیابی می کند. اما فرد عصبی است یا از فلج صورت به دلیل سکته رنج می برد. نتایج آنها فوق العاده خواهد بود.
این بدان معنا نیست که هیچ یک از این ابزارها یا روش ها اشتباه یا اساساً تبعیض آمیز است به نحوی که قانون را نقض کند. اما شرکتهایی که از آنها استفاده میکنند باید محدودیتهای آنها را بشناسند و ابزارهای معقولی را در صورتی که الگوریتم، مدل یادگیری ماشین یا برخی فرآیندهای خودکار دیگر برای استفاده با نامزد نامناسب است، ارائه دهند.
در دسترس بودن جایگزین های مقرون به صرفه بخشی از این امر است، اما همچنین در مورد فرآیند استخدام و از قبل اعلام کردن مهارت ها و نحوه آزمایش شفاف است. افراد دارای معلولیت بهترین قضاوت را در مورد نیازهایشان دارند و در صورت وجود، چه مسکنی می خواهند.
اگر شرکتی تسهیلات معقول را برای این فرآیندها فراهم نکند یا نتواند فراهم کند – و بله، این شامل فرآیندهایی است که توسط اشخاص ثالث ساخته و اجرا شده است – ممکن است تحت پیگرد قانونی قرار گیرد یا در غیر این صورت مسئول این شکست باشد.
طبق معمول، هر چه زودتر به این نوع چیزها توجه شود، بهتر است. اگر شرکت شما در مورد مسائلی مانند استخدام، دسترسی به وبسایتها و برنامهها و ابزارها و خطمشیهای داخلی با یک متخصص دسترسی مشورت نکرده است، با آنها تماس بگیرید.
در ضمن، میتوانید دستورالعملهای کامل وزارت دادگستری را اینجا بخوانید، نسخهای کوتاه برای کارگرانی که فکر میکنند ممکن است در اینجا مورد تبعیض قرار بگیرند و به دلایلی نسخه کوتاهشده دیگری از مدیریت را در اینجا بخوانید.