• چهارشنبه / ۱۲ اردیبهشت ۱۴۰۳ / ۰۸:۲۲
  • دسته‌بندی: هوش مصنوعی
  • کد خبر: 1403021208839
  • خبرنگار : 71604

انسان‌ها سوگیری یادگیری ماشینی را بیشتر از سوگیری خود تشخیص می‌دهند

انسان‌ها سوگیری یادگیری ماشینی را بیشتر از سوگیری خود تشخیص می‌دهند

یک پژوهش جدید نشان می‌دهد که افراد سوگیری تصمیم‌های الگوریتم‌ یادگیری ماشینی را بیشتر از سوگیری تصمیم‌های خودشان تشخیص می‌دهند. شاید بتوان از این ویژگی برای اصلاح سوگیری‌های انسان استفاده کرد.

به گزارش ایسنا، از برنامه‌هایی که تماشا می‌کنیم تا افرادی که استخدام می‌کنیم، الگوریتم‌ها به طور فزاینده‌ای در زندگی روزمره ما ادغام می‌شوند و بی‌سروصدا بر تصمیم‌هایی که می‌گیریم اثر می‌گذارند.

به نقل از ادونسد ساینس نیوز، هسته الگوریتم‌ها، مجموعه‌ای از قوانین یا دستورالعمل‌هاست که برای پردازش اطلاعات و به دست آوردن یک نتیجه خاص طراحی شده‌اند اما از آنجا که الگوریتم‌ها از الگوهای رفتاری انسان یاد می‌گیرند، می‌توانند سوگیری‌هایی را که درون ما وجود دارند، منعکس یا حتی تقویت کنند. با وجود این، یک پژوهش جدید نشان می‌دهد که این ممکن است زیاد بد نباشد.

«کری موروج»(Carey Morewedge) استاد «دانشگاه بوستون»(Boston University) معتقد است که این بازتاب می‌تواند نقاط کور سوگیری ما را روشن کند و در اصلاح رفتار نقش داشته باشد. الگوریتم‌های یادگیری ماشینی بسیار موفق هستند زیرا می‌توانند بی‌طرفانه الگوها را در مجموعه داده‌ها پیدا کنند اما در عین حال، سوگیری‌های انسانی را نیز در داده‌های آموزشی خود لحاظ کنند.

هنگامی که این سوگیری‌ها در الگوریتم‌ها شناسایی می‌شوند، می‌توانند به آشکارسازی سوگیری‌های بلندمدت در سازمان‌ها کمک کنند. به عنوان مثال، شرکت «آمازون»(Amazon) سوگیری جنسیتی را در شیوه‌های استخدام خود بررسی نکرده بود اما با آزمایش یک الگوریتم که رزومه‌های جدید را براساس شیوه‌های پیشین استخدام شرکت ارزیابی می‌کرد، به این موضوع پی برد.

موروج گفت: الگوریتم‌ها می‌توانند سوگیری‌های انسانی را کدگذاری و تقویت کنند اما سوگیری‌های ساختاری را نیز در جامعه ما نشان می‌دهند.

انسان‌ها سوگیری‌های خود را تشخیص نمی‌دهند

موروج و گروهش در پژوهش خود نشان دادند که افراد معمولا تمایل بیشتری را به تشخیص دادن و تصحیح کردن سوگیری‌های موجود در تصمیم‌گیری الگوریتم در مقایسه با تصمیم‌گیری خودشان دارند. آنها باور دارند که با دانستن این موضوع ممکن است بتوان از الگوریتم‌ها برای رسیدگی به سوگیری‌های موجود در تصمیم‌گیری‌ها استفاده کرد.

انسان‌ها به دلیل پدیده‌ای به نام «نقطه کور سوگیری»، برای دیدن سوگیری خود تلاش زیادی نمی‌کنند و بیشتر متوجه سوگیری افراد دیگر هستند. دلیل این است که ما می‌توانیم در فرآیندهای تصمیم‌گیری خود، سوگیری را توجیه کنیم یا برای آن بهانه بیاوریم. برای ناظری که هیچ اطلاعاتی درباره فرآیند فکری یا چگونگی تصمیم‌گیری ندارد، سوگیری‌ها واضح‌تر و بهانه‌جویی دشوارتر است.

موروج و همکارانش در این پژوهش نشان دادند که حتی وقتی الگوریتم‌ها براساس رفتارهای ما آموزش داده می‌شوند نیز این موضوع صادق است.

تشخیص دادن سوگیری در الگوریتم ساده‌تر است

پژوهشگران در یک مجموعه آزمایش، از شرکت‌کنندگان خواستند تا سرویس «ایربی‌ان‌بی»(AirBnB) و رانندگان «لیفت»(Lyft) را براساس معیارهای تشخیصی مانند تعداد ستاره‌ها، ارزیابی‌ها و مدت زمان حضور داشتن کنار راننده رتبه‌بندی کنند.

پژوهشگران معیارهای غیرتشخیصی مانند تصویر یا نام را که هیچ ارتباطی با کار ندارند، دستکاری کردند. شرکت‌کنندگان دو بار رتبه‌بندی را انجام دادند و سپس، رتبه‌بندی‌های آنها یا رتبه‌بندی الگوریتم آموزش‌داده‌شده نشان داده شد.

گاهی اوقات رتبه‌بندی خود شرکت‌کنندگان به آنها نشان داده می‌شد اما به آنها گفته می‌شد که رتبه‌بندی الگوریتم است. در همه سناریوها، شرکت‌کنندگان در مقایسه با الگوریتم‌ها سوگیری کمتری را در رتبه‌بندی‌های خود مشاهده کردند.

موروج گفت: مردم وقتی معتقدند که رتبه‌بندی‌ها توسط یک الگوریتم انجام شده است، تمایل بیشتری به سوگیری دارند. این در حالی است که ما در واقع الگوریتم را روی داده‌های آنها آموزش می‌دهیم و رتبه‌بندی الگوریتم براساس آن داده‌ها صورت می‌گیرد.

وی افزود: این به این معنا نیست که مردم انواع بیشتری از ویژگی‌ها را در الگوریتم‌ها می‌بینند، بلکه چیزهایی را می‌بینند که برای خودشان تهدیدکننده‌تر است. بیشتر مردم نمی‌خواهند از نژاد در رتبه‌بندی‌های خود استفاده کنند یا می‌خواهند نژاد را در آن رتبه‌بندی نادیده بگیرند. بنابراین، این ایده که نژاد بر آن رتبه‌بندی‌ها تأثیر گذاشته، تهدیدکننده است.

در نتیجه، از آنجا که سوگیری در یک الگوریتم به عنوان تصمیم‌گیری ناقص خود ما تلقی نمی‌شود، دیدن یا اعتراف کردن به وجود آن آسان‌تر است. به گفته موروج، این یافته دو روش را ارائه می‌دهد که الگوریتم‌ها به واسطه آن می‌توانند به انسان در کاهش سوگیری کمک کنند.

وی افزود: یک روش این است که تصمیم‌های خود را جمع‌آوری کنید و الگوها را ببینید که به شما کمک می‌کنند تا سوگیری را تشخیص دهید اما هنوز موانعی بر سر راه توانایی ما برای تشخیص دادن سوگیری‌ها وجود دارد. ما انگیزه‌هایی را برای محافظت از خود داریم.

موروج و گروهش با پیروی از این منطق، آزمایش دیگری را انجام دادند تا ببینند آیا احتمال بیشتری وجود دارد که شرکت‌کنندگان به اصلاح سوگیری در رتبه‌بندی‌های خود یا الگوریتم بپردازند. پس از مشاهده رتبه‌بندی‌ها، به شرکت‌کنندگان فرصت داده شد تا سوگیری را اصلاح کنند و احتمال بیشتری وجود داشت که اصلاحاتی را در رتبه‌بندی الگوریتم انجام دهند. موروج گفت: از آنجا که افراد سوگیری را بیشتر در رتبه‌بندی الگوریتم می‌بینند تا خودشان، احتمال بیشتری وجود دارد که رتبه‌بندی‌های الگوریتم را اصلاح کنند.

موروج اذعان داشت که این پژوهش هنوز در مراحل اولیه است اما او روش ملموسی را می‌بیند که از طریق آن می‌توان یافته‌ها را در آموزش دادن الگوریتم برای جلوگیری از سوگیری در دنیای واقعی ادغام کرد. وی افزود: اولین گام این است که افراد سوگیری‌های خود را بفهمند و آنها را ببینند. من فکر می‌کنم این الگوریتم‌ها، روش سودمندی برای ارائه دادن یک دیدگاه واقعی‌تر به افراد درباره میزان سوگیری آنها هستند.

این پژوهش در مجله «PNAS» به چاپ رسید.

انتهای پیام

  • در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:
  • -لطفا نظرات خود را با حروف فارسی تایپ کنید.
  • -«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.
  • - ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های دین مبین اسلام باشد معذور است.
  • - نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.

نظرات

شما در حال پاسخ به نظر «» هستید.
لطفا عدد مقابل را در جعبه متن وارد کنید
captcha