هوش مصنوعی هم به نابرابری‌های اجتماعی دامن می‌زند

محققان می‌گویند دخالت انسان‌ها در ارائه داده باعث می‌شود مواردی چون تبعیض و نژادپرستی همچنان به شکل سیتماتیک وجود داشته باشد

یکی از نقدهایی که همیشه به حوزه فناوری می‌شود، در نظر نگرفتن ملاحظات مربوط به ارتباط فناوری با انسان است. به نظر می‌رسد که طراحی هوش مصنوعی هم در همین راستا، آن‌طور که باید، درک عمیقی از معنای داده‌های مربوط به انسان ندارد. در تحقیق جدیدی که دو جامعه‌شناس دانشگاه درکسل پنسیلوانیا انجام داده‌اند، این‌طور بیان شده که باید توجه بیشتری به تأثیر اجتماعی هوش مصنوعی صورت گیرد. دکتر کلی جویس در این رابطه گفته است: «همه‌گیری ویروس کرونا استفاده از هوش مصنوعی را جایگزین نیروی انسانی کرده و توانسته خطرات مرتبط با تعاملات چهره‌‌به‌چهره را کاهش دهد.»

این استاد دانشگاه درکسل می‌گوید که این دانشگاه به‌طور فزاینده‌ای شاهد نمونه‌هایی از الگوریتم‌هایی است که نابرابری‌های موجود را تشدید می‌کند. به گفته وی، همان‌طور که نهادهای مرتبط با آموزش و مراقبت‌های بهداشتی به این نابرابری‌ها توجه می‌کنند، در حوزه هوش مصنوعی هم باید این ملاحظات صورت گیرد. جویس و سوزان بل که استاد دانشگاه درکسل هستند، در مقاله‌ای که به‌تازگی در نشریه سوسیوس منتشر شده، این‌طور نوشته‌اند که نگرانی‌ها در مورد فشار برای سرعت‌گرفتن توسعه هوش مصنوعی در ایالات متحده، آن هم بدون لحاظ‌کردن تمرین‌های آموزشی، شدت گرفته است. مقاله آن‌ها به ابعاد جامعه‌شناسانه هوش مصنوعی توجه کرده و در این رابطه راهکارهایی را ارائه می‌دهد. یکی از مواردی که در این مقاله به آن اشاره شده، این پرسش است که آیا هوش مصنوعی به واسطه نژادپرستی سیستماتیک و تعصبات انسانی، در معرض خطر قرار گرفته است؟ به‌عنوان مثال می‌توان به موتور جست‌وجوی گوگل اشاره کرد که با وجود خنثی‌بودن از قضاوت و دخالت‌دادن تعصب‌ها، جنسیت‌گرایی و نژادپرستی‌های روزمره را بازسازی کرده و در نتایج خود اعمال می‌کند.
بل این‌طور می‌گوید که نتایج جست‌وجوهای گوگل بازتاب‌دهنده تصمیماتی است که برای ایجاد الگوریتم‌ها و کدها صورت می‌گیرد و این مسئله هم در نهایت دیدگاه کارمندان گوگل را منعکس می‌کند. در حقیقت تصمیمات آن‌ها درباره اینکه چه چیزی به‌عنوان جنسیت و نژادپرستی لحاظ شود، خود منعکس‌کننده ساختارهای اجتماعی گسترده‌تری است که این نژادپرستی و تبعیض را شکل داده است. هرچند گوگل اجازه مشارکت کارمندان در نتایج جست‌وجوها و اعمال فیلترهای جنسیتی و نژادپرستانه را نمی‌دهد، اما در نهایت داده‌ها از سوی همین افراد وارد می‌شود. بل معتقد است بر خلاف بی‌طرفی نسبی نتایج جست‌وجوی گوگل، مسئله نابرابری اجتماعی از سوی کارمندان بر این نتایج اعمال می‌شود. نمونه دیگری که این محققان به آن اشاره می‌کنند، سیستم‌های هوش مصنوعی است که از داده‌های پرونده الکترونیک سلامت بیماران برای ارائه توصیه‌های درمانی بهره می‌برند.

البته دانشمندان هنگام طراحی سیستم‌های هوش مصنوعی، حریم خصوصی را در نظر می‌گیرند، اما هیچ آموزشی به آن‌ها این موضوع را یاد نمی‌دهد که باید ابعاد چندظرفیتی داده‌های انسانی را درک کنند. جویس یکی از نویسندگان این مقاله علمی، این‌طور توضیح می‌دهد: «وقتی از یک رویکرد جامعه‌شناسی به این مسئله نگاه می‌کنید، می‌بینید که نتایج این سیستم‌ها بیشتر از آنکه درباره درمان‌های خاص بگوید، از تفاوت‌های طبقاتی و نژادپرستی می‌گوید.» این مقاله با اشاره به برخی مثال‌ها، نشان می‌دهد که چطور همین سیستم‌های به‌ظاهر خنثی از نظر قضاوت، به بیماران سیاه‌پوست توصیه می‌کرده که نسبت به بیماران سفیدپوست نیاز به مراقبت کمتری دارند. این مقاله تأکید می‌کند که هوش مصنوعی با چنین روالی که در پیش گرفته، می‌تواند نابرابری‌های موجود را تشدید کند.

بل می‌گوید: «داشتن یک درک جامعه‌شناسانه از داده‌های کسب‌شده از سوی فناوری مهم است؛ چراکه اگر این شناخت وجود نداشته باشد، می‌تواند در بلندمدت به بازتولید و تشدید نابرابری‌ها دامن بزند.» دانشمندانی که این مقاله را نوشته‌اند از جامعه‌شناسان دعوت کرده‌اند تا از ابزارهای نظری و روش‌شناختی این رشته برای تحلیل چگونگی دوام این نابرابری‌ها استفاده کنند. به اعتقاد آن‌ها، جامعه‌شناسان آموزش دیده‌اند تا این نابرابری‌ها را بررسی و تحلیل و به راهکارهایی برای تغییر آن‌ها فکر کنند. به همین خاطر است که جامعه‌شناسان باید نقش اصلی را در تصور و شکل‌دادن به آینده هوش مصنوعی ایفا کنند.

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.