کارنگ رسانه اقتصاد نوآوری است. رسانهای که نسخه چاپی آن هر هفته شنبهها منتشر میشود و وبسایت و شبکههای اجتماعیاش هر ساعت، اخبار و تحولات این بخش از اقتصاد را پوشش میدهند. در کارنگ ما تلاش داریم کسبوکارهای نوآور ایرانی، استارتاپها، شرکتهای دانشبنیان و دیگر کسبوکارها کوچک و بزرگی که در بخشهای مختلف اقتصاد نوآوری در حال ارائه محصول و خدمت هستند را مورد بررسی قرار دهیم و از آینده صنعت، تولید، خدمات و دیگر بخشهای اقتصاد بگوییم. کارنگ رسانهای متعلق به بخش خصوصی ایران است.
یکی از نقدهایی که همیشه به حوزه فناوری میشود، در نظر نگرفتن ملاحظات مربوط به ارتباط فناوری با انسان است. به نظر میرسد که طراحی هوش مصنوعی هم در همین راستا، آنطور که باید، درک عمیقی از معنای دادههای مربوط به انسان ندارد. در تحقیق جدیدی که دو جامعهشناس دانشگاه درکسل پنسیلوانیا انجام دادهاند، اینطور بیان شده که باید توجه بیشتری به تأثیر اجتماعی هوش مصنوعی صورت گیرد. دکتر کلی جویس در این رابطه گفته است: «همهگیری ویروس کرونا استفاده از هوش مصنوعی را جایگزین نیروی انسانی کرده و توانسته خطرات مرتبط با تعاملات چهرهبهچهره را کاهش دهد.»
این استاد دانشگاه درکسل میگوید که این دانشگاه بهطور فزایندهای شاهد نمونههایی از الگوریتمهایی است که نابرابریهای موجود را تشدید میکند. به گفته وی، همانطور که نهادهای مرتبط با آموزش و مراقبتهای بهداشتی به این نابرابریها توجه میکنند، در حوزه هوش مصنوعی هم باید این ملاحظات صورت گیرد. جویس و سوزان بل که استاد دانشگاه درکسل هستند، در مقالهای که بهتازگی در نشریه سوسیوس منتشر شده، اینطور نوشتهاند که نگرانیها در مورد فشار برای سرعتگرفتن توسعه هوش مصنوعی در ایالات متحده، آن هم بدون لحاظکردن تمرینهای آموزشی، شدت گرفته است. مقاله آنها به ابعاد جامعهشناسانه هوش مصنوعی توجه کرده و در این رابطه راهکارهایی را ارائه میدهد. یکی از مواردی که در این مقاله به آن اشاره شده، این پرسش است که آیا هوش مصنوعی به واسطه نژادپرستی سیستماتیک و تعصبات انسانی، در معرض خطر قرار گرفته است؟ بهعنوان مثال میتوان به موتور جستوجوی گوگل اشاره کرد که با وجود خنثیبودن از قضاوت و دخالتدادن تعصبها، جنسیتگرایی و نژادپرستیهای روزمره را بازسازی کرده و در نتایج خود اعمال میکند.
بل اینطور میگوید که نتایج جستوجوهای گوگل بازتابدهنده تصمیماتی است که برای ایجاد الگوریتمها و کدها صورت میگیرد و این مسئله هم در نهایت دیدگاه کارمندان گوگل را منعکس میکند. در حقیقت تصمیمات آنها درباره اینکه چه چیزی بهعنوان جنسیت و نژادپرستی لحاظ شود، خود منعکسکننده ساختارهای اجتماعی گستردهتری است که این نژادپرستی و تبعیض را شکل داده است. هرچند گوگل اجازه مشارکت کارمندان در نتایج جستوجوها و اعمال فیلترهای جنسیتی و نژادپرستانه را نمیدهد، اما در نهایت دادهها از سوی همین افراد وارد میشود. بل معتقد است بر خلاف بیطرفی نسبی نتایج جستوجوی گوگل، مسئله نابرابری اجتماعی از سوی کارمندان بر این نتایج اعمال میشود. نمونه دیگری که این محققان به آن اشاره میکنند، سیستمهای هوش مصنوعی است که از دادههای پرونده الکترونیک سلامت بیماران برای ارائه توصیههای درمانی بهره میبرند.
البته دانشمندان هنگام طراحی سیستمهای هوش مصنوعی، حریم خصوصی را در نظر میگیرند، اما هیچ آموزشی به آنها این موضوع را یاد نمیدهد که باید ابعاد چندظرفیتی دادههای انسانی را درک کنند. جویس یکی از نویسندگان این مقاله علمی، اینطور توضیح میدهد: «وقتی از یک رویکرد جامعهشناسی به این مسئله نگاه میکنید، میبینید که نتایج این سیستمها بیشتر از آنکه درباره درمانهای خاص بگوید، از تفاوتهای طبقاتی و نژادپرستی میگوید.» این مقاله با اشاره به برخی مثالها، نشان میدهد که چطور همین سیستمهای بهظاهر خنثی از نظر قضاوت، به بیماران سیاهپوست توصیه میکرده که نسبت به بیماران سفیدپوست نیاز به مراقبت کمتری دارند. این مقاله تأکید میکند که هوش مصنوعی با چنین روالی که در پیش گرفته، میتواند نابرابریهای موجود را تشدید کند.
بل میگوید: «داشتن یک درک جامعهشناسانه از دادههای کسبشده از سوی فناوری مهم است؛ چراکه اگر این شناخت وجود نداشته باشد، میتواند در بلندمدت به بازتولید و تشدید نابرابریها دامن بزند.» دانشمندانی که این مقاله را نوشتهاند از جامعهشناسان دعوت کردهاند تا از ابزارهای نظری و روششناختی این رشته برای تحلیل چگونگی دوام این نابرابریها استفاده کنند. به اعتقاد آنها، جامعهشناسان آموزش دیدهاند تا این نابرابریها را بررسی و تحلیل و به راهکارهایی برای تغییر آنها فکر کنند. به همین خاطر است که جامعهشناسان باید نقش اصلی را در تصور و شکلدادن به آینده هوش مصنوعی ایفا کنند.