کارنگ رسانه اقتصاد نوآوری است. در کارنگ ما تلاش داریم کسبوکارهای نوآور ایرانی، استارتاپها، شرکتهای دانشبنیان و دیگر کسبوکارها کوچک و بزرگی که در بخشهای مختلف اقتصاد نوآوری در حال ارائه محصول و خدمت هستند را مورد بررسی قرار دهیم و از آینده صنعت، تولید، خدمات و دیگر بخشهای اقتصاد بگوییم. کارنگ رسانهای متعلق به بخش خصوصی ایران است.
۱۵ خطر بزرگ هوش مصنوعی به روایت فوربس
جدیدترین گزارش منتشرشده از سوی فوربس به معرفی ۱۵ خطر بزرگ فناوری هوش مصنوعی پرداخته است. به گفته فوربس، از آنجا که جهان شاهد رشد بیسابقه فناوری ساختارشکن هوش مصنوعی است، توجه به خطرات و چالشهای بالقوه این فناوری میتواند از اهمیت بالایی برخوردار باشد.
هوش مصنوعی خطرات بزرگ و بسیار مهمی در پی دارد که از کار گرفته تا نگرانیهای مربوط به امنیت و حریم خصوصی را در بر میگیرد و حتی به زعم برخی میتواند به ضرر بشریت یا حتی نابودی آن منجر شود. به همین دلیل است که فوربس نیز سعی کرده در کنار پرداختن به قابلیتها و پتانسیلهای خارقالعاده این فناوری تأثیرگذار، در این شماره از مجله فناوری خود به معرفی تعدادی از ریسکها و پیامدهای قانونی، اخلاقی و اجتماعی بزرگ آن نیز بپردازد که نیاز به بحث، تفکر عمیق، تحلیل و اقدام دارد.
در ادامه، ۱۵ مورد از بزرگترین ریسکهای فناوری هوش مصنوعی از منظر فوربس معرفی میشوند:
عدم شفافیت
با توجه به اینکه فرایند یادگیری سیستمهای هوش مصنوعی، بهویژه در مدلهای یادگیری عمیق بهشدت پیچیده، غیر قابل تفسیر و هنوز در هالهای از ابهام است، میتوان گفت مهمترین و بزرگترین ریسک محصولات مولد مبتنی بر هوش مصنوعی عدم شفافیت آنهاست.
این عدم شفافیت فرآیندهای تصمیمگیری و منطق زیربنایی محصولات مولد مبتنی بر هوش مصنوعی باعث شده این محصولات برای مردم مبهم باشند. زمانی که مردم نتوانند نحوه تصمیمگیری و منطق یک محصول را درک کنند، نسبت به آن بیاعتماد خواهند بود و ممکن است در قبال پذیرش و توسعه آن قد علم کنند. البته این وجه از ماجرا صرفاً ضرر خود سیستمهای هوش مصنوعی را نشان میدهد.
قضیه زمانی جدی میشود که به جنبه دیگر این عدم شفافیت نیز توجه کنیم. اینکه امکان دارد در سایه این عدم شفافیت، فرایند یادگیری، منطق و تصمیمگیری این محصول برخلاف اخلاق، اصول و منافع بشری صورت بگیرد و این درست همان چیزی است که بسیاری از متخصصان و بزرگان فناوری جهان را به وحشت انداخته است.
تبعیض و تعصب
سیستمهای هوش مصنوعی میتوانند به دلیل دادههای مورد استفاده در فرایند یادگیری خود یا به واسطه طراحی الگوریتمیشان، تعصبات و تبعیضهای اجتماعی را تداوم بخشیده یا حتی تقویت کنند. برای به حداقل رساندن تبعیض در مدلهای هوش مصنوعی مولد و کسب اطمینان از عدالت، سرمایهگذاری در توسعه الگوریتمهای بیطرفانه و مجموعه دادههای آموزشی متنوع از اهمیت بسیار زیادی برخوردار است.
حریم خصوصی
فناوریهای هوش مصنوعی معمولاً برای فرایند یادگیری طیف گستردهای از دادههای شخصی را گردآوری کرده و تجزیه و تحلیل میکنند و بر همین اساس نیز یکی از نگرانیهای مهم پیرامون توسعه آنها بحث حریم خصوصی و امنیت دادههاست. حراست از دادهها و کاهش ریسکهای حریم خصوصی این فناوریها، مستلزم تدوین و پیادهسازی مقررات سختگیرانه حفاظت از داده و اعمال شیوههای ایمن رسیدگی به داده است.
معضلات اخلاقی
القای ارزشهای اخلاقی و فرهنگی در سیستمهای هوش مصنوعی، بهویژه در زمینههایی که منطق و تصمیمگیری صورتگرفته توسط یک محصول مولد مبتنی بر هوش مصنوعی میتواند پیامدهای قابل توجهی در پی داشته باشد، یک چالش بسیار مهم است. محققان میگویند کسانی که طراح، آموزشدهنده و توسعهدهنده سیستمهای هوش مصنوعی هستند، باید پیامدهای اخلاقی فناوریهای هوش مصنوعی را برای جلوگیری از تأثیرات منفی اجتماعی این سیستمها در اولویت قرار دهند.
خطرات امنیتی
همینطور که سیستمهای هوش مصنوعی توسعه یافته و پیچیدهتر میشوند، ریسکهای امنیتی مرتبط با آنها هم پیچیدهتر شده و احتمال سوءاستفاده نیز رو به فزونی میگذارد. هکرها و عوامل مخرب این قابلیت را خواهند داشت که از قدرت هوش مصنوعی برای توسعه حملات سایبری پیشرفتهتر، دور زدن اقدامات امنیتی و سوء استفاده از باگهای موجود در پلتفرمها و سیستمها استفاده کنند.
بهعلاوه این خطر نیز وجود دارد که برخی از کشورها، دولتها یا افراد بخواهند از این فناوری در راستای توسعه تسلیحات خودمختار استفاده کنند. بدون شک این قبیل سیستمها و محصولات (که پیشتر بسیاری از آنها را در فیلمهای علمی و تخیلی دیدهایم) قابلیت آن را دارند که امنیت بشری را به خطر بیندازند؛ چه زمانی که تحت سلطه یک دولت یا حزب خبیث و سرکش باشند و چه زمانی که قرار باشد به صورت خودمختار تصمیم گرفته و اقدام کنند.
برای کاهش این خطرات امنیتی و پاسخگویی به چالشهای مرتبط با آن، دولتها و سازمانها باید بهترین شیوهها را برای توسعه و استقرار ایمن هوش مصنوعی توسعه داده و در عین حال، همکاری بینالمللی را (مثلاً از طریق یک آژانس ویژه شبیه به آژانش انرژی اتمی) تقویت کنند؛ با این هدف که هنجارها و مقررات جهانی که از تهدیدات امنیتی هوش مصنوعی محافظت میکنند را پیاده کنند.
تمرکز قدرت
در حال حاضر تنها تعداد اندکی از شرکتها و دولتهای بزرگ قادر به توسعه فناوری هوش مصنوعی در مقیاسی هستند که به تازگی عرضه شده است. شاید تنها عده معدودی از شرکتهای فناوری (غولهای فناوری) بتوانند توسعهدهنده مدلهای هوش مصنوعی مولد مدرنی باشند که بتواند با چت جیپیتی (ChatGPT) و محصولات نظیر آن رقابت کند.
این تمرکز قابلیت میتواند تمرکز قدرت را در پی داشته باشد و از طرفی منجر به محدود شدن تنوع محصولات مبتنی بر هوش مصنوعی نیز بشود. تشویق به توسعه غیرمتمرکز و مشارکتی هوش مصنوعی، فاکتوری کلیدی در جلوگیری از تمرکز قدرت خواهد بود.
وابستگی به هوش مصنوعی
اتکای بیش از حد به سیستمهای هوش مصنوعی ممکن است منجر به از دست دادن خلاقیت، مهارتهای تفکر انتقادی و شهود انسانی شود. درست مثل گوگل که استفاده بیش از حد آن در سایه توسعه شگفتانگیزش باعث شده تا امروز، بسیاری از ما به جای فکر کردن به این موتور جستوجو متوسل شویم و در بسیاری از موارد بیچون و چرا آنچه ارائه داده را پذیرا باشیم، هوش مصنوعی نیز میتواند اثری مشابه اما به مراتب شدیدتر و اثرگذارتر داشته باشد. ایجاد تعادل بین تصمیمگیری به کمک هوش مصنوعی و ورودی انسانی برای حفظ تواناییهای شناختی ما حیاتی است.
جابهجایی مشاغل
اتوماسیون مبتنی بر هوش مصنوعی این پتانسیل را دارد که منجر به از دست دادن مشاغل در صنایع مختلف، بهویژه برای کارگران کممهارت شود.
البته شواهدی وجود دارد که نشان میدهد هوش مصنوعی و سایر فناوریهای نوظهور، مشاغل بیشتری نسبت به حذف آن ایجاد میکنند. مثال بارز این فناوریهای نوظهور و ساختارشکن، روی کار آمدن اینترنت است. فناوری انقلابی و مهمی که اگرچه در ابتدای امر به نظر میرسید بسیاری از مشاغل را نابود کرده، اما در درازمدت مشاغل بسیار بهتر و بیشتری را ایجاد کرد.
رویکردی که میتوان در قبال این ریسک مهم اتخاذ کرد، تطبیق نیروی کار با فناوریهای هوش مصنوعی و محصولات و قابلیتهای توسعهیافته و جدید آن است و کسب مهارتهایی که میتواند در کنار هوش مصنوعی، به کارآمدی و راندمان بیشتر در حوزه مربوطه منتهی شود.
نابرابری اقتصادی
هوش مصنوعی این قابلیت را دارد که با ارائه سود نامتناسب به نفع شرکتهای بزرگتر، منجر به نابرابری اقتصادی شود. همانطور که پیشتر نیز اشاره شد از دست دادن شغل به دلیل اتوماسیون مبتنی بر هوش مصنوعی، بیشتر بر کارگران کممهارت تأثیر میگذارد و منجر به شکاف درآمدی فزاینده و کاهش فرصتهای تحرک اجتماعی میشود. شرکتها یا حتی دولتهای کوچکتر نیز از این قضیه مستثنی نیستند و ممکن است به دلیل توسعه فناوری هوش مصنوعی از قافله عقب بمانند.
تمرکز توسعه و مالکیت هوش مصنوعی در تعداد معدودی از شرکتها و دولتهای بزرگ میتواند این نابرابری را تشدید کند؛ چراکه این شرکتها قدرت و ثروت مورد نیاز برای توسعه مدلهای هوش مصنوعی مدرن اما پرهزینه را دارند، در حالی که شرکتها و دولتهای کوچکتر در حال حاضر صرفاً برای بقا تلاش میکنند.
سیاستها و ابتکاراتی که برابری اقتصادی را ترویج میکنند (نظیر برنامههای مهارتآموزی مجدد، شبکههای ایمنی اجتماعی و توسعه فراگیر هوش مصنوعی که توزیع متعادلتر فرصتها را تضمین میکنند) از جمله راهکارهایی هستند که میتوانند به مبارزه با نابرابری اقتصادی ناشی از توسعه فناوریهای هوش مصنوعی کمک کنند.
چالشهای قانونی و رگولاتوری
تدوین و پیادهسازی چهارچوبهای رگولاتوری و الزامات قانونی جدید برای رسیدگی به چالشهای منحصر به فرد ناشی از فناوریهای هوش مصنوعی، از جمله مسئولیتپذیری و حقوق مالکیت معنوی، از اهمیت بسیار بالایی برخوردار است. این یک الزام بسیار مهم است که سازمانها و نهادهای قانونی و رگولاتوری، به نوعی همسو با توسعه فناوریهای تکنولوژیک مدرن و ساختارشکنی همچون هوش مصنوعی توسعه یافته و تکمیل شوند که بتوانند از حقوق همه حمایت کنند.
مسابقه تسلیحاتی هوش مصنوعی
مسابقه تسلیحاتی که اخیراً و پس از راهاندازی فناوری هوش مصنوعی چت جیپیتی توسط شرکت اوپن ایآی (Open AI) به راه افتاده و بسیاری از غولهای فناوری را بر آن داشته که هر طور شده محصولات مبتنی بر هوش مصنوعی خود را راهاندازی کنند، روند توسعه این فناوریها و محصولات مبتنی بر آنها را به شدت تسریع کرده و همین امر میتواند زمینهساز پیامدهای بالقوه مضری شود.
اخیراً (در ماه می ۲۰۲۳) عدهای از متخصصان، رهبران و بزرگان صنعت از جمله استیو وزنیاک، بنیانگذار اپل و ایلان ماسک (که نیاز به معرفی ندارد!) نامه یا بیانیهای امضا و منتشر کردهاند مبنی بر اینکه آزمایشگاههای اطلاعاتی باید توسعه سیستمهای هوش مصنوعی پیشرفته را متوقف کنند. در این نامه آمده است که ابزارهای هوش مصنوعی خطرات عمیقی برای جامعه و بشریت دارند (هرچند تنها چندی پس از انتشار این بیانیه ایلان ماسک از راهاندازی شرکت جدید هوش مصنوعی خود پرده برداشت!)
در بخشی از این نامه آمده است:
«بشریت میتواند با هوش مصنوعی از آیندهای شکوفا برخوردار باشد. پس از موفقیت در ایجاد سیستمهای هوش مصنوعی قدرتمند، میتوانیم از تابستان هوش مصنوعی لذت ببریم… اما تا آن روز باید این سیستمها را به نفع همگان مهندسی کنیم و به جامعه فرصتی بدهیم برای سازگار شدن.»
از دست دادن روابط انسانی
افزایش اتکا به ارتباطات و تعاملات مبتنی بر هوش مصنوعی میتواند منجر به کاهش همدلی، مهارتهای اجتماعی و ارتباطات انسانی شود. به همین دلیل است که لازم است همه ما به نوبه خود برای حفظ جوهر ماهیت اجتماعیمان، برای حفظ تعادل بین فناوری و تعامل انسانی تلاش کنیم.
اطلاعات غلط و دستکاریشده
برخی از دادهها و محتواهای منتشرشده از سوی سیستمهای مولد هوش مصنوعی، نظیر دیپفیک (Deepfakes) نادرست بوده و میتواند به انتشار اطلاعات غلط یا دستکاریشده در سطح جامعه دامن بزند. در همین راستا نیز تلاش برای شناسایی و مبارزه با اطلاعات نادرست تولیدشده توسط هوش مصنوعی برای حفظ یکپارچگی اطلاعات در عصر دیجیتال بسیار مهم و الزامی خواهد بود.
در یک پژوهش که توسط دانشمندان دانشگاه استفنورد پیرامون ریسکهای فناوری هوش مصنوعی صورت گرفته آمده است: «سیستمهای هوش مصنوعی (در برخی موارد) در خدمت انتشار اطلاعات نادرست در اینترنت هستند که به آنها امکان تبدیلشدن به تهدیدی برای دموکراسی و ابزاری برای فاشیسم را میدهد. از ویدئوهای دیپفیک گرفته تا رباتهای آنلاینی که با جعل اجماع و انتشار اخبار جعلی، گفتمان عمومی را دستکاری میکنند، این ریسک وجود دارد که سیستمهای هوش مصنوعی اعتماد اجتماعی را خدشهدار و تضعیف کنند… این فناوری میتواند توسط جنایتکاران، دولتهای سرکش، افراطیهای ایدئولوژیک، یا صرفاً برخی گروههای خاص با منافع خاص و با هدف دستکاری در رأی، نظر و عقیده مردم برای منافع اقتصادی یا سیاسی مورد استفاده قرار گیرد.»
پیامدهای ناخواسته
سیستمهای هوش مصنوعی، به دلیل پیچیدگی بالایی که دارند و در عین حال عدم نظارت انسانی، ممکن است رفتارهای غیرمنتظرهای از خود نشان داده یا تصمیماتی با عواقب پیشبینینشده اتخاذ کنند. همین غیر قابل پیشبینی بودن میتواند عواقب سخت یا حتی غیر قابل جبرانی برای مشاغل، افراد، جوامع یا حتی در کل، بشریت داشته باشد.
فرآیندهای تست، اعتبارسنجی و نظارت قوی میتواند به توسعهدهندگان و محققان کمک کند تا این نوع مشکلات را از قبل شناسایی کرده و برای رفع آنها دست به کار شوند.
خطرات وجودی
توسعه هوش عمومی مصنوعی (AGI) که از هوش انسانی پا فراتر گذاشته و منجر به روی کار آمدن موجوداتی فراانسانی با هوش بسیار قویتر از انسان میشود، میتواند در درازمدت نگرانیهای بزرگی برای بشریت در پی داشته باشد. شاید بتوان گفت همانطور که در اغلب فیلمهای علمی و تخیلی با محوریت موجودات فراانسانی با هوش مصنوعی نیز نشان داده میشود، چشمانداز هوش مصنوعی عمومی میتواند عواقبی ناخواسته و در عین حال فاجعهبار برای بشریت داشته باشد.
موجوداتی را متصور شوید که قدرت تفکر و در عین حال اجرای بسیار بالاتری نسبت به انسان دارند اما با ارزشها یا اولویتهای انسانی همسو نیستند!
برای کاهش این قبیل ریسکها، جامعه تحقیقاتی هوش مصنوعی باید به طور فعال در تحقیقات ایمنی شرکت کند، در دستورالعملهای اخلاقی همکاری کند و شفافیت در توسعه مدلهای مبتنی بر هوش عمومی مصنوعی را تا حد امکان ارتقا دهد. کسب اطمینان از اینکه مدلهای مبتنی بر هوش عمومی مصنوعی در خدمت منافع بشریت هستند و تهدیدی برای موجودیت ما ایجاد نمیکنند، از اهمیت بسیار بالایی برخوردار است.