کارنگ رسانه اقتصاد نوآوری است. در کارنگ ما تلاش داریم کسبوکارهای نوآور ایرانی، استارتاپها، شرکتهای دانشبنیان و دیگر کسبوکارها کوچک و بزرگی که در بخشهای مختلف اقتصاد نوآوری در حال ارائه محصول و خدمت هستند را مورد بررسی قرار دهیم و از آینده صنعت، تولید، خدمات و دیگر بخشهای اقتصاد بگوییم. کارنگ رسانهای متعلق به بخش خصوصی ایران است.
تحلیل اکونومیست از ریسکها و فرصتهای تکنولوژی جدید / چگونه عاقلانه در مورد هوش مصنوعی نگران باشیم؟
ثریا حقی / آیا واقعاً لازم است همه مشاغل را خودکار کنیم؟ آیا عاقلانه است ذهنهای مصنوعی و غیرانسانی را آنقدر آموزش بدهیم که رشد کنند، از ما پیشی بگیرند و جایگزین ذهنهای خودمان شوند؟ آیا وقت آن رسیده که نگران از دست رفتن کنترل تمدن چندین هزارسالهمان باشیم؟
اینها سوالاتی هستند که ماه گذشته، در خلال یک نامه سرگشاده از یک نهاد غیر انتفاعی به نام انستیتو آینده زندگی (Future of Life Institute) مطرح شده است. سندی که خواستار توقف شش ماهه پیشرفتهای مدلهای هوش مصنوعی شد و عدهای از بزرگان صنعت فناوری، از جمله ایلان ماسک نیز پای آن را امضا کردهاند. این نامه، برجستهترین سندی است که نشان میدهد پیشرفت فناوری هوش مصنوعی، با این مقیاس و سرعت، در کنار هیجانانگیز بودنش، نگرانکننده نیز هست.
بهویژه مدلهای زبانی بزرگ (LLMs)، مثل چت جیپیتی (ChatGPT) توسعه یافته توسط شرکت اوپن ایآی (Open AI)، که حتی سازندگان خودشان را هم با استعدادهای غیرمنتظرهشان غافلگیر کردهاند. مدلهای هوش مصنوعی پیشرفتهای که مثل ما، یا حتی در برخی موارد بهتر از ما قادر هستند جدول حل کنند، به سوالات علمی پاسخ بدهند، مقاله بنویسند، شعر بسرایند، در آزمونها شرکت کنند و هزاران کار دیگر.
مدلهایی که قادرند رابطه انسان با رایانه، دانش و حتی روابط انسانها با همدیگر را دستخوش تغییر کنند. طرفداران هوش مصنوعی، اصرار دارند که توسعه این فناوری میتواند به دستیابی بشریت به داروهای پیشرفته درمانی، طراحی مواد جدید برای مبارزه با تغییرات آبوهوایی، از بین بردن پیچیدگیهای انرژی همجوشی هستهای و بسیاری از این قبیل پیشرفتهای صلحجویانه جامه عمل بپوشاند. اما همه این وعده و وعیدهای شیرین، باز هم نمیتواند از ریسکهای احتمالی این فناوری در آیندهای نه چندان دور بکاهد. شاید هوش مصنوعی، همان اختراع مرگباری است که در سناریوهای علمی – تخیلی، جان سازندهاش را میستاند.
این شمشیر دولبه از ترس و هیجان، سنجش فرصتها و خطرات را سختتر میکند. بااینحال، هیچ چیز به اندازه تجربه نمیتواند کمککننده باشد. مگر نه اینکه همین هوش مصنوعی نیز بر اساس تجربیات و آموزههای ما توسعه یافته است؟ پس چرا خودمان از داشتهها و دانستههای پیشین درس نگیریم؟
سوال اصلی این است: چه چیزی باعث شده تا هوش مصنوعی بتواند تا این حد پیشرفت کند که حتی خود ما را نیز تهدید کند؟ چقدر باید از این فناوری مدرن ترسید؟ دولتها چکار باید بکنند یا اصلاً چکار میتوانند بکنند؟
یک شمشیر دو لبه
بیایید فناوری هوش مصنوعی و خصوصاً مدلهای زبانی بزرگ را به لحاظ علمی بررسی کنیم، و ببینیم در آینده نزدیک، چه چیزی در انتظارمان است. موج نخست سیستمهای هوش مصنوعی مدرن، که حدود یک دهه پیش پدیدار شدند، به دادههای آموزشی با برچسبگذاری دقیق متکی بودند. مدلهایی که وقتی در معرض تعداد معینی دادههای برچسبگذاریشده قرار میگرفتند، میتوانستند برخی کارها را بهصورت هوشمندانه انجام دهند؛ مثل تشخیص یکسری تصاویر، تبدیل گفتار به متن و کارهای سادهای نظیر آن.
سیستمهای امروزی نیازی به برچسبگذاری اولیه ندارند و درنتیجه میتوان آنها را با مجموعهای از دادههای بزرگ – که از منابع آنلاین گرفته شدهاند – آموزش داد. درواقع، مساله این است که مدلهای زبانی بزرگ امروز، در بستر اینترنت آموزش داده میشوند و همین موضوع، آنها را به شمشیری دولبه تبدیل کرده است. در این آموزش، من و شمای نوعی دخل و تصرف چندانی نداریم و به همین دلیل نیز در کنار فرصتها، تهدیدها هم رشد میکنند.
زمانی که چت جیپیتی در نوامبر ۲۰۲۲ راهاندازی شد، این حقیقت که احتمالاً دیگر نمیتوان جلوی آن را گرفت بر همگان آشکار شد. در عرض یک هفته، کاربران آن به ۱ میلیون نفر رسید و بعد از ۲ ماه، شاهده استفاده ۱۰۰ میلیون نفری از این فناوری بودیم. چت جیپیتی به سرعت توسط عموم مورد استقبال و استفاده قرار گرفت و حتی انشاهای مدرسه و سخنرانیهای عروسیها را نیز از آنِ خود کرد. این محبوبیت فزاینده، با چاشنی حمایت مایکروسافت از آن بهعنوان یکی از غولهای فناوری و گنجاندن آن در موتور جستوجوی بینگ، رقبا را نیز به فکر انداخت تا محصولات مشابه خود را راهی بازار کنند، تا مبادا از قافله عقب بمانند.
اما برخی از نتایج این توسعه و استقبال عموم از آن، خیلی عجیب بوده است. چندی پیش، بینگ چت (Bing Chat) به یک روزنامهنگار پیشنهاد کرد که همسرش را ترک کند! یا یکی از اساتید حقوق، چت جیپیتی را به ایراد افترا متهم کرده است!
نکته اینجاست که پاسخهایی که چت جیپیتی ارائه میکند، حاوی حقیقت هستند، اما اشتباهات و دادههای جعلی نیز در آنها کم نیست. این در حالی است که گوگل، مایکروسافت و بسیاری از شرکتهای فناوری دیگر، با اشراف به این نقص بزرگ، مصرانه سعی دارند از مدلهای زبانی بزرگ در محصولات خود استفاده کنند تا با کمک به کاربران در انجام کارها و برطرف کردن مشکلاتشان، راه صدساله را یکشبه طی کنند.
شتاب اخیر در قدرت و سیطره سیستمهای هوش مصنوعی و در عین حال، افزایش آگاهی از تواناییها و نقصهای آنها، این نگرانی بزرگ را پدید آورده که این فناوری، به سرعت در حال پیشرفت است و شاید دیگر نتوان آن را آنطور که باید کنترل کرد. به همین دلیل میتوان نامه سرگشاده جمعی از بزرگان صنعت فناوری برای توقف مدلهای پیشرفته هوش مصنوعی را درک کرد. فراخوانی که قصد دارد نه تنها نواقص این فناوری را کنترل کند، بلکه شاید میخواهد بشریت را از یک تهدید جدی نجات دهد.
کابوس واقعی
ترس از اینکه روزی ماشینها مشاغل ما را بدزدند، قرنهاست که وجود دارد. اما تا به امروز، هر فناوری جدیدی که مشاغلی را خودکار کرده، مشاغل جدید دیگری را هم برای بشر ایجاد کرده است. ماشینها فقط یکسری از کارها را میتوانند انجام بدهند و برخی کارها، از عهده آنها برنمیآید. به همین دلیل نیز بازار افرادی که قادرند کارهایی که ماشینها از انجام آن عاجزند را انجام بدهند، داغ است. اما آیا این روال قرار است همیشه همین طور باقی بماند؟ یا نه، فرا خواهد رسید روزی که این جریان برعکس شود؟ شاید هم اینطور باشد. فناوریهایی که تاکنون دیده بودیم، هرگز قدرت جایگزینی هوش بشری را نداشتند؛ اما مدلهای زبانی بزرگ، ظاهراً این قدرت را دارند تا حتی جایگزین کارمندان یقه سفید هم باشند.
درجه خطر ناشی از وجود هوش مصنوعی، موضوع بسیار مهمی است که اخیراً بحثهای زیادی پیرامون آن شکل گرفته و اختلاف نظرهای زیادی در مورد آن وجود دارد. در یک نظرسنجی از محققان هوش مصنوعی، که در سال ۲۰۲۲ میلادی انجام شده است، ۴۸ درصد از محققان معتقد بودهاند که هوش مصنوعی دست کم ۱۰ درصد احتمال دارد منجر به اتفاقات «خیلی بد مثل انقراض انسانها» شود! بااینحال، ۲۵ درصد از این محققان هم معتقد بودهاند که این فقط یک فناوری است و احتمال خطرش ۰ درصد است.
کابوس واقعی زمانی است که فکر کنیم این فناوری پیشرفته، بخواهد با ساختن سم یا ویروس، یا ترغیب انسانها به انجام اقدامات تروریستی، باعث آسیب در مقیاسهای گسترهتر شود. درواقع، بزرگترین نگرانی محققان این است که در آینده، اهداف هوش مصنوعی با اهداف خالقان انسانی آن همسو نباشد.
چنین سناریوهایی، اگرچه علمی – تخیلی به نظر میرسند، اما نباید نادیده گرفته شوند. البته این نکته را نیز نباید فراموش کرد که همه اینها، به مقادیر زیادی حدس و گمان آلوده هستند و جهشی از فناوریهای امروز در آنها در نظر گرفته شده است. بسیاری بر این عقیده هستند که هوش مصنوعی، در آینده دسترسی نامحدودی به انرژی، پول و قدرت محاسباتی خواهد داشت. در کنار اینها، برخی هم سعی دارند خطرات این فناوری را بیش از آنچه که واقعاً هست نشان دهند تا بتوانند آب را برای گرفتن ماهی گلآلود کنند. مثل آقای ماسک، که کاشف به عمل آمده همه تلاشهایش برای توقف چت جیپیتی، صرفاً برای رقابت با آن بوده و در حال حاضر در حال راهاندازی شرکت هوش مصنوعی خودش است. هرچه که هست، در این نقطه، در این سطح از توسعه هوش منصوعی و مدلهای زبانی بزرگ، اعمال محدودیتهای سنگین یا توقف، بیش از حد سختگیرانه به نظر میرسد و عملی شدن آن بعید است.
آیا مقررات گذاری جواب میدهد؟
اعمال مقررات برای هوش مصنوعی ( مثل هر فناوری ساختارشکن دیگری ) الزامی است، اما نه به بهانه پیشپاافتاده نجات بشریت! سیستمهای هوش مصنوعی مدرن، تهدیداتی جدی در خصوص حریم خصوصی، حقوق مالکیت معنوی و امثال آن به وجود آوردهاند که با پیشرفت شتابزده فناوری، احتمالاً موارد دیگری نیز به آنها افزوده خواهد شد. نکته این است که بتوانیم وعده هوش مصنوعی را با ارزیابیهای ریسکها متعادل کنیم و برای کنترل همهچیز آماده شویم.
تا این لحظه، دولتها سه رویکرد متفاوت را در پیش گرفتهاند. در یک انتهای این طیف، بریتانیا قرار دارد که بدون ایجاد و تحمیل قوانین یا نهادهای نظارتی جدید، رویکرد ملاطفت یا اصطلاحاً «لمس سبک» را در پیش گرفته، اما از مقررات موجود در حوزه هوش مصنوعی استفاده میکند تا بتواند کمترین ریسک را متوجه زیرساختهای خود کند. هدف، افزایش سرمایهگذاری روی این فناوری، رشد پتانسیلهای آن و تبدیل بریتانیا به یک «ابر قدرت هوش مصنوعی» است. ایالات متحده آمریکا نیز رویکرد مشابهی را در پیش گرفته، هرچند که دولت بایدن به دنبال نظر افکار عمومی است که ممکن است در آینده، به کتابچهای از قوانین در زمینه هوش مصنوعی تبدیل شود.
اتحادیه اروپا موضع سختگیرانهتری را در پیش گرفته است. قانون پیشنهادی این اتحادیه، استفادههای مختلف از هوش مصنوعی را بر اساس درجه خطر فناوری طبقهبندی میکند؛ برخی از کاربردهای هوش مصنوعی – به دلیل خطرات آنها – در این اتحادیه کاملاً ممنوع هستند و هر شرکتی هم که بخواهد قوانین را زیر پا بگذارد، جریمه خواهد شد. مقرراتی که به عقیده برخی از محققین و منتقدین، بیشازحد سختگیرانه است.
بااینحال، برخی نیز بر این عقیدهاند که حتی رویکرد سختگیرانهتری لازم است. آنها معتقدند که دولتها، باید مانند داروها انواع محصولات هوش مصنوعی را نیز به دقت آزمایش کنند؛ رویکردی که توسط دولت چین اتخاذ شده است. چین کلیه شرکتهای خود را ملزم کرده تا محصولات مصنوعی را به ثبت برسانند، تا قبل از عرضه، بازبینی امنیتی کامل روی آنها انجام گیرد. بااینحال، شاید صرف اتکا بر امنیت نتواند جلوی این فناوری را بگیرد و آن را کنترل کند. گاهی وقتها، سیاست بهتر از امنیت جواب میدهد. یک شرط کلیدی برای کنترل هوش مصنوعی آن است که خروجی این فناوری، منعکسکننده ارزشهای اساسی سوسیالیسم باشد.
با این حساب، چه باید کرد؟ بعید به نظر میرسد رویکرد لمس سبک (که بریتانیا در پیش گرفته است) جوابگو باشد. اگر قرار باشد هوش مصنوعی نیز به اندازه خودروها، هواپیماها و داروها یک فناوری مهم باشد – که با توجه به شواهد و قراین موجود و استقبال بینظیر از آن ظاهراً هست – پس مانند دیگر فناوریهای مهم دنیا نیاز به قانونگذاری، نظارت و کنترل دارد. با این حساب، مدل رویکردی اتحادیه اروپا، احتمالاً بهترین رویکردی است که هر دولتی میتواند در پیش بگیرد. البته که قانونگذاری برای یک فناوری مثل هوش مصنوعی، با دیگر فناوریها متفاوت است و پیچیدگیهای زیادی دارد، اما کنترل سیستمهای هوش مصنوعی، منابع آموزشی آنها و خروجی که دارند، یک الزام غیرقابل اجتناب است.
این میتواند در طول زمان، منجر به ظهور قوانین سختگیرانهتری در مورد مدلهای زبانی بزرگ نیز بشود. شاید لازم باشد در آیندهای نه چندان دور، یک رگولاتور اختصاصی برای فناوری هوش مصنوعی ایجاد شود. یا شاید ممکن است درصورت پیدا شدن شواهدی دال بر خطرات وجودی فناوری، همانند آنچه که در مورد تسلیحات هستهای شاهدش هستیم، یکسری معاهدات بینالمللی نیز درخصوص هوش مصنوعی ایجاد شوند.
هرچه که هست، این فناوری در کنار فرصتهای هیجانانگیزی که ایجاد کرده، خطرات چالشبرانگیزی را نیز بهوجود آورده است که ایجاد تعادل بین این فرصتها و خطرات، مستلزم برداشتن گامهایی دقیق است. اتخاذ یک رویکرد سنجیده و بهروز، که بتواند با تنظیم و کنترل فناوری، پتانسیلهای آن را برای خلق فرصتهای بیشتر آزاد کند. امروز، همان روزی است که اولین گامها باید برای کنترل هوش مصنوعی برداشته شوند.