کارنگ، رسانه اقتصاد نوآوری ایران
رسانه اقتصاد نوآوری ایران

تحلیل اکونومیست از ریسک‌ها و فرصت‌های تکنولوژی جدید / چگونه عاقلانه در مورد هوش مصنوعی نگران باشیم؟

ثریا حقی / آیا واقعاً لازم است همه مشاغل را خودکار کنیم؟ آیا عاقلانه است ذهن‌های مصنوعی و غیرانسانی را آن‌قدر آموزش بدهیم که رشد کنند، از ما پیشی بگیرند و جایگزین ذهن‌های خودمان شوند؟ آیا وقت آن رسیده که نگران از دست رفتن کنترل تمدن چندین هزارساله‌مان باشیم؟

این‌ها سوالاتی هستند که ماه گذشته، در خلال یک نامه سرگشاده از یک نهاد غیر انتفاعی به نام انستیتو آینده زندگی (Future of Life Institute) مطرح شده است. سندی که خواستار توقف شش ماهه پیشرفت‌های مدل‌های هوش مصنوعی شد و عده‌ای از بزرگان صنعت فناوری، از جمله ایلان ماسک نیز پای آن را امضا کرده‌اند. این نامه، برجسته‌ترین سندی است که نشان می‌دهد پیشرفت فناوری هوش مصنوعی، با این مقیاس و سرعت، در کنار هیجان‌انگیز بودنش، نگران‌کننده نیز هست.

به‌ویژه مدل‌های زبانی بزرگ (LLMs)، مثل چت جی‌پی‌تی (ChatGPT) توسعه یافته توسط شرکت اوپن ای‌آی (Open AI)، که حتی سازندگان خودشان را هم با استعدادهای غیرمنتظره‌شان غافلگیر کرده‌اند. مدل‌های هوش مصنوعی پیشرفته‌ای که مثل ما، یا حتی در برخی موارد بهتر از ما قادر هستند جدول حل کنند، به سوالات علمی پاسخ بدهند، مقاله بنویسند، شعر بسرایند، در آزمون‌ها شرکت کنند و هزاران کار دیگر.

مدل‌هایی که قادرند رابطه انسان با رایانه، دانش و حتی روابط انسان‌ها با همدیگر را دستخوش تغییر کنند. طرفداران هوش مصنوعی، اصرار دارند که توسعه این فناوری می‌تواند به دستیابی بشریت به داروهای پیشرفته درمانی، طراحی مواد جدید برای مبارزه با تغییرات آب‌وهوایی، از بین بردن پیچیدگی‌های انرژی همجوشی هسته‌ای و بسیاری از این قبیل پیشرفت‌های صلح‌جویانه جامه عمل بپوشاند. اما همه این وعده و وعیدهای شیرین، باز هم نمی‌تواند از ریسک‌های احتمالی این فناوری در آینده‌ای نه چندان دور بکاهد. شاید هوش مصنوعی، همان اختراع مرگ‌باری است که در سناریوهای علمی – تخیلی، جان سازنده‌اش را می‌ستاند.

این شمشیر دولبه از ترس و هیجان، سنجش فرصت‌ها و خطرات را سخت‌تر می‌کند. بااین‌حال، هیچ چیز به اندازه تجربه نمی‌تواند کمک‌کننده باشد. مگر نه این‌که همین هوش مصنوعی نیز بر اساس تجربیات و آموزه‌های ما توسعه یافته است؟ پس چرا خودمان از داشته‌ها و دانسته‌های پیشین درس نگیریم؟

سوال اصلی این است: چه چیزی باعث شده تا هوش مصنوعی بتواند تا این حد پیشرفت کند که حتی خود ما را نیز تهدید کند؟ چقدر باید از این فناوری مدرن ترسید؟ دولت‌ها چکار باید بکنند یا اصلاً چکار می‌توانند بکنند؟


یک شمشیر دو لبه


بیایید فناوری هوش مصنوعی و خصوصاً مدل‌های زبانی بزرگ را به لحاظ علمی بررسی کنیم، و ببینیم در آینده‌ نزدیک، چه چیزی در انتظارمان است. موج نخست سیستم‌های هوش مصنوعی مدرن، که حدود یک دهه پیش پدیدار شدند، به داده‌های آموزشی با برچسب‌گذاری دقیق متکی بودند. مدل‌هایی که وقتی در معرض تعداد معینی داده‌های برچسب‌گذاری‌شده قرار می‌گرفتند، می‌توانستند برخی کارها را به‌صورت هوشمندانه انجام دهند؛ مثل تشخیص یک‌سری تصاویر، تبدیل گفتار به متن و کارهای ساده‌ای نظیر آن.

سیستم‌های امروزی نیازی به برچسب‌گذاری اولیه ندارند و درنتیجه می‌توان آن‌ها را با مجموعه‌ای از داده‌های بزرگ – که از منابع آنلاین گرفته شده‌اند – آموزش داد. درواقع، مساله این است که مدل‌های زبانی بزرگ امروز، در بستر اینترنت آموزش داده می‌شوند و همین موضوع، آن‌ها را به شمشیری دولبه تبدیل کرده است. در این آموزش، من و شمای نوعی دخل و تصرف چندانی نداریم و به همین دلیل نیز در کنار فرصت‌ها، تهدیدها هم رشد می‌کنند.

زمانی که چت جی‌پی‌تی در نوامبر 2022 راه‌اندازی شد، این حقیقت که احتمالاً دیگر نمی‌توان جلوی آن را گرفت بر همگان آشکار شد. در عرض یک هفته، کاربران آن به 1 میلیون نفر رسید و بعد از 2 ماه، شاهده استفاده 100 میلیون نفری از این فناوری بودیم. چت جی‌پی‌تی به سرعت توسط عموم مورد استقبال و استفاده قرار گرفت و حتی انشاهای مدرسه و سخن‌رانی‌های عروسی‌ها را نیز از آنِ خود کرد. این محبوبیت فزاینده، با چاشنی حمایت مایکروسافت از آن به‌عنوان یکی از غول‌های فناوری و گنجاندن آن در موتور جست‌وجوی بینگ، رقبا را نیز به فکر انداخت تا محصولات مشابه خود را راهی بازار کنند، تا مبادا از قافله عقب بمانند.

اما برخی از نتایج این توسعه و استقبال عموم از آن، خیلی عجیب بوده است. چندی پیش، بینگ چت (Bing Chat) به یک روزنامه‌نگار پیشنهاد کرد که همسرش را ترک کند! یا یکی از اساتید حقوق، چت جی‌پی‌تی را به ایراد افترا متهم کرده است!

نکته این‌جاست که پاسخ‌هایی که چت جی‌پی‌تی ارائه می‌کند، حاوی حقیقت هستند، اما اشتباهات و داده‌های جعلی نیز در آن‌ها کم نیست. این در حالی است که گوگل، مایکروسافت و بسیاری از شرکت‌های فناوری دیگر، با اشراف به این نقص بزرگ، مصرانه سعی دارند از مدل‌های زبانی بزرگ در محصولات خود استفاده کنند تا با کمک به کاربران در انجام کارها و برطرف کردن مشکلات‌شان، راه صدساله را یک‌شبه طی کنند.

شتاب اخیر در قدرت و سیطره سیستم‌های هوش مصنوعی و در عین حال، افزایش آگاهی از توانایی‌ها و نقص‌های آن‌ها، این نگرانی بزرگ را پدید آورده که این فناوری، به سرعت در حال پیشرفت است و شاید دیگر نتوان آن را آن‌طور که باید کنترل کرد. به همین دلیل می‌توان نامه سرگشاده جمعی از بزرگان صنعت فناوری برای توقف مدل‌های پیشرفته هوش مصنوعی را درک کرد. فراخوانی که قصد دارد نه تنها نواقص این فناوری را کنترل کند، بلکه شاید می‌خواهد بشریت را از یک تهدید جدی نجات دهد.


کابوس واقعی


ترس از این‌که روزی ماشین‌ها مشاغل ما را بدزدند، قرن‌هاست که وجود دارد. اما تا به امروز، هر فناوری جدیدی که مشاغلی را خودکار کرده، مشاغل جدید دیگری را هم برای بشر ایجاد کرده است. ماشین‌ها فقط یک‌سری از کارها را می‌توانند انجام بدهند و برخی کارها، از عهده آن‌ها برنمی‌آید. به همین دلیل نیز بازار افرادی که قادرند کارهایی که ماشین‌ها از انجام آن عاجزند را انجام بدهند، داغ است. اما آیا این روال قرار است همیشه همین طور باقی بماند؟ یا نه، فرا خواهد رسید روزی که این جریان برعکس شود؟ شاید هم این‌طور باشد. فناوری‌هایی که تاکنون دیده بودیم، هرگز قدرت جایگزینی هوش بشری را نداشتند؛ اما مدل‌های زبانی بزرگ، ظاهراً این قدرت را دارند تا حتی جایگزین کارمندان یقه سفید هم باشند.

درجه خطر ناشی از وجود هوش مصنوعی، موضوع بسیار مهمی است که اخیراً بحث‌های زیادی پیرامون آن شکل گرفته و اختلاف نظرهای زیادی در مورد آن وجود دارد. در یک نظرسنجی از محققان هوش مصنوعی، که در سال 2022 میلادی انجام شده است، 48 درصد از محققان معتقد بوده‌اند که هوش مصنوعی دست کم 10 درصد احتمال دارد منجر به اتفاقات «خیلی بد مثل انقراض انسان‌ها» شود! با‌این‌حال، 25 درصد از این محققان هم معتقد بوده‌اند که این فقط یک فناوری است و احتمال خطرش 0 درصد است.

کابوس واقعی زمانی است که فکر کنیم این فناوری پیشرفته، بخواهد با ساختن سم یا ویروس، یا ترغیب انسان‌ها به انجام اقدامات تروریستی، باعث آسیب در مقیاس‌های گستره‌تر شود. درواقع، بزرگ‌ترین نگرانی محققان این است که در آینده، اهداف هوش مصنوعی با  اهداف خالقان انسانی آن همسو نباشد.

چنین سناریوهایی، اگرچه علمی – تخیلی به نظر می‌رسند، اما نباید نادیده گرفته شوند. البته این نکته را نیز نباید فراموش کرد که همه این‌ها، به مقادیر زیادی حدس و گمان آلوده هستند و جهشی از فناوری‌های امروز در آن‌ها در نظر گرفته شده است. بسیاری بر این عقیده هستند که هوش مصنوعی، در آینده دسترسی نامحدودی به انرژی، پول و قدرت محاسباتی خواهد داشت. در کنار این‌ها، برخی هم سعی دارند خطرات این فناوری را بیش از آن‌چه که واقعاً هست نشان دهند تا بتوانند آب را برای گرفتن ماهی گل‌آلود کنند. مثل آقای ماسک، که کاشف به عمل آمده همه تلاش‌هایش برای توقف چت جی‌پی‌تی، صرفاً برای رقابت با آن بوده و در حال حاضر در حال راه‌اندازی شرکت هوش مصنوعی خودش است. هرچه که هست، در این نقطه، در این سطح از توسعه هوش منصوعی و مدل‌های زبانی بزرگ، اعمال محدودیت‌های سنگین یا توقف، بیش از حد سختگیرانه به نظر می‌رسد و عملی شدن آن بعید است.


آیا مقررات گذاری جواب می‌دهد؟


اعمال مقررات برای هوش مصنوعی ( مثل هر فناوری ساختارشکن دیگری ) الزامی است، اما نه به بهانه پیش‌پا‌افتاده نجات بشریت! سیستم‌های هوش مصنوعی مدرن، تهدیداتی جدی در خصوص حریم خصوصی، حقوق مالکیت معنوی و امثال آن به وجود آورده‌اند که با پیشرفت شتاب‌زده فناوری، احتمالاً موارد دیگری نیز به آن‌ها افزوده خواهد شد. نکته این است که بتوانیم وعده هوش مصنوعی را با ارزیابی‌های ریسک‌ها متعادل کنیم و برای کنترل همه‌چیز آماده شویم.

تا این لحظه، دولت‌ها سه رویکرد متفاوت را در پیش گرفته‌اند. در یک انتهای این طیف، بریتانیا قرار دارد که بدون ایجاد و تحمیل قوانین یا نهادهای نظارتی جدید، رویکرد ملاطفت یا اصطلاحاً «لمس سبک» را در پیش گرفته، اما از مقررات موجود در حوزه هوش مصنوعی استفاده می‌کند تا بتواند کم‌ترین ریسک را متوجه زیرساخت‌های خود کند. هدف، افزایش سرمایه‌گذاری روی این فناوری، رشد پتانسیل‌های آن و تبدیل بریتانیا به یک «ابر قدرت هوش مصنوعی» است. ایالات متحده آمریکا نیز رویکرد مشابهی را در پیش گرفته، هرچند که دولت بایدن به دنبال نظر افکار عمومی است که ممکن است در آینده، به کتابچه‌ای از قوانین در زمینه هوش مصنوعی تبدیل شود.

اتحادیه اروپا موضع سختگیرانه‌تری را در پیش گرفته است. قانون پیشنهادی این اتحادیه، استفاده‌های مختلف از هوش مصنوعی را بر اساس درجه خطر فناوری طبقه‌بندی می‌کند؛ برخی از کاربردهای هوش مصنوعی – به دلیل خطرات آن‌ها – در این اتحادیه کاملاً ممنوع هستند و هر شرکتی هم که بخواهد قوانین را زیر پا بگذارد، جریمه خواهد شد. مقرراتی که به عقیده برخی از محققین و منتقدین، بیش‌از‌حد سختگیرانه است.

بااین‌حال، برخی نیز بر این عقیده‌اند که حتی رویکرد سختگیرانه‌تری لازم است. آن‌ها معتقدند که دولت‌ها، باید مانند داروها انواع محصولات هوش مصنوعی را نیز به دقت آزمایش کنند؛ رویکردی که توسط دولت چین اتخاذ شده است. چین کلیه شرکت‌های خود را ملزم کرده تا محصولات مصنوعی را به ثبت برسانند، تا قبل از عرضه، بازبینی امنیتی کامل روی آن‌ها انجام گیرد. بااین‌حال، شاید صرف اتکا بر امنیت نتواند جلوی این فناوری را بگیرد و آن را کنترل کند. گاهی وقت‌ها، سیاست بهتر از امنیت جواب می‌دهد. یک شرط کلیدی برای کنترل هوش مصنوعی آن است که خروجی این فناوری، منعکس‌کننده ارزش‌های اساسی سوسیالیسم باشد.

با این حساب، چه باید کرد؟ بعید به نظر می‌رسد رویکرد لمس سبک (که بریتانیا در پیش گرفته است) جوابگو باشد. اگر قرار باشد هوش مصنوعی نیز به اندازه خودروها، هواپیماها و داروها یک فناوری مهم باشد – که با توجه به شواهد و قراین موجود و استقبال بی‌نظیر از آن ظاهراً هست – پس مانند دیگر فناوری‌های مهم دنیا نیاز به قانون‌گذاری، نظارت و کنترل دارد. با این حساب، مدل رویکردی اتحادیه اروپا، احتمالاً بهترین رویکردی است که هر دولتی می‌تواند در پیش بگیرد. البته که قانون‌گذاری برای یک فناوری مثل هوش مصنوعی، با دیگر فناوری‌ها متفاوت است و پیچیدگی‌های زیادی دارد، اما کنترل سیستم‌های هوش مصنوعی، منابع آموزشی آن‌ها و خروجی که دارند، یک الزام غیرقابل اجتناب است.

این می‌تواند در طول زمان، منجر به ظهور قوانین سختگیرانه‌تری در مورد مدل‌های زبانی بزرگ نیز بشود. شاید لازم باشد در آینده‌ای نه چندان دور، یک رگولاتور اختصاصی برای فناوری هوش مصنوعی ایجاد شود. یا شاید ممکن است درصورت پیدا شدن شواهدی دال بر خطرات وجودی فناوری، همانند آن‌چه که در مورد تسلیحات هسته‌ای شاهدش هستیم، یک‌سری معاهدات بین‌المللی نیز درخصوص هوش مصنوعی ایجاد شوند.

هرچه که هست، این فناوری در کنار فرصت‌های هیجان‌انگیزی که ایجاد کرده، خطرات چالش‌برانگیزی را نیز به‌وجود آورده است که ایجاد تعادل بین این فرصت‌ها و خطرات، مستلزم برداشتن گام‌هایی دقیق است. اتخاذ یک رویکرد سنجیده و به‌روز، که بتواند با تنظیم و کنترل فناوری، پتانسیل‌های آن را برای خلق فرصت‌های بیشتر آزاد کند. امروز، همان روزی است که اولین گام‌ها باید برای کنترل هوش مصنوعی برداشته شوند.

لینک کوتاه: https://karangweekly.ir/b6mg
منبع اکونومیست
نظر شما درباره موضوع

آدرس ایمیل شما منتشر نخواهد شد.