نگاهی به فرازوفرودهای پرسروصداترین چت‌بات هوش مصنوعی و آینده این فناوری / چهار فصل با چت جی‌پی‌تی

زمان مطالعه: 5 دقیقه

 چت جی‌پی‌تی توسط شرکت OpenAI در آخرین روز نوامبر سال ۲۰۲۲ راه‌اندازی شد. این چت‌بات هوش مصنوعی هیجان زیادی را بین مردم و متخصصان هوش مصنوعی برانگیخت. همه از جادوی این ابزار جدید مبهوت بودند؛ زیرا این اولین‌باری بود که هوش مصنوعی می‌توانست شعر بنویسد و نقاشی بکشد. طی یک سال گذشته چت جی‌پی‌تی چهار فصل را پشت سر گذاشت و در هر فصل اتفاقات جدیدی را تجربه کرد. شاید بد نباشد در اولین سالگرد چت جی‌پی‌تی نگاهی به یک سال گذشته بیندازیم و در مورد مسیری که چت جی‌پی‌تی در این مدت پیموده بیشتر تأمل کنیم.


 زمستان پرهیجان چت جی‌پی‌تی


چت جی‌پی‌تی تا به امروز موفق‌ترین فناوری از نظر پذیرش توسط کاربران بوده است. این چت‌بات توانست تنها در پنج روز یک میلیون کاربر به دست آورد. ظرف دو ماه تعداد کاربران چت جی‌پی‌تی به 100 میلیون نفر رسید. در واقع چت جی‌پی‌تی حاصل پیشرفت‌های بی‌شمار در حوزه هوش مصنوعی بود. این پیشرفت‌ها در ۱۰ سال گذشته با کلان‌داده‌ها و افزایش چشمگیر قدرت محاسباتی شتاب گرفتند. شبکه‌های عصبی، یادگیری ماشین و مدل‌های زبان بزرگ زمینه را برای به وجود آمدن ابزارهای هوش مصنوعی فعلی مانند سیری، الکسا یا چت جی‌پی‌تی فراهم کرده‌اند.


 بهار استعاره‌ای


ویژگی‌های قدرتمند چت جی‌پی‌تی موجی از استعاره‌ها را در بهار امسال به راه انداخت. ما انسان‌ها، هرگاه با چیز جدیدی مواجه می‌شویم، از استعاره‌ها و تشبیهات استفاده می‌کنیم تا آن را با دانسته‌ها و مشاهدات پیشین خود مقایسه کنیم. در ابتدا از چت جی‌پی‌تی با عناوین هوش مصنوعی انسان‌گونه یا مغز انسانی یاد می‌شد که توانایی فکر کردن و یادگیری دارد. البته این شبکه پیچیده با اصطلاحات «جعبه پاندورا» یا «جعبه سیاه» نیز توصیف می‌شود. در بهار امسال کم‌کم القاب استعاره‌ای درآمیخته با ترس و ارعاب به این فناوری اطلاق شدند. تشبیهات رنگ و بوی ترس گرفتند و چت جی‌پی‌تی با عناوینی چون فرانکشتاین و آرماگدون توصیف شد. به دنبال مطرح شدن بحث حاکمیت هوش مصنوعی قیاس این فناوری با تغییرات آب‌وهوایی، سلاح‌های هسته‌ای و همکاری‌های علمی آغاز شد. در واقع تمرکز روی شباهت‌ها بود و کمتر کسی به تفاوت‌ها توجه می‌کرد.


چت جی‌پی‌تی زیر نور آفتاب تابستان


 تابستان برای چت جی‌پی‌تی نسبتاً آرام بود و در این فصل بیشتر از اینکه در مورد این فناوری اظهار نظر شود، فکر شد. در مورد چالش‌های این فناوری و راه‌حل‌هایی که می‌تواند ارائه دهد، بحث‌هایی شکل گرفت.


پاییز و برگ‌ریزان هوش مصنوعی


با آمدن پاییز سروصدا و هیاهو حول چت جی‌پی‌تی خوابید و فضای این فناوری شفاف‌تر شد. در واقع این اتفاق با قرار گرفتن هوش مصنوعی در دستور کار پارلمان‌های ملی و سازمان‌های بین‌المللی رخ داد. در این فصل اصول و خط‌مشی‌های دقیق و قانونی جایگزین توصیف‌ها و تشبیهات شدند. در اسناد سیاستی نهادهای بین‌المللی مانند سازمان ملل، گروه ۷ یا گروه ۲۰ بیشتر از خطرات این فناوری گفته شد و تقریباً کفه چالش‌های هوش مصنوعی از کفه فرصت‌های آن سنگین‌تر شد. برای مثال برخی از رویدادها، مانند اجلاس هوش مصنوعی لندن، بر خطرات بلندمدت هوش مصنوعی متمرکز شدند. در عوض برخی از متخصصان نگران خطرات و چالش‌های فوری این فناوری بودند. آنها مدام از تغییر شکل مشاغل، آموزش و ارتباطات عمومی توسط هوش مصنوعی ابراز نگرانی می‌کنند.


 چه در انتظار ماست؟


باید توجه داشت که هوش مصنوعی به یک جریان اصلی در جامعه تبدیل شده و مسائل فردی و اجتماعی را تحت تأثیر قرار داده است. با نفوذ و گسترش بیشتر این فناوری، نیاز به حکمرانی آن بیش‌ازپیش احساس خواهد شد. در این راستا باید روی دو موضوع تمرکز کنیم؛ اول نحوه رسیدگی به خطرات هوش مصنوعی و دوم اینکه چه جنبه‌هایی از هوش مصنوعی باید کنترل شوند.

در رابطه با موضوع اول، ابتدا باید اشاره کرد که خطرات هوش مصنوعی به سه دسته تقسیم می‌شوند؛ خطرات کوتاه‌مدت که همه از آن آگاه هستند، خطرات میان‌مدت که افراد کمتری به آنها دقت می‌کنند و خطرات بلندمدت که تقریباً هیچ‌کس متوجه آنها نیست. خطرات کوتاه‌مدت بیشتر با حفاظت از داده‌ها و مالکیت معنوی، تولید انبوه متون، ویدئوها و حتی صداهای جعلی و در کل سوءاستفاده از هوش مصنوعی مرتبط است. ما با بیشتر این خطرات آشنا هستیم. درحالی‌که ابزارهای نظارتی موجود غالباً می‌توانند به این مشکلات رسیدگی کنند، اما تلاش‌هایی در این زمینه نیاز است.

خطرات میان‌مدت هم خطراتی هستند که نشانه‌هایی از آمدن آنها می‌بینیم، اما خیلی در مورد ماهیت آنها مطمئن نیستیم. آینده‌ای را تصور کنید که در آن چند شرکت بزرگ، تمام دانش و ابزارهای هوش مصنوعی را در اختیار دارند و درست به همان شیوه‌ای آنها را کنترل می‌کنند که پلتفرم‌های فناوری امروزی داده‌های افراد را جمع‌آوری و کنترل می‌کنند. در دست داشتن چنین قدرتی در حوزه هوش مصنوعی می‌تواند این شرکت‌ها را به کنترل تجارت، زندگی و سیاست سوق دهد. اگر نتوانیم در سال‌های آینده با چنین انحصارهایی مقابله کنیم، این انحصارها می‌توانند بشریت را در یک دهه آینده به بدترین آینده دیستوپیایی برسانند. البته می‌توان با به‌کارگیری برخی از سیاست‌ها و ابزارهای نظارتی مانند مقررات ضدتراست به مقابله با انحصارهای هوش مصنوعی و حفاظت از داده‌ها و مالکیت معنوی کمک کرد.

و اما خطرات بلندمدت که از آنها با خطر انقراض هم یاد می‌شود. این خطرات اغلب ناشناخته و مانند فیلم‌های علمی – تخیلی هستند. برخی از ویژگی‌های هوش مصنوعی و پیشرفت روزافزون آنها می‌توانند ماهیت و بقای بشریت را تهدید و هوش مصنوعی را از خدمتکار به ارباب بدل کنند. باید توجه داشت با اینکه این خطرات ناشناخته هستند، اما بر سیاست‌گذاری تأثیر گذاشته‌اند. برای مثال، بیانیه بلچلی که در اجلاس ایمنی هوش مصنوعی لندن تصویب شد، به شدت بر خطرات بلندمدت تمرکز دارد. البته این بیانیه نگاه گذرایی به خطرات کوتاه‌مدت هم دارد، اما هیچ اشاره‌ای به خطرات میان‌مدت نمی‌کند.


 چه جنبه‌هایی از هوش مصنوعی باید کنترل شوند؟


و اما موضوع دومی که باید به آن توجه داشت جوانبی از هوش مصنوعی هستند که نیاز به کنترل دارند. در واقع علاوه بر خطرات این فناوری در پی نفوذ روزافزون آن در زندگی روزمره، این سؤال به وجود می‌آید که چه جنبه‌هایی از هوش مصنوعی باید تحت کنترل باشند؟ برای پاسخ به این سؤال باید در نظر داشت پیشرفت‌های هوش مصنوعی لایه‌لایه هستند و به محاسبات، داده‌ها، الگوریتم‌ها و کاربردها مربوط می‌شوند. انتخاب این لایه‌ها و نحوه اداره هوش مصنوعی پیامدهای گسترده‌ای هم برای این فناوری و هم برای جامعه دارد.

سطح محاسبات: برای حکمرانی این سطح مسئله اصلی دسترسی به سخت‌افزار قدرتمندی است که بتواند مدل‌های هوش مصنوعی را پردازش کند. در رقابت برای به‌دست‌آوردن قدرت محاسباتی دو بازیگر کلیدی یعنی چین و آمریکا وجود دارند که مدام در تلاش‌اند تا دسترسی یکدیگر را به نیمه‌هادی‌هایی که می‌توانند در هوش مصنوعی استفاده شوند، محدود کنند. باید توجه داشت که در این رقابت و در زمینه نیمه‌هادی‌ها آمریکا دست بالاتر را نسبت به چین دارد و این موقعیت را با محدود کردن دسترسی چین به این فناوری‌ها از طریق تحریم‌ها و سایر مکانیسم‌های محدودکننده به دست آورده است.

سطح داده: داده‌ها ورودی‌های هوش مصنوعی هستند. داده‌ها به‌قدری مهم هستند که گاهی به آنها سوخت هوش مصنوعی نیز گفته می‌شود. با این‌ حال به حفاظت از داده‌ها و مالکیت معنوی به‌ اندازه کافی اهمیت داده نمی‌شود. در واقع در مورد اینکه چه داده‌هایی به هوش مصنوعی داده می‌شود، شفافیت کافی وجود ندارد؛ بنابراین تنظیم‌گران هوش مصنوعی باید فشار بیشتری بر شرکت‌های هوش مصنوعی وارد کنند تا در مورد استفاده از داده‌ها و مالکیت معنوی برای توسعه مدل‌های خود شفاف باشند.

سطح الگوریتمی: بیشتر بحث حاکمیت هوش مصنوعی پیرامون الگوریتم‌ها و مدل‌های هوش مصنوعی است. حاکمیت‌ها عمدتاً روی خطرات بلندمدتی که هوش مصنوعی می‌تواند برای بشریت ایجاد کند، تمرکز می‌کنند. در واقع در این سطح تمرکز بر چگونگی ارتباط داده‌ها و پاسخ‌های تولیدی توسط هوش مصنوعی است. دغدغه تنظیم‌گران در این سطح باید محدود کردن استفاده از رویکرد منبع‌باز توسط شرکت‌های فناوری باشد.

سطح برنامه‌ها و ابزارها: این مناسب‌ترین سطح برای تنظیم این فناوری است. دغدغه حاکمیت‌ها مدت‌ها استفاده از اینترنت بود و از هرگونه مداخله نظارتی در نحوه عملکرد اینترنت اجتناب می‌کردند. آنها توجهی به استانداردها و حتی عملکرد زیرساخت اینترنت مانند تعداد پروتکل‌های اینترنت یا سیستم دامنه نداشتند. این رویکرد یکی از عوامل اصلی رشد سریع اینترنت است.

در حال حاضر در مورد اینکه تنظیم‌گری و کنترل هوش مصنوعی از چه سطح یا لایه‌ای آغاز شود، بحث‌هایی وجود دارد. برای مثال در آخرین مذاکرات اتحادیه اروپا در مورد قانون هوش مصنوعی بحث‌هایی در این مورد مطرح شد. در این اجلاس برخی معتقد بودند که تنظیم‌گری باید در سطح الگوریتم صورت گیرد و برخی دیگر باور داشتند که سطح ابزارها و برنامه‌ها باید تنظیم شود. اما اکثریت با مورد دوم موافق هستند. جالب اینجاست که اکثر حامیان کدها و الگوریتم‌های هوش مصنوعی، با تنظیم‌گری سطح ابزارها و برنامه و سطح داده‌ها موافق نیستند، زیرا تنظیم‌گری این دو سطح به نفع این فناوری نیست.

لینک کوتاه: https://karangweekly.ir/v95z
نظر شما درباره موضوع

آدرس ایمیل شما منتشر نخواهد شد.