کارنگ رسانه اقتصاد نوآوری است. در کارنگ ما تلاش داریم کسبوکارهای نوآور ایرانی، استارتاپها، شرکتهای دانشبنیان و دیگر کسبوکارها کوچک و بزرگی که در بخشهای مختلف اقتصاد نوآوری در حال ارائه محصول و خدمت هستند را مورد بررسی قرار دهیم و از آینده صنعت، تولید، خدمات و دیگر بخشهای اقتصاد بگوییم. کارنگ رسانهای متعلق به بخش خصوصی ایران است.
چت جیپیتی توسط شرکت OpenAI در آخرین روز نوامبر سال ۲۰۲۲ راهاندازی شد. این چتبات هوش مصنوعی هیجان زیادی را بین مردم و متخصصان هوش مصنوعی برانگیخت. همه از جادوی این ابزار جدید مبهوت بودند؛ زیرا این اولینباری بود که هوش مصنوعی میتوانست شعر بنویسد و نقاشی بکشد. طی یک سال گذشته چت جیپیتی چهار فصل را پشت سر گذاشت و در هر فصل اتفاقات جدیدی را تجربه کرد. شاید بد نباشد در اولین سالگرد چت جیپیتی نگاهی به یک سال گذشته بیندازیم و در مورد مسیری که چت جیپیتی در این مدت پیموده بیشتر تأمل کنیم.
زمستان پرهیجان چت جیپیتی
چت جیپیتی تا به امروز موفقترین فناوری از نظر پذیرش توسط کاربران بوده است. این چتبات توانست تنها در پنج روز یک میلیون کاربر به دست آورد. ظرف دو ماه تعداد کاربران چت جیپیتی به ۱۰۰ میلیون نفر رسید. در واقع چت جیپیتی حاصل پیشرفتهای بیشمار در حوزه هوش مصنوعی بود. این پیشرفتها در ۱۰ سال گذشته با کلاندادهها و افزایش چشمگیر قدرت محاسباتی شتاب گرفتند. شبکههای عصبی، یادگیری ماشین و مدلهای زبان بزرگ زمینه را برای به وجود آمدن ابزارهای هوش مصنوعی فعلی مانند سیری، الکسا یا چت جیپیتی فراهم کردهاند.
بهار استعارهای
ویژگیهای قدرتمند چت جیپیتی موجی از استعارهها را در بهار امسال به راه انداخت. ما انسانها، هرگاه با چیز جدیدی مواجه میشویم، از استعارهها و تشبیهات استفاده میکنیم تا آن را با دانستهها و مشاهدات پیشین خود مقایسه کنیم. در ابتدا از چت جیپیتی با عناوین هوش مصنوعی انسانگونه یا مغز انسانی یاد میشد که توانایی فکر کردن و یادگیری دارد. البته این شبکه پیچیده با اصطلاحات «جعبه پاندورا» یا «جعبه سیاه» نیز توصیف میشود. در بهار امسال کمکم القاب استعارهای درآمیخته با ترس و ارعاب به این فناوری اطلاق شدند. تشبیهات رنگ و بوی ترس گرفتند و چت جیپیتی با عناوینی چون فرانکشتاین و آرماگدون توصیف شد. به دنبال مطرح شدن بحث حاکمیت هوش مصنوعی قیاس این فناوری با تغییرات آبوهوایی، سلاحهای هستهای و همکاریهای علمی آغاز شد. در واقع تمرکز روی شباهتها بود و کمتر کسی به تفاوتها توجه میکرد.
چت جیپیتی زیر نور آفتاب تابستان
تابستان برای چت جیپیتی نسبتاً آرام بود و در این فصل بیشتر از اینکه در مورد این فناوری اظهار نظر شود، فکر شد. در مورد چالشهای این فناوری و راهحلهایی که میتواند ارائه دهد، بحثهایی شکل گرفت.
پاییز و برگریزان هوش مصنوعی
با آمدن پاییز سروصدا و هیاهو حول چت جیپیتی خوابید و فضای این فناوری شفافتر شد. در واقع این اتفاق با قرار گرفتن هوش مصنوعی در دستور کار پارلمانهای ملی و سازمانهای بینالمللی رخ داد. در این فصل اصول و خطمشیهای دقیق و قانونی جایگزین توصیفها و تشبیهات شدند. در اسناد سیاستی نهادهای بینالمللی مانند سازمان ملل، گروه ۷ یا گروه ۲۰ بیشتر از خطرات این فناوری گفته شد و تقریباً کفه چالشهای هوش مصنوعی از کفه فرصتهای آن سنگینتر شد. برای مثال برخی از رویدادها، مانند اجلاس هوش مصنوعی لندن، بر خطرات بلندمدت هوش مصنوعی متمرکز شدند. در عوض برخی از متخصصان نگران خطرات و چالشهای فوری این فناوری بودند. آنها مدام از تغییر شکل مشاغل، آموزش و ارتباطات عمومی توسط هوش مصنوعی ابراز نگرانی میکنند.
چه در انتظار ماست؟
باید توجه داشت که هوش مصنوعی به یک جریان اصلی در جامعه تبدیل شده و مسائل فردی و اجتماعی را تحت تأثیر قرار داده است. با نفوذ و گسترش بیشتر این فناوری، نیاز به حکمرانی آن بیشازپیش احساس خواهد شد. در این راستا باید روی دو موضوع تمرکز کنیم؛ اول نحوه رسیدگی به خطرات هوش مصنوعی و دوم اینکه چه جنبههایی از هوش مصنوعی باید کنترل شوند.
در رابطه با موضوع اول، ابتدا باید اشاره کرد که خطرات هوش مصنوعی به سه دسته تقسیم میشوند؛ خطرات کوتاهمدت که همه از آن آگاه هستند، خطرات میانمدت که افراد کمتری به آنها دقت میکنند و خطرات بلندمدت که تقریباً هیچکس متوجه آنها نیست. خطرات کوتاهمدت بیشتر با حفاظت از دادهها و مالکیت معنوی، تولید انبوه متون، ویدئوها و حتی صداهای جعلی و در کل سوءاستفاده از هوش مصنوعی مرتبط است. ما با بیشتر این خطرات آشنا هستیم. درحالیکه ابزارهای نظارتی موجود غالباً میتوانند به این مشکلات رسیدگی کنند، اما تلاشهایی در این زمینه نیاز است.
خطرات میانمدت هم خطراتی هستند که نشانههایی از آمدن آنها میبینیم، اما خیلی در مورد ماهیت آنها مطمئن نیستیم. آیندهای را تصور کنید که در آن چند شرکت بزرگ، تمام دانش و ابزارهای هوش مصنوعی را در اختیار دارند و درست به همان شیوهای آنها را کنترل میکنند که پلتفرمهای فناوری امروزی دادههای افراد را جمعآوری و کنترل میکنند. در دست داشتن چنین قدرتی در حوزه هوش مصنوعی میتواند این شرکتها را به کنترل تجارت، زندگی و سیاست سوق دهد. اگر نتوانیم در سالهای آینده با چنین انحصارهایی مقابله کنیم، این انحصارها میتوانند بشریت را در یک دهه آینده به بدترین آینده دیستوپیایی برسانند. البته میتوان با بهکارگیری برخی از سیاستها و ابزارهای نظارتی مانند مقررات ضدتراست به مقابله با انحصارهای هوش مصنوعی و حفاظت از دادهها و مالکیت معنوی کمک کرد.
و اما خطرات بلندمدت که از آنها با خطر انقراض هم یاد میشود. این خطرات اغلب ناشناخته و مانند فیلمهای علمی – تخیلی هستند. برخی از ویژگیهای هوش مصنوعی و پیشرفت روزافزون آنها میتوانند ماهیت و بقای بشریت را تهدید و هوش مصنوعی را از خدمتکار به ارباب بدل کنند. باید توجه داشت با اینکه این خطرات ناشناخته هستند، اما بر سیاستگذاری تأثیر گذاشتهاند. برای مثال، بیانیه بلچلی که در اجلاس ایمنی هوش مصنوعی لندن تصویب شد، به شدت بر خطرات بلندمدت تمرکز دارد. البته این بیانیه نگاه گذرایی به خطرات کوتاهمدت هم دارد، اما هیچ اشارهای به خطرات میانمدت نمیکند.
چه جنبههایی از هوش مصنوعی باید کنترل شوند؟
و اما موضوع دومی که باید به آن توجه داشت جوانبی از هوش مصنوعی هستند که نیاز به کنترل دارند. در واقع علاوه بر خطرات این فناوری در پی نفوذ روزافزون آن در زندگی روزمره، این سؤال به وجود میآید که چه جنبههایی از هوش مصنوعی باید تحت کنترل باشند؟ برای پاسخ به این سؤال باید در نظر داشت پیشرفتهای هوش مصنوعی لایهلایه هستند و به محاسبات، دادهها، الگوریتمها و کاربردها مربوط میشوند. انتخاب این لایهها و نحوه اداره هوش مصنوعی پیامدهای گستردهای هم برای این فناوری و هم برای جامعه دارد.
سطح محاسبات: برای حکمرانی این سطح مسئله اصلی دسترسی به سختافزار قدرتمندی است که بتواند مدلهای هوش مصنوعی را پردازش کند. در رقابت برای بهدستآوردن قدرت محاسباتی دو بازیگر کلیدی یعنی چین و آمریکا وجود دارند که مدام در تلاشاند تا دسترسی یکدیگر را به نیمههادیهایی که میتوانند در هوش مصنوعی استفاده شوند، محدود کنند. باید توجه داشت که در این رقابت و در زمینه نیمههادیها آمریکا دست بالاتر را نسبت به چین دارد و این موقعیت را با محدود کردن دسترسی چین به این فناوریها از طریق تحریمها و سایر مکانیسمهای محدودکننده به دست آورده است.
سطح داده: دادهها ورودیهای هوش مصنوعی هستند. دادهها بهقدری مهم هستند که گاهی به آنها سوخت هوش مصنوعی نیز گفته میشود. با این حال به حفاظت از دادهها و مالکیت معنوی به اندازه کافی اهمیت داده نمیشود. در واقع در مورد اینکه چه دادههایی به هوش مصنوعی داده میشود، شفافیت کافی وجود ندارد؛ بنابراین تنظیمگران هوش مصنوعی باید فشار بیشتری بر شرکتهای هوش مصنوعی وارد کنند تا در مورد استفاده از دادهها و مالکیت معنوی برای توسعه مدلهای خود شفاف باشند.
سطح الگوریتمی: بیشتر بحث حاکمیت هوش مصنوعی پیرامون الگوریتمها و مدلهای هوش مصنوعی است. حاکمیتها عمدتاً روی خطرات بلندمدتی که هوش مصنوعی میتواند برای بشریت ایجاد کند، تمرکز میکنند. در واقع در این سطح تمرکز بر چگونگی ارتباط دادهها و پاسخهای تولیدی توسط هوش مصنوعی است. دغدغه تنظیمگران در این سطح باید محدود کردن استفاده از رویکرد منبعباز توسط شرکتهای فناوری باشد.
سطح برنامهها و ابزارها: این مناسبترین سطح برای تنظیم این فناوری است. دغدغه حاکمیتها مدتها استفاده از اینترنت بود و از هرگونه مداخله نظارتی در نحوه عملکرد اینترنت اجتناب میکردند. آنها توجهی به استانداردها و حتی عملکرد زیرساخت اینترنت مانند تعداد پروتکلهای اینترنت یا سیستم دامنه نداشتند. این رویکرد یکی از عوامل اصلی رشد سریع اینترنت است.
در حال حاضر در مورد اینکه تنظیمگری و کنترل هوش مصنوعی از چه سطح یا لایهای آغاز شود، بحثهایی وجود دارد. برای مثال در آخرین مذاکرات اتحادیه اروپا در مورد قانون هوش مصنوعی بحثهایی در این مورد مطرح شد. در این اجلاس برخی معتقد بودند که تنظیمگری باید در سطح الگوریتم صورت گیرد و برخی دیگر باور داشتند که سطح ابزارها و برنامهها باید تنظیم شود. اما اکثریت با مورد دوم موافق هستند. جالب اینجاست که اکثر حامیان کدها و الگوریتمهای هوش مصنوعی، با تنظیمگری سطح ابزارها و برنامه و سطح دادهها موافق نیستند، زیرا تنظیمگری این دو سطح به نفع این فناوری نیست.