کارنگ رسانه اقتصاد نوآوری است. در کارنگ ما تلاش داریم کسبوکارهای نوآور ایرانی، استارتاپها، شرکتهای دانشبنیان و دیگر کسبوکارها کوچک و بزرگی که در بخشهای مختلف اقتصاد نوآوری در حال ارائه محصول و خدمت هستند را مورد بررسی قرار دهیم و از آینده صنعت، تولید، خدمات و دیگر بخشهای اقتصاد بگوییم. کارنگ رسانهای متعلق به بخش خصوصی ایران است.
هوش مصنوعی به شدت به نظارت جهانی نیاز دارد
ثریا حقی / هربار که یک پست اینستاگرامی را لایک میکنید، در رسانههای اجتماعی چت میکنید، یک وبسایت ایجاد میکنید یا حتی یک ایمیل ساده ارسال میکنید، دادههای شما برای اینکه در جهت آموزش هوش مصنوعی استفاده شوند جمعآوری شده و ذخیرهسازی میشوند؛ فناوری که میتواند بر اساس همین دادهها، صدا، تصویر، اطلاعات و حتی احساساتی را ایجاد کند که برای شما قابلباورترین هستند. این واقعاً جذاب و حیرتانگیز است، اما عواقب خاص خودش را هم دارد.
تعدادی از محققان اوپن ایآی (OpenAI) که روی تأثیر مدلهای زبانی خود روی بازار کار مطالعه میکنند، بر این عقیدهاند که دستاوردهای بزرگ فناوری هوش مصنوعی، مثل مدلهای زبان بزرگ (LLM) و چت جیپیتی (ChatGPT)، میتوانند بخش قابل توجهی از وظایف کاری ۸۰ درصد از نیروی کار ایالات متحده آمریکا را تحتتاًثیر قرار دهند. چیزی در حدود ۱۹ درصد از کارکنان، ممکن است نیمی از مسئولیتهای کنونی خود را از دست بدهند. درواقع، ما با تغییر شدید بازار کار مواجهیم و همین لایکها و پستهای شما، میتوانند شما را از کار بیکار کنند.
وقتی شرکتی فناوری خود را روی منبعی عمومی (اینترنت) میسازد، منطقی است که این فناوری برای همگان در دسترس و قابل استفاده باشد، اما نکته قابل توجه در مورد جیپیتی ۴ (GPT-4)، موضوعی که صدای منتقدان را درآورده، این است که این فناوری، فاقد هرگونه اطلاعات یا مشخصات واضح است. عدم شفافیتی که باعث میشود بسیاری از شرکتهای منفعتطلب، از آن برای کسب سودهای کلان مالی استفاده کنند، بدون اینکه عواقب آن و منافع عمومی را در نظر داشته باشند.
البته، شفافیت باز هم نمیتواند تضمین کند که این مدلها، در خدمت منافع عمومی هستند. درصورتی که فناوری مدلهای زبان بزرگ و دادههای زیربنایی موردنیاز برای آن، بهصورت متنباز و شفاف در دسترس عموم باشد، روزنامهنگاران، تحلیلگران و حسابداران حرف زیادی برای گفتن نخواهند داشت؛ مشاغلی که بسیار هم پرمخاطب هستند. به همین دلیل نیز مجموعهای از مقررات و چهارچوبها نیاز هستند تا بتوانند این قبیل فناوریها را کنترل کرده و شرکتهای استفادهکننده را ملزم به رعایت برخی الزامات کنند. کدهای منبع باز، برای اهداف مجرمانه و هک نیز هدف هستند. شفافیت، اگرچه قابل ستایش است، اما به تنهایی نمیتواند هوش مصنوعی مولد برای جامعهای بهتر را تضمین کند.
برای دستیابی به منافع عمومی حقیقی، به مکانیسمهایی نیاز داریم که مسئولیت هوش مصنوعی را عهدهدار شوند. جهان، به یک نهاد مدیریت جهانی هوش مصنوعی مولد نیاز دارد تا بتواند در عین حل کردن این اختلالات اجتماعی، اقتصادی و سیاسی، به پتانسیلهای هوش مصنوعی جامه عمل بپوشاند.
مسئولیتی که از عهده یک دولت یا جمعی از نخبگان، دانشگاهیان، دانشمندان یا جامعه مدنی خارج است. در حال حاضر نیز گامهایی در این راستا برداشته شده، و شاهد فعالیت سازمانهای متخصص و مستقل با بودجههای قوی هستیم که سعی دارند فناوری را به سمت منافع عمومی سوق دهند. سازمانهایی که باید توسعه یافته، ارتقا داده شوند تا فناوری هوش مصنوعی را به خدمت کامل منافع عمومی درآورده و آن را در قبال ایدههای سیاسی و اقتصادی مغرضانه قرار دهند.
همانطور که پس از جنگ جهانی دوم، ترس از پتانسیلهای فناوری هستهای منجر به القای این باور جمعی به جامعه شده بود که همه باید در قبال این فناوری ترسناک قد علم کنند؛ اکنون نیز مدلهای هوش مصنوعی مولد در حال تبدیل شدن به یک فناوری ترسناک هستند.
همانطور که کشورهای سراسر جهان، تصمیم گرفتند نهادی را (تحت هدایت سازمان ملل متحد) تحت عنوان آژانس بینالمللی انرژی اتمی راهاندازی کنند، یک نهاد مستقل و عاری از وابستگیهای دولتی و شرکتی نیز برای هوش مصنوعی نیاز است، تا بتواند در عین کمک به توسعه این فناوری، عواقب مخرب و جبرانناپذیر آن را کنترل کند.
نمونههایی از این ایجاد تعادل بین شفافیت و مسئولیتپذیری را در حوزه فناوری نیز داریم. هیئت نظارت متا (شرکت مادر فیسبوک) یکی از این نمونههاست، که اگرچه کامل نیست، اما میتواند تا حد زیادی کمککننده باشد. مواردی از این دست، با وجود نقصهایی که دارند، نقطه شروعی هستند برای اینکه چشمانداز ایجاد یک نهاد مستقل برای فناوری هوش مصنوعی را نشان دهند. نهادی که مانند آژانس بینالمللی انرژی اتمی، مجموعهای از تخصصها و همکاریها را در بر داشته و در عین حال، مثل هیئت نظارت متا، بتواند دادههای ورودی را دریافت و بر اساس این ورودیها و عواقب آنها، الزامات درخور را اعمال کند.
برای تاًمین مالی جنین نهاد نظارتی، لازم است همه شرکتهایی که در تولید و استفاده از فناوری هوش مصنوعی فعالیت دارند مشارکت داشته باشند. نهادی که همه جنبههای مدلهای هوش مصنوعی مولد، از جمله توسعه، استقرار و استفاده از آنها را پوشش داده و توصیههای جامعه مدنی، سازمانهای دانشگاهی و متخصصین صنعت را مدنظر قرار میدهد.
چنین نهادی، باید قدرت تغییر در برخی طراحیها یا زیرساختهای مدلهای هوش مصنوعی را داشته و حتی درصورت نیاز، بتواند آنها را بهطور کامل متوقف کند. این نهاد، وظیفه دارد در کنار جامه عمل پوشاندن به پتانسیلهای خارقالعاده هوش مصنوعی، به اختلالات عمیقی که این فناوری میتواند در بازار کار، اطلاعات، سیاست و غیره ایجاد کند، رسیدگی کند. گروهی که نه صرفاً برای تحقیق، که برای عمل تشکیل میشود.
چنین نهادی، قبل از هرچیز باید بتواند دادههای ورودی به مدلهای هوش مصنوعی مولد را در اختیار گرفته و غربال کند؛ دادههایی که به دور از تبعیض و غرض بوده و در نهایت دقت و صحت در اختیار مدلها قرار میگیرند. مورد بعدی، در کنار شناسایی اختلالات و مشکلات احتمالی ناشی از مدلهای هوش مصنوعی مولد، یافتن راهکارهایی برای حلوفصل آنها است.
البته، بدیهی است که ایجاد چنین مجموعهای زمانبر است و با توجه به سرعت و مقیاسی که فناوری جدید به ما تحمیل کرده، نمیتوان به این زودیها روی چنین نظارت جهانی جامعی روی هوش مصنوعی مولد حساب باز کرد.