کارنگ، رسانه اقتصاد نوآوری ایران
رسانه اقتصاد نوآوری ایران

هوش مصنوعی به شدت به نظارت جهانی نیاز دارد

ثریا حقی / هربار که یک پست اینستاگرامی را لایک می‌کنید، در رسانه‌های اجتماعی چت می‌کنید، یک وب‌سایت ایجاد می‌کنید یا حتی یک ایمیل ساده ارسال می‌کنید، داده‌های شما برای این‌که در جهت آموزش هوش مصنوعی استفاده شوند جمع‌آوری شده و ذخیره‌سازی می‌شوند؛ فناوری که می‌تواند بر اساس همین داده‌ها، صدا، تصویر، اطلاعات و حتی احساساتی را ایجاد کند که برای شما قابل‌باورترین هستند. این واقعاً جذاب و حیرت‌انگیز است، اما عواقب خاص خودش را هم دارد.

تعدادی از محققان اوپن ای‌آی (OpenAI) که روی تأثیر مدل‌های زبانی خود روی بازار کار مطالعه می‌کنند، بر این عقیده‌اند که دستاوردهای بزرگ فناوری هوش مصنوعی، مثل مدل‌های زبان بزرگ (LLM) و چت جی‌پی‌تی (ChatGPT)، می‌توانند بخش قابل توجهی از وظایف کاری ۸۰ درصد از نیروی کار ایالات متحده آمریکا را تحت‌تاًثیر قرار دهند. چیزی در حدود ۱۹ درصد از کارکنان، ممکن است نیمی از مسئولیت‌های کنونی خود را از دست بدهند. درواقع، ما با تغییر شدید بازار کار مواجهیم و همین لایک‌ها و پست‌های شما، می‌توانند شما را از کار بی‌کار کنند.

وقتی شرکتی فناوری خود را روی منبعی عمومی (اینترنت) می‌سازد، منطقی است که این فناوری برای همگان در دسترس و قابل استفاده باشد، اما نکته قابل توجه در مورد جی‌پی‌تی ۴ (GPT-4)، موضوعی که صدای منتقدان را درآورده، این است که این فناوری، فاقد هرگونه اطلاعات یا مشخصات واضح است. عدم شفافیتی که باعث می‌شود بسیاری از شرکت‌های منفعت‌طلب، از آن برای کسب سودهای کلان مالی استفاده کنند، بدون این‌که عواقب آن و منافع عمومی را در نظر داشته باشند.

البته، شفافیت باز هم نمی‌تواند تضمین کند که این مدل‌ها، در خدمت منافع عمومی هستند. درصورتی که فناوری مدل‌های زبان بزرگ و داده‌های زیربنایی موردنیاز برای آن، به‌صورت متن‌باز و شفاف در دسترس عموم باشد، روزنامه‌نگاران، تحلیل‌گران و حسابداران حرف زیادی برای گفتن نخواهند داشت؛ مشاغلی که بسیار هم پرمخاطب هستند. به همین دلیل نیز مجموعه‌ای از مقررات و چهارچوب‌ها نیاز هستند تا بتوانند این قبیل فناوری‌ها را کنترل کرده و شرکت‌های استفاده‌کننده را ملزم به رعایت برخی الزامات کنند. کدهای منبع باز، برای اهداف مجرمانه و هک نیز هدف هستند. شفافیت، اگرچه قابل ستایش است، اما به تنهایی نمی‌تواند هوش مصنوعی مولد برای جامعه‌ای بهتر را تضمین کند.

برای دستیابی به منافع عمومی حقیقی، به مکانیسم‌هایی نیاز داریم که مسئولیت هوش مصنوعی را عهده‌دار شوند. جهان، به یک نهاد مدیریت جهانی هوش مصنوعی مولد نیاز دارد تا بتواند در عین حل کردن این اختلالات اجتماعی، اقتصادی و سیاسی، به پتانسیل‌های هوش مصنوعی جامه عمل بپوشاند.

مسئولیتی که از عهده یک دولت یا جمعی از نخبگان، دانشگاهیان، دانشمندان یا جامعه مدنی خارج است. در حال حاضر نیز گام‌هایی در این راستا برداشته شده، و شاهد فعالیت سازمان‌های متخصص و مستقل با بودجه‌های قوی هستیم که سعی دارند فناوری را به سمت منافع عمومی سوق دهند. سازمان‌هایی که باید توسعه یافته، ارتقا داده شوند تا فناوری هوش مصنوعی را به خدمت کامل منافع عمومی درآورده و آن را در قبال ایده‌های سیاسی و اقتصادی مغرضانه قرار دهند.

همان‌طور که پس از جنگ جهانی دوم، ترس از پتانسیل‌های فناوری هسته‌ای منجر به القای این باور جمعی به جامعه شده بود که همه باید در قبال این فناوری ترسناک قد علم کنند؛ اکنون نیز مدل‌های هوش مصنوعی مولد در حال تبدیل شدن به یک فناوری ترسناک هستند.

همان‌طور که کشورهای سراسر جهان، تصمیم گرفتند نهادی را (تحت هدایت سازمان ملل متحد) تحت عنوان آژانس بین‌المللی انرژی اتمی راه‌اندازی کنند، یک نهاد مستقل و عاری از وابستگی‌های دولتی و شرکتی نیز برای هوش مصنوعی نیاز است، تا بتواند در عین کمک به توسعه این فناوری، عواقب مخرب و جبران‌ناپذیر آن را کنترل کند.

نمونه‌هایی از این ایجاد تعادل بین شفافیت و مسئولیت‌پذیری را در حوزه فناوری نیز داریم. هیئت نظارت متا (شرکت مادر فیس‌بوک) یکی از این نمونه‌هاست، که اگرچه کامل نیست، اما می‌تواند تا حد زیادی کمک‌کننده باشد. مواردی از این دست، با وجود نقص‌هایی که دارند، نقطه شروعی هستند برای این‌که چشم‌انداز ایجاد یک نهاد مستقل برای فناوری هوش مصنوعی را نشان دهند. نهادی که مانند آژانس بین‌المللی انرژی اتمی، مجموعه‌ای از تخصص‌ها و همکاری‌ها را در بر داشته و در عین حال، مثل هیئت نظارت متا، بتواند داده‌های ورودی را دریافت و بر اساس این ورودی‌ها و عواقب آن‌ها، الزامات درخور را اعمال کند.

برای تاًمین مالی جنین نهاد نظارتی، لازم است همه شرکت‌هایی که در تولید و استفاده از فناوری هوش مصنوعی فعالیت دارند مشارکت داشته باشند. نهادی که همه جنبه‌های مدل‌های هوش مصنوعی مولد، از جمله توسعه، استقرار و استفاده از آن‌ها را پوشش داده و توصیه‌های جامعه مدنی، سازمان‌های دانشگاهی و متخصصین صنعت را مدنظر قرار می‌دهد.

چنین نهادی، باید قدرت تغییر در برخی طراحی‌ها یا زیرساخت‌های مدل‌های هوش مصنوعی را داشته و حتی درصورت نیاز، بتواند آن‌ها را به‌طور کامل متوقف کند. این نهاد، وظیفه دارد در کنار جامه عمل پوشاندن به پتانسیل‌های خارق‌العاده هوش مصنوعی، به اختلالات عمیقی که این فناوری می‌تواند در بازار کار، اطلاعات، سیاست و غیره ایجاد کند، رسیدگی کند. گروهی که نه صرفاً برای تحقیق، که برای عمل تشکیل می‌شود.

چنین نهادی، قبل از هرچیز باید بتواند داده‌های ورودی به مدل‌های هوش مصنوعی مولد را در اختیار گرفته و غربال کند؛ داده‌هایی که به دور از تبعیض و غرض بوده و در نهایت دقت و صحت در اختیار مدل‌ها قرار می‌گیرند. مورد بعدی، در کنار شناسایی اختلالات و مشکلات احتمالی ناشی از مدل‌های هوش مصنوعی مولد، یافتن راه‌کارهایی برای حل‌وفصل آن‌ها است.

البته، بدیهی است که ایجاد چنین مجموعه‌ای زمان‌بر است و با توجه به سرعت و مقیاسی که فناوری جدید به ما تحمیل کرده، نمی‌توان به این زودی‌ها روی چنین نظارت جهانی جامعی روی هوش مصنوعی مولد حساب باز کرد.

لینک کوتاه: https://karangweekly.ir/hgah
نظر شما درباره موضوع

آدرس ایمیل شما منتشر نخواهد شد.