کارنگ، رسانه اقتصاد نوآوری ایران
رسانه اقتصاد نوآوری ایران

رهبران گروه هفت خواستار توسعه استانداردهای جهانی در مورد هوش مصنوعی‌ شدند

ثریا حقی / رهبران کشورهای گروه هفت که از آنها تحت عنوان G7 یاد می‌شود، روز شنبه در اجلاسی خواستار پذیرش و توسعه استانداردهای جهانی پیرامون هوش مصنوعی با هدف کنترل این فناوری ساختارشکن شده‌اند. در این اجلاس، رهبران کشورهای گروه هفت با اشاره به اینکه رشد فناوری هوش مصنوعی طی سال‌های اخیر و به‌ویژه در چند ماه گذشته (با محبوبیت بی‌سابقه چت جی‌پی‌تی (ChatGPT) ) بسیار بالا بوده و با حاکمیت و کنترل این فناوری همگام نبوده است، قانون‌گذاری و توسعه استانداردهای فنی در خصوص این فناوری را مهم برشمردند.

به گزارش رویترز، در این ملاقات که در هیروشیمای ژاپن برگزار شد، رهبران کشورهای گروه هفت خاطرنشان کردند که اگرچه ممکن است رویکردها برای دستیابی به «چشم‌انداز و هدف مشترک فناوری هوش مصنوعی قابل اعتماد» در دولت‌ها و سیاست‌های مختلف متفاوت باشد، اما روی این مهم تأکید کردند که با وجود تمام تفاوت‌ها و اختلاف‌ها، قوانین و استانداردهای تدوین‌شده برای کنترل هوش مصنوعی باید «مطابق با ارزش‌های دموکراتیک مشترک» آنها باشد.

طی بیانیه‌ای که توسط رهبران گروه هفت منتشر شده، تدوین و پیاده‌سازی استانداردهای فنی جهانی در خصوص فناوری هوش مصنوعی برای قابل اطمینان بودن این فناوری بسیار مهم و حیاتی عنوان شده که می‌تواند پیش‌زمینه‌ای بر نخستین قانون برای کنترل هوش مصنوعی در مقیاس جهانی باشد.

اورزولا فون دِر لاین (Ursula von der Leyen)، رئیس کمیسیون اروپا نیز در این اجلاس اذعان کرد: «ما می‌خواهیم سیستم‌های هوش مصنوعی، صرف‌نظر از منشاء خود، دقیق، قابل اعتماد، ایمن و عاری از هرگونه تبعیض باشند.»

رهبران گروه هفت هم روی این موضوع اتفاق نظر دارند که «فرصت‌ها و چالش‌های هوش مصنوعی مولد» که با روی کار آمدن و محبوبیت فزاینده چت جی‌پی‌تی بیش از پیش اهمیت پیدا کرده، باید شناسایی شوند و بر اساس آنها، استانداردها و چهارچوب‌های قانونی مورد نیاز تدوین شود.

در ماه مارس ایلان ماسک و تعدادی از بزرگان و متخصصان فناوری جهان، در پی محبوبیت فزاینده چت جی‌پی‌تی شرکت اوپن ای‌آی (Open AI) طی بیانیه‌ای در خصوص چالش‌ها و خطرات این فناوری زنگ خطرهایی را به صدا درآورده و خواستار توقف شش‌ماهه این فناوری شدند. یک ماه پس از آن بیانیه نیز قانون‌گذاران اتحادیه اروپا خواستار ارائه راهکارهایی برای کنترل فناوری هوش مصنوعی در سطح اروپا و جهان شدند و تصریح کردند که این فناوری، سریع‌تر از حد انتظار در حال رشد و ساختارشکنی است.

ایالات متحده آمریکا از جمله کشورهایی است که تاکنون رویکرد محتاطانه و محافظه‌کارتری در قبال فناوری هوش مصنوعی اتخاذ کرده؛ ریاست‌جمهوری ایالات متحده، جو بایدن، ماه گذشته گفت که «باید دید فناوری هوش مصنوعی خطرناک است یا خیر.»

این در حالی است که سم آلتمن (Sam Altman)، مدیرعامل اوپن ای‌آی که اکنون تحت پشتیبانی غول فناوری جهان، مایکروسافت فعالیت می‌کند، سه‌شنبه هفته گذشته ادعا کرد ایالات متحده آمریکا باید مجوز و الزامات آزمایشی مورد نیاز برای توسعه مدل‌های هوش مصنوعی را لحاظ کند.

ژاپن که ریاست اجلاس گروه هفت امسال را عهده‌دار بود، جزو کشورهایی است که از پذیرش عمومی و صنعتی هوش مصنوعی حمایت کرده و در عین حال، خطرات و چالش‌های آن را نیز زیر نظر دارد. نخست‌‌وزیر ژاپن، فومیو کیشیدا (Fumio Kishida)، هفته گذشته به شورای هوش مصنوعی دولت ژاپن گفت: «مقابله درخور با پتانسیل‌ها و خطرات – هوش مصنوعی – از اهمیت بالایی برخوردار است.»

این در حالی است که رویکردهای متفاوت و در اغلب موارد حمایتگر دولت‌های غربی در قبال فناوری هوش مصنوعی، در تضاد با رویکرد محدودکننده‌ای است که چین اتخاذ کرده است. رگولاتورهای سایبری چین در ماه آوریل از پیش‌نویس اقداماتی رونمایی کردند که سعی داشت خدمات مولد مبتنی بر هوش مصنوعی را با ارزش‌های سوسیالیستی اصلی این کشور همسو کند.

رهبران گروه هفت، به‌رغم پذیرش تفاوت‌هایی که به احتمال زیاد در حوزه پذیرش، تدوین استانداردها و کنترل فناوری هوش مصنوعی وجود خواهد داشت، روز جمعه توافق کردند با راه‌اندازی یک انجمن وزارتی جدید تحت عنوان فرایند هوش مصنوعی هیروشیما (Hiroshima AI process) تا پیش از اتمام سال جاری میلادی، موضوعات مختلف مرتبط با فناوری هوش مصنوعی نظیر  کپی‌رایت و نشر اطلاعات غلط را در دستور کار قرار دهند. علاوه بر آن، رهبران گروه هفت از سازمان‌های بین‌المللی نظیر سازمان توسعه و همکاری‌های اقتصادی (Economic Cooperation and Development) نیز خواستند که در تحلیل و تدوین استانداردهای فنی جهانی پیرامون فناوری هوش مصنوعی همکاری کنند.

لینک کوتاه: https://karangweekly.ir/xtvt
منبع رویترز
نظر شما درباره موضوع

آدرس ایمیل شما منتشر نخواهد شد.