کارنگ، رسانه اقتصاد نوآوری ایران
رسانه اقتصاد نوآوری ایران

استفاده از رگولاتوری قدیمی برای کنترل هوش مصنوعی

ثریا حقی/ با سرعت گرفتن توسعه مدل‌های هوش مصنوعی قدرتمند، در رقابت با چت جی‌پی‌تی (ChatGPT) شرکت اوپن ای‌آی (Open AI)، برخی از رگولاتورها تصمیم گرفته‌اند برای کنترل این فناوری که احتمال می‌رود عملکرد کسب‌وکارها و جوامع و حتی شاید بشریت را تحت‌الشعاع قرار دهد – حداقل فعلاً – به مقررات و چهارچوب‌های رگولاتوری قدیمی اکتفا کنند.

به گزارش رویترز، اتحادیه اروپا یکی از پیشروترین رگولاتورهاست که در حال حاضر، با پیش‌نویس قوانین جدی هوش مصنوعی پیشگام است. قوانینی که با توسعه سریع و پرشتاب مدل‌های هوش مصنوعی نظیر چت جی‌پی‌تی و رقبای تازه‌نفس آن ایجاد شده و می‌تواند معیاری جهانی برای رسیدگی به نگرانی‌های مربوط به حریم خصوصی و ایمنی باشد. با این حال، نکته اینجاست که به احتمال زیاد چند سال طول خواهید کشید تا این قانون وارد فاز اجرایی شود.

ماسیمیلیانو سیمناقی (Massimiliano Cimnaghi)، کارشناس مدیریت داده اروپا در شرکت بی‌آی‌پی (BIP) می‌گوید: «در غیاب مقررات، تنها کاری که از دست دولت‌ها برمی‌آید اعمال قوانین موجود است.»

او می‌افزاید: «اگر موضوع به محافظت از داده‌های خصوصی مربوط باشد، آنها از قوانین حفاظت از داده کنونی استفاده می‌کنند، اگر هم پای تهدید ایمنی افراد در میان باشد، باز مقرراتی وجود دارند که به‌ طور خاص برای کنترل هوش مصنوعی تدوین نشده‌اند، اما همچنان قابل اجرا هستند.»

در ماه آوریل، پس از اینکه رگولاتور ایتالیایی گارانته (Garante) سرویس چت جی‌پی‌تی را در این کشور آفلاین کرد، رگولاتورهای اتحادیه اروپا کار گروهی را با هدف رسیدگی به مشکلات و چالش‌های چت جی‌پی‌تی – و دیگر مدل‌های هوش مصنوعی مدرن – تشکیل داده و شرکت اوپن ای‌آی را به نقض مقررات عمومی حفاظت از داده اتحادیه اروپا (GDPR) متهم کردند، که در 25 می 2018 میلادی به اجرا درآمده و در مورد حفاظت از داده و محرمانگی همه اشخاص و خروج داده در اتحادیه اروپا و منطقه اقتصادی اروپا وضع شده ‌است.

البته ایتالیا رفع فیلتر چت جی‌پی‌تی را منوط به برخی شرایط قبول کرد، از جمله افزودن ویژگی‌های تأیید سن و اجازه به کاربران اروپایی برای جلوگیری از استفاده از اطلاعات شخصی‌شان به منظور آموزش مدل هوش مصنوعی.

یکی از منابع آگاه و نزدیک به گارانته اعلام کرده که این رگولاتور، بررسی گسترده‌تر سایر ابزارها و مدل‌های هوش مصنوعی مولد را نیز در دستور کار قرار داده است. مقامات رگولاتوری در اسپانیا و فرانسه نیز در ماه آوریل، تحقیقاتی را مبنی بر بررسی انطباق چت جی‌پی‌تی – و سایر مدل‌های هوش مصنوعی مولد – با قوانین حریم خصوصی آغاز کرده‌اند.

در کنار این تحقیقات و تلاش برای تدوین مقررات جدید در کنار اتکا به قوانین موجود، کارشناسان و رگولاتورها سعی دارند گرد هم آمده و با تفکر خلاقانه در مورد هوش مصنوعی و نحوه کنترل آن، چالش‌های این فناوری جدید را پاسخ دهند.


گرد آمدن کارشناسان و رگولاتورها


یکی از چالش‌هایی که در حال حاضر در مورد چت جی‌پی‌تی و سایر مدل‌های هوش مصنوعی نظیر آن وجود دارد، اطلاعات نادرست، اشتباهات یا توهماتی است که از این مدل‌ها سر می‌زند.

بدیهی است که با توجه به استقبال بی‌سابقه کاربران از این مدل‌ها و استفاده از آنها در ابعاد گسترده، چنین اشتباهاتی، هرچند کوچک، می‌تواند عواقب بسیار جدی و تأثیرگذاری در پی داشته باشد. تصور کنید یک بانک، مؤسسه مالی یا اداره دولتی قصد داشته باشد از مدل هوش مصنوعی مولد برای تأیید صلاحیت و اعطای وام به متقاضیان خود استفاده کند. در صورت ارائه اطلاعات نادرست، ممکن است بسیاری از متقاضیان بدون دلیل موجه و به اشتباه رد صلاحیت شده و فرصت دریافت تسهیلات را از دست بدهند. دقیقاً به همین دلیل است که شرکت‌های بزرگ و معتبری همچون گوگل، آلفابت و خود مایکروسافت، استفاده از مدل‌های هوش مصنوعی مولد را فعلاً به حالت تعلیق درآورده‌اند و برخلاف اوپن ای‌آی – که یک استارتاپ است و از منظر اعتبار تفاوت زیادی با غول‌های فناوری دارد – محصولات خود را به صورت عمومی عرضه نمی‌کنند.

به گفته شش تن از مقامات رگولاتوری و کارشناسان اتحادیه اروپا، رگولاتورها قصد دارند چهارچوب‌های رگولاتوری موجود را در خصوص فناوری هوش مصنوعی و محصولات مولد مبتنی بر آن اعمال کنند. این مقررات قرار است همه‌چیز را از حق نسخه‌برداری گرفته تا حریم خصوصی داده‌ها پوشش دهند و شامل دو پارامتر کلیدی می‌شوند: داده‌های ورودی به مدل‌های هوش مصنوعی مولد، و محتوایی که این مدل‌ها تولید می‌کنند.

سورش ونکاتاسوبرامانیان (Suresh Venkatasubramanian)، مشاور سابق فناوری در کاخ سفید، اذعان می‌کند که آژانس‌ها سعی دارند به ویژه در این دو حوزه وارد عمل شده، مقررات و دستورالعمل‌های موجود را اجرا و در عین حال بازبینی و بازنویسی کنند. وی به تحقیقات کمیسیون تجارت فدرال ایالات متحده (FTC) پیرامون الگوریتم‌های جهت‌دار هوش مصنوعی اشاره کرده و افزود: «کمیسیون تجارت فدرال ایالات متحده که به‌عنوان مرجع اصلی حمایت از مصرف‌کنندگان عمل می‌کند، در مورد الگوریتم‌های جهت‌دار و تبعیض‌آمیز هوش مصنوعی هشدار صریح داده و با شعار برقراری «حقیقت، عدالت و برابری در استفاده از هوش مصنوعی» بررسی و کنترل این مدل‌های مولد را در دستور کار خود قرار داده است.»

طرح پیشنهادی اتحادیه اروپا، شرکت‌های ارائه‌دهنده مد‌ل‌های هوش مصنوعی مولد نظیر اوپن ای‌آی را ملزم می‌کند تا کلیه مطالب دارای حق چاپ – مثل کتاب یا عکس – که برای آموزش مدل‌های هوش مصنوعی استفاده می‌شوند را افشا کرده و امکان بررسی چالش‌های قانونی آنها را فراهم کنند.

به گفته سرگئی لاگودینسکی (Sergey Lagodinsky)، یکی از چندین سیاستمدار دخیل در تهیه پیش‌نویس طرح پیشنهادی اتحادیه اروپا، نقض حق تألیف یا چاپ کار ساده‌ای نخواهد بود.

او معتقد است: «این‌ کار، درست مثل این است که صدها رمان را قبل از اینکه رمان خودتان را بنویسید مطالعه کنید. اگر عیناً چیزی را کپی کرده و منتشر کنید، این یک چیز است… اما اگر مستقیماً مطالب دیگران را سرقت علمی نکرده باشید – با اقتباس از آن چیزی نوشته و منتشر کرده باشید – دیگر مهم نیست در چه موردی آموزش دیده‌اید.» در واقع، این شما خواهید بود که مسئولیت تام آنچه نوشته و منتشر شده را به گردن دارید و باید در مورد آن پاسخگو باشید؛ حال از هرچیز و هرکس که اقتباس کرده‌اید، مهم نیست.


تفکر خلاقانه


به گفته برتراند پیلس (Bertrand Pailhes)، رئیس رگولاتور داده فرانسوی سی‌ان‌آی‌ال (CNIL)، این مؤسسه شروع به «تفکر خلاقانه» پیرامون چگونگی اعمال مقررات و چهارچوب‌های رگولاتوری موجود در مورد هوش مصنوعی و مدل‌های مولد مبتنی بر آن کرده است.

به عنوان مثال، در فرانسه، رسیدگی به دعاوی و شکایت‌های مبتنی بر تبعیض بر عهده سازمان مدافع حقوق فرانسه (Defenseur des Droits) است. اما به گفته برتراند پیلس، فقدان مقررات موجود در خصوص هوش مصنوعی و نبود تخصص کافی این سازمان پیرامون این فناوری، باعث شده تا شرکت سی‌ان‌آی‌ال احساس مسئولیت کرده و برای جلوگیری از ادامه‌دار بودن این قبیل روندهای تبعیض‌آمیز، با تفکر خلاقانه وارد عمل شود.

وی می‌گوید: «ما در حال بررسی طیف گسترده‌ای از اثرات – فناوری هوش مصنوعی – هستیم؛ هرچند که بیشتر تمرکزمان روی حفاظت از داده‌ها و حریم خصوصی است.»

سی‌ان‌آی‌ال قصد دارد با بررسی امکان استفاده حداکثری از مقررات عمومی حفاظت از داده اتحادیه اروپا (GDPR)، افراد و کاربران مدل‌های هوش مصنوعی را در قبال تصمیم‌گیری‌های خودکار و خودسرانه این مدل‌ها حفاظت کند.

پیلس اذعان می‌کند: «در این مرحله نمی‌توانم بگویم که چهارچوب‌های رگولاتوری موجود کافی هستند یا نه… در هر حال این‌کار زمان‌بر است و این احتمال نیز وجود دارد که رگولاتورهای دیگر با ما هم‌عقیده نباشند.»

در بریتانیا نیز مرجع راهبرد امور مالی انگلستان (Financial Conduct Authority) یکی از چندین رگولاتور ایالتی است که وظیفه تدوین دستورالعمل‌های جدید پیرامون هوش مصنوعی را بر عهده دارد. یکی از سخنگویان این سازمان به رویترز گفته که این مؤسسه برای بهبود درک خود از این فناوری، در کنار سایر مؤسسات حقوقی و دانشگاهی، با مؤسسه آلن تورینگ (Alan Turing Institute) در لندن در حال رایزنی است.

هم‌زمان با اینکه رگولاتورها سعی دارند خود را با توسعه سریع مدل‌های هوش مصنوعی مولد همگام کنند، برخی از بزرگان صنعت نیز خواستار تعامل با رگولاتورها هستند.

هری بورویک (Harry Borovick)، مشاور کل استارتاپ لومیننس (Luminance) که از فناوری هوش مصنوعی برای پردازش اسناد قانونی استفاده می‌کند مدعی است که تا امروز، تعامل و گفت‌وگوی بین رگولاتورها و رهبران شرکت‌های مبتنی بر هوش مصنوعی محدود بوده است.

او می‌گوید: «این به‌ویژه از منظر آینده خوب نیست… به نظر می‌رسد که رگولاتورها یا کند هستند، یا تمایلی به اجرای رویکردهایی ندارند که تعادل مناسب بین حمایت از مصرف‌کننده و رشد کسب‌وکار را ممکن می‌سازند.»

لینک کوتاه: https://karangweekly.ir/16i1
منبع رویترز
نظر شما درباره موضوع

آدرس ایمیل شما منتشر نخواهد شد.