کارنگ رسانه اقتصاد نوآوری است. در کارنگ ما تلاش داریم کسبوکارهای نوآور ایرانی، استارتاپها، شرکتهای دانشبنیان و دیگر کسبوکارها کوچک و بزرگی که در بخشهای مختلف اقتصاد نوآوری در حال ارائه محصول و خدمت هستند را مورد بررسی قرار دهیم و از آینده صنعت، تولید، خدمات و دیگر بخشهای اقتصاد بگوییم. کارنگ رسانهای متعلق به بخش خصوصی ایران است.
استفاده از رگولاتوری قدیمی برای کنترل هوش مصنوعی
ثریا حقی/ با سرعت گرفتن توسعه مدلهای هوش مصنوعی قدرتمند، در رقابت با چت جیپیتی (ChatGPT) شرکت اوپن ایآی (Open AI)، برخی از رگولاتورها تصمیم گرفتهاند برای کنترل این فناوری که احتمال میرود عملکرد کسبوکارها و جوامع و حتی شاید بشریت را تحتالشعاع قرار دهد – حداقل فعلاً – به مقررات و چهارچوبهای رگولاتوری قدیمی اکتفا کنند.
به گزارش رویترز، اتحادیه اروپا یکی از پیشروترین رگولاتورهاست که در حال حاضر، با پیشنویس قوانین جدی هوش مصنوعی پیشگام است. قوانینی که با توسعه سریع و پرشتاب مدلهای هوش مصنوعی نظیر چت جیپیتی و رقبای تازهنفس آن ایجاد شده و میتواند معیاری جهانی برای رسیدگی به نگرانیهای مربوط به حریم خصوصی و ایمنی باشد. با این حال، نکته اینجاست که به احتمال زیاد چند سال طول خواهید کشید تا این قانون وارد فاز اجرایی شود.
ماسیمیلیانو سیمناقی (Massimiliano Cimnaghi)، کارشناس مدیریت داده اروپا در شرکت بیآیپی (BIP) میگوید: «در غیاب مقررات، تنها کاری که از دست دولتها برمیآید اعمال قوانین موجود است.»
او میافزاید: «اگر موضوع به محافظت از دادههای خصوصی مربوط باشد، آنها از قوانین حفاظت از داده کنونی استفاده میکنند، اگر هم پای تهدید ایمنی افراد در میان باشد، باز مقرراتی وجود دارند که به طور خاص برای کنترل هوش مصنوعی تدوین نشدهاند، اما همچنان قابل اجرا هستند.»
در ماه آوریل، پس از اینکه رگولاتور ایتالیایی گارانته (Garante) سرویس چت جیپیتی را در این کشور آفلاین کرد، رگولاتورهای اتحادیه اروپا کار گروهی را با هدف رسیدگی به مشکلات و چالشهای چت جیپیتی – و دیگر مدلهای هوش مصنوعی مدرن – تشکیل داده و شرکت اوپن ایآی را به نقض مقررات عمومی حفاظت از داده اتحادیه اروپا (GDPR) متهم کردند، که در ۲۵ می ۲۰۱۸ میلادی به اجرا درآمده و در مورد حفاظت از داده و محرمانگی همه اشخاص و خروج داده در اتحادیه اروپا و منطقه اقتصادی اروپا وضع شده است.
البته ایتالیا رفع فیلتر چت جیپیتی را منوط به برخی شرایط قبول کرد، از جمله افزودن ویژگیهای تأیید سن و اجازه به کاربران اروپایی برای جلوگیری از استفاده از اطلاعات شخصیشان به منظور آموزش مدل هوش مصنوعی.
یکی از منابع آگاه و نزدیک به گارانته اعلام کرده که این رگولاتور، بررسی گستردهتر سایر ابزارها و مدلهای هوش مصنوعی مولد را نیز در دستور کار قرار داده است. مقامات رگولاتوری در اسپانیا و فرانسه نیز در ماه آوریل، تحقیقاتی را مبنی بر بررسی انطباق چت جیپیتی – و سایر مدلهای هوش مصنوعی مولد – با قوانین حریم خصوصی آغاز کردهاند.
در کنار این تحقیقات و تلاش برای تدوین مقررات جدید در کنار اتکا به قوانین موجود، کارشناسان و رگولاتورها سعی دارند گرد هم آمده و با تفکر خلاقانه در مورد هوش مصنوعی و نحوه کنترل آن، چالشهای این فناوری جدید را پاسخ دهند.
گرد آمدن کارشناسان و رگولاتورها
یکی از چالشهایی که در حال حاضر در مورد چت جیپیتی و سایر مدلهای هوش مصنوعی نظیر آن وجود دارد، اطلاعات نادرست، اشتباهات یا توهماتی است که از این مدلها سر میزند.
بدیهی است که با توجه به استقبال بیسابقه کاربران از این مدلها و استفاده از آنها در ابعاد گسترده، چنین اشتباهاتی، هرچند کوچک، میتواند عواقب بسیار جدی و تأثیرگذاری در پی داشته باشد. تصور کنید یک بانک، مؤسسه مالی یا اداره دولتی قصد داشته باشد از مدل هوش مصنوعی مولد برای تأیید صلاحیت و اعطای وام به متقاضیان خود استفاده کند. در صورت ارائه اطلاعات نادرست، ممکن است بسیاری از متقاضیان بدون دلیل موجه و به اشتباه رد صلاحیت شده و فرصت دریافت تسهیلات را از دست بدهند. دقیقاً به همین دلیل است که شرکتهای بزرگ و معتبری همچون گوگل، آلفابت و خود مایکروسافت، استفاده از مدلهای هوش مصنوعی مولد را فعلاً به حالت تعلیق درآوردهاند و برخلاف اوپن ایآی – که یک استارتاپ است و از منظر اعتبار تفاوت زیادی با غولهای فناوری دارد – محصولات خود را به صورت عمومی عرضه نمیکنند.
به گفته شش تن از مقامات رگولاتوری و کارشناسان اتحادیه اروپا، رگولاتورها قصد دارند چهارچوبهای رگولاتوری موجود را در خصوص فناوری هوش مصنوعی و محصولات مولد مبتنی بر آن اعمال کنند. این مقررات قرار است همهچیز را از حق نسخهبرداری گرفته تا حریم خصوصی دادهها پوشش دهند و شامل دو پارامتر کلیدی میشوند: دادههای ورودی به مدلهای هوش مصنوعی مولد، و محتوایی که این مدلها تولید میکنند.
سورش ونکاتاسوبرامانیان (Suresh Venkatasubramanian)، مشاور سابق فناوری در کاخ سفید، اذعان میکند که آژانسها سعی دارند به ویژه در این دو حوزه وارد عمل شده، مقررات و دستورالعملهای موجود را اجرا و در عین حال بازبینی و بازنویسی کنند. وی به تحقیقات کمیسیون تجارت فدرال ایالات متحده (FTC) پیرامون الگوریتمهای جهتدار هوش مصنوعی اشاره کرده و افزود: «کمیسیون تجارت فدرال ایالات متحده که بهعنوان مرجع اصلی حمایت از مصرفکنندگان عمل میکند، در مورد الگوریتمهای جهتدار و تبعیضآمیز هوش مصنوعی هشدار صریح داده و با شعار برقراری «حقیقت، عدالت و برابری در استفاده از هوش مصنوعی» بررسی و کنترل این مدلهای مولد را در دستور کار خود قرار داده است.»
طرح پیشنهادی اتحادیه اروپا، شرکتهای ارائهدهنده مدلهای هوش مصنوعی مولد نظیر اوپن ایآی را ملزم میکند تا کلیه مطالب دارای حق چاپ – مثل کتاب یا عکس – که برای آموزش مدلهای هوش مصنوعی استفاده میشوند را افشا کرده و امکان بررسی چالشهای قانونی آنها را فراهم کنند.
به گفته سرگئی لاگودینسکی (Sergey Lagodinsky)، یکی از چندین سیاستمدار دخیل در تهیه پیشنویس طرح پیشنهادی اتحادیه اروپا، نقض حق تألیف یا چاپ کار سادهای نخواهد بود.
او معتقد است: «این کار، درست مثل این است که صدها رمان را قبل از اینکه رمان خودتان را بنویسید مطالعه کنید. اگر عیناً چیزی را کپی کرده و منتشر کنید، این یک چیز است… اما اگر مستقیماً مطالب دیگران را سرقت علمی نکرده باشید – با اقتباس از آن چیزی نوشته و منتشر کرده باشید – دیگر مهم نیست در چه موردی آموزش دیدهاید.» در واقع، این شما خواهید بود که مسئولیت تام آنچه نوشته و منتشر شده را به گردن دارید و باید در مورد آن پاسخگو باشید؛ حال از هرچیز و هرکس که اقتباس کردهاید، مهم نیست.
تفکر خلاقانه
به گفته برتراند پیلس (Bertrand Pailhes)، رئیس رگولاتور داده فرانسوی سیانآیال (CNIL)، این مؤسسه شروع به «تفکر خلاقانه» پیرامون چگونگی اعمال مقررات و چهارچوبهای رگولاتوری موجود در مورد هوش مصنوعی و مدلهای مولد مبتنی بر آن کرده است.
به عنوان مثال، در فرانسه، رسیدگی به دعاوی و شکایتهای مبتنی بر تبعیض بر عهده سازمان مدافع حقوق فرانسه (Defenseur des Droits) است. اما به گفته برتراند پیلس، فقدان مقررات موجود در خصوص هوش مصنوعی و نبود تخصص کافی این سازمان پیرامون این فناوری، باعث شده تا شرکت سیانآیال احساس مسئولیت کرده و برای جلوگیری از ادامهدار بودن این قبیل روندهای تبعیضآمیز، با تفکر خلاقانه وارد عمل شود.
وی میگوید: «ما در حال بررسی طیف گستردهای از اثرات – فناوری هوش مصنوعی – هستیم؛ هرچند که بیشتر تمرکزمان روی حفاظت از دادهها و حریم خصوصی است.»
سیانآیال قصد دارد با بررسی امکان استفاده حداکثری از مقررات عمومی حفاظت از داده اتحادیه اروپا (GDPR)، افراد و کاربران مدلهای هوش مصنوعی را در قبال تصمیمگیریهای خودکار و خودسرانه این مدلها حفاظت کند.
پیلس اذعان میکند: «در این مرحله نمیتوانم بگویم که چهارچوبهای رگولاتوری موجود کافی هستند یا نه… در هر حال اینکار زمانبر است و این احتمال نیز وجود دارد که رگولاتورهای دیگر با ما همعقیده نباشند.»
در بریتانیا نیز مرجع راهبرد امور مالی انگلستان (Financial Conduct Authority) یکی از چندین رگولاتور ایالتی است که وظیفه تدوین دستورالعملهای جدید پیرامون هوش مصنوعی را بر عهده دارد. یکی از سخنگویان این سازمان به رویترز گفته که این مؤسسه برای بهبود درک خود از این فناوری، در کنار سایر مؤسسات حقوقی و دانشگاهی، با مؤسسه آلن تورینگ (Alan Turing Institute) در لندن در حال رایزنی است.
همزمان با اینکه رگولاتورها سعی دارند خود را با توسعه سریع مدلهای هوش مصنوعی مولد همگام کنند، برخی از بزرگان صنعت نیز خواستار تعامل با رگولاتورها هستند.
هری بورویک (Harry Borovick)، مشاور کل استارتاپ لومیننس (Luminance) که از فناوری هوش مصنوعی برای پردازش اسناد قانونی استفاده میکند مدعی است که تا امروز، تعامل و گفتوگوی بین رگولاتورها و رهبران شرکتهای مبتنی بر هوش مصنوعی محدود بوده است.
او میگوید: «این بهویژه از منظر آینده خوب نیست… به نظر میرسد که رگولاتورها یا کند هستند، یا تمایلی به اجرای رویکردهایی ندارند که تعادل مناسب بین حمایت از مصرفکننده و رشد کسبوکار را ممکن میسازند.»