کارنگ، رسانه اقتصاد نوآوری ایران
رسانه اقتصاد نوآوری ایران

همچون انرژی اتمی، یک آژانس بین‌المللی هم برای هوش مصنوعی لازم است؟

ثریا حقی / مدل‌های هوش مصنوعی بزرگ مثل چت جی‌پی‌تی (ChatGPT) شرکت اوپن ای‌آی (Open AI)، سریع‌ترین برنامه‌های کاربردی اینترنت در تمام ادوار بوده‌اند که توانسته‌اند حجم بالایی از کاربران را در مدت زمانی کوتاه شیفته خود کنند.

ابزارهایی که ظاهراً از همه‌چیز، از پزشکی گرفته تا ریاضیات و نجوم سر در می‌آورند و بازی با آن‌ها بیشتر از هر رقیب و رفیق دیگری می‌چسبد. اما همین سیستم‌های هوش مصنوعی که قادرند کارهای جذاب و شگفت‌انگیز انجام دهند، همان‌قدر که دوست‌داشتنی‌اند، می‌توانند خطرناک هم باشند.

یوروپل (Europol) هشدار داده که همین سیستم‌های دوشت‌داشتنی، ممکن است جرایم سایبری را تا حد زیادی افزایش دهند. بسیاری از کارشناسان هوش مصنوعی حتی نگران پتانسیل این فناوری برای ایجاد سونامی اطلاعات نادرست هستند. سونامی که فقط به چند جواب غلط در مورد چند سوال ختم نمی‌شود و می‌تواند حتی در اتفاقات مهم و بزرگ جهانی، مثل انتخابات قریب‌الوقوع ریاست جمهوری ایالات متحده آمریکا در سال 2024 میلادی اختلال ایجاد کند؛ درواقع، تهدیدی حتی برای دموکراسی!

حتی برخی از دانشمندان هشدار داده‌اند که ممکن است از این سیستم‌ها، برای ساخت بمب و سم و غیره هم استفاده شود. اصلاً شاید همین سیستم‌های دوست‌داشتنی روزی تبدیل به مهم‌ترین و خطرناک‌ترین تهدید برای بشریت شوند.

به گزارش اکونومیست، یکی از نکات مهمی که در حال حاضر در مورد سیستم‌های هوش مصنوعی وجود دارد، این است که این سیستم‌ها درست مثل یک جعبه سیاه هستند. مملو از اطلاعاتی که خیلی مشخص نیست کدام درست و کدام نادرست است، تفسیر داده‌های موجود در آن‌ها بسیار دشوار است و هر لحظه ممکن است از کنترل خارج شوند.

تصور کنید همین چت جی‌پی‌تی که به بچه‌های دبستانی و دبیرستانی کمک می‌کند انشا بنویسند یا سمینارهای خود را ارائه دهند، به لطف فناوری مدل‌های زبانی بزرگ (LLMs) به‌کار رفته در آن، به اشتباه افتاده و به دلیل عدم تحلیل درست یک‌سری داده‌ها، یکی از اساتید برجسته حقوق را به دست داشتن در آزار جنسی متهم کرده؛ اتهامی به این بزرگی، صرفاً با این توجیه که یک ارتباط آماری نامربوط بین اطلاعات باعث آن شده است!

در کنار این ایرادات و اشتباهات، این امکان هم وجود دارد که برخی کاربران بخواهند از هوش مصنوعی برای سوءاستفاده‌های عمدی و غیرصلح‌آمیز استفاده کنند.


نیازمند یک سازمان بین‌المللی برای مدیریت هوش مصنوعی


برای پاسخ به این نگرانی‌ها، تنها طی یک سال اخیر، 37 قانون مختلف درخصوص هوش مصنوعی و محصولات مبتنی بر آن در سراسر جهان به تصویب رسیده است. سختگیری‌ها در ایتالیا تا آن‌جا پیش رفته که فعلاً چت جی‌پی‌تی در این کشور ممنوع شده؛ اما آن‌چه که اهمیت دارد این است که هیچ هماهنگی جهانی برای روبه‌رو شدن با این فناوری وجود ندارد. در برخی از کشورها با اشتیاق و هجمه به سمت فناوری روبه‌رو هستیم، مثل ایالات متحده آمریکا یا بریتانیا که قصد دارند به «ابرقدرت هوش مصنوعی» تبدیل شوند، و در برخی دیگر با ممنوعیت و فیلتر و از دست دادن پتانسیل‌های فناوری. این شکاف وسیع و عمیق جهانی، به نفع هیچ‌کس نیست و نخواهد بود.

بااین‌حال، در بعضی موارد که اصول اولیه مسئولیت‌پذیری هستند، مثل ایمنی و قابلیت اطمینان، شفافیت، توضیح‌پذیری، تفسیرپذیری، حریم خصوصی و مواردی از این دست، اتفاق نظر وجود دارد. تقریباً همه متفق‌القول هستند که برای استفاده حداکثری از این فناوری در کنار کنترل خطرات آن، باید کاری کرد. نظرسنجی صورت گرفته توسط سنتر فور دِ گاورننس او ای‌آی (Centre for the Governance of AI) از 13 هزار نماینده از 11 کشور مختلف جهان، نشان می‌دهد که 91 درصد از مردم و متخصصان فناوری موافق‌اند که هوش مصنوعی باید مدیریت شود.

شاید برای عملی شدن این آرمان، مثل انرژی اتمی، هوش مصنوعی نیز نیاز به راه‌اندازی یک آژانس بین‌المللی دارد. یک سازمان جهانی غیرانتفاعی و بی‌طرف، که نماینده دولت‌ها، شرکت‌های بزرگ فناوری، دانشگاه‌ها و عموم جوامع است. آژانسی که راه‌اندازی شده تا با کشف و ارائه راه‌کارهای فنی، به ترویج فناوری‌های ایمن و صلح‌آمیز مبتنی بر هوش مصنوعی کمک کند.

همان‌طور که ساندار پیچای (Sundar Pichai)، مدیرعامل گوگل نیز در 16 آوریل گفت، زمان راه‌اندازی چنین سازمانی فرا رسیده است. اما یک آژانس بین‌المللی هوش مصنوعی، چطور نهادی می‌تواند باشد؟


سازمان مدیریت‌کننده هوش‌ مصنوعی چه ویژگی باید داشته باشد؟


شاید بتوان آن را اکوسیستمی متصور شد که هر حوزه و صنعت، جدا از هم هستند و خطوط مشی و مجموعه دستورالعمل‌های خاص خودشان را دارند، اما همه آن‌ها از یک حاکمیت برخوردارند و نوآوری‌های تکنولوژیک را به یک سو هدایت می‌کنند. به‌عنوان مثال، مدت‌ها است که جامعه بین‌المللی قصد دارد از تبعیض جنسیتی رسوخ کرده در فناوری هوش مصنوعی و ابزارهایی همچون چت جی‌پی‌تی جلوگیری کند. آرمانی که اتفاقاً تلاش‌های زیادی هم پیرامون آن انجام شده و حتی در منشور حقوق هوش مصنوعی (AI Bill of Rights) پیشنهادی دولت بایدن و کاخ سفید نیز به آن اشاره شده است.

یا سازمان موردن ظر باید بتواند از سوگیری‌های مغرضانه محصولات مبتنی بر هوش مصنوعی نظیر چت جی‌پی‌تی جلوگیری کند. تصور این‌که افراد یا احزابی بخواهند با تغذیه این سیستم‌ها به‌وسیله اطلاعات اشتباه در مورد برنامه‌ها، سخن‌رانی‌ها و در حالت کلی پرونده نامزدهای انتخاباتی، مسیر رویداد بزرگی همچون انتخابات ریاست جمهوری ایالات متحده را به سمت و سویی غیر از واقعیت سوق دهند بسیار وحشتناک است. اتفاقی که اگر بیفتد، نه فقط آینده مردم آمریکا و جهان، که مهم‌تر از آن دموکراسی را هدف گرفته است.

نهادی که متصور می‌شویم باید بتواند به این قبیل نگرانی‌ها پاسخ بدهد. داده‌های مورد استفاده برای آموزش سیستم‌های هوش مصنوعی را رصد کند، با کمک برچسب‌گذاری یا هر فرایندی که می‌تواند آن‌ها را کنترل کند و خروجی‌های این سیستم‌ها را بر اساس یک‌سری دستورالعمل و خط مشی تنظیم کند.

چنین سازمانی در کنار استفاده از متخصصین و بزرگان فناوری، از رگولاتورها نیز کمک خواهد گرفت. در کنار اعمال محدودیت فنی در قبال ارائه داده‌های اشتباه به سیستم‌های هوش مصنوعی، ساختاری هم باید وجود داشته باشد که متخلفان را شناسایی، جریمه یا مجازات کند. بدون شک، شناسایی فناوری‌ها و عاملان تولید داده‌های اشتباه، بسیار کارآمدتر از شناسایی خود این داده‌ها خواهد بود.

اما نکته این است که چنین نهادی نیاز به منابع مالی برای تامین نیرو، فناوری و زیرساخت دارد. به همین دلیل است که لازم است نهادها، دولت‌ها و شرکت‌های مرتبط با فناوری هوش مصنوعی حامی آژانس بین‌المللی هوش مصنوعی موردنظر باشند. طراحی این حجم از همکاری جهانی، کار بسیار بزرگی خواهد بود. راه‌اندازی چنین نهادی درگیری ذینفعان زیادی را می‌طلبد و ریسک‌های کوتاه‌مدت و بلندمدت فراوانی نیز در بر خواهد داشت. این راه‌کار، موفق نخواهد بود، مگر این‌که دولت‌ها و شرکت‌ها در رأس قرار بگیرند و تک‌تک مردم جهان نیز یک میز و صندلی در این سازمان داشته باشند (به این مفهوم که همه کاربران نیز باید با آن همسو و همدست باشند).

خوشبختانه، این نخستین بار نیست که چنین ایده‌ای عملی می‌شود. در پایان جنگ جهانی دوم، تسلیحات هسته‌ای ترس عمیقی در دل دولت‌ها و مردم افکند. در پاسخ به این ترس، 81 کشور به اتفاق آرا، اساسنامه آژانس بین‌المللی انرژی اتمی (International Atomic Energy Agency) را برای «ترویج فناوری‌های هسته‌ای امن و صلح‌آمیز» به تصویب رساندند. یا یک مدل دیگر، با کمی تفاوت و انعطاف‌پذیری بیشتر، سازمان بین‌المللی هوانوردی کشوری (International Civil Aviation Organisation) است.

در مورد هوش مصنوعی نیز شاید لازم است با انتخاب درست و مشارکت جهانی، سازمانی مشابه با دستورالعمل‌ها، ویژگی‌ها و چهارچوب‌های خاص خودش راه‌اندازی شود. به‌طور قطع چالش‌ها و ریسک‌های هوش مصنوعی هنوز کامل شناسایی نشده و تاحد زیادی متفاوت‌تر از فناوری‌های دیگری است که مطرح شدند. اما در هر صورت، هر تصمیمی که در این حوزه اتخاذ شود، تاثیر مستقیم روی آینده‌ای نه چندان دور خواهد داشت؛ روی جوامع و شاید حتی روی بشریت.

لینک کوتاه: https://karangweekly.ir/ekfm
منبع اکونومیست
نظر شما درباره موضوع

آدرس ایمیل شما منتشر نخواهد شد.