کارنگ، رسانه اقتصاد نوآوری ایران
رسانه اقتصاد نوآوری ایران

15 خطر بزرگ هوش مصنوعی به روایت فوربس

جدیدترین گزارش منتشرشده از سوی فوربس به معرفی 15 خطر بزرگ فناوری هوش مصنوعی پرداخته است. به گفته فوربس، از آنجا که جهان شاهد رشد بی‌سابقه فناوری ساختارشکن هوش مصنوعی است، توجه به خطرات و چالش‌های بالقوه این فناوری می‌تواند از اهمیت بالایی برخوردار باشد.

هوش مصنوعی خطرات بزرگ و بسیار مهمی در پی دارد که از کار گرفته تا نگرانی‌های مربوط به امنیت و حریم خصوصی را در بر می‌گیرد و حتی به زعم برخی می‌تواند به ضرر بشریت یا حتی نابودی آن منجر شود. به همین دلیل است که فوربس نیز سعی کرده در کنار پرداختن به قابلیت‌ها و پتانسیل‌های خارق‌العاده این فناوری تأثیرگذار، در این شماره از مجله فناوری خود به معرفی تعدادی از ریسک‌ها و پیامدهای قانونی، اخلاقی و اجتماعی بزرگ آن نیز بپردازد که نیاز به بحث، تفکر عمیق، تحلیل و اقدام دارد.

در ادامه، 15 مورد از بزرگ‌ترین ریسک‌های فناوری هوش مصنوعی از منظر فوربس معرفی می‌شوند:


عدم شفافیت


با توجه به اینکه فرایند یادگیری سیستم‌های هوش مصنوعی، به‌ویژه در مدل‌های یادگیری عمیق به‌شدت پیچیده، غیر قابل تفسیر و هنوز در هاله‌ای از ابهام است، می‌توان گفت مهم‌ترین و بزرگ‌ترین ریسک محصولات مولد مبتنی بر هوش مصنوعی عدم شفافیت آنهاست.

این عدم شفافیت فرآیندهای تصمیم‌گیری و منطق زیربنایی محصولات مولد مبتنی بر هوش مصنوعی باعث شده این محصولات برای مردم مبهم باشند. زمانی که مردم نتوانند نحوه تصمیم‌گیری و منطق یک محصول را درک کنند، نسبت به آن بی‌اعتماد خواهند بود و ممکن است در قبال پذیرش و توسعه آن قد علم کنند. البته این وجه از ماجرا صرفاً ضرر خود سیستم‌های هوش مصنوعی را نشان می‌دهد.

قضیه زمانی جدی می‌شود که به جنبه دیگر این عدم شفافیت نیز توجه کنیم. اینکه امکان دارد در سایه این عدم شفافیت، فرایند یادگیری، منطق و تصمیم‌گیری این محصول برخلاف اخلاق، اصول و منافع بشری صورت بگیرد و این درست همان چیزی است که بسیاری از متخصصان و بزرگان فناوری جهان را به وحشت انداخته است.


تبعیض و تعصب


سیستم‌های هوش مصنوعی می‌توانند به دلیل داده‌های مورد استفاده در فرایند یادگیری خود یا به واسطه طراحی الگوریتمی‌شان، تعصبات و تبعیض‌های اجتماعی را تداوم بخشیده یا حتی تقویت کنند. برای به حداقل رساندن تبعیض در مدل‌های هوش مصنوعی مولد و کسب اطمینان از عدالت، سرمایه‌گذاری در توسعه الگوریتم‌های بی‌طرفانه و مجموعه داده‌های آموزشی متنوع از اهمیت بسیار زیادی برخوردار است.


حریم خصوصی


فناوری‌های هوش مصنوعی معمولاً برای فرایند یادگیری طیف گسترده‌ای از داده‌های شخصی را گردآوری کرده و تجزیه و تحلیل می‌کنند و بر همین اساس نیز یکی از نگرانی‌های مهم پیرامون توسعه آنها بحث حریم خصوصی و امنیت داده‌هاست. حراست از داده‌ها و کاهش ریسک‌های حریم خصوصی این فناوری‌ها، مستلزم تدوین و پیاده‌سازی مقررات سختگیرانه حفاظت از داده و اعمال شیوه‌های ایمن رسیدگی به داده است.


معضلات اخلاقی


القای ارزش‌های اخلاقی و فرهنگی در سیستم‌های هوش مصنوعی، به‌ویژه در زمینه‌هایی که منطق و تصمیم‌گیری صورت‌گرفته توسط یک محصول مولد مبتنی بر هوش مصنوعی می‌تواند پیامدهای قابل توجهی در پی داشته باشد، یک چالش بسیار مهم است. محققان می‌گویند کسانی که طراح، آموزش‌دهنده و توسعه‌دهنده سیستم‌های هوش مصنوعی هستند، باید پیامدهای اخلاقی فناوری‌های هوش مصنوعی را برای جلوگیری از تأثیرات منفی اجتماعی این سیستم‌ها در اولویت قرار دهند.


خطرات امنیتی


همین‌طور که سیستم‌های هوش مصنوعی توسعه یافته و پیچیده‌تر می‌شوند، ریسک‌های امنیتی مرتبط با آنها هم پیچیده‌تر شده و احتمال سوءاستفاده نیز رو به فزونی می‌گذارد. هکرها و عوامل مخرب این قابلیت را خواهند داشت که از قدرت هوش مصنوعی برای توسعه حملات سایبری پیشرفته‌تر، دور زدن اقدامات امنیتی و سوء استفاده از باگ‌های موجود در پلتفرم‌ها و سیستم‌ها استفاده کنند.

به‌علاوه این خطر نیز وجود دارد که برخی از کشورها، دولت‌ها یا افراد بخواهند از این فناوری در راستای توسعه تسلیحات خودمختار استفاده کنند. بدون شک این قبیل سیستم‌ها و محصولات (که پیش‌تر بسیاری از آنها را در فیلم‌های علمی و تخیلی دیده‌ایم) قابلیت آن را دارند که امنیت بشری را به خطر بیندازند؛ چه زمانی که تحت سلطه یک دولت یا حزب خبیث و سرکش باشند و چه زمانی که قرار باشد به صورت خودمختار تصمیم گرفته و اقدام کنند.

برای کاهش این خطرات امنیتی و پاسخگویی به چالش‌های مرتبط با آن، دولت‌ها و سازمان‌ها باید بهترین شیوه‌ها را برای توسعه و استقرار ایمن هوش مصنوعی توسعه داده و در عین حال، همکاری بین‌المللی را (مثلاً از طریق یک آژانس ویژه شبیه به آژانش انرژی اتمی) تقویت کنند؛ با این هدف که هنجارها و مقررات جهانی که از تهدیدات امنیتی هوش مصنوعی محافظت می‌کنند را پیاده کنند.


تمرکز قدرت


در حال حاضر تنها تعداد اندکی از شرکت‌ها و دولت‌‌های بزرگ قادر به توسعه فناوری هوش مصنوعی در مقیاسی هستند که به تازگی عرضه شده است. شاید تنها عده معدودی از شرکت‌های فناوری (غول‌های فناوری) بتوانند توسعه‌دهنده مدل‌های هوش مصنوعی مولد مدرنی باشند که بتواند با چت جی‌پی‌تی (ChatGPT) و محصولات نظیر آن رقابت کند.

این تمرکز قابلیت می‌تواند تمرکز قدرت را در پی داشته باشد و از طرفی منجر به محدود شدن تنوع محصولات مبتنی بر هوش مصنوعی نیز بشود. تشویق به توسعه غیرمتمرکز و مشارکتی هوش مصنوعی، فاکتوری کلیدی در جلوگیری از تمرکز قدرت خواهد بود.


وابستگی به هوش مصنوعی


اتکای بیش از حد به سیستم‌های هوش مصنوعی ممکن است منجر به از دست دادن خلاقیت، مهارت‌های تفکر انتقادی و شهود انسانی شود. درست مثل گوگل که استفاده بیش از حد آن در سایه توسعه شگفت‌انگیزش باعث شده تا امروز، بسیاری از ما به جای فکر کردن به این موتور جست‌وجو متوسل شویم و در بسیاری از موارد بی‌چون و چرا آنچه ارائه داده را پذیرا باشیم، هوش مصنوعی نیز می‌تواند اثری مشابه اما به مراتب شدیدتر و اثرگذارتر داشته باشد. ایجاد تعادل بین تصمیم‌گیری به کمک هوش مصنوعی و ورودی انسانی برای حفظ توانایی‌های شناختی ما حیاتی است.


جابه‌جایی مشاغل


اتوماسیون مبتنی بر هوش مصنوعی این پتانسیل را دارد که منجر به از دست دادن مشاغل در صنایع مختلف، به‌ویژه برای کارگران کم‌مهارت شود.

البته شواهدی وجود دارد که نشان می‌دهد هوش مصنوعی و سایر فناوری‌های نوظهور، مشاغل بیشتری نسبت به حذف آن ایجاد می‌کنند. مثال بارز این فناوری‌های نوظهور و ساختارشکن، روی کار آمدن اینترنت است. فناوری انقلابی‌ و مهمی که اگرچه در ابتدای امر به نظر می‌رسید بسیاری از مشاغل را نابود کرده، اما در درازمدت مشاغل بسیار بهتر و بیشتری را ایجاد کرد.

رویکردی که می‌توان در قبال این ریسک مهم اتخاذ کرد، تطبیق نیروی کار با فناوری‌های هوش مصنوعی و محصولات و قابلیت‌های توسعه‌یافته و جدید آن است و کسب مهارت‌هایی که می‌تواند در کنار هوش مصنوعی، به کارآمدی و راندمان بیشتر در حوزه مربوطه منتهی شود.


نابرابری اقتصادی


هوش مصنوعی این قابلیت را دارد که با ارائه سود نامتناسب به نفع شرکت‌های بزرگ‌تر، منجر به نابرابری اقتصادی شود. همان‌طور که پیش‌تر نیز اشاره شد از دست دادن شغل به دلیل اتوماسیون مبتنی بر هوش مصنوعی، بیشتر بر کارگران کم‌مهارت تأثیر می‌گذارد و منجر به شکاف درآمدی فزاینده و کاهش فرصت‌های تحرک اجتماعی می‌شود. شرکت‌ها یا حتی دولت‌‌های کوچک‌تر نیز از این قضیه مستثنی نیستند و ممکن است به دلیل توسعه فناوری هوش مصنوعی از قافله عقب بمانند.

تمرکز توسعه و مالکیت هوش مصنوعی در تعداد معدودی از شرکت‌ها و دولت‌های بزرگ می‌تواند این نابرابری را تشدید کند؛ چراکه این شرکت‌ها قدرت و ثروت مورد نیاز برای توسعه مدل‌های هوش مصنوعی مدرن اما پرهزینه را دارند، در حالی که شرکت‌ها و دولت‌‌های کوچک‌تر در حال حاضر صرفاً برای بقا تلاش می‌کنند.

سیاست‌ها و ابتکاراتی که برابری اقتصادی را ترویج می‌کنند (نظیر برنامه‌های مهارت‌آموزی مجدد، شبکه‌های ایمنی اجتماعی و توسعه فراگیر هوش مصنوعی که توزیع متعادل‌تر فرصت‌ها را تضمین می‌کنند) از جمله راهکارهایی هستند که می‌توانند به مبارزه با نابرابری اقتصادی ناشی از توسعه فناوری‌های هوش مصنوعی کمک کنند.


چالش‌های قانونی و رگولاتوری


تدوین و پیاده‌سازی چهارچوب‌های رگولاتوری و الزامات قانونی جدید برای رسیدگی به چالش‌های منحصر به فرد ناشی از فناوری‌های هوش مصنوعی، از جمله مسئولیت‌پذیری و حقوق مالکیت معنوی، از اهمیت بسیار بالایی برخوردار است. این یک الزام بسیار مهم است که سازمان‌ها و نهادهای قانونی و رگولاتوری، به نوعی همسو با توسعه فناوری‌های تکنولوژیک مدرن و ساختارشکنی همچون هوش مصنوعی توسعه یافته و تکمیل شوند که بتوانند از حقوق همه حمایت کنند.


مسابقه تسلیحاتی هوش مصنوعی


مسابقه تسلیحاتی که اخیراً و پس از راه‌اندازی فناوری هوش مصنوعی چت جی‌پی‌تی توسط شرکت اوپن ای‌آی (Open AI) به راه افتاده و بسیاری از غول‌های فناوری را بر آن داشته که هر طور شده محصولات مبتنی بر هوش مصنوعی خود را راه‌اندازی کنند، روند توسعه این فناوری‌ها و محصولات مبتنی بر آنها را به شدت تسریع کرده و همین امر می‌تواند زمینه‌ساز پیامدهای بالقوه مضری شود.

اخیراً (در ماه می 2023) عده‌ای از متخصصان، رهبران و بزرگان صنعت از جمله استیو وزنیاک، بنیان‌گذار اپل و ایلان ماسک (که نیاز به معرفی ندارد!) نامه یا بیانیه‌ای امضا و منتشر کرده‌اند مبنی بر اینکه آزمایشگاه‌های اطلاعاتی باید توسعه سیستم‌های هوش مصنوعی پیشرفته را متوقف کنند. در این نامه آمده است که ابزارهای هوش مصنوعی خطرات عمیقی برای جامعه و بشریت دارند (هرچند تنها چندی پس از انتشار این بیانیه ایلان ماسک از راه‌اندازی شرکت جدید هوش مصنوعی خود پرده برداشت!)

در بخشی از این نامه آمده است:

«بشریت می‌تواند با هوش مصنوعی از آینده‌ای شکوفا برخوردار باشد. پس از موفقیت در ایجاد سیستم‌های هوش مصنوعی قدرتمند، می‌توانیم از تابستان هوش مصنوعی لذت ببریم… اما تا آن روز باید این سیستم‌ها را به نفع همگان مهندسی کنیم و به جامعه فرصتی بدهیم برای سازگار شدن.»


از دست دادن روابط انسانی


افزایش اتکا به ارتباطات و تعاملات مبتنی بر هوش مصنوعی می‌تواند منجر به کاهش همدلی، مهارت‌های اجتماعی و ارتباطات انسانی شود. به همین دلیل است که لازم است همه ما به نوبه خود برای حفظ جوهر ماهیت اجتماعی‌مان، برای حفظ تعادل بین فناوری و تعامل انسانی تلاش کنیم.


اطلاعات غلط و دستکاری‌شده


برخی از داده‌ها و محتواهای منتشرشده از سوی سیستم‌های مولد هوش مصنوعی، نظیر دیپ‌فیک (Deepfakes) نادرست بوده و می‌تواند به انتشار اطلاعات غلط یا دستکاری‌شده در سطح جامعه دامن بزند. در همین راستا نیز تلاش برای شناسایی و مبارزه با اطلاعات نادرست تولیدشده توسط هوش مصنوعی برای حفظ یکپارچگی اطلاعات در عصر دیجیتال بسیار مهم و الزامی خواهد بود.

در یک پژوهش که توسط دانشمندان دانشگاه استفنورد پیرامون ریسک‌های فناوری هوش مصنوعی صورت گرفته آمده است: «سیستم‌های هوش مصنوعی (در برخی موارد) در خدمت انتشار اطلاعات نادرست در اینترنت هستند که به آنها امکان تبدیل‌شدن به تهدیدی برای دموکراسی و ابزاری برای فاشیسم را می‌‌دهد. از ویدئوهای دیپ‌فیک گرفته تا ربات‌های آنلاینی که با جعل اجماع و انتشار اخبار جعلی، گفتمان عمومی را دستکاری می‌کنند، این ریسک وجود دارد که سیستم‌های هوش مصنوعی اعتماد اجتماعی را خدشه‌دار و تضعیف کنند… این فناوری می‌تواند توسط جنایتکاران، دولت‌های سرکش، افراطی‌های ایدئولوژیک، یا صرفاً برخی گروه‌های خاص با منافع خاص و با هدف دستکاری در رأی، نظر و عقیده مردم برای منافع اقتصادی یا سیاسی مورد استفاده قرار گیرد.»


پیامدهای ناخواسته


سیستم‌های هوش مصنوعی، به دلیل پیچیدگی بالایی که دارند و در عین حال عدم نظارت انسانی، ممکن است رفتارهای غیرمنتظره‌ای از خود نشان داده یا تصمیماتی با عواقب پیش‌بینی‌نشده اتخاذ کنند. همین غیر قابل پیش‌بینی بودن می‌تواند عواقب سخت یا حتی غیر قابل جبرانی برای مشاغل، افراد، جوامع یا حتی در کل، بشریت داشته باشد.

فرآیندهای تست، اعتبارسنجی و نظارت قوی می‌تواند به توسعه‌دهندگان و محققان کمک کند تا این نوع مشکلات را از قبل شناسایی کرده و برای رفع آنها دست به کار شوند.


خطرات وجودی


توسعه هوش عمومی مصنوعی (AGI) که از هوش انسانی پا فراتر گذاشته و منجر به روی کار آمدن موجوداتی فراانسانی با هوش بسیار قوی‌تر از انسان می‌شود، می‌تواند در درازمدت نگرانی‌های بزرگی برای بشریت در پی داشته باشد. شاید بتوان گفت همان‌طور که در اغلب فیلم‌های علمی و تخیلی با محوریت موجودات فراانسانی با هوش مصنوعی نیز نشان داده می‌شود، چشم‌انداز هوش مصنوعی عمومی می‌تواند عواقبی ناخواسته و در عین حال فاجعه‌بار برای بشریت داشته باشد.

موجوداتی را متصور شوید که قدرت تفکر و در عین حال اجرای بسیار بالاتری نسبت به انسان دارند اما با ارزش‌ها یا اولویت‌های انسانی هم‌سو نیستند!

برای کاهش این قبیل ریسک‌ها، جامعه تحقیقاتی هوش مصنوعی باید به طور فعال در تحقیقات ایمنی شرکت کند، در دستورالعمل‌های اخلاقی همکاری کند و شفافیت در توسعه مدل‌های مبتنی بر هوش عمومی مصنوعی را تا حد امکان ارتقا دهد. کسب اطمینان از اینکه مدل‌های مبتنی بر هوش عمومی مصنوعی در خدمت منافع بشریت هستند و تهدیدی برای موجودیت ما ایجاد نمی‌کنند، از اهمیت بسیار بالایی برخوردار است.

لینک کوتاه: https://karangweekly.ir/le7u
منبع فوربس
نظر شما درباره موضوع

آدرس ایمیل شما منتشر نخواهد شد.