هرج‌ومرج در اوپن‌ای‌آی؛ پشت پرده پرتنش‌ترین بحران رهبری در تاریخ هوش مصنوعی

اخراج و بازگشت سم آلتمن: درام مدیریتی که دنیای هوش مصنوعی را تکان داد

«امپراتوری هوش مصنوعی» نوشته کارن هائو، روزنامه‌نگار فناوری، روایتگر پشت پرده پرتنش‌ترین بحران رهبری و تنش در اوپن‌ای‌آی در تاریخ هوش مصنوعی است؛ از جلسه پناهگاه ایلیا ساتسکیور تا زدوخورد قدرت میان سم آلتمن و اعضای هیئت‌مدیره OpenAI

در تابستان ۲۰۲۳، ایلیا ساتسکیور، یکی از مؤسسان اوپن‌ای‌آی، در جلسه‌ای با پژوهشگران تازه‌وارد، جمله‌ای غیرمنتظره به زبان آورد: «ما قطعاً قبل از عرضه هوش مصنوعی عمومی یک پناهگاه می‌سازیم.» این جمله، در عین عجیب بودن، بازتابی دقیق از تنش‌های فزاینده‌ای بود که در دل یکی از مهم‌ترین شرکت‌های هوش مصنوعی جهان جریان داشت.

اوپن‌ای‌آی که روزگاری با هدف مهار و هدایت ایمن هوش مصنوعی تأسیس شده بود، در سال ۲۰۲۳ به نقطه‌ای رسیده بود که در آن سرعت پیشرفت فناوری، اضطراب اخلاقی و کشمکش‌های مدیریتی به طرز بی‌سابقه‌ای درهم‌تنیده شده بودند.

این شرکت که با عرضه چت‌جی‌پی‌تی تحولی عظیم در حوزه هوش مصنوعی مولد به وجود آورد، حالا خود را در برابر پرسشی بنیادین می‌دید: چه کسی باید قدرت ساخت و انتشار هوش مصنوعی عمومی را در اختیار داشته باشد؟

دوگانه قدرت و مسئولیت

ساتسکیور از همان ابتدا معتقد بود هوش مصنوعی عمومی اجتناب‌ناپذیر است؛ اما در میانه سال ۲۰۲۳، شتاب توسعه فناوری او را به تأمل واداشته بود. آیا واقعاً جهان برای هوشی فراتر از انسان آماده است؟ و آیا اوپن‌ای‌آی از لحاظ ساختاری، فرهنگی و رهبری آمادگی مواجهه با چنین فناوری‌ای را دارد؟

پاسخ ساتسکیور به این پرسش‌ها در قالب ایده «پناهگاه» شکل گرفت؛ فضایی امن برای محافظت از دانشمندان اصلی در برابر فشارهای بیرونی و احتمالاً تهدیدات دولتی یا نظامی. این تصور، بیش از آنکه صرفاً یک تدبیر امنیتی باشد، نشانه‌ای از بحران اعتماد و تنش در اوپن‌ای‌آی به فرایندهای تصمیم‌گیری و حاکمیت شرکتی بود.

شرکتی متزلزل

با رشد انفجاری چت‌جی‌پی‌تی و ورود شرکت‌های بزرگی مانند گوگل، متا و آنتروپیک به رقابت، فشار بر اوپن‌ای‌آی افزایش یافت. شخصیت سم آلتمن، مدیرعامل شرکت، دیگر نوآور و الهام‌بخش نبود؛ او به مدیری خسته و تحت‌فشار تبدیل شده بود. او به‌جای حل تعارضات بین تیم‌ها سعی می‌کرد هر دو طرف بحث را راضی نگه دارد و گرگ بروکمن، یکی دیگر از هم‌بنیان‌گذاران، نیز با مداخلات دقیقه نودی اوضاع را پیچیده‌تر می‌کرد.

میرا موراتی، مدیر ارشد فناوری که تلاش می‌کرد حلقه ارتباطی بین آلتمن و کارکنان باشد، بار مسئولیت و نارضایتی‌های پنهانی و تنش در اوپن‌ای‌آی را به دوش می‌کشید. فشارهای درونی، عدم شفافیت و تصمیم‌گیری‌های یک‌جانبه به‌تدریج اعتماد را در بدنه سازمان فرسایش داد.

شکاف میان آرمان و واقعیت

اوپن‌ای‌آی خود را متعهد به «توسعه ایمن و همگانی هوش مصنوعی عمومی» معرفی کرده بود، اما عملکرد شرکت، به‌ویژه در مواردی مثل دورزدن فرایندهای ایمنی در عرضه مدل GPT-4 Turbo، نشان داد که فشار برای رقابت و رشد، گاهی بر اصول اولیه اخلاقی و ایمنی غلبه می‌کند. آلتمن در مواردی، بدون هماهنگی با هیئت ایمنی، مدعی تأیید قانونی عرضه مدل‌های قدرتمند شده بود؛ ادعایی که بعداً بی‌پایه از آب درآمد.

در نهایت، ساتسکیور و موراتی، هر دو به طور مستقل به سه عضو غیراجرایی هیئت‌مدیره مراجعه کردند و نسبت به صلاحیت آلتمن برای هدایت اوپن‌ای‌آی در مسیر دستیابی به هوش مصنوعی عمومی ابراز تردید کردند. گفته شد که ساتسکیور به‌صراحت بیان کرد: «فکر نمی‌کنم سم آدم مطمئنی برای داشتن دکمه هدایت هوش مصنوعی عمومی باشد.»

اخراج، بحران و بازگشت

این نگرانی‌ها موجب شد چهار تن از شش عضو هیئت‌مدیره، تونر، مک‌کالی، دآنجلو و ساتسکیور، تصمیم به اخراج آلتمن بگیرند. آنها دلیل اصلی این اتفاق را در بیانیه رسمی «عدم صداقت مداوم در ارتباطات» اعلام کرد. اما این تصمیم، موجی از واکنش‌ها را به دنبال داشت؛ استعفای بروکمن، اعتراض گسترده کارکنان، تهدید به خروج جمعی و ورود مایکروسافت به میدان.
تنها پنج‌روز بعد، آلتمن به‌عنوان مدیرعامل بازگشت و ساتسکِوِر اعتراف کرد که رأی به اخراج اشتباه بوده است. هیئت‌مدیره بازسازی شد و آلتمن قدرتمندتر از همیشه به رأس اوپن‌ای‌آی بازگشت.

بحران فراتر از یک نفر

اما این داستان، تنها قصه یک دعوای مدیریتی یا اختلاف شخصیت نبود. مسئله اصلی، پرسشی است که جامعه فناوری و سیاست هنوز پاسخ قاطعی برای آن ندارد: اگر واقعاً در آستانه خلق هوش مصنوعی عمومی هستیم؛ نوآوری‌ای که می‌تواند تمدن را متحول کند. چه کسی باید درباره ساخت و انتشار آن تصمیم بگیرد؟ و اگر آن فرد یا نهاد اشتباه باشد، سازوکار کنترل چیست؟

این بحران آشکار کرد که حتی شرکتی با شعار مسئولیت‌پذیری و آینده‌نگری چون اوپن‌ای‌آی، از دینامیک‌های قدرت و منافع فردی و سازمانی در امان نیست. فرایندهای ایمنی و نظارت، اگرچه روی کاغذ وجود داشتند، اما در عمل گاه نادیده گرفته شدند. اعتماد به مدیران، جای سازوکارهای مستقل و نهادینه‌شده را گرفته بود.

مسیر پیش‌رو

داستان اوپن‌ای‌آی اکنون به‌مثابه هشدار است، نه فقط برای شرکت‌های فناوری، بلکه برای دولت‌ها، نهادهای قانون‌گذار و جامعه جهانی. اگر قدرت ساخت AGI در دست تعداد معدودی از افراد متمرکز باشد – افرادی که در برابر فشار سرمایه‌گذاران، رقبا و شهرت آسیب‌پذیرند. چگونه می‌توان از مصالح عمومی حفاظت کرد؟

پیشنهادهایی نظیر تشکیل نهادهای مستقل جهانی برای نظارت بر توسعه هوش مصنوعی عمومی، شفاف‌سازی فرایندهای تصمیم‌گیری، و الزام به ارزیابی‌های ایمنی پیش از انتشار، از جمله راهکارهایی‌اند که در ادبیات سیاست‌گذاری در حال شکل‌گیری‌اند. اما تا زمانی که این سازوکارها اجرایی نشوند، خطر آن وجود دارد که آینده هوش مصنوعی عمومی بیش از آنکه توسط خرد جمعی هدایت شود، در دستان حلقه‌ای بسته از تصمیم‌گیران باقی بماند.

در نهایت، اگرچه اوپن‌ای‌آی از بحران رهبری جان سالم به در برد، اما سؤالات بزرگ‌تری همچنان پابرجاست: آیا می‌توان به شرکتی با قدرت تولید هوش مصنوعی عمومی اعتماد کرد؟ و اگر پاسخ منفی است، برنامه جایگزین چیست؟

لینک کوتاه: https://karangweekly.ir/swno

مطلب قبلی

مطلب بعدی

مطالب پیشنهادی

ارسال یک پاسخ

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

شماره جدید هفته‌نامه کارنگ​

پربازدید‌ترین

جدید‌ترین

بازی دیجیتال در زمین محدود و ناهموار

سلامت دیجیتال در پیچ و خم موازی‌کاری؛ پیشرفت یا پسرفت؟

کرادفاندینگ همچنان دور از دسترس استارتاپ‌ها