«امپراتوری هوش مصنوعی» نوشته کارن هائو، روزنامهنگار فناوری، روایتگر پشت پرده پرتنشترین بحران رهبری و تنش در اوپنایآی در تاریخ هوش مصنوعی است؛ از جلسه پناهگاه ایلیا ساتسکیور تا زدوخورد قدرت میان سم آلتمن و اعضای هیئتمدیره OpenAI
در تابستان ۲۰۲۳، ایلیا ساتسکیور، یکی از مؤسسان اوپنایآی، در جلسهای با پژوهشگران تازهوارد، جملهای غیرمنتظره به زبان آورد: «ما قطعاً قبل از عرضه هوش مصنوعی عمومی یک پناهگاه میسازیم.» این جمله، در عین عجیب بودن، بازتابی دقیق از تنشهای فزایندهای بود که در دل یکی از مهمترین شرکتهای هوش مصنوعی جهان جریان داشت.
اوپنایآی که روزگاری با هدف مهار و هدایت ایمن هوش مصنوعی تأسیس شده بود، در سال ۲۰۲۳ به نقطهای رسیده بود که در آن سرعت پیشرفت فناوری، اضطراب اخلاقی و کشمکشهای مدیریتی به طرز بیسابقهای درهمتنیده شده بودند.
این شرکت که با عرضه چتجیپیتی تحولی عظیم در حوزه هوش مصنوعی مولد به وجود آورد، حالا خود را در برابر پرسشی بنیادین میدید: چه کسی باید قدرت ساخت و انتشار هوش مصنوعی عمومی را در اختیار داشته باشد؟
دوگانه قدرت و مسئولیت
ساتسکیور از همان ابتدا معتقد بود هوش مصنوعی عمومی اجتنابناپذیر است؛ اما در میانه سال ۲۰۲۳، شتاب توسعه فناوری او را به تأمل واداشته بود. آیا واقعاً جهان برای هوشی فراتر از انسان آماده است؟ و آیا اوپنایآی از لحاظ ساختاری، فرهنگی و رهبری آمادگی مواجهه با چنین فناوریای را دارد؟
پاسخ ساتسکیور به این پرسشها در قالب ایده «پناهگاه» شکل گرفت؛ فضایی امن برای محافظت از دانشمندان اصلی در برابر فشارهای بیرونی و احتمالاً تهدیدات دولتی یا نظامی. این تصور، بیش از آنکه صرفاً یک تدبیر امنیتی باشد، نشانهای از بحران اعتماد و تنش در اوپنایآی به فرایندهای تصمیمگیری و حاکمیت شرکتی بود.
شرکتی متزلزل
با رشد انفجاری چتجیپیتی و ورود شرکتهای بزرگی مانند گوگل، متا و آنتروپیک به رقابت، فشار بر اوپنایآی افزایش یافت. شخصیت سم آلتمن، مدیرعامل شرکت، دیگر نوآور و الهامبخش نبود؛ او به مدیری خسته و تحتفشار تبدیل شده بود. او بهجای حل تعارضات بین تیمها سعی میکرد هر دو طرف بحث را راضی نگه دارد و گرگ بروکمن، یکی دیگر از همبنیانگذاران، نیز با مداخلات دقیقه نودی اوضاع را پیچیدهتر میکرد.
میرا موراتی، مدیر ارشد فناوری که تلاش میکرد حلقه ارتباطی بین آلتمن و کارکنان باشد، بار مسئولیت و نارضایتیهای پنهانی و تنش در اوپنایآی را به دوش میکشید. فشارهای درونی، عدم شفافیت و تصمیمگیریهای یکجانبه بهتدریج اعتماد را در بدنه سازمان فرسایش داد.
شکاف میان آرمان و واقعیت
اوپنایآی خود را متعهد به «توسعه ایمن و همگانی هوش مصنوعی عمومی» معرفی کرده بود، اما عملکرد شرکت، بهویژه در مواردی مثل دورزدن فرایندهای ایمنی در عرضه مدل GPT-4 Turbo، نشان داد که فشار برای رقابت و رشد، گاهی بر اصول اولیه اخلاقی و ایمنی غلبه میکند. آلتمن در مواردی، بدون هماهنگی با هیئت ایمنی، مدعی تأیید قانونی عرضه مدلهای قدرتمند شده بود؛ ادعایی که بعداً بیپایه از آب درآمد.
در نهایت، ساتسکیور و موراتی، هر دو به طور مستقل به سه عضو غیراجرایی هیئتمدیره مراجعه کردند و نسبت به صلاحیت آلتمن برای هدایت اوپنایآی در مسیر دستیابی به هوش مصنوعی عمومی ابراز تردید کردند. گفته شد که ساتسکیور بهصراحت بیان کرد: «فکر نمیکنم سم آدم مطمئنی برای داشتن دکمه هدایت هوش مصنوعی عمومی باشد.»
اخراج، بحران و بازگشت
این نگرانیها موجب شد چهار تن از شش عضو هیئتمدیره، تونر، مککالی، دآنجلو و ساتسکیور، تصمیم به اخراج آلتمن بگیرند. آنها دلیل اصلی این اتفاق را در بیانیه رسمی «عدم صداقت مداوم در ارتباطات» اعلام کرد. اما این تصمیم، موجی از واکنشها را به دنبال داشت؛ استعفای بروکمن، اعتراض گسترده کارکنان، تهدید به خروج جمعی و ورود مایکروسافت به میدان.
تنها پنجروز بعد، آلتمن بهعنوان مدیرعامل بازگشت و ساتسکِوِر اعتراف کرد که رأی به اخراج اشتباه بوده است. هیئتمدیره بازسازی شد و آلتمن قدرتمندتر از همیشه به رأس اوپنایآی بازگشت.
بحران فراتر از یک نفر
اما این داستان، تنها قصه یک دعوای مدیریتی یا اختلاف شخصیت نبود. مسئله اصلی، پرسشی است که جامعه فناوری و سیاست هنوز پاسخ قاطعی برای آن ندارد: اگر واقعاً در آستانه خلق هوش مصنوعی عمومی هستیم؛ نوآوریای که میتواند تمدن را متحول کند. چه کسی باید درباره ساخت و انتشار آن تصمیم بگیرد؟ و اگر آن فرد یا نهاد اشتباه باشد، سازوکار کنترل چیست؟
این بحران آشکار کرد که حتی شرکتی با شعار مسئولیتپذیری و آیندهنگری چون اوپنایآی، از دینامیکهای قدرت و منافع فردی و سازمانی در امان نیست. فرایندهای ایمنی و نظارت، اگرچه روی کاغذ وجود داشتند، اما در عمل گاه نادیده گرفته شدند. اعتماد به مدیران، جای سازوکارهای مستقل و نهادینهشده را گرفته بود.
مسیر پیشرو
داستان اوپنایآی اکنون بهمثابه هشدار است، نه فقط برای شرکتهای فناوری، بلکه برای دولتها، نهادهای قانونگذار و جامعه جهانی. اگر قدرت ساخت AGI در دست تعداد معدودی از افراد متمرکز باشد – افرادی که در برابر فشار سرمایهگذاران، رقبا و شهرت آسیبپذیرند. چگونه میتوان از مصالح عمومی حفاظت کرد؟
پیشنهادهایی نظیر تشکیل نهادهای مستقل جهانی برای نظارت بر توسعه هوش مصنوعی عمومی، شفافسازی فرایندهای تصمیمگیری، و الزام به ارزیابیهای ایمنی پیش از انتشار، از جمله راهکارهاییاند که در ادبیات سیاستگذاری در حال شکلگیریاند. اما تا زمانی که این سازوکارها اجرایی نشوند، خطر آن وجود دارد که آینده هوش مصنوعی عمومی بیش از آنکه توسط خرد جمعی هدایت شود، در دستان حلقهای بسته از تصمیمگیران باقی بماند.
در نهایت، اگرچه اوپنایآی از بحران رهبری جان سالم به در برد، اما سؤالات بزرگتری همچنان پابرجاست: آیا میتوان به شرکتی با قدرت تولید هوش مصنوعی عمومی اعتماد کرد؟ و اگر پاسخ منفی است، برنامه جایگزین چیست؟