کارنگ، رسانه اقتصاد نوآوری ایران
رسانه اقتصاد نوآوری ایران

چگونه هوش‌ مصنوعی را پاسخگو کنیم؟ (بخش نخست)

نگاهی به نقش کلیدی رهبران غیر فنی در تضمین یکپارچگی هوش مصنوعی

در بیشتر مواقع، مهندسان داده و دانشمندان داده بیشترین مسئولیت توسعه هوش‌ مصنوعی را از آغاز تا تولید برعهده می‌گیرند، اما رهبران غیر فنی نیز نقشی کلیدی در تضمین یکپارچگی هوش‌ مصنوعی دارند.

با اینکه رعایت اصول اخلاقی هوش‌ مصنوعی در دستور کار بسیاری از سازمان‌هاست، سخن گفتن از تبدیل اصول هوش‌ مصنوعی به شیوه‌ها و رفتارها، ساده‌تر از انجام آن است.

هنگامی که در اوایل سال ۲۰۲۴ پارلمان اتحادیه اروپا قانون هوش‌ مصنوعی را تصویب کرد، شرکت Deutsche Telekom (ارائه‌دهنده پیشرو مخابرات در آلمان) احساس اطمینان و آمادگی داشت. آن شرکت از زمان ایجاد اصول هوش‌ مصنوعی پاسخگوی خود در سال ۲۰۱۸، در تلاش برای گنجاندن آنها در چرخه توسعه محصولات و خدماتش بود.

مایک شولز (Maike Scholz) مسئول انطباق گروه و اخلاق تجاری در Deutsche Telekom در این‌باره می‌گوید: «ما پیش‌بینی می‌کردیم که مقررات هوش‌ مصنوعی گنجانده شود و پیشاپیش گروه‌‌های توسعه‌دهنده‌مان را تشویق کردیم اصول را با عملیات خود درهم‌آمیزند تا از دستکاری‌های ویرانگر در آینده جلوگیری کنند. هوش‌ مصنوعی پاسخگو اکنون بخشی از عملیات ما شده است.»

شوربختانه پژوهش‌ها نشان می‌دهد که چنین کارهای پیشگیرانه‌ای، نه یک روند، بلکه اقدامی کمیاب است. با اینکه رعایت اصول اخلاقی هوش‌ مصنوعی در دستور کار بسیاری از سازمان‌هاست، سخن گفتن از تبدیل اصول هوش ‌مصنوعی به شیوه‌ها و رفتارها، ساده‌تر از انجام آن است. با این حال و با تاوان سنگینی که سازگار نشدن به همراه دارد، زمان اندکی در دست است. رهبران برای افزایش ابتکارات هوش ‌مصنوعی پاسخگوی خود چه باید بکنند؟


نقش رهبران غیر فنی در یکپارچگی هوش مصنوعی


مایکل وید (Michale Wade) و توموکو یوکویی (Tomoko Yokoi) پژوهشی درباره پاسخگو کردن روند پیاده‌سازی هوش مصنوعی در سازمان‌ها انجام دادند. آنها با تکیه بر چند تجربه کارآمد سازمانی به دنبال ایجاد فهرستی از کارهای کلیدی در روند پیاده‌سازی هوش ‌مصنوعی بودند. این نوشته گزارشی از یافته‌های آنان در این‌باره است.

پژوهشگران پس از بررسی سازمان‌هایی که در صنایع مختلف در مراحل مختلف پیاده‌سازی هوش‌ مصنوعی هستند، به این نتیجه رسیدند که گرچه در بیشتر مواقع، مهندسان داده و دانشمندان داده بیشترین مسئولیت توسعه هوش‌ مصنوعی را از آغاز تا تولید برعهده می‌گیرند، اما رهبران غیر فنی نیز می‌توانند نقشی کلیدی در تضمین یکپارچگی هوش‌ مصنوعی ایفا کنند. آنها چهار حرکت کلیدی ترجمه (Translate)، درهم‌آمیختن (Integrate)، کالیبره کردن (سامان‌دهی) و تکثیر (Proliferate) را شناسایی کردند که رهبران می‌توانند انجام دهند تا از درهم‌آمیختن کامل تجارب هوش‌ مصنوعی پاسخگو با استانداردهای عملیاتی گسترده‌تر مطمئن شوند.


گام ۱: تبدیل اصول سطح بالا به راهنمای کاربردی


بسیاری از سازمان‌ها منشور اخلاق هوش ‌مصنوعی را تدوین می‌کنند، اما اغلب آنها به دنبال پیاده‌سازی اصول هوش ‌مصنوعی در فعالیت‌های روزانه‌شان هستند. از آنجا که ۷۹ درصد از کارکنان فناوری خواهان دسترسی به منابع عملی برای کمک درباره نگرانی‌های اخلاقی این حوزه‌اند، لازم است این اصول به راهنمایی‌های عملی تبدیل شود و این فرایندی زمان‌بر است.

اصولی که «دویچه‌تلکام» خود را پایبند به آن می‌دانست شامل کاربرد مسئولانه، حمایتی، شفاف و قابل اعتماد هوش‌ مصنوعی است. با این حال به‌زودی دریافت که این اصول از دید توسعه‌دهندگان بسیار انتزاعی است و بنابراین تصمیم گرفتند آنها را به اصولی کاربردی‌تر ترجمه کنند. این شرکت در سال ۲۰۲۱ دستور کار مهندسی و کاربرد هوش‌ مصنوعی را معرفی کرد که بهترین شیوه‌ها و نکات برای تعبیه اصول در فرایندهای توسعه هوش‌ مصنوعی را مستند می‌کرد.

این دستور کار بیا‌نگر کارهای ویژه‌ای است که باید پیش، در جریان پیاده‌سازی و پس از راه‌اندازی یک برنامه توسعه هوش ‌مصنوعی پیگیری شود. همچنین ملاحظات ضروری برای صاحبان مشاغل، مدیران برنامه، گروه‌‌های محصول و گروه‌های عملیاتی را برجسته می‌کند.

روند درهم‌آمیختن اخلاق هوش‌ مصنوعی در تامسون‌رویترز (Thomson Reuters)، یک شرکت جهانی فناوری و محتوا نیز در چگونگی ایجاد و به‌کارگیری فناوری هوش ‌مصنوعی نقشی بنیادین داشت. یکی از جنبه‌های مهم این مسیر، ترجمه کارآمد داده‌ها و بنیان‌های اخلاقی هوش ‌مصنوعی است که اعتماد را به برنامه جامع مدیریت داده و هوش‌ مصنوعی تزریق می‌کند. این شرکت بر ماهیت بازخوردی این فرایند تأکید می‌کرد که شامل پرسش‌هایی از این دست بود: «بخش‌ها و فرایندهای پایه این ساختار چیست؟» و «از هر کارمند در این ساختار چه انتظاراتی باید داشت؟»


کارهای کلیدی: هموار کردن مسیر


گروه‌های کاری را کنار هم نگه دارید: رابطه بین گروه‌های کاری همسان‌سازی و دیجیتال در بیشتر زمان‌ها دشوار است. همسان‌سازی را مانعی برای نوآوری دیجیتال می‌بینند؛ در حالی که گروه‌های کاری دیجیتال را عوامل تک‌رو مخاطره‌جو می‌دانند. همسویی موفقیت‌آمیز بین این دو برپایه ساختار مدیریتی استوار است. در تامسون‌رویترز گروه اخلاق از نزدیک با گروه کاری مدیریت داده و الگوسازی کار کرد و دو گروه جنبه‌های گوناگون یک موضوع را پوشش دادند؛ برای مثال اینکه چگونه می‌توان از کاربرد مسئولانه و ایمن داده‌ها در سراسر سازمان اطمینان به دست آورد. این همکاری نزدیک نشانگر اهمیت اخلاق دیجیتال در جایگاه یک جنبه بنیادین از فرایند توسعه هوش ‌مصنوعی است.

گفت‌وگوهای باز را تسهیل کنید: ایجاد گفت‌وگوهای باز به اندازه ایجاد یک ساختار راهبری مناسب اهمیت دارد. پژوهشگران دریافتند سازمان‌ها، آن‌گاه که به شکل فعال در گفت‌وگو درباره پیچیدگی پیاده‌سازی هوش ‌مصنوعی اخلاقی شرکت می‌کنند، در جایگاهی برتر قرار می‌گیرند. برای ترجمه اصل شفافیت به اعلان‌های خدمات مشتری با استفاده از چت‌بات‌های هوش ‌مصنوعی، ابتکار دویچه‌تلکام را انجام دهید. درباره احتمال پرهیز از مشارکت مشتری در صورت ارسال پیام‌های رسمی مانند «سلام، من دستیار خدمات دیجیتال دویچه‌تلکام هستم.» بخش خدمات نگرایی‌هایی مطرح کرد و این نگرانی منجر به رایزنی‌های گسترده در میان بخش‌های همسان‌سازی، اخلاق و خدمات شد که در پایان به ایجاد یک کارگروه برای یافتن راه‌حل مناسب انجامید.

لینک کوتاه: https://karangweekly.ir/7lun
منبع Harvard business review
نظر شما درباره موضوع

آدرس ایمیل شما منتشر نخواهد شد.