کارنگ، رسانه اقتصاد نوآوری ایران
رسانه اقتصاد نوآوری ایران

چگونه هوش‌مصنوعی را پاسخگو کنیم؟ (بخش آخر)

کار با راه‌اندازی اولیه چارچوب‌های اخلاقی پایان نمی‌یابد؛ بلکه نیازمند پشتیبانی و دیدبانی مستمر است؛ سازمان‌ها می‌توانند برای پشتیبانی مستمر سازوکارهایی را ایجاد کنند تا پاسخ‌گوی پرسش‌هایی باشند که پیش می‌آید

پژوهشی که درباره پاسخگو کردن روند پیاده‌سازی هوش مصنوعی در سازمان‌ها از سوی مایکل وید (Michale Wade) و توموکو یوکویی (Tomoko Yokoi) انجام شد، منجر به ساخت فهرستی از کارهای کلیدی در روند پیاده‌سازی هوش‌مصنوعی شد.

پژوهش‌گران پس از بررسی سازمان‌هایی که در صنایع مختلف در گام‌هایی گوناگون از پیاده‌سازی هوش‌مصنوعی هستند، به این نتیجه رسیدند که گرچه در بیش‌تر موارد مهندسان داده و دانشمندان داده بیش‌ترین مسئولیت چرخه عمر توسعه هوش‌مصنوعی را از آغاز تا تولید برعهده می‌گیرند، اما رهبران غیر فنی می‌توانند نقشی کلیدی در تضمین یکپارچگی هوش‌مصنوعی بازی کنند.

آنها چهار حرکت کلیدی ترجمه (translate)، درهم‌آمیختن (integrate)، کالیبره کردن (سامان‌دهی) و تکثیر (proliferate) را شناسایی کردند که رهبران می‌توانند انجام دهند تا از درهم‌آمیختن کامل تجارب هوش‌مصنوعی پاسخگو با استانداردهای عملیاتی گسترده‌تر اطمینان به دست آورند.

نخستین گام در این روند تبدیل اصول سطح بالا به راهنمای کاربردی است که در بخش نخست به آن پرداختیم.


گام ۲: درهم‌آمیختن ملاحظات اخلاقی و فرآیندهای طراحی و توسعه هوش مصنوعی


مشکلات اخلاقی در بسیاری از طرح‌های هوش مصنوعی پس از استقرار به وجود می‌آیند، بسیاری از سازمان‌ها برای جلوگیری از بروز چنین مشکلاتی رویکردی پویا در پیش گرفته و در مرحله پیاده‌سازی به نگرانی‌های اخلاقی رسیدگی می‌کنند.

پژوهشگران دریافته‌اند که سازمان‌ها، به‌ویژه آنان که دارای حاکمیت قدرتمند داده‌ها هستند از فرآیندهای حریم خصوصی موجود خود برای ترکیب اصول اخلاقی هوش مصنوعی استفاده می‌کنند. این رویکرد به آنان اجازه می‌دهد بر روش‌های داخلی آزمایش ‌شده تکیه کنند و آنها را برای پاسخگویی به الزامات نظارتی که در حال دگرگونی هستند و درخواست‌های بازار سازگار کنند.

غول بانکداری اسپانیایی CaixaBank که در بخشی با نظام‌ها و مقررات فراوان کار می‌کند، روندهای محرمانگی قدرتمندی را برای هر گونه توسعه فناوری جدید ایجاد کرده است.

سازمان تنظیم‌گری اسپانیایی در سال ۲۰۲۰ بایسته‌های جدیدی را برای استفاده مسئولانه از الگوهای هوش مصنوعی معرفی کرد که از داده‌های شخصی بهره می‌برند. از جمله شامل بیش از ۱۰۰ مورد درباره شفافیت، توضیح‌پذیری، پرهیز از سوگیری و استحکام (دقت) است. سیتی بانک برای پیروی از این مقررات جدید روش‌شناسی پاسداشت حریم خصوصی و فرآیندهای اعتبارسنجی موجود خود را با روند توسعه الگوهای هوش مصنوعی سازگار کرد. یکی از منابع داخلی این بانک در این‌باره می‌گوید: «ما درباره اخلاق هوش مصنوعی از فرآیند پاسداشت حریم خصوصی خود پیروی می‌کنیم تا از همه دست‌آوردهایی که سازمان تاکنون داشته بهره‌مند شویم.»


کارهای کلیدی گام ۲: پیمایش و پشتیبانی


سازگاری برای ارتباط عملیاتی: سازمان‌ها موظف به پیاده‌سازی چارچوب‌هایی هستند که نه تنها پایبند به استانداردهای جهانی بلکه بیانگر واقعیت‌های عملیاتی یکتای آنها نیز باشند. یک پژوهش در سال ۲۰۱۹ منجر به شناسایی ۱۰۶ ابزار و روش‌شناسی شد، که شمار آنها همچنان در حال افزایش است.

رهبران می توانند به پالایش این چشم‌انداز شلوغ کمک کنند تا اطمینان پیدا کنیم که ابزارها و چارچوب‌های هوش‌مصنوعی فراگیر و از دیدگاه اجرایی به هم پیوسته هستند. برای نمونه آنگاه که خدمات پست ملی سوییس SwissPost دریافت که فرآیند خود-گواهی self-certification که آنها به شکل آزمایشی اجرا می کردند، به شکلی چشمگیر با الزامات گواهینامه ایزو ISO که از قبل موجود بوده هم‌پوشانی دارد، فرآیندی ساده ایجاد کردند که تنها پرسش‌هایی را دربر می‌گرفت که به ایزو مربوط نبود. سوفیا دینگ Sophia Ding کارشناس اخلاق دیجیتال و هوش مصنوعی می‌گوید: «ما به اهمیت سفارشی‌سازی ابزارها برای سازگاری با نیازها و بستر ویژه سازمانی پی بردیم.»

پشتیبانی مستمر فراهم کنید: کار با راه‌اندازی اولیه چارچوب‌های اخلاقی پایان نمی‌یابد؛ بلکه نیازمند پشتیبانی و دیدبانی مستمر است. سازمان‌ها می‌توانند برای پشتیبانی مستمر سازوکارهایی را ایجاد کنند تا پاسخ‌گوی پرسش‌هایی باشند که پیش می‌آید. شرکت دویچه تلکام Deutsche Telekom  با ایجاد یک ایمیل از افراد و گروه‌ها خواست تا پرسش‌های خود درباره اجرای اخلاق هوش مصنوعی را بفرستند. همچنین گروه ارزیابی سازگاری دست به کار مشورت درباره طرح‌ها شد، مشورت‌هایی را ارائه داد، و در پاره‌ای از موارد گواهینامه‌های اخلاقی داخلی صادر کرد.

این گواهینامه‌ها به صاحبان محصول در ارزیابی میزان پیروی طرح‌های هوش مصنوعی از استانداردهای اخلاقی کمک کرد. آنها همچنین برای دستیابی به اطمینان بیش‌تر درباره پایبندی به چارچوب‌ها، واکاوی‌های تصادفی انجام داده و در هر سال ۱۰ درصد از طرح‌های هوش مصنوعی را برای بررسی سازگاری با شیوه‌نامه‌های اخلاقی برگزیدند.

این گونه از کارها کمک کرد تا از اینکه درهم‌آمیختن اخلاق و هوش مصنوعی نه کاری یک‌باره بلکه فرآیندی مستمر است اطمینان به دست بیاید.


گام ۳: راهکارهای هوش مصنوعی را با شرایط پویای محلی و فناوری‌ها سازگار کنید


هدف اصلی در مراحل آزمایش و ارزیابی آن است که سازگاری راهکار هوش مصنوعی با اهداف و بایسته‌ها را بسنجیم. یکی از جنبه‌های بنیادین درجه‌بندی به دست‌آوردن اطمینان از هم‌سو ماندن راهکارها و برنامه‌های کاربردی دنیای واقعی است.

واگرایی بین راه‌حل‌هایی که هوش مصنوعی برای آن ایجاد شده و موقعیت‌های پویای دنیای واقعی با گذشت زمان بروز می‌کند. بنابراین باید برای شناسایی و هم‌سان کردن هر گونه تغییر، به شکلی پیوسته کار دیدبانی را انجام داد. با این حال محدود بودن پهنای باند چالشی مهم است که از سوی بسیاری از سازمان‌ها برای دیدبانی مستمر پس از راه‌اندازی برجسته شده. برای گذر از این چالش می‌توان از چندین شیوه بهره برد؛ ابتدا باید مسئولیت دیدبانی پویا بر اخلاق هوش مصنوعی در سراسر سازمان بین گروه‌های راه‌اندازی و کاربران توزیع شود. چنین رویکردی منجر به روان شدن گفتگو و پیوند مستمر می‌شود و اطمینان می‌دهد که هر مشکلی به سرعت شناسایی و حل می‌شود. مورد حیاتی دیگر آن که باید موارد کاربرد پرخطر درجه‌بندی شود تا در مرکز توجه قرار گیرد.


کارهای کلیدی گام ۳: حرکت پایدار


دیدبانی و سازگار کردن راهکارهای هوش مصنوعی در پاسخ به شرایط محلی و فناوری‌های پویا، به‌ویژه درباره به‌کارگیری کارکنان و اجرای روندهای «پرچم قرمز» نیازمند سرمایه‌گذاری چشمگیر زمان و داشته‌هاست.

هوش مصنوعی پاسخگو را در جایگاه پیشران ارزش قرار دهید: سازمان‌های پیشرو ملاحظات اخلاقی را با هدف‌های تجاری همسو می‌کنند. شرکت بیمه سوئیسی Die Mobiliar نمونه‌ای از این رویکرد را اجرا کرده. این شرکت به‌جای روبه‌رو شدن با اخلاق هوش مصنوعی در جایگاه فرآیندی سنگین و سرشار از فهرست باید و نبایدها، تمرکز خود را بر یافتن هماهنگی بهینه بین راهبرد کسب‌وکار، محرمانگی داده‌ها، و اخلاق هوش مصنوعی قرار داد.

شرکت Die Mobiliar برای رسیدن به این هدف یک گروه بین‌رشته‌ای از نمایندگان سازگارسازی، امنیت، علم داده و فناوری اطلاعات را به‌کار گرفت که به شکل منظم برای بررسی این هم‌افزایی گردهم می‌آمدند.

تقویت همکاری بیرونی: داد و ستد با کارشناسان بیرون از سازمان، دانشگاه‌ها و گروه‌های صنعتی دیدگاه‌ها و بینش‌های جدیدی را ایجاد می‌کند که موجب تعدیل راهکارهای هوش مصنوعی می‌شود. دانشگاه علوم و بهداشت اورگانOregon Health and Science University  به شکلی روبه رشد ابزارهای هوش مصنوعی را برای بهبود پژوهش‌های بهداشتی، پرستاری بیمار، و اداره بیمارستان استفاده به‌کار می‌گرفت.

بریجت بارنز Bridget Barnes مدیر ارشد داده‌ها با تاکید بر اهمیت نگاه فراگیر به اخلاق هوش مصنوعی می‌گوید: «ما نه تنها بر داخل سازمان تمرکز می‌کنیم، بلکه با مراکز پزشکی و دانشگاهی دیگر از سراسر آمریکا نیز همکاری می‌کنیم؛ همچنین تلاش‌های دولت فدرال و ایالتی روی استانداردهای هوش مصنوعی را برای پربار کردن بیش از پیش آموخته‌هایمان دنبال می‌کنیم.»


گام ۴: شیوه‌ها و آموخته‌ها را در سازمان بازنشر دهید


در چشم انداز گسترش شتابان هوش مصنوعی، ایجاد بستری برای یادگیری و به اشتراک‌گذاری موجب افزایش آگاهی و مشارکت کارکنان در توسعه هوش مصنوعی توانمند می‌شود. در همین حال چالش کوتاه‌مدت سازمان‌ها افزایش مهارت نیروی کار برای پیاده‌سازی هوش مصنوعی است که بر کسب‌وکار اثر می‌گذارد. شرکت داروسازی (Bristol-Meyers-Squibb) BMS یک گروه خودگردان به نام AI Collective ایجاد کرد.

آن گروه به شکل منظم هر ۴ تا ۶ هفته با یکدیگر دیدار می‌کردند تا دیدگاه‌ها و طرح‌های خود را درباره چگونگی پیشرفت برنامه‌های هوش مصنوعی شرکت بازگو و درباره آخرین روندها، ارزیابی‌ها، و تجربیات برتر و کاربردهای شگفت‌انگیز گفت‌وگو کنند.

میگل کرسپو Miguel Crespo مسئول مخاطرات دیجیتال و فناوری اطلاعات در این‌باره می‌گوید: «این یک ابتکار از پایین به بالا است که نوآوری را از راه یادگیری هم‌گروه‌ها و گفت‌وگوهای کارشناسان پرورش می‌دهد. از دید ما این روش اثرگذارتر از رویکرد بالا به پایین است. این روش به کارشناسان استقلال و فرصت بیشتر برای رشد می‌دهد.»


کارهای کلیدی گام ۴: اولویتبندی و پیمایش


ارزیابی نقش‌آفرینان و اولویت‌بندی نقش‌ها: آنگاه که منابع محدود است و باید اثرگذاری زیاد و بلادرنگ داشت، تمرکز بر نقش‌های کلیدی که در توسعه هوش مصنوعی بیشتیرن کارکرد را دارند، نقشی حیاتی پیدا می‌کند. نخستین گام کاربردی در این راه شناسایی نقش‌هایی است که بیشترین اثرگذاری را در توسعه هوش مصنوعی و کاربرد اخلاق را دارند. شرکت SwissPost پس از ارزیابی چشم‌انداز سهامداران خود دریافت که مدیران توانمند در ارزیابی نقشی محوری در کامیابی طرح‌های هوش مصنوعی دارند. در نتیجه سازمان تصمیمی راهبردی گرفت و آن اینکه آموزش‌های اخلاق هوش مصنوعی را برای این افراد کلیدی در اولویت قرار دهد تا مطمئن شود افرادی که بیش‌تر درگیر راهبری طرح‌های هوش مصنوعی هستند، دانش لازم برای پیشبرد دیدگاه‌های اخلاقی را در دست دارند.

یک جعبه ابزار پیمایش بسازید: ارائه منابع عملی برای کمک در به اشتراک‌گذشتن تجربیات هوش مصنوعی پاسخگو را می‌توان به وسیله یک جعبه ابزار پیمایش هوش مصنوعی به دست آورد. شرکت صنعتی فرانسوی Thales دسته‌ای از ابزارها با ویژگی جستجو و سازگاری ایجاد کرد که بخش‌های گوناگون سازمان می‌توانند از آن برای پیاده‌سازی هوش مصنوعی پاسخگو استفاده کنند. این جعبه ابزار شامل اطلاعاتی درباره شیوه‌های هوش مصنوعی پاسخگو، مشاوره‌های پیاده‌سازی، ارتباطی و پژوهش‌های موردی بود که برای کمک به گروه‌های هوش مصنوعی محلی طراحی شده‌اند. همچنین راهنمایی‌هایی درباره چگونگی سفارشی‌سازی شیوه‌های هوش مصنوعی پاسخگو برای سازگاری با نیازهای محلی را در اختیار می‌گذاشت. این جعبه ابزار دسته‌ای از کاربردها را بیان می‌کرد که می‌توان آنها سازگار کرد تا پاسخگوی نیازهای محلی باشند.

لینک کوتاه: https://karangweekly.ir/v2fc
منبع harvard business review
نظر شما درباره موضوع

آدرس ایمیل شما منتشر نخواهد شد.