کارنگ، رسانه اقتصاد نوآوری ایران
رسانه اقتصاد نوآوری ایران

محتوای تولیدشده توسط هوش مصنوعی مولد چه بلایی بر سر محتوای آنلاین می‌آورد؟ / مرزهایی که نباید محو شود

قدرت دگرگون‌کننده فناوری را نمی‌توان نادیده گرفت. از ماشین چاپ گرفته تا اینترنت، هر نوآوری جدید دنیایی از امکانات را به همراه دارد، اما این نوآوری‌ها چالش‌هایی هم دارند و هوش مصنوعی مولد نیز از این قاعده مستثنی نیست.

هوش مصنوعی مولد، با توانایی بالقوه‌ای که در تولید محتوا دارد، می‌تواند اساس تجربه ما از اینترنت را تغییر دهد. اما با پیچیده‌تر شدن این فناوری، یک سؤال مهم مطرح می‌شود؛ آیا هوش مصنوعی مولد بنیان اینترنت را ضعیف می‌کند و آن را به چالش می‌کشد؟

پاسخ روشن است؛ همان‌طور که هوش مصنوعی مولد به حرکت بی‌وقفه خود به جلو ادامه می‌دهد، مرز بین محتوای تولیدشده توسط ماشین و انسان کمرنگ و کمرنگ‌تر خواهد شد. چالش پیش روی ما این است که چگونه می‌توانیم از پتانسیل این فناوری استفاده کنیم و از گزندهای آن در امان بمانیم.


قدرت هوش مصنوعی مولد


سیستم‌های هوش مصنوعی مولد می‌توانند مانند انسان‌ها محتوا تولید کنند. بسته به درخواستی که از هوش مصنوعی مولد می‌شود، می‌تواند مقاله بنویسد، تصویر طراحی کند، موسیقی بسازد و حتی فیلم‌ها را شبیه‌سازی کند. نکته جالب در مورد سیستم‌های هوش مصنوعی مولد این است که آنها فقط تقلید نمی‌کنند، بلکه بر اساس الگوهایی که آموخته‌اند خلق می‌کنند.

برای افراد ناآشنا، دنیای هوش مصنوعی مولد ممکن است علمی-تخیلی به نظر برسد، اما در حقیقت هوش مصنوعی مولد به‌سرعت در حال تبدیل‌شدن به یکی از واقعیت‌های زندگی است و این واقعیت در حال شکل‌دادن به تجربیات دیجیتالی ماست.

برای مثال، سیستم‌های هوش مصنوعی  دال‌-ای، میدجرنی و دیپ‌فیک با توانایی خود در طراحی گرافیک، سنتز صدای انسان و حتی شبیه‌سازی حرکات واقعی انسان در ویدئوها، قابلیت‌های گسترده هوش مصنوعی مولد را نشان می‌دهند. یا امپرموزیک و میوزنت می‌توانند آهنگ‌هایی در سبک و ژانرهای مختلف ایجاد کنند. در واقع این سیستم‌ها از آنچه ما فکر می‌کردیم که ماشین‌ها می‌توانند به آن دست یابند، فراتر می‌روند. اما نکته این است که این ابزارها تقریباً در مراحل ابتدایی هستند و هر بار بهتر از دفعه قبل محتوا تولید می‌کنند.


خطر انتشار اطلاعات غلط


با این حال، هوش مصنوعی مولد یک اشکال بالقوه دارد؛ سهولت ایجاد محتوا به‌ معنای سهولت انتشار اطلاعات نادرست نیز هست. فرض کنید فرد یا نهادی می‌خواهد اطلاعات نادرست تولید و منتشر کند. قبلاً برای ایجاد محتوای نادرست به منبع نیاز بود، اما اکنون با کمک هوش مصنوعی به‌راحتی می‌توان هزاران مقاله، عکس و فیلم جعلی در کسری از ثانیه تولید کرد. با این محتوای جعلی می‌توان حتی کشورها را به جان هم انداخت و یک مذاکره صلح را بر هم زد. اینجاست که خبرگزاری‌های معتبر وارد نبردی دیوانه‌وار با این ابزارها می‌شوند؛ نبردی که در آن زمان حرف اول را می‌زند.


کاهش اعتماد به محتوای آنلاین


پیامدهای این اتفاق غیرقابل‌ انکار هستند. با محو شدن مرز محتوای واقعی و محتوای تولیدشده توسط هوش مصنوعی، اعتماد به محتوای آنلاین کاهش می‌یابد. ممکن است تا مدتی دیگر به محتوای اینترنت با دیده شک و تردید بنگریم و پیش‌فرض‌مان این باشد هر چیزی را که در اینترنت می‌خوانیم، نباید باور کنیم.

در چنین دنیایی، منشأ و منبع اطلاعات مهم است. دانستن منشاء اطلاعات ممکن است تنها راه برای اطمینان از اعتبار آن باشد. این موضوع می‌تواند باعث ایجاد مجموعه جدیدی از واسطه‌های دیجیتال یا «کارگزاران اعتماد» شود که در تأیید صحت محتوا تخصص دارند. راه‌حل‌های فناورانه مانند بلاکچین نیز می‌توانند نقش مهمی در حفظ اعتماد داشته باشند.

آینده‌ای را تصور کنید که در آن بر هر مقاله یا عکسی، مهر دیجیتالی توسط بلاکچین زده شود. این مهر دیجیتالی می‌تواند به‌عنوان ضمانت اصالت عمل کند و تمایز بین محتوای واقعی و محتوای تولیدشده توسط هوش مصنوعی را برای کاربران آسان‌تر کند.


جاده پیش رو


آنچه گفته شد بدان معنا نیست که هوش مصنوعی مولد در تولید محتوا فقط نقش منفی دارد. در حال حاضر روزنامه‌نگاران، طراحان و هنرمندان از این ابزارها برای بهبود کار خود استفاده می‌کنند. هوش مصنوعی مولد می‌تواند در ایجاد پیش‌نویس، ایده‌پردازی و حتی در طراحی عناصر بصری کمک کند، اما باید به ‌خاطر داشت که هر پیشرفت فناورانه‌ای در کنار فرصت‌هایش، چالش‌هایی را نیز به همراه دارد. نکته اینجاست که بدانیم چگونه از به ‌وجود آمدن چالش‌ها جلوگیری کنیم. از آنجا ‌که هوش مصنوعی مولد با زندگی دیجیتالی ما درهم‌تنیده می‌شود، فناوران، سیاست‌گذاران و کاربران باید تلاش کنند که اینترنت محل اعتماد باقی بماند.

توسعه ابزارهایی که محتوای تولیدشده توسط هوش مصنوعی را شناسایی و علامت‌گذاری می‌کنند، راه‌حل منطقی‌ای به نظر می‌رسد. ایجاد استانداردهای نظارتی بین‌المللی که بتوانند تولیدکنندگان و انتشاردهندگان محتوای غلط و مخرب هوش مصنوعی را محکوم کنند نیز اهمیت زیادی دارد. در حال حاضر، کاخ سفید روی یک فرمان اجرایی کار می‌کند و از شرکت‌های هوش مصنوعی می‌خواهد رسانه‌های دستکاری‌شده را شناسایی کنند.

آموزش‌وپرورش نیز در این موضوع نقش مهمی ایفا خواهد کرد. برنامه‌های سواد دیجیتال باید در برنامه‌ها و کتاب‌های درسی آموزشی گنجانده شوند. باید به همه‌ دانش‌آموزان آموزش داده شود که چطور محتوای آنلاین را با نگاه انتقادی ارزیابی کنند.

به‌علاوه شرکت‌های فناوری، دولت‌ها و جامعه مدنی باید برای ایجاد یک چهارچوب انعطاف‌پذیر که از یکپارچگی اطلاعات دیجیتال محافظت می‌کند، همکاری کنند؛ فقط با حمایت جمعی از حقیقت و شفافیت می‌توانیم قلمروهای دیجیتال خود را در برابر تهدید احتمالی اطلاعات نادرست تولیدشده توسط هوش مصنوعی تقویت کنیم.

لینک کوتاه: https://karangweekly.ir/p82b
نظر شما درباره موضوع

آدرس ایمیل شما منتشر نخواهد شد.