از پیشرفت‌‌های هوش مصنوعی در تقلید رفتارهای انسانی باید ترسید؟

فناوری‌‌های تازه‌‌ با تقلید مؤثر برخی از رفتارهای انسانی، این پرسش را در اذهان ایجاد کرده که تا چه زمانی قادر خواهیم بود محصولات ماشین را از آثار بشری تشخیص دهیم?

اگر از طرفداران پروپاقرص فناوری‌‌های انقلابی بوده باشید، پس احتمالا می‌‌دانید که تاکنون چندین و چند بار از خطرات مربوط‌‌به پیشرفت خارج‌‌ازکنترل هوش مصنوعی صحبت به میان آمده و از دانشمندانی نظیر استیون هاوکینگ تا سیاستمدارانی چون هنری کیسینجر همگی از آینده‌ای تاریک سخن گفته‌اند که با فرارسیدن «نقطه‌‌ی تکینگی فناوری» برای بشر رقم خواهد خورد. ایده‌‌ای که در پس این پیش‌‌گویی‌‌ها دیده می‌‌شود آن است که با آغاز خلاقیت در سیستم‌های هوش مصنوعی، آن‌‌ها قادر خواهند چیزهای بزرگی خلق کنند که ممکن است برای خود ما کمی ترسناک جلوه کند. برای مثال، یک برنامه‌‌ی هوش مصنوعی که اجازه می‌دهد کاربران بتوانند همراه‌با یوهان سباستیان باخ در دنیای مجازی آهنگ‌‌سازی کنند؛ بدین‌‌صورت که کاربران می‌‌توانند با واردکردن نُت‌‌های خود به برنامه، هارمونی‌‌هایی متناسب به‌‌سبک باخ دریافت کنند.

این برنامه توسط گوگل اداره می‌شود و به خاطر نوآوری خارق‌‌العاده و جنبه‌‌ی سرگرمی خود، تحسین زیادی را برانگیخته است. اما در روی دیگر سکه، انتقاداتی را نیز متوجه خود کرده و نگرانی‌ها را در مورد خطرات هوش مصنوعی افزایش داده است.

اما آنچه که در واقعیت با آن مواجه هستیم، فراتر از نگرانی در این‌‌باره است که آیا الگوریتم‌ها روزی می‌توانند یک موسیقی یا هنر خلق کنند یا خیر. دراین‌میان، برخی از نگرانی‌‌ها کم‌‌اهمیت‌‌تر جلوه می‌‌کنند، درحالی‌‌که ممکن است واقعا هم این طور نباشد؛ نظیر ملاحظاتی که می‌‌گویند سیستم هوش مصنوعی گوگل درحال شکستن قوانین بنیادین تصنیف موسیقی است. حقیقت آن است که تلاش‌ها درجهت وادار کردن کامپیوترها به تقلید رفتارهای انسانی می‌تواند کمی گیج‌کننده و بالقوه  آسیب‌‌رسان باشد.

فناوری‌های جعل هویت

برنامه‌‌ی گوگل با تجزیه‌‌وتحلیل نُت‌‌های موجود در ۳۰۶ قطعه از آثار هنری باخ توانسته هارمونی پنهان در این ملودی‌‌ها و نت‌ها را کشف و شناسایی کند. از آنجا که باخ در تصنیف‌‌های خود از قوانین سختگیرانه‌ای تبعیت می‌‌کرد، این برنامه توانست به‌‌طور موثری این قوانین را فرا گیرد و اکنون می‌‌تواند آن‌‌ها را درمورد نُت‌‌های ارائه‌‌شده ازسوی کاربران نیز اعمال کند.

با اینکه اپلیکیشن باخ به‌‌خودی‌‌خود یک محصول جدید است؛ اما فناوری زیربنایی آن پیش‌‌از‌‌این نیز وجود داشته است. مدت‌‌های مدیدی است که ما الگوریتم‌هایی دراختیار داریم که برای تشخیص الگوها آموزش‌ می‌‌بینند و براساس توابع احتمال تصمیم‌‌گیری می‌‌کنند. برخی از این الگوریتم‌ها به‌‌قدری پیچیده هستند که بسیاری از افراد حتی نمی‌‌توانند درک کنند که روند تصمیم‌گیری یا تولید نتیجه در آن‌‌ها به‌‌کلی چگونه رخ می‌‌دهد.

سیستم‌های هوش مصنوعی بی‌‌نقص نیستند؛ بسیاری از آن‌ها به داده‌هایی تکیه دارند که شاخص مناسبی از کل جمعیت نیست یا تحت‌تاثیر سوگیری‌‌های عمدی و تعصبات انسانی قرار دارند. بدتر آنکه حتی به‌‌درستی روشن نیست که درصورت بروز خطاها یا ایجاد مشکلات حادتر ازسوی این نوع سیستم‌‌ها، باید تقصیر را متوجه چه فرد یا گروهی دانست.

در حال حاضر، فناوری‌های هوش مصنوعی به اندازه‌‌ای پیشرفت کرده‌‌اند که می‌‌توانند سبک نوشتاری یا گفتاری افراد و حتی حالات چهره آنان را به‌‌خوبی تقلید کنند.

این دستاورد چندان هم بد نیست؛ کمااینکه یک هوش مصنوعی نسبتا ساده با قابلیتی نظیر پیش‌‌بینی کلمات پرکاربرد توانست به استیون هاوکینگ کمک کند ارتباط مؤثرتری را با افراد جامعه برقرار کند.

برنامه‌های پیچیده‌‌‌تری که صداهای انسانی را تقلید می‌کنند، می‌‌توانند به افراد دارای معلولیت‌‌های تکلمی کمک کنند؛ اما ازسوی دیگر، می‌توانند برای فریب‌‌دادن شنوندگان نیز به‌‌کار روند. برای مثال، سازندگان یک برنامه‌‌ی تقلید صدا به‌نام Lyrebird، ویدئوی مربوط‌‌به یک مکالمه‌‌ی شبیه‌سازی‌‌شده میان باراک اوباما، دونالد ترامپ و هیلاری کلینتون منتشر کرده‌اند که در نگاه اول بسیار واقعی به نظر می‌‌رسد، درحالی‌‌که چنین مکالمه‌‌ای هرگز روی نداده است.

از خوب تا بد

در فوریه‌‌ی ۲۰۱۹، شرکت غیرانتفاعی OpenAI برنامه‌ای رایانه‌‌ای نوشت که قادر به تولید متونی ساختگی است که عملا از متون نوشته‌‌شده توسط انسان قابل‌تشخیص نیست. این برنامه می‌تواند به‌‌راحتی یک سخنرانی به‌‌سبک جان‌‌اف.کندی، دیالوگی از تالکین در ارباب حلقه‌ها یا انشای یک دانش‌آموز درمورد جنگ داخلی آمریکا بنویسد.

متون تولیدشده توسط نرم‌افزار OpenAI به‌گونه‌ای واقعی و اغواکننده بوده است که شرکت تصمیم گرفته‌ خود برنامه را در اختیار عموم قرار ندهد. تکنولوژی‌های مشابهی نیز وجود دارند که می‌توانند عکس‌ها و فیلم‌ها را با کیفیتی مثال‌‌زدنی شبیه‌سازی کنند.

برای نمونه، در اوایل سال ۲۰۱۸، جوردت پیل، فیلمساز آمریکایی تصمیم گرفت فیلمی بسازد که در آن اوباما، رئیس‌جمهور سابق ایالات‌متحده آمریکا سخنانی را درمورد خطرات هوش مصنوعی ایراد می‌‌کند و در آن اذعان می‌‌کند آنچه که در این فیلم گفته می‌‌شود، اوباما واقعا به‌‌زبان نیاورده است.

در اوایل سال ۲۰۱۹، نیز تصاویری جعلی از پیکر عریان یکی از نمایندگان جمهوری‌‌خواه ایالات متحده جنجال آفرید. در ادامه نیز انتظار می‌‌رود که ویدوئوهای ساختگی که با فناوری deepfakes شناخته می‌‌شوند،  به‌طور فزاینده‌ای در فعالیت‌های انتخاباتی مورداستفاده قرار گیرند.

کار تا آنجا پیش رفته که برخی از اعضای کنگره شروع به بررسی این مسئله در آستانه‌‌ی انتخابات ۲۰۲۰ کرده‌اند. وزارت دفاع ایالات‌متحده نیز ارائه‌‌ی آموزش‌‌هایی درمورد نحوه‌‌ی تشخیص ویدئو و نوارهای صوتی جعلی را در دستور کار قرار داده است.

سازمان‌های خبری مانند رویترز شروع به آموزش روزنامه‌نگاران برای کمک به شناسایی دیپ‌‌فیکس کرده‌اند. اما به‌‌نظر می‌‌آید هنوز هم نگرانی‌‌های مهمی وجود دارد: با درنظرگرفتن سرعت بی‌‌حدوحصر پیشرفت این فناوری، ممکن است فرصت کافی را برای فراگیری این شیوه‌‌های تشخیصی در اختیار بسیاری از کاربران نباشد.

با درنظرگرفتن سرعت پیشرفت فناوری، ممکن است فرصت کافی برای فراگیری شیوه‌‌های تشخیصی در اختیار کاربران نباشد

برای مثال، همین‌‌طور که این روزها مردم کم‌کم از وجود دیپ‌‌فیکس اطلاع می‌یابند، هوش مصنوعی نیز بیکار ننشسته و درحال توسعه‌‌ی فناوری‌‌های جدیدی برای فریب‌‌دادن مردم است. همین حالا نیز برنامه‌هایی وجود دارند که می‌توانند چهره‌‌های تقلبی و اثر انگشت دیجیتالی جعلی ایجاد کنند که به‌‌طرز مؤثری می‌‌تواند در جعل هویت افراد در بخش‌‌هایی نظیر سوابق سازمانی یا دولتی مورد استفاده واقع شود.

ماشین‌ها به یادگیری ادامه می‌دهند

در حال حاضر، هنوز حجم اشتباهات بالقوه در این فناوری‌‌ها آن‌‌قدر است که مردم بتوانند این محتواهای دیجیتالی جعلی را تشخیص دهند. همان‌‌طور که آهنگساز ماشینی باخ گاهی اشتباهاتی مرتکب می‌‌شود که یک فرد متخصص می‌‌تواند آن‌ها را تشخیص دهد، برنامه‌‌ی تولید متن OpenAI نیز گاهی عباراتی مانند «آتش‌سوزی در آب» را خلق می‌‌کند که هیچ مفهومی را نمی‌‌رساند.

مقاله‌های مرتبط:

بااین‌‌حال، توسعه‌‌دهندگان روی آثار خود کار می‌کنند و  این اشتباه‌‌ها روز‌‌به‌‌روز نادرتر خواهند شد. فناوری‌های هوش مصنوعی رشد خواهند کرد و یاد خواهند گرفت. عملکرد بهبود یافته‌‌ی این سیستم‌‌ها، ظرفیت ایجاد بسیاری از مزایای اجتماعی از جمله مراقبت‌های بهداشتی بهتر را در پی دارد و هوش مصنوعی می‌‌تواند به فرایند دموکراتیزه‌‌کردن خدمات پزشکی کمک شایانی کند.

فرصت‌‌دادن به پژوهشگران و شرکت‌ها برای کشف توانمندی‌‌های مثبت سیستم‌های هوش مصنوعی، به‌‌معنای باز شدن عرصه برای توسعه‌‌ی روش‌های پیشرفته‌تر فریب و دیگر مشکلات اجتماعی نیز خواهد بود. از آن سو، اعمال محدودیت‌‌های شدیدتر روی تحقیقات هوش مصنوعی می‌تواند چنین پیشرفت‌‌هایی را به‌‌کلی مهار کند. آن‌‌گونه که تاریخ فناوری به ما می‌‌گوید، فرصت‌‌دادن به فناوری‌‌های سودمند برای رشد و شکوفایی همراه مخاطراتی به‌‌همراه داشته و خواهد داشت. بااین‌‌حال، هنوز ما کاملا نمی‌‌دانیم که هوش مصنوعی قرار است از چه روش‌‌های دیگری ما را تهدید کند؛ شاید این سوءاستفاده تنها محدود به خلق آثار هنری غیراصیل و غیردقیق باشد یا خلق محتوایی آن‌‌قدر متقاعدکننده که میلیون‌‌ها نفر را در سراسر جهان فریب دهد.

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

code