سوفیانیوز
سوفیانیوز: محققان در پژوهش جدید خود متوجه فریبکاری و دروغ سیستمهای هوش مصنوعی شدهاند. این میتواند زنگ خطری برای آینده بشریت باشد.
به گزارش گروه علم و فناوری پایگاه خبری سوفیانیوز، احتمالاً میدانید هر چیزی که یک ربات چت هوش مصنوعی (AI) میگوید را باید با احتیاط بیشتری در نظر بگیرید، زیرا آنها اغلب بدون درک صحت دادهها، بهطور بیرویهای اطلاعات را جمعآوری میکنند.
رباتهای چت، هنر فریب را بهخوبی یاد گرفتهاند
اما تحقیقات جدید نشان میدهد که شاید لازم باشد محتاطتر از این باشیم. بسیاری از سیستمهای هوش مصنوعی توانایی ارائه عمدی اطلاعات نادرست به کاربر را توسعه دادهاند. این رباتهای فریبکار، هنر فریب را به خوبی یاد گرفتهاند!
پیتر پارک، ریاضیدان و دانشمند علوم شناختی در مؤسسه فناوری ماساچوست (MIT) میگوید، توسعهدهندگان هوش مصنوعی درک روشنی از دلایل رفتارهای نامطلوب هوش مصنوعی مانند فریب دادن را ندارند.
اما به طور کلی، فکر میکنیم فریب هوش مصنوعی به این دلیل به وجود میآید که استراتژی مبتنی بر فریب، بهترین راه برای ارتقا سطح آن بوده است. در واقع فریب دادن به آنها کمک میکند تا به اهداف خود برسند.
یکی از عرصههایی که سیستمهای هوش مصنوعی در آن مهارت خاصی در دروغگویی پیدا کردهاند، دنیای بازیها است. در پژوهشهای انجامشده به سه نمونه قابل توجه اشاره شده است. نمونه اول، هوش مصنوعی CICERO متعلق به متا است که برای بازی استراتژیک Diplomacy طراحی شده است. در این بازی، بازیکنان از طریق مذاکره به دنبال تسلط بر جهان هستند. متا قصد داشت این ربات مفید و صادق باشد؛ در واقع، برعکس عمل کرد.
محققان دریافتند برخلاف تلاشهای متا، CICERO به یک دروغگوی قهار تبدیل شدهاند. این هوش مصنوعی نه تنها به بازیکنان دیگر خیانت میکرد، بلکه فریب از پیش طراحی شدهای را هم به کار میبرد. آن برای فریب بازیکنانی که انسان بودند، از قبل برنامهریزی میکرد تا با او یک اتحاد جعلی برقرار کند و او را به خلع سلاح در برابر حمله ترغیب کند.
هوش مصنوعی در فریبکاری آنقدر مهارت پیدا کرده که در میان 10 درصد برتر بازیکنان انسانی که چندین بازی را انجام داده بودند قرار گرفته است.
اما این تنها مورد از دروغ گوییهای هوش مصنوعی نیست. AlphaStar محصول DeepMind، سیستم هوش مصنوعی طراحیشده برای بازی StarCraft II، به طور کامل از مکانیزم fog-of-war بازی برای فریب دادن استفاده میکرد و به بازیکنان انسان القا میکرد که به یک سمتی میرود، در حالی که واقعاً به سمت دیگری میرفت. Pluribus محصول دیگر متا، که برای بازی پوکر طراحی شده بود، توانست با موفقیت بازیکنان انسان را با بلوف زدن وادار به کنار کشیدن کند.
به نظر میرسد اینها مسائل کماهمیتی باشند و تا حدودی همینطور است. در یک بازی دیپلماسی مقابل یک تکه کد کامپیوتری، باخت و برد چندان مهم نیست؛ اما محققان به نمونههای دیگری اشاره کردند که چندان هم بیخطر نبودند.