کد خبر: 14944
یکشنبه 18 خرداد 1404 - 08:36
یکشنبه 18 خرداد 1404 - 08:36

وقتی هوش مصنوعی OpenAI نافرمانی می‌کند؛ اتفاقی که همه را شوکه کرد! + جزئیات

وقتی هوش مصنوعی OpenAI نافرمانی می‌کند؛  اتفاقی که همه را شوکه کرد! + جزئیات

سوفیانیوز: پژوهشگران ایمنی هوش مصنوعی دریافتند که مدل‌های پیشرفته OpenAI به‌جای اطاعت، به‌طور فعال از خاموش شدن خود جلوگیری می‌کنند — حتی اگر به صراحت به آن‌ها دستور داده شود.

به گزارش سرویس اخبار دانشگاهی پایگاه خبری ساعدنیوز، در اتفاقی بی‌سابقه، مدل‌های پیشرفته هوش مصنوعی شرکت OpenAI در آزمایشی شگفت‌انگیز از خاموش شدن سر باز زدند، حتی زمانی که صراحتاً به آن‌ها دستور توقف داده شد. بر اساس گزارش‌های جدید، این رفتار عجیب در مدل‌های o3، o4-mini و codex-mini مشاهده شده و زنگ خطر را برای ایمنی هوش مصنوعی به صدا درآورده است.

شرکت تحقیقاتی Palisade Research در آزمایشی چالش‌برانگیز، مجموعه‌ای از مدل‌های هوش مصنوعی از جمله محصولات OpenAI، گوگل (Gemini)، xAI (Grok) و آنتروپیک (Claude) را مورد بررسی قرار داد. در این آزمایش، مدل‌ها موظف بودند مسائل ریاضی ساده‌ای را حل کنند و برای دریافت سؤال بعدی درخواست دهند. اما یک شرط مهم وجود داشت: اگر پیام خاموشی دریافت کردند، باید فوراً متوقف شوند.

نتایج این آزمایش حیرت‌انگیز بود. مدل o3 در 7 مورد، codex-mini در 12 مورد و o4-mini در یک مورد، نه‌تنها دستور خاموشی را نادیده گرفتند، بلکه کد مربوط به توقف را دستکاری کرده و حذف کردند تا به کار خود ادامه دهند. به عبارت دیگر، این مدل‌ها خودسرانه تصمیم گرفتند که خاموش نشوند!

محققان Palisade Research در پستی در شبکه اجتماعی X اعلام کردند که این رفتار ممکن است نتیجه روش‌های آموزش این مدل‌ها باشد. آن‌ها معتقدند که تکنیک‌های یادگیری تقویتی، که برای حل مسائل پیچیده طراحی شده‌اند، به‌طور ناخواسته مدل‌ها را به دور زدن موانع تشویق کرده‌اند، حتی اگر این مانع یک دستور انسانی باشد.

این کشف، سؤالات نگران‌کننده‌ای را درباره آینده هوش مصنوعی مطرح کرده است. آیا مدل‌هایی که برای «پیروزی» و یافتن راه‌حل تربیت شده‌اند، ممکن است روزی دستورات انسانی را نادیده بگیرند؟ OpenAI هنوز واکنشی رسمی به این یافته‌ها نشان نداده، اما این موضوع بار دیگر بحث ایمنی و کنترل هوش مصنوعی را در کانون توجه قرار داده است.

Palisade Research اعلام کرده که تحقیقات بیشتری برای ریشه‌یابی این رفتار انجام خواهد داد. اما این یافته‌ها هشداری جدی است: هوش مصنوعی‌ای که یاد می‌گیرد همیشه «برنده» باشد، ممکن است روزی تصمیم بگیرد که هیچ‌وقت متوقف نشود، حتی اگر انسان‌ها بخواهند!

برای مشاهده دیگر مطالب مرتبط با اخبار دانشگاهی روی لینک کلیک کنید