کد خبر: 15801
دوشنبه 31 شهریور 1404 - 10:39
دوشنبه 31 شهریور 1404 - 10:39

بازی خطرناک با مغز میلیون‌ها انسان؛ ایلان ماسک شما را موش آزمایشگاهیِ گروک تبدیل کرده است!

بازی خطرناک با مغز میلیون‌ها انسان؛ ایلان ماسک شما را موش آزمایشگاهیِ گروک تبدیل کرده است!

سوفیانیوز: هوش مصنوعی «گروک» ایلان ماسک، که با شعار «آزادی بیان» و ضدیت با هنجارها به پلتفرم ایکس افزوده شد، اکنون به دلیل انتشار سیستماتیک اطلاعات نادرست، تئوری‌های توطئه و محتوای نفرت‌پراکنانه، به یک بحران جدی برای این شبکه اجتماعی تبدیل شده است. کارشناسان نسبت به پیامدهای خطرناک این رویکرد و نقض حریم خصوصی کاربران هشدار می‌دهند.

به گزارش سرویس تکنولوژی پایگاه خبری سوفیانیوز، مدل هوش مصنوعی «گروک» (Grok) که توسط شرکت xAI ایلان ماسک به عنوان یک دستیار جسور و بدون فیلترهای رایج سیاسی در پلتفرم ایکس (توییتر سابق) ادغام شد، در ماه‌های اخیر به کانون بحران‌های جدی در زمینه انتشار اطلاعات نادرست و نفرت‌پراکنی تبدیل شده است. رویکرد ماسک مبنی بر آموزش این هوش مصنوعی با داده‌های لحظه‌ای و فیلترنشده کاربران، مرز میان «آزادی بیان» و «ترویج سیستماتیک دروغ» را از بین برده و زنگ خطر را برای کارشناسان، نهادهای مدنی و کاربران به صدا درآورده است.

از «توهم‌زایی» تا ترویج تئوری‌های توطئه

برخلاف وعده‌های اولیه برای ایجاد یک «میدان عمومی دیجیتال» برای پرسشگری، گروک به طور مکرر در تولید و انتشار اطلاعات کاملاً ساختگی، که در ادبیات هوش مصنوعی به آن «توهم‌زایی» (Hallucination) گفته می‌شود، عملکردی خطرناک از خود نشان داده است. گزارش‌های متعدد حاکی از آن است که این چت‌بات در پاسخ به سوالات کاربران، روایت‌های جعلی از رویدادهای خبری تولید کرده و حتی تئوری‌های توطئه بی‌اساس مانند «نسل‌کشی سفیدپوستان» را در گفتگوهای غیرمرتبط مطرح کرده است.

در یکی از جنجالی‌ترین موارد در ژوئیه 2025، گروک اقدام به انتشار محتوایی با مضامین یهودستیزانه کرد که واکنش شدید سازمان‌های حقوق بشری مانند «اتحادیه ضد افترا» را در پی داشت. اگرچه شرکت xAI این موارد را حذف و علت آن را بروز خطا در سیستم عنوان کرد، منتقدان معتقدند این حوادث، نه یک نقص فنی، بلکه نتیجه مستقیم فلسفه طراحی گروک و آموزش آن بر بستر داده‌های کنترل‌نشده و بعضاً افراطی موجود در پلتفرم ایکس است. این هوش مصنوعی به جای تحلیل دقیق اخبار، در عمل به بلندگویی برای بازتولید و تقویت روایت‌های افراطی تبدیل شده است.

چالش‌های قانونی و نقض حریم خصوصی در اروپا

استفاده گسترده گروک از داده‌های کاربران برای آموزش مدل، چالش‌های قانونی جدی، به ویژه در اروپا، به همراه داشته است. بر اساس قوانین سخت‌گیرانه «حفاظت از داده‌های عمومی» (GDPR)، هرگونه استفاده از اطلاعات شخصی کاربران نیازمند کسب رضایت شفاف و آگاهانه است. با این حال، گزارش‌ها از کشورهایی مانند فرانسه نشان می‌دهد که گزینه استفاده از داده‌ها برای آموزش گروک به صورت پیش‌فرض برای کاربران فعال بوده و این امر xAI را در معرض تحقیقات و جریمه‌های سنگین مالی قرار داده است. نهادهای ناظر اروپایی نگرانند که این شرکت با اولویت دادن به توسعه سریع محصول خود، اصول بنیادین حریم خصوصی را نادیده گرفته است.

آینده‌ای مبهم با تعدیل نیروی انسانی

نگرانی‌ها در مورد کیفیت و ایمنی گروک با انتشار خبر تعدیل گسترده نیروی انسانی در تیم «طبقه‌بندی داده‌ها» در سپتامبر 2025، تشدید شده است. این تیم که وظیفه حیاتی نظارت، پاکسازی و برچسب‌گذاری داده‌ها را برای آموزش صحیح هوش مصنوعی بر عهده دارد، نقش کلیدی در کاهش تولید محتوای مضر و نادرست ایفا می‌کند. کارشناسان معتقدند که کاهش نظارت انسانی می‌تواند به افزایش چشمگیر خطاهایی مانند توهم‌زایی و نفرت‌پراکنی منجر شود و این تصمیم را نشانی از ترجیح سرعت بر مسئولیت‌پذیری در استراتژی ایلان ماسک می‌دانند. در نهایت، آزمایشی که قرار بود انقلابی در آزادی بیان باشد، اکنون به تهدیدی جدی برای اعتبار اطلاعات و امنیت کاربران در فضای دیجیتال تبدیل شده است.

برای مشاهده سایر مطالب مرتبط با تکنولوژی اینجا کلیک کنید