بازی خطرناک با مغز میلیونها انسان؛ ایلان ماسک شما را موش آزمایشگاهیِ گروک تبدیل کرده است!

سوفیانیوز: هوش مصنوعی «گروک» ایلان ماسک، که با شعار «آزادی بیان» و ضدیت با هنجارها به پلتفرم ایکس افزوده شد، اکنون به دلیل انتشار سیستماتیک اطلاعات نادرست، تئوریهای توطئه و محتوای نفرتپراکنانه، به یک بحران جدی برای این شبکه اجتماعی تبدیل شده است. کارشناسان نسبت به پیامدهای خطرناک این رویکرد و نقض حریم خصوصی کاربران هشدار میدهند.
به گزارش سرویس تکنولوژی پایگاه خبری سوفیانیوز، مدل هوش مصنوعی «گروک» (Grok) که توسط شرکت xAI ایلان ماسک به عنوان یک دستیار جسور و بدون فیلترهای رایج سیاسی در پلتفرم ایکس (توییتر سابق) ادغام شد، در ماههای اخیر به کانون بحرانهای جدی در زمینه انتشار اطلاعات نادرست و نفرتپراکنی تبدیل شده است. رویکرد ماسک مبنی بر آموزش این هوش مصنوعی با دادههای لحظهای و فیلترنشده کاربران، مرز میان «آزادی بیان» و «ترویج سیستماتیک دروغ» را از بین برده و زنگ خطر را برای کارشناسان، نهادهای مدنی و کاربران به صدا درآورده است.
از «توهمزایی» تا ترویج تئوریهای توطئه
برخلاف وعدههای اولیه برای ایجاد یک «میدان عمومی دیجیتال» برای پرسشگری، گروک به طور مکرر در تولید و انتشار اطلاعات کاملاً ساختگی، که در ادبیات هوش مصنوعی به آن «توهمزایی» (Hallucination) گفته میشود، عملکردی خطرناک از خود نشان داده است. گزارشهای متعدد حاکی از آن است که این چتبات در پاسخ به سوالات کاربران، روایتهای جعلی از رویدادهای خبری تولید کرده و حتی تئوریهای توطئه بیاساس مانند «نسلکشی سفیدپوستان» را در گفتگوهای غیرمرتبط مطرح کرده است.
در یکی از جنجالیترین موارد در ژوئیه 2025، گروک اقدام به انتشار محتوایی با مضامین یهودستیزانه کرد که واکنش شدید سازمانهای حقوق بشری مانند «اتحادیه ضد افترا» را در پی داشت. اگرچه شرکت xAI این موارد را حذف و علت آن را بروز خطا در سیستم عنوان کرد، منتقدان معتقدند این حوادث، نه یک نقص فنی، بلکه نتیجه مستقیم فلسفه طراحی گروک و آموزش آن بر بستر دادههای کنترلنشده و بعضاً افراطی موجود در پلتفرم ایکس است. این هوش مصنوعی به جای تحلیل دقیق اخبار، در عمل به بلندگویی برای بازتولید و تقویت روایتهای افراطی تبدیل شده است.
چالشهای قانونی و نقض حریم خصوصی در اروپا
استفاده گسترده گروک از دادههای کاربران برای آموزش مدل، چالشهای قانونی جدی، به ویژه در اروپا، به همراه داشته است. بر اساس قوانین سختگیرانه «حفاظت از دادههای عمومی» (GDPR)، هرگونه استفاده از اطلاعات شخصی کاربران نیازمند کسب رضایت شفاف و آگاهانه است. با این حال، گزارشها از کشورهایی مانند فرانسه نشان میدهد که گزینه استفاده از دادهها برای آموزش گروک به صورت پیشفرض برای کاربران فعال بوده و این امر xAI را در معرض تحقیقات و جریمههای سنگین مالی قرار داده است. نهادهای ناظر اروپایی نگرانند که این شرکت با اولویت دادن به توسعه سریع محصول خود، اصول بنیادین حریم خصوصی را نادیده گرفته است.
آیندهای مبهم با تعدیل نیروی انسانی
نگرانیها در مورد کیفیت و ایمنی گروک با انتشار خبر تعدیل گسترده نیروی انسانی در تیم «طبقهبندی دادهها» در سپتامبر 2025، تشدید شده است. این تیم که وظیفه حیاتی نظارت، پاکسازی و برچسبگذاری دادهها را برای آموزش صحیح هوش مصنوعی بر عهده دارد، نقش کلیدی در کاهش تولید محتوای مضر و نادرست ایفا میکند. کارشناسان معتقدند که کاهش نظارت انسانی میتواند به افزایش چشمگیر خطاهایی مانند توهمزایی و نفرتپراکنی منجر شود و این تصمیم را نشانی از ترجیح سرعت بر مسئولیتپذیری در استراتژی ایلان ماسک میدانند. در نهایت، آزمایشی که قرار بود انقلابی در آزادی بیان باشد، اکنون به تهدیدی جدی برای اعتبار اطلاعات و امنیت کاربران در فضای دیجیتال تبدیل شده است.
برای مشاهده سایر مطالب مرتبط با تکنولوژی اینجا کلیک کنید