کد خبر: 15699
چهارشنبه 26 شهریور 1404 - 14:36
چهارشنبه 26 شهریور 1404 - 14:36

پشت پرده جریمه 10 هزار دلاری استفاده از هوش مصنوعی؛ چرا دولت آمریکا از حرف زدنِ شما با چت‌جی‌پی‌تی وحشت دارد؟

پشت پرده جریمه 10 هزار دلاری استفاده از هوش مصنوعی؛ چرا دولت آمریکا از حرف زدنِ شما با چت‌جی‌پی‌تی وحشت دارد؟

ساعدنیوز: آیا درد دل با چت‌جی‌پی‌تی خطرناک است؟ با ممنوعیت روان‌درمانی با هوش مصنوعی و جریمه 10 هزار دلاری در 3 ایالت آمریکا، جنگ پنهان انسان و ماشین آغاز شده است. از راز ترس بزرگ قانون‌گذاران تا تأثیر آن بر سلامت روان و آینده شغلی نسل جدید، همه چیز را در این گزارش بخوانید.

به گزارش سرویس علم و فناوری پایگاه خبری ساعدنیوز، فکر می‌کنید اگر حالتان بد بود، دلتان می‌خواست با چه کسی درد دل کنید؟ یک انسان، که در چشمانش همدلی را می‌بینید و با تمام وجود شما را درک می‌کند، یا یک الگوریتم برنامه‌ریزی‌شده که فقط با کلمات شما بازی می‌کند؟این سؤال شاید در نگاه اول ساده به نظر برسد، اما پشت پرده دنیای جدیدی از فناوری و قانون‌گذاری در حوزه سلامت روان در حال شکل‌گیری است که سکوت جامعه در برابر آن، می‌تواند عواقب جبران‌ناپذیری به دنبال داشته باشد.در حالی که ما غرق در بحث‌های روزمره درباره هوش مصنوعی هستیم، در گوشه‌ای از دنیا قوانینی وضع می‌شود که مستقیماً بر روی کیفیت زندگی، سلامت روانی و حتی آینده شغلی فرزندان ما تأثیر می‌گذارد.اگر امروز ندانیم چه می‌گذرد و چرا باید برای این موضوع مطالبه‌گری کنیم، فردا باید با دنیایی روبرو شویم که در آن، سلامت روان به یک کد برنامه‌نویسی تقلیل یافته و دیگر جایی برای همدلی و درک انسانی باقی نمانده است.

وضعیت بسیار جدی‌تر از آن است که فکر می‌کنید!

امسال، سه ایالت از ایالت‌های پیشرفته آمریکا (یوتا، نوادا و ایلینوی) قوانینی را به تصویب رساندند که استفاده از هوش مصنوعی برای روان‌درمانی، تشخیص بیماری‌های روانی و تصمیم‌گیری‌های درمانی را ممنوع کرد.این تصمیم نه فقط یک اقدام سیاسی، بلکه اعترافی آشکار به خطرات ناشناخته‌ای است که در سایه ابزارهای نوظهور هوش مصنوعی در کمین ما نشسته‌اند. این محدودیت‌ها در حالی اعمال می‌شوند که دانشجویان و جوانان، بیشتر از هر زمان دیگری از چت‌بات‌ها برای کاهش استرس، یادداشت‌برداری روزانه و حتی در لحظات اضطراب، به صورت غیررسمی استفاده می‌کنند.این پارادوکس، زنگ خطر را به صدا درآورده است: در حالی که قانون‌گذاران در حال وضع قوانین سخت‌گیرانه برای محافظت از ما هستند، خود مردم بدون هیچ آگاهی و نظارتی، زندگی عاطفی خود را به دست یک الگوریتم ناشناس می‌سپارند.

نبرد بر سر ذهن‌ها: چرا قانون‌گذاران به هوش مصنوعی نه گفتند؟

به گفته مقامات آمریکایی، دلیل اصلی این ممنوعیت‌ها، ایمنی بیمار و نیاز به شفاف‌سازی مرزهای هوش مصنوعی در حوزه سلامت بوده است. این محدودیت‌ها مرز روشنی میان استفاده از هوش مصنوعی برای کارهای اداری و نقش‌های درمانی تعیین می‌کنند.برای مثال، در ایلینوی، قانون‌گذاران به صراحت اعلام کردند که چت‌بات‌ها می‌توانند برای کارهایی مانند برنامه‌ریزی وقت مراجعه یا ثبت اسناد استفاده شوند، اما هرگز نمی‌توانند نقش یک روان‌درمانگر را ایفا کنند. این رویکرد به وضوح نشان می‌دهد که حتی توسعه‌دهندگان و قانون‌گذاران نیز از توانایی‌های هوش مصنوعی برای درک عمق و پیچیدگی‌های ذهن انسان نگران هستند.ایلینوی: با جریمه‌های سنگین تا 10,000 دلار برای هر تخلف، به شرکت‌ها و ارائه‌دهندگان خدمات هشدار داد که از خطوط قرمز عبور نکنند. این جریمه‌ها معمولاً پس از شکایت‌های مصرف‌کنندگان اعمال می‌شود، که نشان می‌دهد نظارت جامعه می‌تواند در این زمینه چقدر حیاتی باشد.نوادا: رویکردی قاطعانه‌تر داشت و هر گونه سیستم هوش مصنوعی را از ارائه خدمات حرفه‌ای سلامت روان منع کرد. این قانون، به نوعی خط بطلانی بر ایده‌هایی کشید که هوش مصنوعی را جایگزین روان‌درمانگرهای بالینی می‌دانند.

یوتا: رویکردی نسبتاً متفاوت را در پیش گرفت. این ایالت به جای ممنوعیت کامل، بر قانون‌گذاری «چت‌بات‌های سلامت روان» تمرکز کرد. این قانون‌گذاری شرکت‌ها را ملزم به افشای اطلاعات، تضمین حریم خصوصی و ارائه محدودیت‌های شفافی برای جلوگیری از وانمود کردن هوش مصنوعی به عنوان یک متخصص می‌کرد. این رویکرد به معنای اجازه به آزمایش‌های کنترل‌شده‌تر بود، اما همچنان در چارچوب قوانین سفت و سخت.این قوانین در مجموع یک پیام واحد دارند: در حالی که هوش مصنوعی می‌تواند ابزاری برای تسهیل فرایندهای اداری باشد، اما به هیچ عنوان نمی‌تواند و نباید نقش یک متخصص درمانگر را بازی کند.این تمایز، کلیدی‌ترین نکته‌ای است که قانون‌گذاران تلاش دارند آن را به جامعه گوشزد کنند، اما آیا این پیام به دست مردمی که بیشترین استفاده‌کنندگان این ابزارها هستند، رسیده است؟

از ترس از دست دادن شغل تا نابودی تفکر انتقادی

دکتر جسیکا کیزورک و دکتر اوتیس کوپ، اساتید دانشگاه بین‌المللی فلوریدا (FIU)، در تحقیقات خود بر روی جوانان و دانشجویان، به یک یافته نگران‌کننده رسیدند: با وجود اینکه دانشجویان از هوش مصنوعی برای یادگیری و کاهش استرس استفاده می‌کنند، اما بخش بزرگی از آن‌ها از آینده‌ای که هوش مصنوعی برایشان می‌سازد، مضطرب هستند. این اضطراب از دو منبع اصلی نشأت می‌گیرد:

ترس از دست دادن شغلهمانطور که یکی از دانشجویان اشاره کرد، «یک چیز که در مورد هوش مصنوعی به من استرس می‌دهد، این است که پیدا کردن شغل را خیلی سخت‌تر کرده. کارهایی که قبلاً برای فارغ‌التحصیلان مناسب بودند، حالا به خاطر هوش مصنوعی در حال کم شدن هستند.» این نگرانی بسیار واقعی است. بسیاری از مشاغل که به مهارت‌های شناختی ساده متکی بودند، به سرعت در حال خودکار شدن هستند و این موضوع چشم‌انداز آینده را برای نسل جوان پیچیده و مبهم می‌کند.اتکای شناختی بیش از حدیک دانشجوی دیگر این اضطراب را اینگونه بیان کرد: «هوش مصنوعی من را مضطرب می‌کند چون دارد مردم را احمق می‌کند. من متوجه شدم که برای هر کاری از هوش مصنوعی استفاده می‌کنم و این باعث می‌شود مغزم دیگر عادت به فکر کردن نداشته باشد.» این یک هشدار جدی است. هوش مصنوعی به گونه‌ای طراحی شده که سریع‌ترین و کارآمدترین پاسخ را ارائه دهد، اما این کارایی ممکن است به بهای از دست رفتن توانایی‌های حیاتی مانند تفکر انتقادی و حل مسئله تمام شود. این مهارت‌ها نه تنها برای موفقیت شغلی، بلکه برای داشتن یک زندگی سالم و توانایی تصمیم‌گیری درست ضروری هستند.این یافته‌ها نشان می‌دهند که اضطراب از هوش مصنوعی نه تنها به خاطر نگرانی‌های مربوط به آینده شغلی، بلکه به دلیل یک دغدغه وجودی‌تر درباره جایگاه انسان در دنیای جدید است. اگر انسان‌ها مغز خود را به الگوریتم‌ها بسپارند، چه چیزی از آن‌ها باقی خواهد ماند؟

آینده دانشجویان روان‌شناسی در آمریکا

این قوانین جدید تأثیر مستقیم و عمیقی بر آموزش دانشجویان آینده در رشته‌های روان‌شناسی و سلامت روان گذاشته است. انتخاب دانشگاه در ایالت‌های مختلف، می‌تواند تجربه آموزشی آن‌ها را به کلی تغییر دهد.ایلینوی و نوادا: دانشجویان در این ایالت‌ها با تجربه محدود در زمینه ابزارهای هوش مصنوعی درمانی روبرو خواهند شد. مراکز مشاوره دانشگاهی اجازه ندارند چت‌بات‌ها را در جلسات درمانی ادغام کنند و هیئت‌های بازنگری (IRB) محدودیت‌های سختگیرانه‌ای را بر تحقیقات بالینی با هوش مصنوعی اعمال خواهند کرد. تمرکز آموزش در این ایالت‌ها بیشتر بر روی روش‌های درمانی سنتی و اثبات‌شده توسط انسان است.یوتا: برعکس، در یوتا به دلیل قوانین منعطف‌تر، دانشجویان ممکن است فرصت بیشتری برای مطالعه جنبه‌های اخلاقی و قانونی هوش مصنوعی در سلامت روان داشته باشند. آن‌ها می‌توانند در پروژه‌های تحقیقاتی مربوط به افشای اطلاعات، انطباق با قوانین و چارچوب‌های اخلاقی هوش مصنوعی شرکت کنند، هرچند همچنان مجاز به استفاده از آن در نقش درمانی نیستند.این تفاوت‌ها به معنای این است که دانشجویانی که در ایلینوی یا نوادا تحصیل می‌کنند، آماده‌تر برای کار در محیط‌های بالینی سنتی خواهند بود، در حالی که فارغ‌التحصیلان یوتا ممکن است درک عمیق‌تری از چالش‌ها و فرصت‌های مربوط به فناوری در سلامت روان داشته باشند. این مسئله نه تنها بر انتخاب دانشگاه، بلکه بر آینده شغلی آن‌ها نیز تأثیرگذار است.

مسئولیت‌پذیری در تاریکی: ابهام در مورد مسئولیت قانونی

در حالی که قوانین جدید مجازات‌هایی را برای ارائه‌دهندگان و شرکت‌های فروشنده چت‌بات‌ها در نظر گرفته‌اند، یک سؤال بزرگ و حل‌نشده باقی می‌ماند: اگر یک بیمار به صورت مستقل از ابزارهای هوش مصنوعی استفاده کند و دچار آسیب شود، مسئولیت قانونی بر عهده چه کسی است؟این موضوع یکی از بزرگ‌ترین موارد ابهام در این حوزه است. به گفته حقوق‌دانان، در بیشتر موارد، مسئولیت بر عهده توسعه‌دهنده ابزار است، مگر اینکه یک متخصص درمانی، استفاده از آن را به بیمار توصیه کرده باشد. این ابهام، بار مسئولیت جدیدی را بر دوش روان‌درمانگران آینده می‌گذارد.آن‌ها باید دانشجویان خود را برای مواجهه با این موقعیت‌های پیچیده آماده کنند و بر اهمیت پاسخگویی حرفه‌ای، حتی زمانی که بیمار به ابزارهای خارج از چارچوب حرفه‌ای روی می‌آورد، تأکید کنند. در نهایت، این انسان درمانگر است که باید مسئولیت مراقبت از بیمار را بر عهده بگیرد، نه یک کد کامپیوتری.

شمشیر دولبه در برابر سلامت روان

قوانین جدید کشورهایی چون ایالات متحده آمریکا در مورد هوش مصنوعی درمانی، نه یک تصمیم عجولانه، بلکه واکنشی ضروری به خطراتی است که در حال ظهور هستند. این قوانین به وضوح نشان می‌دهند که در دنیای پیچیده سلامت روان، هیچ چیز نمی‌تواند جایگزین همدلی، مسئولیت‌پذیری و قضاوت یک انسان آموزش‌دیده شود.اما مهم‌تر از همه، این قوانین هشداری هستند برای ما. در حالی که قانون‌گذاران در حال وضع قوانین سخت‌گیرانه‌اند، استفاده غیررسمی مردم از این ابزارها همچنان رو به افزایش است.این یک شمشیر دولبه است. از یک طرف، آگاهی و مطالبه‌گری جامعه می‌تواند به وضع قوانین بهتر و شفاف‌تر منجر شود. از طرف دیگر، ناآگاهی و سکوت، می‌تواند منجر به وضع قوانینی شود که به جای محافظت، آزادی ما را در انتخاب ابزارهای درمانی محدود کند، یا بدتر از آن، هیچ قانونی برای محافظت از ما وجود نداشته باشد و شرکت‌ها بدون هیچ محدودیتی، سلامت روان ما را به دست الگوریتم‌ها بسپارند.دانستن این اطلاعات، تنها یک امر ضروری نیست، بلکه یک مسئولیت اجتماعی است. باید به عنوان شهروندان آگاه، بپرسیم: «چه چیزی برای سلامت روان ما در آینده در حال آماده شدن است؟» و با پیگیری این مسائل، سرنوشت سلامت خود و نسل‌های آینده را به دست خود بگیریم.

برای مشاهده مطالب مرتبط با تکنولوژی اینجا کلیک کنید