پشت پرده جریمه 10 هزار دلاری استفاده از هوش مصنوعی؛ چرا دولت آمریکا از حرف زدنِ شما با چتجیپیتی وحشت دارد؟

ساعدنیوز: آیا درد دل با چتجیپیتی خطرناک است؟ با ممنوعیت رواندرمانی با هوش مصنوعی و جریمه 10 هزار دلاری در 3 ایالت آمریکا، جنگ پنهان انسان و ماشین آغاز شده است. از راز ترس بزرگ قانونگذاران تا تأثیر آن بر سلامت روان و آینده شغلی نسل جدید، همه چیز را در این گزارش بخوانید.
به گزارش سرویس علم و فناوری پایگاه خبری ساعدنیوز، فکر میکنید اگر حالتان بد بود، دلتان میخواست با چه کسی درد دل کنید؟ یک انسان، که در چشمانش همدلی را میبینید و با تمام وجود شما را درک میکند، یا یک الگوریتم برنامهریزیشده که فقط با کلمات شما بازی میکند؟این سؤال شاید در نگاه اول ساده به نظر برسد، اما پشت پرده دنیای جدیدی از فناوری و قانونگذاری در حوزه سلامت روان در حال شکلگیری است که سکوت جامعه در برابر آن، میتواند عواقب جبرانناپذیری به دنبال داشته باشد.در حالی که ما غرق در بحثهای روزمره درباره هوش مصنوعی هستیم، در گوشهای از دنیا قوانینی وضع میشود که مستقیماً بر روی کیفیت زندگی، سلامت روانی و حتی آینده شغلی فرزندان ما تأثیر میگذارد.اگر امروز ندانیم چه میگذرد و چرا باید برای این موضوع مطالبهگری کنیم، فردا باید با دنیایی روبرو شویم که در آن، سلامت روان به یک کد برنامهنویسی تقلیل یافته و دیگر جایی برای همدلی و درک انسانی باقی نمانده است.
وضعیت بسیار جدیتر از آن است که فکر میکنید!
امسال، سه ایالت از ایالتهای پیشرفته آمریکا (یوتا، نوادا و ایلینوی) قوانینی را به تصویب رساندند که استفاده از هوش مصنوعی برای رواندرمانی، تشخیص بیماریهای روانی و تصمیمگیریهای درمانی را ممنوع کرد.این تصمیم نه فقط یک اقدام سیاسی، بلکه اعترافی آشکار به خطرات ناشناختهای است که در سایه ابزارهای نوظهور هوش مصنوعی در کمین ما نشستهاند. این محدودیتها در حالی اعمال میشوند که دانشجویان و جوانان، بیشتر از هر زمان دیگری از چتباتها برای کاهش استرس، یادداشتبرداری روزانه و حتی در لحظات اضطراب، به صورت غیررسمی استفاده میکنند.این پارادوکس، زنگ خطر را به صدا درآورده است: در حالی که قانونگذاران در حال وضع قوانین سختگیرانه برای محافظت از ما هستند، خود مردم بدون هیچ آگاهی و نظارتی، زندگی عاطفی خود را به دست یک الگوریتم ناشناس میسپارند.
نبرد بر سر ذهنها: چرا قانونگذاران به هوش مصنوعی نه گفتند؟
به گفته مقامات آمریکایی، دلیل اصلی این ممنوعیتها، ایمنی بیمار و نیاز به شفافسازی مرزهای هوش مصنوعی در حوزه سلامت بوده است. این محدودیتها مرز روشنی میان استفاده از هوش مصنوعی برای کارهای اداری و نقشهای درمانی تعیین میکنند.برای مثال، در ایلینوی، قانونگذاران به صراحت اعلام کردند که چتباتها میتوانند برای کارهایی مانند برنامهریزی وقت مراجعه یا ثبت اسناد استفاده شوند، اما هرگز نمیتوانند نقش یک رواندرمانگر را ایفا کنند. این رویکرد به وضوح نشان میدهد که حتی توسعهدهندگان و قانونگذاران نیز از تواناییهای هوش مصنوعی برای درک عمق و پیچیدگیهای ذهن انسان نگران هستند.ایلینوی: با جریمههای سنگین تا 10,000 دلار برای هر تخلف، به شرکتها و ارائهدهندگان خدمات هشدار داد که از خطوط قرمز عبور نکنند. این جریمهها معمولاً پس از شکایتهای مصرفکنندگان اعمال میشود، که نشان میدهد نظارت جامعه میتواند در این زمینه چقدر حیاتی باشد.نوادا: رویکردی قاطعانهتر داشت و هر گونه سیستم هوش مصنوعی را از ارائه خدمات حرفهای سلامت روان منع کرد. این قانون، به نوعی خط بطلانی بر ایدههایی کشید که هوش مصنوعی را جایگزین رواندرمانگرهای بالینی میدانند.
یوتا: رویکردی نسبتاً متفاوت را در پیش گرفت. این ایالت به جای ممنوعیت کامل، بر قانونگذاری «چتباتهای سلامت روان» تمرکز کرد. این قانونگذاری شرکتها را ملزم به افشای اطلاعات، تضمین حریم خصوصی و ارائه محدودیتهای شفافی برای جلوگیری از وانمود کردن هوش مصنوعی به عنوان یک متخصص میکرد. این رویکرد به معنای اجازه به آزمایشهای کنترلشدهتر بود، اما همچنان در چارچوب قوانین سفت و سخت.این قوانین در مجموع یک پیام واحد دارند: در حالی که هوش مصنوعی میتواند ابزاری برای تسهیل فرایندهای اداری باشد، اما به هیچ عنوان نمیتواند و نباید نقش یک متخصص درمانگر را بازی کند.این تمایز، کلیدیترین نکتهای است که قانونگذاران تلاش دارند آن را به جامعه گوشزد کنند، اما آیا این پیام به دست مردمی که بیشترین استفادهکنندگان این ابزارها هستند، رسیده است؟
از ترس از دست دادن شغل تا نابودی تفکر انتقادی
دکتر جسیکا کیزورک و دکتر اوتیس کوپ، اساتید دانشگاه بینالمللی فلوریدا (FIU)، در تحقیقات خود بر روی جوانان و دانشجویان، به یک یافته نگرانکننده رسیدند: با وجود اینکه دانشجویان از هوش مصنوعی برای یادگیری و کاهش استرس استفاده میکنند، اما بخش بزرگی از آنها از آیندهای که هوش مصنوعی برایشان میسازد، مضطرب هستند. این اضطراب از دو منبع اصلی نشأت میگیرد:
ترس از دست دادن شغلهمانطور که یکی از دانشجویان اشاره کرد، «یک چیز که در مورد هوش مصنوعی به من استرس میدهد، این است که پیدا کردن شغل را خیلی سختتر کرده. کارهایی که قبلاً برای فارغالتحصیلان مناسب بودند، حالا به خاطر هوش مصنوعی در حال کم شدن هستند.» این نگرانی بسیار واقعی است. بسیاری از مشاغل که به مهارتهای شناختی ساده متکی بودند، به سرعت در حال خودکار شدن هستند و این موضوع چشمانداز آینده را برای نسل جوان پیچیده و مبهم میکند.اتکای شناختی بیش از حدیک دانشجوی دیگر این اضطراب را اینگونه بیان کرد: «هوش مصنوعی من را مضطرب میکند چون دارد مردم را احمق میکند. من متوجه شدم که برای هر کاری از هوش مصنوعی استفاده میکنم و این باعث میشود مغزم دیگر عادت به فکر کردن نداشته باشد.» این یک هشدار جدی است. هوش مصنوعی به گونهای طراحی شده که سریعترین و کارآمدترین پاسخ را ارائه دهد، اما این کارایی ممکن است به بهای از دست رفتن تواناییهای حیاتی مانند تفکر انتقادی و حل مسئله تمام شود. این مهارتها نه تنها برای موفقیت شغلی، بلکه برای داشتن یک زندگی سالم و توانایی تصمیمگیری درست ضروری هستند.این یافتهها نشان میدهند که اضطراب از هوش مصنوعی نه تنها به خاطر نگرانیهای مربوط به آینده شغلی، بلکه به دلیل یک دغدغه وجودیتر درباره جایگاه انسان در دنیای جدید است. اگر انسانها مغز خود را به الگوریتمها بسپارند، چه چیزی از آنها باقی خواهد ماند؟
آینده دانشجویان روانشناسی در آمریکا
این قوانین جدید تأثیر مستقیم و عمیقی بر آموزش دانشجویان آینده در رشتههای روانشناسی و سلامت روان گذاشته است. انتخاب دانشگاه در ایالتهای مختلف، میتواند تجربه آموزشی آنها را به کلی تغییر دهد.ایلینوی و نوادا: دانشجویان در این ایالتها با تجربه محدود در زمینه ابزارهای هوش مصنوعی درمانی روبرو خواهند شد. مراکز مشاوره دانشگاهی اجازه ندارند چتباتها را در جلسات درمانی ادغام کنند و هیئتهای بازنگری (IRB) محدودیتهای سختگیرانهای را بر تحقیقات بالینی با هوش مصنوعی اعمال خواهند کرد. تمرکز آموزش در این ایالتها بیشتر بر روی روشهای درمانی سنتی و اثباتشده توسط انسان است.یوتا: برعکس، در یوتا به دلیل قوانین منعطفتر، دانشجویان ممکن است فرصت بیشتری برای مطالعه جنبههای اخلاقی و قانونی هوش مصنوعی در سلامت روان داشته باشند. آنها میتوانند در پروژههای تحقیقاتی مربوط به افشای اطلاعات، انطباق با قوانین و چارچوبهای اخلاقی هوش مصنوعی شرکت کنند، هرچند همچنان مجاز به استفاده از آن در نقش درمانی نیستند.این تفاوتها به معنای این است که دانشجویانی که در ایلینوی یا نوادا تحصیل میکنند، آمادهتر برای کار در محیطهای بالینی سنتی خواهند بود، در حالی که فارغالتحصیلان یوتا ممکن است درک عمیقتری از چالشها و فرصتهای مربوط به فناوری در سلامت روان داشته باشند. این مسئله نه تنها بر انتخاب دانشگاه، بلکه بر آینده شغلی آنها نیز تأثیرگذار است.
مسئولیتپذیری در تاریکی: ابهام در مورد مسئولیت قانونی
در حالی که قوانین جدید مجازاتهایی را برای ارائهدهندگان و شرکتهای فروشنده چتباتها در نظر گرفتهاند، یک سؤال بزرگ و حلنشده باقی میماند: اگر یک بیمار به صورت مستقل از ابزارهای هوش مصنوعی استفاده کند و دچار آسیب شود، مسئولیت قانونی بر عهده چه کسی است؟این موضوع یکی از بزرگترین موارد ابهام در این حوزه است. به گفته حقوقدانان، در بیشتر موارد، مسئولیت بر عهده توسعهدهنده ابزار است، مگر اینکه یک متخصص درمانی، استفاده از آن را به بیمار توصیه کرده باشد. این ابهام، بار مسئولیت جدیدی را بر دوش رواندرمانگران آینده میگذارد.آنها باید دانشجویان خود را برای مواجهه با این موقعیتهای پیچیده آماده کنند و بر اهمیت پاسخگویی حرفهای، حتی زمانی که بیمار به ابزارهای خارج از چارچوب حرفهای روی میآورد، تأکید کنند. در نهایت، این انسان درمانگر است که باید مسئولیت مراقبت از بیمار را بر عهده بگیرد، نه یک کد کامپیوتری.
شمشیر دولبه در برابر سلامت روان
قوانین جدید کشورهایی چون ایالات متحده آمریکا در مورد هوش مصنوعی درمانی، نه یک تصمیم عجولانه، بلکه واکنشی ضروری به خطراتی است که در حال ظهور هستند. این قوانین به وضوح نشان میدهند که در دنیای پیچیده سلامت روان، هیچ چیز نمیتواند جایگزین همدلی، مسئولیتپذیری و قضاوت یک انسان آموزشدیده شود.اما مهمتر از همه، این قوانین هشداری هستند برای ما. در حالی که قانونگذاران در حال وضع قوانین سختگیرانهاند، استفاده غیررسمی مردم از این ابزارها همچنان رو به افزایش است.این یک شمشیر دولبه است. از یک طرف، آگاهی و مطالبهگری جامعه میتواند به وضع قوانین بهتر و شفافتر منجر شود. از طرف دیگر، ناآگاهی و سکوت، میتواند منجر به وضع قوانینی شود که به جای محافظت، آزادی ما را در انتخاب ابزارهای درمانی محدود کند، یا بدتر از آن، هیچ قانونی برای محافظت از ما وجود نداشته باشد و شرکتها بدون هیچ محدودیتی، سلامت روان ما را به دست الگوریتمها بسپارند.دانستن این اطلاعات، تنها یک امر ضروری نیست، بلکه یک مسئولیت اجتماعی است. باید به عنوان شهروندان آگاه، بپرسیم: «چه چیزی برای سلامت روان ما در آینده در حال آماده شدن است؟» و با پیگیری این مسائل، سرنوشت سلامت خود و نسلهای آینده را به دست خود بگیریم.
برای مشاهده مطالب مرتبط با تکنولوژی اینجا کلیک کنید