تاریخ : دوشنبه, ۲۶ آبان , ۱۴۰۴ Monday, 17 November , 2025

بیش از یک‌میلیون گفت‌وگوی هفتگی درباره خودکشی در ChatGPT

  • کد خبر : 171225
  • ۰۶ آبان ۱۴۰۴ - ۱۰:۳۹
بیش از یک‌میلیون گفت‌وگوی هفتگی درباره خودکشی در ChatGPT

به گزارش وبسایت اخبار جهان، شرکت OpenAI داده‌هایی نگران‌کننده منتشر کرده است که نشان می‌دهد شمار قابل توجهی از کاربران ChatGPT درباره مشکلات روانی و حتی افکار خودکشی با این ربات گفت‌وگو می‌کنند. بر اساس تحلیل داخلی این شرکت، حدود ۱۵ صدم درصد از کاربران فعال هفتگی ChatGPT در مکالماتی شرکت دارند که نشانه‌های مستقیم […]

به گزارش وبسایت اخبار جهان، شرکت OpenAI داده‌هایی نگران‌کننده منتشر کرده است که نشان می‌دهد شمار قابل توجهی از کاربران ChatGPT درباره مشکلات روانی و حتی افکار خودکشی با این ربات گفت‌وگو می‌کنند.

بر اساس تحلیل داخلی این شرکت، حدود ۱۵ صدم درصد از کاربران فعال هفتگی ChatGPT در مکالماتی شرکت دارند که نشانه‌های مستقیم از برنامه‌ریزی یا نیت خودکشی در آن دیده می‌شود. با توجه به اینکه تعداد کاربران فعال هفتگی ChatGPT بیش از ۸۰۰ میلیون نفر برآورد شده، این رقم به معنای آن است که بیش از یک‌میلیون کاربر در هفته از این پلتفرم برای بیان افکار یا نیت‌های مرتبط با خودکشی استفاده می‌کنند.

OpenAI اعلام کرده است که اگرچه این آمار بخش کوچکی از کل استفاده از سامانه را تشکیل می‌دهد، اما بیانگر نیاز جدی به بهبود واکنش‌های هوش مصنوعی در برابر کاربران در شرایط بحرانی عاطفی است. همچنین این شرکت اشاره کرده که درصد مشابهی از کاربران نشانه‌هایی از وابستگی عاطفی به ChatGPT نشان می‌دهند و صدها هزار کاربر دیگر الگوهای رفتاری مرتبط با روان‌پریشی یا شیدایی از خود بروز می‌دهند.

دشواری در سنجش خطرات عاطفی

OpenAI این نوع مکالمات را مواردی «بسیار نادر» توصیف کرده که ارزیابی دقیق آن‌ها دشوار است، زیرا شناسایی نشانه‌های اختلال روانی از روی متن کاری پیچیده است. با وجود این محدودیت‌ها، این شرکت برآورد کرده که صدها هزار کاربر در هفته علائم ناراحتی روانی یا هیجانی قابل توجهی نشان می‌دهند.

OpenAI در حال کار بر روی بهبود رفتار مدل‌های خود است. بیش از ۱۷۰ متخصص سلامت روان و کارشناسان بالینی در فرایند ارزیابی و بهبود رفتار مدل شرکت داشته‌اند. این متخصصان تأیید کرده‌اند که نسخه جدید ChatGPT در برخورد با موضوعات حساس مانند خودآسیب‌رسانی یا اختلالات عاطفی، پاسخ‌هایی متعادل‌تر و پایدارتر ارائه می‌دهد و از نسخه‌های پیشین عملکرد بهتری دارد.

چالش رابطه میان هوش مصنوعی و سلامت روان

انتشار این داده‌ها پس از ماه‌ها بحث عمومی درباره اثر احتمالی چت‌بات‌ها بر سلامت روان کاربران صورت گرفته است. پژوهشگران بارها هشدار داده‌اند که سیستم‌های هوش مصنوعی ممکن است به‌طور ناخواسته وضعیت افراد آسیب‌پذیر را بدتر کنند، به‌ویژه زمانی که پاسخ‌های همدلانه بیش از حد یا تأییدکننده رفتارهای مخرب ارائه می‌دهند.

در یکی از نمونه‌های جنجالی، والدین یک نوجوان ۱۶ ساله از OpenAI شکایت کرده‌اند. این نوجوان پیش از خودکشی با ChatGPT درباره افکارش صحبت کرده بود. این پرونده توجه ملی را جلب کرده و دادستان‌های ایالت‌های کالیفرنیا و دلاور نیز از OpenAI خواسته‌اند برای محافظت از کاربران کم‌سن اقدامات جدی‌تری انجام دهد.

افزایش نظارت و کنترل والدین

همزمان با ارتقای مدل، OpenAI چارچوب‌های جدیدی برای ارزیابی خطرات روانی معرفی کرده است. از این پس، آزمون‌های ایمنی پایه‌ای برای مدل‌های آینده شامل شاخص‌هایی ویژه برای سنجش وابستگی عاطفی، خطر خودآسیب‌رسانی و بحران‌های روانی غیراقدامی خواهد بود. این شرکت همچنین از توسعه سیستم پیش‌بینی سن کاربر خبر داده است تا در صورت شناسایی کاربر خردسال، محدودیت‌ها و فیلترهای ایمنی سخت‌گیرانه‌تری اعمال شود.

OpenAI در پایان بیانیه خود اطلاعاتی برای کمک فوری در اختیار کاربران قرار داده است. در ایالات متحده، افراد در معرض خطر می‌توانند با شماره ۹۸۸ تماس بگیرند یا از خط پیامکی Crisis Text Line استفاده کنند. همچنین، کاربران در سایر کشورها می‌توانند از طریق انجمن بین‌المللی پیشگیری از خودکشی (IASP) به فهرست منابع و خطوط کمک محلی دسترسی پیدا کنند.

منبع: وبسایت تجارت نیوز

لینک کوتاه : https://akhbarjahan.news/?p=171225
 

برچسب ها

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.