تاریخ : دوشنبه, ۲۶ آبان , ۱۴۰۴ Monday, 17 November , 2025

توصیه چت جی‌پی‌تی کار دست مرد داد؛ 3 ماه بستری در بیمارستان!

  • کد خبر : 119132
  • ۱۰ مهر ۱۴۰۴ - ۱:۴۹
توصیه چت جی‌پی‌تی کار دست مرد داد؛ 3 ماه بستری در بیمارستان!

به گزارش وبسایت اخبار جهان، مردی پس از عمل به توصیه چت جی‌پی‌تی، سه هفته در بیمارستان بستری شد. ماجرا از این قرار است که یک مرد 60 ساله، پس از مشورت با چت جی پی تی (ChatGPT)، به اشتباه نمک خوراکی خود را با برومید سدیم جایگزین کرد. این اقدام ناآگاهانه منجر به مسمومیت […]

به گزارش وبسایت اخبار جهان، مردی پس از عمل به توصیه چت جی‌پی‌تی، سه هفته در بیمارستان بستری شد.

ماجرا از این قرار است که یک مرد 60 ساله، پس از مشورت با چت جی پی تی (ChatGPT)، به اشتباه نمک خوراکی خود را با برومید سدیم جایگزین کرد. این اقدام ناآگاهانه منجر به مسمومیت با برومید و بستری شدن او در بخش روانپزشکی به مدت سه هفته شد.

شاید این اتفاق در نگاه اول خنده‌دار به نظر برسد و فرد مذکور را مورد تمسخر قرار دهیم، اما واقعیت این است که تقریباً همه افراد حداقل یک بار سوالی مرتبط با حوزه سلامت را از چت جی پی تی پرسیده‌اند و این موضوع برای بسیاری از کاربران به یک عادت روزمره تبدیل شده است.

این حادثه، خطرات احتمالی اتکا به ربات‌های چت هوش مصنوعی برای دریافت توصیه‌های سلامتی را به وضوح نشان می‌دهد. با این وجود، طبق یک نظرسنجی که به تازگی انجام شده است، بیشتر مردم آمریکا اطلاعات سلامتی تولید شده توسط هوش مصنوعی را تا حدی قابل اعتماد می‌دانند. در همین راستا، کارشناسان هشدار می‌دهند که ابزارهای هوش مصنوعی به هیچ وجه نباید جایگزین مراقبت‌های پزشکی حرفه‌ای شوند.

یکی از مهم‌ترین دلایل غیرقابل اعتماد بودن ربات‌های چت هوش مصنوعی این است که آن‌ها به سوابق پزشکی شما دسترسی ندارند. به همین دلیل، نمی‌توانند در مورد علائم جدید، شرایط موجود یا نیاز به مراقبت‌های اورژانسی، راهنمایی قابل اعتمادی ارائه دهند.

به گفته دکتر مارگارت لوزواتسکی، مدیر ارشد اطلاعات پزشکی و معاون نوآوری‌های سلامت دیجیتال در انجمن پزشکی آمریکا، توصیه‌های سلامتی ارائه شده توسط ربات‌های چت هوش مصنوعی اغلب بسیار کلی هستند و نمی‌توانند به طور خاص برای شرایط هر فرد طراحی شوند.

دکتر لوزواتسکی معتقد است که بهترین کاربرد هوش مصنوعی در حال حاضر، استفاده از آن برای به دست آوردن اطلاعات زمینه‌ای است که می‌تواند به شما در طرح سوالات بهتر از پزشک یا درک بهتر اصطلاحات پزشکی کمک کند.

یکی دیگر از مشکلات اطلاعات ارائه شده توسط هوش مصنوعی این است که ممکن است قدیمی یا نادرست باشند. هوش مصنوعی مولد (Generative AI) بر داده‌هایی تکیه دارد که با آن‌ها آموزش داده شده است و این داده‌ها ممکن است منعکس کننده جدیدترین راهنمایی‌های پزشکی نباشند. به عنوان مثال، مراکز کنترل و پیشگیری از بیماری آمریکا اخیراً واکسن آنفولانزا به روز شده را برای همه افراد 6 ماه به بالا توصیه کرده‌اند، اما ممکن است برخی از ربات‌های چت از این موضوع مطلع نباشند.

حتی زمانی که یک ربات چت هوش مصنوعی اشتباه می‌کند، می‌تواند بسیار مطمئن و قانع کننده به نظر برسد. سیستم‌های هوش مصنوعی ممکن است برای پر کردن شکاف‌ها، اطلاعات را سر هم کرده و پاسخ‌های اشتباه یا گمراه کننده ارائه دهند.

مطالعه‌ای که در مجله Nutrients منتشر شد، نشان داد که ربات‌های چت محبوبی مانند جمنای، مایکروسافت کوپایلت و چت جی پی تی می‌توانند برنامه‌های غذایی مناسبی برای کاهش وزن تولید کنند، اما در متعادل سازی درشت مغذی‌ها، از جمله کربوهیدرات‌ها، پروتئین‌ها، چربی‌ها و اسیدهای چرب، موفق نیستند.

دکتر آینسلی مک لین، مشاور هوش مصنوعی سلامت و افسر ارشد سابق هوش مصنوعی در گروه پزشکی میدآتلانتیک کایزر پرمننته، هشدار می دهد که نباید به بیماران توصیه کرد که هرگز کاری را بر اساس توصیه های چت جی پی تی انجام دهند.

اما آیا راهی امن برای استفاده از ابزارهای هوش مصنوعی برای سلامتی وجود دارد؟

دکتر مک لین خاطرنشان کرد که ربات‌های هوش مصنوعی مولد در حال حاضر تحت پوشش قوانین حفظ حریم خصوصی سلامت مانند HIPAA نیستند. او توصیه می‌کند که هرگز اطلاعات سلامت شخصی خود را در این ربات‌ها وارد نکنید، زیرا این اطلاعات ممکن است به هر جایی درز پیدا کند.

هنگامی که خلاصه های هوش مصنوعی را در اخبار جهان مرور می‌کنید، بهتر است بررسی کنید که آیا اطلاعات از یک مجله علمی یا سازمان پزشکی معتبر تهیه شده است یا خیر. همچنین، تاریخ اطلاعات را دوباره بررسی کنید تا ببینید آخرین بار چه زمانی به روز شده است.

دکتر لوزواتسکی ابراز امیدواری کرد که مردم در صورت تجربه علائم جدید، همچنان به پزشک خود مراجعه کنند و در مورد اطلاعاتی که از طریق یک ربات چت هوش مصنوعی پیدا کرده‌اند و هر اقدامی که انجام داده‌اند، با پزشک خود صادق باشند.

او افزود که کاملاً منطقی است که اطلاعات به دست آمده از هوش مصنوعی را با پزشک خود در میان بگذارید و از او بپرسید: “آیا این اطلاعات دقیق است؟ آیا در مورد من صدق می‌کند؟ و اگر نه، چرا؟” همچنین می‌توانید از پزشک خود بپرسید که آیا ابزار سلامت هوش مصنوعی خاصی وجود دارد که او به آن اعتماد دارد یا خیر.

به طور خلاصه، توصیه‌های سلامتی تولید شده توسط هوش مصنوعی می‌توانند خطرناک باشند و هرگز نباید جایگزین راهنمایی‌های یک متخصص پزشکی دارای مجوز شوند. ربات‌های چت هوش مصنوعی ممکن است اطلاعات سلامتی قدیمی، گمراه کننده یا بیش از حد کلی ارائه دهند. کارشناسان توصیه می‌کنند که از ابزارهای هوش مصنوعی تنها برای کسب دانش کلی و زمینه‌ای استفاده کنید و حتماً هر گونه توصیه سلامتی که از طریق هوش مصنوعی به دست آمده است را با پزشک خود در میان بگذارید. این رویکرد محتاطانه می‌تواند به شما کمک کند تا از خطرات احتمالی هوش مصنوعی در حوزه سلامت در امان بمانید و در عین حال از مزایای آن بهره‌مند شوید.

منبع : عصر ایران

لینک کوتاه : https://akhbarjahan.news/?p=119132
 

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.