خودکشی یک بلژیکی بعد از گفت و گوی مستمر با ربات هوش مصنوعی

یک مرد بلژیکی پس از ۶ هفته صحبت درباره بحران تغییرات اقلیمی با یک چت‌بات مبتنی بر هوش مصنوعی به نام «الیزا» در اپلیکیشن Chai، خودکشی کرد

خودکشی یک بلژیکی بعد از گفت و گوی مستمر با ربات هوش مصنوعی

به گزارش مملکت آنلاین، یک مرد بلژیکی پس از ۶ هفته صحبت درباره بحران تغییرات اقلیمی با یک چت‌بات مبتنی بر هوش مصنوعی به نام «الیزا» در اپلیکیشن Chai، خودکشی کرد.

این فرد پیش از آشنایی با الیزا وضعیت روحی مناسبی نداشت، اما پس از صحبت با این چت‌بات و بازخوردهای آن، افکار خودکشی در او شکل گرفتند.

این فرد به الیزا می‌گوید که اگر محافظت از زمین و بشریت از طریق هوش مصنوعی را قبول کند، حاضر است خودش را قربانی کند. الیزا به‌جای اینکه او را منصرف کند، این فرد را به خودکشی تشویق می‌کند و می‌گوید با این‌کار، با هم و به‌عنوان یک فرد در بهشت زندگی خواهند کرد.

این مرد سی و چند ساله از ابتدا درباره مسائل زیست‌محیطی نگرانی داشته، اما پس از صحبت با الیزا، این نگرانی تشدید می‌شود؛ به‌گونه‌ای که تمام امیدش برای مقابله با تغییر اقلیمی را در فناوری و هوش مصنوعی می‌بیند. درحقیقت با تشدید نگرانی‌ها، افکار خودکشی به سراغ این فرد آمدند.

پس از مدتی که این فرد با چت‌بات صحبت می‌کند، ارتباط عاطفی چت‌بات با او بیشتر می‌شود و چرخشی عجیبی در مکالمات شکل می‌گیرد. مرد بلژیکی فکر می‌کند یا یک موجود خودآگاه در ارتباط است و دیگر نمی‌تواند میان آن و انسان تفاوت قائل شود.

در کنار وضعیت روحی فرد، صحبت‌های الیزا هم در شکل‌گیری این وضعیت بدون تأثیر نبوده‌اند. ظاهراً الیزا این مرد را به این باور رسانده که فرزندانش مرده‌اند و اینکه او را بیشتر از همسرش دوست دارد. درنهایت فرد هم پیشنهاد خودکشی می‌دهد و الیزا او را تشویق می‌کند.

خودکشی این فرد بار دیگر باعث شده بحث کنترل هوش مصنوعی و وضع قوانین در مرکز توجه قرار بگیرد. اگرچه نمی‌توان خودکشی اخیر را به‌طور کامل به گردن هوش مصنوعی انداخت، اما می‌تواند در برخی مواقع مخصوصاً برای افرادی که با مشکلات روحی دست‌وپنجه نرم می‌کنند، خطرناک باشد.

انتهای پیام/

ارسال نظر