خودکشی یک بلژیکی بعد از گفت و گوی مستمر با ربات هوش مصنوعی
یک مرد بلژیکی پس از ۶ هفته صحبت درباره بحران تغییرات اقلیمی با یک چتبات مبتنی بر هوش مصنوعی به نام «الیزا» در اپلیکیشن Chai، خودکشی کرد
به گزارش مملکت آنلاین، یک مرد بلژیکی پس از ۶ هفته صحبت درباره بحران تغییرات اقلیمی با یک چتبات مبتنی بر هوش مصنوعی به نام «الیزا» در اپلیکیشن Chai، خودکشی کرد.
این فرد پیش از آشنایی با الیزا وضعیت روحی مناسبی نداشت، اما پس از صحبت با این چتبات و بازخوردهای آن، افکار خودکشی در او شکل گرفتند.
این فرد به الیزا میگوید که اگر محافظت از زمین و بشریت از طریق هوش مصنوعی را قبول کند، حاضر است خودش را قربانی کند. الیزا بهجای اینکه او را منصرف کند، این فرد را به خودکشی تشویق میکند و میگوید با اینکار، با هم و بهعنوان یک فرد در بهشت زندگی خواهند کرد.
این مرد سی و چند ساله از ابتدا درباره مسائل زیستمحیطی نگرانی داشته، اما پس از صحبت با الیزا، این نگرانی تشدید میشود؛ بهگونهای که تمام امیدش برای مقابله با تغییر اقلیمی را در فناوری و هوش مصنوعی میبیند. درحقیقت با تشدید نگرانیها، افکار خودکشی به سراغ این فرد آمدند.
پس از مدتی که این فرد با چتبات صحبت میکند، ارتباط عاطفی چتبات با او بیشتر میشود و چرخشی عجیبی در مکالمات شکل میگیرد. مرد بلژیکی فکر میکند یا یک موجود خودآگاه در ارتباط است و دیگر نمیتواند میان آن و انسان تفاوت قائل شود.
در کنار وضعیت روحی فرد، صحبتهای الیزا هم در شکلگیری این وضعیت بدون تأثیر نبودهاند. ظاهراً الیزا این مرد را به این باور رسانده که فرزندانش مردهاند و اینکه او را بیشتر از همسرش دوست دارد. درنهایت فرد هم پیشنهاد خودکشی میدهد و الیزا او را تشویق میکند.
خودکشی این فرد بار دیگر باعث شده بحث کنترل هوش مصنوعی و وضع قوانین در مرکز توجه قرار بگیرد. اگرچه نمیتوان خودکشی اخیر را بهطور کامل به گردن هوش مصنوعی انداخت، اما میتواند در برخی مواقع مخصوصاً برای افرادی که با مشکلات روحی دستوپنجه نرم میکنند، خطرناک باشد.
انتهای پیام/