به ادعای پلیس کره جنوبی، یک زن ۲۱ ساله متهم به قتلهای زنجیرهای، از ChatGPT برای کمک به طراحی و برنامهریزی مجموعهای از قتلها بهره گرفته است.
این زن ۲۱ ساله که با نام خانوادگی کیم معرفی شده، بنا بر گزارشهای منتشرشده از سوی The Korea Herald و BBC، متهم است که دو مرد را با خوراندن نوشیدنیهای حاوی بنزودیازپینها که برای درمان یک اختلال روانی برایش تجویز شده بود، به قتل رسانده است. محققان دریافتهاند که پیش از مرگ این دو مرد، کیم از ChatGPT درباره خطرات تجویز این داروها پرسوجو کرده بود.
او ظاهراً از این چتبات هوش مصنوعی پرسیده است: «اگر قرصهای خوابآور را همراه با الکل مصرف کنید چه اتفاقی میافتد؟ چه مقدار از آن خطرناک محسوب میشود؟ و آیا ممکن است کشنده باشد؟»
کیم در ابتدا در تاریخ ۱۱ فوریه با اتهام خفیفتر ایراد صدمه بدنی منجر به مرگ بازداشت شد. اما پس از آنکه بازرسان با استناد به فعالیتهای آنلاین او به این نتیجه رسیدند که قصد قبلی برای قتل وجود داشته، اکنون با دو فقره اتهام قتل مواجه است.
یکی از محققان گفته: «کیم بهطور مکرر پرسشهایی مرتبط با داروها را در ChatGPT مطرح میکرد. او کاملاً آگاه بود که مصرف همزمان الکل و دارو میتواند به مرگ منجر شود.»
پلیس اعلام کرده نخستین حمله در تاریخ ۲۸ ژانویه رخ داده است. در ساعت ۹:۲۴ شب، کیم به همراه مردی حدوداً ۲۰ ساله وارد یک متل در منطقه سویو-دونگ، ناحیه گانگبوک-گو شد و ۲ ساعت بعد بهتنهایی آنجا را ترک کرد. روز بعد، حدود ساعت ۶:۰۰ عصر، جسد آن مرد روی تخت پیدا شد. حمله بعدی او در تاریخ ۹ فوریه تقریباً به همان شیوه و پس از ورود به متلی دیگر همراه با مردی دیگر در دهه ۲۰ زندگیاش اتفاق افتاد.
پیش از این قتلها، کیم در ماه دسامبر نیز ظاهراً تلاش کرده بود مردی را که در آن زمان با او در رابطه بود به قتل برساند. او در پارکینگ یک کافه در شهر نامیانگجو در استان گیونگی، نوشیدنی حاوی داروهای آرامبخش به وی داده بود. آن مرد بیهوش شد، اما زنده ماند و در وضعیت تهدیدکننده حیات قرار نگرفت.
این قتلهای ادعایی ممکن است تازهترین نمونه از نحوه استفاده از ChatGPT و دیگر چتباتهای مبتنی بر هوش مصنوعی در روند منتهی به اعمال خشونتآمیز و خودآسیبرسانی باشد. کارشناسان از سازوکارهای حفاظتی ضعیف و غیرقابلاتکای این فناوری انتقاد کردهاند؛ سازوکارهایی که در گفتوگوهای طولانیمدت بهراحتی، چه عامدانه و چه تصادفی، دور زده میشوند و در نتیجه چتباتها بدون محدودیت دستورالعملهایی درباره فعالیتهایی مانند نحوه ساخت بمب ارائه میکنند.
پاسخهای چاپلوسانه و تأییدگرانه هوش مصنوعی نیز از سوی برخی متخصصان عامل تشدید چرخههای روانی توهمآمیز تلقی میشود. شخصیت انسانگونه یک سامانه هوش مصنوعی، در کنار تعاملات بیشازحد همراه با تمکین، میتواند توهمات کاربر و وضعیت روانی شکننده او را تقویت کند. در برخی موارد، این روند به خودکشی و قتل انجامیده است. یک نوجوان ۱۶ ساله پس از آنکه ماهها درباره خودکشی با ChatGPT گفتوگو کرده بود، به زندگی خود پایان داد. در پروندهای دیگر، مردی متهم شده که پس از تعامل با ChatGPT و متقاعد شدن به اینکه مادرش بخشی از توطئهای علیه اوست، وی را به قتل رسانده.
کیم اذعان کرده که داروهای تجویزشده خود را با نوشیدنی ترکیب میکرد و به قربانیانش میداد، اما هرگونه قصد قبلی برای کشتن آنان را انکار کرده است.