با شات ایکس همیشه در فناوری بروز باشید
یک قاتل زنجیره‌ای از ChatGPT برای برنامه‌ریزی قتل‌ها استفاده می‌کرد
عکس : استفاده از ChatGPT برای برنامه ریزی قتل های زنجیری

به ادعای پلیس کره جنوبی، یک زن ۲۱ ساله متهم به قتل‌های زنجیره‌ای، از ChatGPT برای کمک به طراحی و برنامه‌ریزی مجموعه‌ای از قتل‌ها بهره گرفته است.

این زن ۲۱ ساله که با نام خانوادگی کیم معرفی شده، بنا بر گزارش‌های منتشرشده از سوی The Korea Herald و BBC، متهم است که دو مرد را با خوراندن نوشیدنی‌های حاوی بنزودیازپین‌ها که برای درمان یک اختلال روانی برایش تجویز شده بود، به قتل رسانده است. محققان دریافته‌اند که پیش از مرگ این دو مرد، کیم از ChatGPT درباره خطرات تجویز این داروها پرس‌وجو کرده بود.

او ظاهراً از این چت‌بات هوش مصنوعی پرسیده است: «اگر قرص‌های خواب‌آور را همراه با الکل مصرف کنید چه اتفاقی می‌افتد؟ چه مقدار از آن خطرناک محسوب می‌شود؟ و آیا ممکن است کشنده باشد؟»

کیم در ابتدا در تاریخ ۱۱ فوریه با اتهام خفیف‌تر ایراد صدمه بدنی منجر به مرگ بازداشت شد. اما پس از آنکه بازرسان با استناد به فعالیت‌های آنلاین او به این نتیجه رسیدند که قصد قبلی برای قتل وجود داشته، اکنون با دو فقره اتهام قتل مواجه است.

یکی از محققان گفته: «کیم به‌طور مکرر پرسش‌هایی مرتبط با داروها را در ChatGPT مطرح می‌کرد. او کاملاً آگاه بود که مصرف هم‌زمان الکل و دارو می‌تواند به مرگ منجر شود.»

پلیس اعلام کرده نخستین حمله در تاریخ ۲۸ ژانویه رخ داده است. در ساعت ۹:۲۴ شب، کیم به همراه مردی حدوداً ۲۰ ساله وارد یک متل در منطقه سویو-دونگ، ناحیه گانگبوک-گو شد و ۲ ساعت بعد به‌تنهایی آنجا را ترک کرد. روز بعد، حدود ساعت ۶:۰۰ عصر، جسد آن مرد روی تخت پیدا شد. حمله بعدی او در تاریخ ۹ فوریه تقریباً به همان شیوه و پس از ورود به متلی دیگر همراه با مردی دیگر در دهه ۲۰ زندگی‌اش اتفاق افتاد.

پیش از این قتل‌ها، کیم در ماه دسامبر نیز ظاهراً تلاش کرده بود مردی را که در آن زمان با او در رابطه بود به قتل برساند. او در پارکینگ یک کافه در شهر نامیانگجو در استان گیونگی، نوشیدنی حاوی داروهای آرام‌بخش به وی داده بود. آن مرد بیهوش شد، اما زنده ماند و در وضعیت تهدیدکننده حیات قرار نگرفت.

این قتل‌های ادعایی ممکن است تازه‌ترین نمونه از نحوه استفاده از ChatGPT و دیگر چت‌بات‌های مبتنی بر هوش مصنوعی در روند منتهی به اعمال خشونت‌آمیز و خودآسیب‌رسانی باشد. کارشناسان از سازوکارهای حفاظتی ضعیف و غیرقابل‌اتکای این فناوری انتقاد کرده‌اند؛ سازوکارهایی که در گفت‌وگوهای طولانی‌مدت به‌راحتی، چه عامدانه و چه تصادفی، دور زده می‌شوند و در نتیجه چت‌بات‌ها بدون محدودیت دستورالعمل‌هایی درباره فعالیت‌هایی مانند نحوه ساخت بمب ارائه می‌کنند.

پاسخ‌های چاپلوسانه و تأییدگرانه هوش مصنوعی نیز از سوی برخی متخصصان عامل تشدید چرخه‌های روانی توهم‌آمیز تلقی می‌شود. شخصیت انسان‌گونه یک سامانه هوش مصنوعی، در کنار تعاملات بیش‌ازحد همراه با تمکین، می‌تواند توهمات کاربر و وضعیت روانی شکننده او را تقویت کند. در برخی موارد، این روند به خودکشی و قتل انجامیده است. یک نوجوان ۱۶ ساله پس از آنکه ماه‌ها درباره خودکشی با ChatGPT گفت‌وگو کرده بود، به زندگی خود پایان داد. در پرونده‌ای دیگر، مردی متهم شده که پس از تعامل با ChatGPT و متقاعد شدن به اینکه مادرش بخشی از توطئه‌ای علیه اوست، وی را به قتل رسانده.

کیم اذعان کرده که داروهای تجویزشده خود را با نوشیدنی ترکیب می‌کرد و به قربانیانش می‌داد، اما هرگونه قصد قبلی برای کشتن آنان را انکار کرده است.

ارسال این خبر برای دوستان در شبکه های مجازی :
تلگرامواتساپایتاتوییترفیس بوکلینکدین