کارشناسان امنیت سایبری میگویند شواهد استفاده از ChatGPT توسط مجرمان حالا بهوضوح قابل مشاهده است. این افراد از این ابزار هوش مصنوعی برای طراحی حملات فیشینگ و بدافزارها استفاده میکنند. ولی همین مسئله میتواند شرکتهای تولیدکننده هوش مصنوعی را در معرض خطر قرار دهد، چون آنها احتمالاً مصونیت قضایی نخواهند داشت.
به گزارش اینسایدر، چتبات ChatGPT کارهای گوناگونی از نوشتن مقاله گرفته تا تحلیل محتوا را انجام میدهد و میتواند سرعت عمل افراد را بالا ببرد. اما این مسئله درخصوص مجرمان سایبری هم صدق میکند. «سرگی شایکِویچ»، محقق شرکت امنیت سایبری Checkpoint، میگوید شواهد استفاده از هوش مصنوعی برای تولید کد در حملات باجافزاری مشهود است.
شایکویچ و تیمش در انتهای سال 2021 شروع به مطالعه درباره پتانسیلهای هوش مصنوعی در کمک به جرایم سایبری کردند و دریافتند که مجرمان با کمک این ابزارها میتوانند ایمیل فیشینگ و کدهای مخرب تولید کنند. شایکویچ میگوید تیم او میخواست ببیند مجرمان واقعاً از هوش مصنوعی در حملات دنیای واقعی استفاده میکنند یا صرفاً بهشکل تئوری آنها را امتحان کردهاند.
ChatGPT واقعاً به مجرمان سایبری کمک میکند
از آنجایی که بهراحتی نمیتوان فهمید یک ایمیل فیشینگ با ChatGPT نوشته شده است یا خیر، محققان برای بررسیهای بیشتر به دارک وب مراجعه کردند. آنها در تاریخ 21 دسامبر 2022 متوجه شدند که مجرمان از این چتبات برای ساخت یک اسکریپت پایتون استفاده کردهاند که در حملات سایبری استفاده میشود. شایکویچ میگوید کد این اسکریپت اشتباهاتی هم داشت، اما بخش عمده آن درست بود.
حالا سوءاستفاده از ChatGPT کارشناسان امنیت را نگران کرده است، چون این ابزارها میتوانند به مجرمانی که دانش فنی کمی دارند، کمک کنند تا حملات خود را پیادهسازی نمایند. پیشتر شرکت Blackberry مدعی شده بود که طبق نظرسنجی آنها، 74 درصد از متخصصان امنیت نگران استفاده از این مدل هوش مصنوعی در جرایم سایبری هستند.
اما از سوی دیگر، کمک ابزارهای هوش مصنوعی به مجرمان سایبری میتواند برای شرکتهای تولیدکننده آنها مشکلساز باشد. اکثر شرکتهای فناوری تحت حمایت ماده 230 قانون شایستگی ارتباطات از مسئولیتپذیری در قبال نشر محتوا در پلتفرمهای خود مصون هستند. اما درباره چتباتها، چون این پیشنهادها از جانب خود هوش مصنوعی ارائه میشود، شرکتهایی مثل OpenAI احتمالاً مسئول کمک به مجرمان خواهند بود.