با شات ایکس همیشه در فناوری بروز باشید
هشدار درباره خطر سایبری چت‌بات‌های هوش مصنوعی
عکس : خطر سایبری چت‌بات‌های هوش مصنوعی

مرکز ملی امینتی سایبری انگلیس (NCSC) اعلام کرده است که کارشناسان موفق نشده‌اند مشکلات امنیتی احتمالی مربوط به الگوریتم‌هایی را به صورت کامل شناسایی کنند که قادر به ایجاد واکنش‌های مشابه انسان هستند و به مدل‌های زبانی بزرگ ( LLM ) مشهور هستند. طبق گزارش این مرکز، چنین ابزارهایی ممکن است خطرهایی به همراه داشته باشد، به ویژه اگر مدل‌های زبانی بزرگ به دیگر عناصر فرآیندهای تجاری سازمان متصل شده باشند.

مقامات انگلیسی در زمینه خطرات سایبری مربوط به هوش مصنوعی هشدار داده‌اند، آن‌ها اعلام کرده‌اند که چت باتهای مبتنی بر هوش مصنوعی را می‌توان برای انجام کارهای خطرناک فریب داد. به نظر می‌رسد روش‌هایی کشف شده است که نشان می‌دهد با ارسال دستورهای نامناسب به چت‌بات‌ها می‌توان آن‌ها را گمراه کرد، اقدامات محافظتی را دور زد و این ابزارها را از کار انداخت. برای نمونه در صورتی که یک هکر سوالات مشخصی را در چت‌بات یک بانک وارد کند، می‌تواند سیستم را گمراه کند و تراکنش‌های غیرقانونی انجام دهد.

به گفته مرکز ملی امینتی سایبری انگلیس (NCSC)، سازمان‌هایی که با استفاده از مدل‌های زبانی بزرگ (LLM) سرویس‌هایی تولید می‌کنند، لازم است همانند زمانی که یک محصول یا کدی را در وضعیت بتا ارائه می‌کنند، مراقب آن باشند. از آنجایی که مقامات سراسر جهان در حال استفاده از مدل‌های زبانی بزرگ مانند ChatGPT هستند، لازم است از خطرهای احتمالی ناشی از آن نیز آگاهی لازم را داشته باشند تا احتمال بروز هرگونه مشکلی را کاهش دهند.

ارسال این خبر برای دوستان در شبکه های مجازی :
تلگرامواتساپایتاتوییترفیس بوکلینکدین