مرکز ملی امینتی سایبری انگلیس (NCSC) اعلام کرده است که کارشناسان موفق نشدهاند مشکلات امنیتی احتمالی مربوط به الگوریتمهایی را به صورت کامل شناسایی کنند که قادر به ایجاد واکنشهای مشابه انسان هستند و به مدلهای زبانی بزرگ ( LLM ) مشهور هستند. طبق گزارش این مرکز، چنین ابزارهایی ممکن است خطرهایی به همراه داشته باشد، به ویژه اگر مدلهای زبانی بزرگ به دیگر عناصر فرآیندهای تجاری سازمان متصل شده باشند.
مقامات انگلیسی در زمینه خطرات سایبری مربوط به هوش مصنوعی هشدار دادهاند، آنها اعلام کردهاند که چت باتهای مبتنی بر هوش مصنوعی را میتوان برای انجام کارهای خطرناک فریب داد. به نظر میرسد روشهایی کشف شده است که نشان میدهد با ارسال دستورهای نامناسب به چتباتها میتوان آنها را گمراه کرد، اقدامات محافظتی را دور زد و این ابزارها را از کار انداخت. برای نمونه در صورتی که یک هکر سوالات مشخصی را در چتبات یک بانک وارد کند، میتواند سیستم را گمراه کند و تراکنشهای غیرقانونی انجام دهد.
به گفته مرکز ملی امینتی سایبری انگلیس (NCSC)، سازمانهایی که با استفاده از مدلهای زبانی بزرگ (LLM) سرویسهایی تولید میکنند، لازم است همانند زمانی که یک محصول یا کدی را در وضعیت بتا ارائه میکنند، مراقب آن باشند. از آنجایی که مقامات سراسر جهان در حال استفاده از مدلهای زبانی بزرگ مانند ChatGPT هستند، لازم است از خطرهای احتمالی ناشی از آن نیز آگاهی لازم را داشته باشند تا احتمال بروز هرگونه مشکلی را کاهش دهند.