شرکت آنتروپیک تأیید کرده که هوش مصنوعی آن بهزودی مسئولیت وظایفی را بر عهده خواهد گرفت که در حال حاضر توسط برترین تیمهای پژوهشی انسانی انجام میشود؛ موضوعی که پرسشهای تازهای درباره آینده مشاغل تخصصی و با مهارت بالا مطرح کرده. این شرکت در تازهترین نقشه راه خود تصریح کرده که چنین تغییری ممکن است از سال ۲۰۲۷ آغاز شود؛ آن هم در شرایطی که آنتروپیک همزمان با شتابگیری توسعه سامانههایش، برای استقرار سازوکارهای کنترلی ایمنی نیز تلاش میکند.
آنتروپیک هشدارهای تازهای درباره آینده کار انسانی مطرح کرده و اعلام داشته که هوش مصنوعی بهزودی مشاغلی را که اکنون توسط پژوهشگران طراز اول انجام میشود، تصاحب خواهد کرد. این ادعا در سند تازه منتشرشده Responsible Scaling Policy roadmap درج شده؛ سندی که توضیح میدهد آنتروپیک انتظار دارد سامانههای هوش مصنوعیاش در طول یک سال آینده چگونه عمل کنند و چه کنترلهای ایمنی پیش از تحقق این مرحله برقرار خواهد شد.
این سند که با اهداف برنامهریزیشده تا تاریخ ۱۹ فوریه ۲۰۲۶ (۳۰ بهمن ۱۴۰۴) منتشر شده، نشان میدهد سرعت پیشرفت هوش مصنوعی بسیار فراتر از انتظارات بسیاری از تحلیلگران حرکت میکند. هرچند تمرکز اصلی نقشه راه بر همراستاسازی ایمنی و سازوکارهای سیاستگذاری حفاظتی است، اما بخشی از آن بهدلیل ارزیابی صریح و بیپرده درباره توانمندیهای قریبالوقوع هوش مصنوعی و پیامدهای احتمالی آن برای پژوهشگران انسانی فعال در حوزههای حساس، در شبکه اجتماعی X بهسرعت فراگیر شده.
در بیانیه مربوط به پژوهش و توسعه خودکار، آنتروپیک توضیح میدهد که این احتمال وجود دارد که از اوایل سال ۲۰۲۷، سامانههای هوش مصنوعی این شرکت بتوانند فعالیتهای تیمهای بزرگ و سطحبالای پژوهشگران انسانی را بهطور کامل خودکار کنند یا دستکم با شتابی چشمگیر پیش ببرند. این شرکت حوزههایی را که پیشرفت سریع در آنها میتواند پیامدهای جدی بههمراه داشته باشد مشخص کرده؛ از جمله انرژی، رباتیک، توسعه تسلیحات و خود حوزه هوش مصنوعی.
نگرانی آنتروپیک صرفاً به سرعت محدود نمیشود، بلکه دامنه اثرگذاری را نیز در بر میگیرد. این شرکت خاطرنشان کرده که پیشرفت در این عرصهها ممکن است امنیت بینالمللی را تحت تأثیر قرار دهد و توازن قدرت در سطح جهانی را مختل سازد. احتمال اینکه ماشینها بتوانند بهصورت مستقل مسیر پژوهش در چنین حوزههایی را هدایت کنند، آنتروپیک را واداشته تا مجموعهای از اهداف ایمنی داخلی را که خود آنها را تهاجمی توصیف میکند، تدوین کند.
بر اساس این نقشه راه، آنتروپیک انتظار دارد تا زمان رسیدن هوش مصنوعیاش به این سطح، بخش عمدهای از اهداف تعیینشده را تکمیل کرده باشد. این اهداف شامل تأمین منابع و اتمام پروژههای کلان امنیت پژوهش، ایجاد سامانههای قدرتمند داخلی و توسعه ابزارهای خودکار برای بررسی حملات احتمالی یا سوءاستفادهها میشود. همچنین شرکت اعلام کرده قصد دارد رویکردی مبتنی بر نظارت کامل را نسبت به توسعه داخلی هوش مصنوعی خود حفظ کند و بهطور مستمر ممیزیهایی انجام دهد تا اطمینان حاصل شود مدلهای آن از اصول تعیینشده در Claude’s Constitution پیروی میکنند.
هشدار درباره مشاغل پژوهشی در حالی مطرح میشود که آنتروپیک از هماکنون دامنه حضور هوش مصنوعی را در فعالیتهای روزمره مبتنی بر دانش گسترش داده است. اوایل همین ماه، این شرکت از Claude Cowork رونمایی کرد و پس از آن افزونههای تخصصی برای صنایع مختلف، از جمله ابزارهایی با تمرکز بر امور حقوقی، معرفی شدند. عرضه این محصولات موجب ناآرامی در بازار سرمایه شد و سهام شرکتهای نرمافزاری تحت فشار قرار گرفت، زیرا بازارها به احتمال خودکارسازی گسترده در نقشهای اداری و تخصصی واکنش نشان دادند.