برخی از کارشناسان، از جمله جفری هینتون «پدرخوانده هوش مصنوعی»، هشدار دادهاند که هوش مصنوعی درست شبیه به بیماریهای همهگیر و جنگ هستهای میتواند انسان را در معرض خطر انقراض قرار دهد.
از رئیس شرکت سازنده «چت جیپیتی» گرفته تا رئیس آزمایشگاه هوش مصنوعی گوگل، بیش از ۳۵۰ نفر گفتهاند که مدیریت ریسک و مقابله با «خطر انقراض انسان با هوش مصنوعی» باید «اولویت جهانی» باشد.
هوش مصنوعی در عین حال که میتواند کارهای نجاتبخشی کند- از جمله طراحی الگوریتمهای بررسی تصویرهای پزشکی مانند پرتو ایکس و اسکن و سونوگرافی- قابلیت رشد سریع و استفاده گستردهتر از آن به نگرانیهایی نیز دامن زده است.
مقاله اسکاینیوز به برخی از نگرانیهای اصلی از کاربرد هوش مصنوعی نگاهی انداخته و به این موضوع پرداخته است که چرا منتقدان برخی از این ترسها را بیش از حد و بیمورد میدانند.
اطلاعات نادرست و تصویرهای جعلی ساخت هوش مصنوعی
برنامههای کاربردی هوش مصنوعی در وبسایتهای رسانههای اجتماعی منتشر و پربازدید شدهاند. بسیاری از کاربران تصویرهایی جعلی از افراد مشهور و سیاستمداران منتشر میکنند و دانشجوها از «چت جیپیتی» و دیگر «الگوهای یادگیری زبان» برای تولید مقالههای
سامانههای هوش مصنوعی بهنوعی شبیهسازی ماشینی از فرایندهای هوش انساناند. اما آیا بهراستی این خطر وجود دارد که این سامانهها به اندازهای پیشرفت کنند که از کنترل انسان خارج شوند؟
دانشگاهی استفاده میکنند.
یکی از نگرانیهای کلی در مورد هوش مصنوعی و توسعه آن مربوط به اطلاعات نادرست تولید شده هوش مصنوعی است و اینکه این اطلاعات جعلی چگونه سببسردرگمی در فضای آنلاین میشود.
پروفسور استوارت راسل، دانشمند بریتانیایی، میگوید یکی از بزرگترین نگرانیها در مورد اطلاعات نادرست و بهاصطلاح «دیپفیک» (Deep Fake) است.
دیپفیک به ویدیوها یا عکسهایی گفته میشود که در آنها صورت یا بدن شخص به صورت دیجیتالی تغییر داده میشود و سر و بدن افراد متفاوت روی هم گذاشته میشود. این کار را معمولا از روی کینهتوزی یا برای انتشار عمدی اطلاعات نادرست میکنند.
پروفسور راسل میگوید تولید اطلاعات نادرست از مدتها پیش برای هدفهای «تبلیغاتی» وجود داشته است، اما اکنون تفاوت در این است که مثلا او میتواند از چتبات آنلاین «جیپیتی۴» بخواهد که سخنان یک مجری تلویزیونی را بهکلی به نحو دیگری تغییر دهد.
هفته گذشته، یک تصویر جعلی که به نظر میرسید انفجاری در نزدیکی پنتاگون باشد برای مدت کوتاهی در رسانههای اجتماعی منتشر و بهسرعت پربازدید شد. آن تصویر عدهای را به راستیآزمایی واداشت و خدمات آتشنشانی را نیز به واکنش و انتشار بیانیهای در رد آن ادعا وادار کرد.
آن تصویر، که ظاهرا توده بزرگی از دود سیاه را در کنار مقر وزارت دفاع آمریکا نشان میداد، گویا با استفاده از فناوری هوش مصنوعی درست شده بود.
آن تصویر نخستین بار در توییتر منتشر شد و حسابهای خبری تایید شده، اما جعلی، بهسرعت آن را بازنشر کردند. اما راستیآزمایی آن خیلی زود ثابت کرد که هیچ انفجاری در پنتاگون رخ نداده است.
در عین حال، اقدامهای دیگری نیز در این مورد در جریان است. در ماه نوامبر، دولت تایید کرد که به اشتراک گذاریهرزهنگاریهای «دیپ فیک» بدون رضایت افراد بر اساس قانون جدید جرم محسوب میشود.
پیشی گرفتن از هوش انسان
سامانههای هوش مصنوعی بهنوعی شبیهسازی ماشینی از فرایندهای هوش انساناند. اما آیا بهراستی این خطر وجود دارد که این سامانهها به اندازهای پیشرفت کنند که از کنترل انسان خارج شوند؟
پروفسور اندرو بریگز از دانشگاه آکسفورد گفت که این هراس وجود دارد که در اثر قدرتمندتر شدن ماشینها، روزی فرا برسد که ظرفیت هوش مصنوعی از انسان فراتر رود.
او میگوید که در حال حاضر هر چیزی را که ماشین باید بهینه کند انسان انتخاب میکند. ممکن است این انتخاب با هدف مثبت یا منفی صورت بگیرد. در حال حاضر، انسان است که درباره آن تصمیم میگیرد.
به گفته او، هراس اینجاست که وقتی ماشینها مدام باهوشتر و قدرتمندتر میشوند، چهبسا روزی فرا برسد که ظرفیت هوش مصنوعی بسیار بیشتر از ظرفیت انسان باشد و انسانها توانایی کنترل آنچه را ماشین به دنبال بهینهسازیاش است از دست بدهند.
او میگوید که از همین رو، توجه به احتمال آسیب دیدن از هوش مصنوعی مهم است. بریگز اضافه میکند: «این موضوع برای من یا هیچیک از ما روشن نیست که آیا دولتها واقعا میدانند این موضوع را چگونه میتوان به شکلی ایمن حل و فصل کرد یا نه.»
همچنین، نگرانیهای بسیار دیگری نیز در مورد هوش مصنوعی وجود دارد- از جمله اثر آن بر آموزش. بهخصوص، با در نظر گرفتن هشدارهایی که کارشناسان درباره انتشار مقاله و از دست رفتن مشاغل طرح میکنند.
هشدارهای «بیمورد» یا خطری جدی؟
در میان امضاکنندگان بیانیه «مرکز ایمنی هوش مصنوعی» نام هینتون و یوشوا بنجیو- دو تن از سه پدرخوانده هوش مصنوعی- نیز دیده میشود که به پاس کار خود در زمینه یادگیری عمیق، جایزه تورینگ ۲۰۱۸ را گرفتند.
اما این نخستین بار نیست که شاهد نگرانی کارشناسان فناوری در خصوص توسعه هوش مصنوعی هستیم.
در ماه مارس، ایلان ماسک و گروهی از کارشناسان هوش مصنوعی، بهدلیل آنچه خطرهای احتمالی برای جامعه و بشر میخواندند، خواستار توقف آموزش سامانههای هوش مصنوعی قوی شدند.
در نامهای که موسسه غیرانتفاعی «فیوچر آف لایف» تنظیم کرد و بیش از ۱۰۰۰ نفر آن را امضا کردند، امضاکنندگان در مورد خطرهای احتمالی سامانههای هوش مصنوعی رقیب انسان برای جامعه و تمدن هشدار داده بود. در آن نامه آمده بود که هوش مصنوعی ممکن است در قالب اختلالهای اقتصادی و سیاسی برای جامعه و تمدن خطرساز باشد.
این عده خواستار توقف شش ماهه «رقابت خطرناک» برای توسعه سامانههای قدرتمندتر از «جیپیتی۴» شده بودند، سامانهای که «اوپنایآی» بهتازگی راهاندازی کرده است.
همچنین، در اوایل این هفته، نخستوزیر بریتانیا ریشی سوناک با مدیر اجرایی گوگل ملاقات کرد تا در مورد «ایجاد تعادل مناسب» میان قوانین هوش مصنوعی از یک سو، و نوآوری از سوی دیگر صحبت کند. دفتر نخستوزیری گفت که نخستوزیر با «ساندار پیچای» در مورد اهمیت تضمین وجود «نردههای محافظ» مناسب برای اطمینان از ایمنی فنی صحبت کرده است.
هشدارهای «بیمورد» یا خطری جدی؟
اگرچه برخی از کارشناسان با بیانیه مرکز ایمنی هوش مصنوعی موافقاند، برخی دیگر در این زمینه مفهوم «پایان تمدن بشری» را ادعایی «بیربط و بیاساس» میخوانند.
پدرو دومینگوس، استاد علوم و مهندسی رایانه در دانشگاه واشنگتن، در توییتی نوشت: «یادآوری: بیشتر محققان هوش مصنوعی فکر میکنند این که هوش مصنوعی به تمدن بشری پایان میدهد بیربط است.»
هینتون در ادامه پرسید که برنامه دومینگوس برای ایمنی هوش مصنوعی و اینکه هوش مصنوعی کنترل را از دست ما در نیاورد چیست. پروفسور دومینگوس پاسخ داد: «همین حالا هم هر روزه افرادی که حتی به اندازه شما باهوش نیستند شما را کنترل و بازیچه خودشان میکنند، اما به هر حال، هنوز سر جای خودتان هستید و مشکلی ندارید. پس چرا فکر میکنید که این نگرانی بزرگ در مورد هوش مصنوعی موضوعی خاص و متفاوت است؟»