۱۹ مهر ۱۴۰۲ - ۱۱:۲۲
کد خبر: 923427

تا مدتی پیش، همه نگرانی‌ها درباره آینده هوش مصنوعی و توانایی‌ها و قابلیت‌هایش بود، اینکه روبات‌ها روزی کنترل زندگی را از دست انسان بگیرند و حتی بر جهان حکمرانی کنند.

بالاخره نگران باشیم یا نه؟
بخش‌هایی از این آینده دلهره‌آور انگار زودتر از آنچه فکرش را می‌کردیم، دارد محقق می‌شود. همین حالا و حتی بدون کمک گرفتن از هوش‌های مصنوعی‌ پیشرفته و فقط به کمک نسخه ابتدایی آن یعنی مثلاً یک موتور جست‌وجو، اگر «هوش مصنوعی» را سرچ کنید به انبوهی از مطالب درباره مخالفت با هوش مصنوعی و دستاوردهایش می‌رسید. مطالبی که پیش از این، نمونه‌هایش را در همین صفحه خواندید. تازه‌ترین نمونه این نگرانی را «بی‌بی‌سی» و«ایسنا» دو روز پیش منتشر کردند که بخش‌هایی از آن را می‌خوانید.

گاهی تصور آینده ترسناک است
هوش مصنوعی به‌سرعت در حال پیشرفت و تغییر دادن جنبه‌های فراوانی از زندگی مدرن است. این فناوری به رایانه اجازه می‌دهد طوری که انگار انسان است فکر کند و واکنش نشان بدهد. امروزه می‌توان داده‌های فراوانی به رایانه‌ها داد و آن‌ها را جوری آموزش داد که الگوهای تکرارشونده را تشخیص دهند تا بتوانند پیش‌بینی کرده، مشکلات را حل کنند و حتی از اشتباهات خود درس بگیرند. بااین‌وجود، عده‌ای از متخصصان نگران‌اند این فناوری ممکن است مثلاً برای مقاصد خطرناک به‌کاربرده شود و همچنین شغل‌های بسیاری را در معرض خطر قرار دهد.
«جفری هینتون» دانشمند پیشگام در این حوزه که لقب پدرخوانده هوش مصنوعی را یدک می‌کشد، در جدیدترین اظهارات خود گفته هنوز متقاعد نشده هوش مصنوعیِ خوب بر هوش مصنوعیِ بد پیروز می‌شود و به آینده‌ این فناوری خوشبین نیست. هینتون به‌تازگی در کنفرانسی موسوم به کالیژن که در تورنتو برگزار شد، نگرانی‌های خود را تشریح کرد. او می‌گوید در حالی که شرکت‌های مختلف هوش مصنوعی را به عنوان راه‌حلی برای همه چیز می‌دانند و آن را تبلیغ می‌کنند اما پیشرفت و افزایش اخیر هوش‌های مصنوعی‌ مولد مانند چت جی‌پی‌تی و چت بینگ نشانه‌هایی از شتاب غیرقابل کنترل و بالقوه خطرناک در توسعه این فناوری است.
این پژوهشگر نگران است گوگل در تلاش برای رقابت با روبات‌های هوش مصنوعی مانند چت جی‌پی‌تی و چت بینگ و مدل‌های مشابه، محدودیت‌ها و احتیاط‌های قبلی خود را برای توسعه هوش مصنوعی کنار بگذارد و راه را به روی مشکلات اخلاقی متعدد باز کند.
این دانشمند همچنین در مورد امکان توسعه سلاح‌های کاملاً خودسر و تمایل مدل‌های هوش مصنوعی به یادگیری رفتارهای عجیب و غریب از داده‌های آموزشی نگران است زیرا تصور اینکه در پنج سال آینده چه اتفاقی می‌افتد، ترسناک خواهد بود.

تهدیدی برای بشریت
هینتون مدعی است من متقاعد نشده‌ام بتوانم یک هوش مصنوعی خوب را که تلاش می‌کند جلو بدی را بگیرد، کنترل کنم. 
برای مثال، ممکن است دشوار باشد یک مجتمع نظامی-صنعتی را از تولید روبات‌های جنگی بازدارید. 
اگرچه برخی نمونه‌های هوش مصنوعی می‌تواند منجر به افزایش چشمگیر بهره‌وری شود، اما این نگرانی وجود دارد که طبقه حاکم به‌سادگی از این مزیت برای غنی‌سازی خود سوءاستفاده کند و شکاف بزرگ ثروت کنونی را بیشتر کند. اگر هوش مصنوعی از انسان باهوش‌تر شود، هیچ تضمینی وجود ندارد که مردم در رأس کار باقی بمانند.
البته این بدان معنا نیست که هینتون از تأثیر هوش مصنوعی ناامید شده است. او می‌گوید، پیشرفت فناوری هوش مصنوعی احتمالاً سالم بوده است، حتی اگر هنوز نگران پیامدهای آن باشیم. او اعتراف می‌کند با وجود مشکلات احتمالی، از اشتیاقش به هوش مصنوعی کاسته نشده و می‌گوید: من عاشق این چیزها هستم. چطور می‌توان عاشق ساختن چیزهای هوشمند نبود؟
شایان ذکر است، هینتون در این موضع‌گیری، تنها نیست. 
تعدادی از دانشگاهیان و افراد برجسته در حوزه فناوری از جمله ایلان ماسک و استیو وزنیاک نیز به‌تازگی نامه‌ای سرگشاده امضا و منتشر کرده‌اند که در آن خواستار توقف ۶ماهه توسعه هوش مصنوعی برای رسیدگی به مشکلات اخلاقی و ایمنی آن 
شده‌اند. 


خبرنگار: حوالی امروز

منبع: قدس آنلاین

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.