بخشهایی از این آینده دلهرهآور انگار زودتر از آنچه فکرش را میکردیم، دارد محقق میشود. همین حالا و حتی بدون کمک گرفتن از هوشهای مصنوعی پیشرفته و فقط به کمک نسخه ابتدایی آن یعنی مثلاً یک موتور جستوجو، اگر «هوش مصنوعی» را سرچ کنید به انبوهی از مطالب درباره مخالفت با هوش مصنوعی و دستاوردهایش میرسید. مطالبی که پیش از این، نمونههایش را در همین صفحه خواندید. تازهترین نمونه این نگرانی را «بیبیسی» و«ایسنا» دو روز پیش منتشر کردند که بخشهایی از آن را میخوانید.
گاهی تصور آینده ترسناک است
هوش مصنوعی بهسرعت در حال پیشرفت و تغییر دادن جنبههای فراوانی از زندگی مدرن است. این فناوری به رایانه اجازه میدهد طوری که انگار انسان است فکر کند و واکنش نشان بدهد. امروزه میتوان دادههای فراوانی به رایانهها داد و آنها را جوری آموزش داد که الگوهای تکرارشونده را تشخیص دهند تا بتوانند پیشبینی کرده، مشکلات را حل کنند و حتی از اشتباهات خود درس بگیرند. بااینوجود، عدهای از متخصصان نگراناند این فناوری ممکن است مثلاً برای مقاصد خطرناک بهکاربرده شود و همچنین شغلهای بسیاری را در معرض خطر قرار دهد.
«جفری هینتون» دانشمند پیشگام در این حوزه که لقب پدرخوانده هوش مصنوعی را یدک میکشد، در جدیدترین اظهارات خود گفته هنوز متقاعد نشده هوش مصنوعیِ خوب بر هوش مصنوعیِ بد پیروز میشود و به آینده این فناوری خوشبین نیست. هینتون بهتازگی در کنفرانسی موسوم به کالیژن که در تورنتو برگزار شد، نگرانیهای خود را تشریح کرد. او میگوید در حالی که شرکتهای مختلف هوش مصنوعی را به عنوان راهحلی برای همه چیز میدانند و آن را تبلیغ میکنند اما پیشرفت و افزایش اخیر هوشهای مصنوعی مولد مانند چت جیپیتی و چت بینگ نشانههایی از شتاب غیرقابل کنترل و بالقوه خطرناک در توسعه این فناوری است.
این پژوهشگر نگران است گوگل در تلاش برای رقابت با روباتهای هوش مصنوعی مانند چت جیپیتی و چت بینگ و مدلهای مشابه، محدودیتها و احتیاطهای قبلی خود را برای توسعه هوش مصنوعی کنار بگذارد و راه را به روی مشکلات اخلاقی متعدد باز کند.
این دانشمند همچنین در مورد امکان توسعه سلاحهای کاملاً خودسر و تمایل مدلهای هوش مصنوعی به یادگیری رفتارهای عجیب و غریب از دادههای آموزشی نگران است زیرا تصور اینکه در پنج سال آینده چه اتفاقی میافتد، ترسناک خواهد بود.
تهدیدی برای بشریت
هینتون مدعی است من متقاعد نشدهام بتوانم یک هوش مصنوعی خوب را که تلاش میکند جلو بدی را بگیرد، کنترل کنم.
برای مثال، ممکن است دشوار باشد یک مجتمع نظامی-صنعتی را از تولید روباتهای جنگی بازدارید.
اگرچه برخی نمونههای هوش مصنوعی میتواند منجر به افزایش چشمگیر بهرهوری شود، اما این نگرانی وجود دارد که طبقه حاکم بهسادگی از این مزیت برای غنیسازی خود سوءاستفاده کند و شکاف بزرگ ثروت کنونی را بیشتر کند. اگر هوش مصنوعی از انسان باهوشتر شود، هیچ تضمینی وجود ندارد که مردم در رأس کار باقی بمانند.
البته این بدان معنا نیست که هینتون از تأثیر هوش مصنوعی ناامید شده است. او میگوید، پیشرفت فناوری هوش مصنوعی احتمالاً سالم بوده است، حتی اگر هنوز نگران پیامدهای آن باشیم. او اعتراف میکند با وجود مشکلات احتمالی، از اشتیاقش به هوش مصنوعی کاسته نشده و میگوید: من عاشق این چیزها هستم. چطور میتوان عاشق ساختن چیزهای هوشمند نبود؟
شایان ذکر است، هینتون در این موضعگیری، تنها نیست.
تعدادی از دانشگاهیان و افراد برجسته در حوزه فناوری از جمله ایلان ماسک و استیو وزنیاک نیز بهتازگی نامهای سرگشاده امضا و منتشر کردهاند که در آن خواستار توقف ۶ماهه توسعه هوش مصنوعی برای رسیدگی به مشکلات اخلاقی و ایمنی آن
شدهاند.
گاهی تصور آینده ترسناک است
هوش مصنوعی بهسرعت در حال پیشرفت و تغییر دادن جنبههای فراوانی از زندگی مدرن است. این فناوری به رایانه اجازه میدهد طوری که انگار انسان است فکر کند و واکنش نشان بدهد. امروزه میتوان دادههای فراوانی به رایانهها داد و آنها را جوری آموزش داد که الگوهای تکرارشونده را تشخیص دهند تا بتوانند پیشبینی کرده، مشکلات را حل کنند و حتی از اشتباهات خود درس بگیرند. بااینوجود، عدهای از متخصصان نگراناند این فناوری ممکن است مثلاً برای مقاصد خطرناک بهکاربرده شود و همچنین شغلهای بسیاری را در معرض خطر قرار دهد.
«جفری هینتون» دانشمند پیشگام در این حوزه که لقب پدرخوانده هوش مصنوعی را یدک میکشد، در جدیدترین اظهارات خود گفته هنوز متقاعد نشده هوش مصنوعیِ خوب بر هوش مصنوعیِ بد پیروز میشود و به آینده این فناوری خوشبین نیست. هینتون بهتازگی در کنفرانسی موسوم به کالیژن که در تورنتو برگزار شد، نگرانیهای خود را تشریح کرد. او میگوید در حالی که شرکتهای مختلف هوش مصنوعی را به عنوان راهحلی برای همه چیز میدانند و آن را تبلیغ میکنند اما پیشرفت و افزایش اخیر هوشهای مصنوعی مولد مانند چت جیپیتی و چت بینگ نشانههایی از شتاب غیرقابل کنترل و بالقوه خطرناک در توسعه این فناوری است.
این پژوهشگر نگران است گوگل در تلاش برای رقابت با روباتهای هوش مصنوعی مانند چت جیپیتی و چت بینگ و مدلهای مشابه، محدودیتها و احتیاطهای قبلی خود را برای توسعه هوش مصنوعی کنار بگذارد و راه را به روی مشکلات اخلاقی متعدد باز کند.
این دانشمند همچنین در مورد امکان توسعه سلاحهای کاملاً خودسر و تمایل مدلهای هوش مصنوعی به یادگیری رفتارهای عجیب و غریب از دادههای آموزشی نگران است زیرا تصور اینکه در پنج سال آینده چه اتفاقی میافتد، ترسناک خواهد بود.
تهدیدی برای بشریت
هینتون مدعی است من متقاعد نشدهام بتوانم یک هوش مصنوعی خوب را که تلاش میکند جلو بدی را بگیرد، کنترل کنم.
برای مثال، ممکن است دشوار باشد یک مجتمع نظامی-صنعتی را از تولید روباتهای جنگی بازدارید.
اگرچه برخی نمونههای هوش مصنوعی میتواند منجر به افزایش چشمگیر بهرهوری شود، اما این نگرانی وجود دارد که طبقه حاکم بهسادگی از این مزیت برای غنیسازی خود سوءاستفاده کند و شکاف بزرگ ثروت کنونی را بیشتر کند. اگر هوش مصنوعی از انسان باهوشتر شود، هیچ تضمینی وجود ندارد که مردم در رأس کار باقی بمانند.
البته این بدان معنا نیست که هینتون از تأثیر هوش مصنوعی ناامید شده است. او میگوید، پیشرفت فناوری هوش مصنوعی احتمالاً سالم بوده است، حتی اگر هنوز نگران پیامدهای آن باشیم. او اعتراف میکند با وجود مشکلات احتمالی، از اشتیاقش به هوش مصنوعی کاسته نشده و میگوید: من عاشق این چیزها هستم. چطور میتوان عاشق ساختن چیزهای هوشمند نبود؟
شایان ذکر است، هینتون در این موضعگیری، تنها نیست.
تعدادی از دانشگاهیان و افراد برجسته در حوزه فناوری از جمله ایلان ماسک و استیو وزنیاک نیز بهتازگی نامهای سرگشاده امضا و منتشر کردهاند که در آن خواستار توقف ۶ماهه توسعه هوش مصنوعی برای رسیدگی به مشکلات اخلاقی و ایمنی آن
شدهاند.
خبرنگار: حوالی امروز
نظر شما