تحولات لبنان و فلسطین

«الیسون گوپنیک» استاد روان‌شناسی و فلسفه و «ملانی میچل» استاد علوم رایانه است. آن‌ها به ماجرای فراگیر شدن ترس از هوش مصنوعی که به‌تازگی بحث داغ میان طرفداران و بدبین‌ها و خوشبین‌های این عرصه است، نگاه متفاوتی دارند.

چرا نباید این‌قدر از هوش مصنوعی ترسید؟ / ترویج «فناوری‌هراسی» ممنوع!

حوالی امروز: مثلاً مگر روزی که سرنگ و آمپول اختراع شد، پزشکان و دانشمندان آن روزگار از همه قابلیت‌های این وسیله درمانی اطلاع نداشتند؟ مگر نمی‌دانستند می‌شود به جای داروهای مسکن یا حیات‌بخش، زهر و ماده مخدر قوی و کشنده‌ای را با آمپول به بدن خود و دیگران تزریق کرد و سبب مرگ شد؟ آیا آن روزها کسی شروع به آمپول‌هراسی و اینکه با این وسیله می‌توان به جای دارو هوا را داخل بدن فرستاد و یک نفر را به دیار باقی فرستاد، حرفی زد؟

قرار نیست این‌طور شود
«الیسون گوپنیک» استاد روان‌شناسی و فلسفه و «ملانی میچل» استاد علوم رایانه است. آن‌ها به ماجرای فراگیر شدن ترس از هوش مصنوعی که به‌تازگی بحث داغ میان طرفداران و بدبین‌ها و خوشبین‌های این عرصه است، نگاه متفاوتی دارند. یعنی سعی کرده‌اند در نگاه به پدیده هوش مصنوعی نه از این طرف بام بیفتند و نه از آن طرف. حالا چقدر در این زمینه موفق بوده‌اند را می‌توانید با خواندن بخش‌هایی از گفت‌وگویی که «Los Angeles Review of Books» با آن‌ها داشته و در «ترجمان» منتشر شده، متوجه شوید. «گوپنیک» در کل معتقد است هوش مصنوعی و فناوری‌های مشابه را باید «فناوری فرهنگی» مثل ماشین چاپ یا اینترنت، در نظر بگیریم. فناوری‌هایی که به انسان‌ها امکان می‌دهند به اطلاعات بسیاری از انسان‌های دیگر دسترسی داشته باشند و از آن اطلاعات در تصمیم‌گیری‌هایشان استفاده کنند. ما از اول بشریت همین کار را کرده‌ایم. تصویری که اغلب به ما ارائه می‌شود این است که هوش مصنوعی درنهایت یا برده ماست یا ارباب ما! اغلب سؤال می‌کنیم آیا آن‌ها درنهایت مثل انسان می‌شوند و از او جلو می‌افتند؟ این نوع رقابت میان ما و هوش مصنوعی وجود دارد. ولی روش منطقی‌تر تفکر درباره هوش مصنوعی این است که آن را نوعی مکمل فناورانه بدانیم. خیلی جالب است که هیچ‌کس مثلاً نگران ماشین‌حسابش نیست و از آن نمی‌ترسد. «میچل» در تأیید سخنان گوپنیک می‌گوید: «ماشین‌حساب که اختراع شد، مردم نمی‌خواستند بچه‌ها استفاده کنند، چون فکر می‌کردند ماشین‌حساب موجب می‌شود بچه‌ها ریاضی یاد نگیرند. ولی وقتی بفهمیم این فناوری‌ها برای چه کاری مناسب‌اند، استفاده از آن‌ها را یاد می‌گیریم. درمورد هوش مصنوعی نیز همین اتفاق خواهد افتاد. هوش مصنوعی نوع جدیدی از فناوری خواهد بود که درست مثل فناوری‌های دیگر، به شیوه‌های مختلف موجب رشد و توسعه ما خواهد شد، ولی قرار نیست جایگزین ما شود».
اصلاً هوش چیست؟
«گوپنیک» این نکته را هم یادآور می‌شود که: «ولی ما باید روی ضوابط و مقررات کار با سیستم‌های هوش مصنوعی بسیار دقت کنیم. فرض کنید سال ۱۸۸۰ است و کسی می‌گوید بسیار خب... حالا برق را اختراع کرده‌ایم و می‌دانیم ممکن است این اختراع خانه‌های مردم را به آتش بکشد، ولی فکر می‌کنم بهتر است همین طوری بدون قانون و مقررات به هر خانه‌ای یک شاخه برق بدهیم... این نظر خیلی خطرناک و نگران‌کننده است چون امروزه فقط به دلیل مقررات فراوانی که در این زمینه داریم امکان استفاده از برق وجود دارد. در مورد همه فناوری‌ها ازجمله فناوری‌های فرهنگی هم این مثال صدق می‌کند. چاپ که ابداع شد، مقرراتی برای آن وجود نداشت. اطلاعات اشتباه و نوشته‌های افتراآمیز و چیزهای مسئله‌دار فراوانی چاپ شدند. تدریجاً سروکله روزنامه‌ها و سردبیرها پیدا شد. فکر می‌کنم همین در مورد هوش مصنوعی هم صادق خواهد بود. اگر قرار باشد از آن استفاده مؤثر کنیم، باید همان ضوابط و مقرراتی را که برای سایر فناوری‌ها وضع کرده‌ایم برای هوش مصنوعی هم وضع کنیم. حالا... اگر می‌گوییم ربات‌ها قرار نیست جای ما را بگیرند معنی‌اش این نیست که اصلاً نباید نگران چیزی باشیم. «میچل» در این باره می‌گوید: «من هم نمی‌گویم به هیچ‌وجه نباید نگران خطرات هوش مصنوعی باشیم. ممکن است این فناوری‌ها سبب چیزهای بد فراوانی شوند. همین‌حالا هم شاهد اتفاق‌های بدی هستیم، خروارها محتوای گمراه‌کننده ساخته شده و اوضاع روزبه‌روز هم بدتر می‌شود. بحث نقض حریم خصوصی و میزان انرژی است که به شکل احمقانه‌ای در مراکز داده(دیتاسنترها) مصرف می‌شود. اما اینکه نگران شویم کنترل هوش مصنوعی به‌سرعت از دست انسان خارج شود، آن‌ها بر ما حاکم شوند و انسانیت‌زدایی اتفاق بیفتد و همه چیز حتی هنر دست رایانه‌ها بیفتد... من نگران این مقولات نیستم، چون نشانه‌ای نمی‌بینم که تهدیدها به این زودی‌ محقق شوند. خیلی چیزهاست که انسان درباره هوش مصنوعی نمی‌داند... هنوز کسی دقیق نمی‌داند ماهیت و کیفیت هوش چیست پس چطور می‌تواند آن را در رایانه‌ها همتاسازی کند؟
نگاه دوباره به هوش
«گوپنیک» حس مسئولیت‌پذیری پیشگامان هوش مصنوعی و اینکه تلاش می‌کنند پیشاپیش آثار منفی و مخرب این فناوری را گوشزد کنند تحسین می‌کند اما می‌گوید: بله ‌بی‌شک ممکن است اتفاق‌های بدی بیفتد، ولی من هم فکر می‌کنم کسانی که این سیستم‌ها را طراحی می‌کنند بیشتر دوست دارند بگویند سیستم‌هایشان خیلی قدرتمندند و چیزی شبیه هوش عمومی دارند. نکته جالب دیگر اینکه ما اضطراب را بیشتر در میان کسانی مشاهده می‌کنیم که دانشمند علوم شناختی نیستند و مطالعه‌ای در زمینه هوش انسان یا حیوان نداشته‌اند. تصور می‌کنم بشود گفت پژوهشگران هوش انسانی هم‌نظرند که فاصله هوش انسانی و مصنوعی بسیار زیاد است و آنچه حائز اهمیت است نه تهدیدهای عامل‌های هوش مصنوعی، بلکه مخاطرات پیش‌پاافتاده‌تری مثل اطلاعات گمراه‌کننده و دیگر محتواهای بدِ موجود در اینترنت است. در ضمن یادمان باشد به قول یک دانشمند علوم سیاسی، ما پیش‌تر هم هوش‌های مصنوعی را به صورت بازارها و دولت‌ها داشته‌ایم. هر بازاری یک دستگاه عظیم پردازش اطلاعات و تصمیم‌گیری است. وقتی ما به قیمت تعیین شده توسط بازار کالایی را می‌خریم ( نه قیمتی که خودمان دوست داریم) بخشی از استقلالمان را تسلیم سیستم بازار می‌کنیم. 
«میچل» در این باره معتقد است : «جان مک‌کارتی، یکی از پیشگامان هوش مصنوعی و یکی از شرکت‌کنندگان «ورکشاپ ۱۹۵۶ دارتموث» بود که تصور می‌کرد ما به اندازه یک تابستان زمان لازم داریم تا پیشرفت بزرگی در زمینه هوش مصنوعی بکنیم. اما بعدها گفت هوش از آنچه تصور می‌کردیم دشوارتر بود! من هم به‌تدریج چنین دیدگاهی پیدا کردم و موجب شده بیشتر و بیشتر با متخصصان علوم شناختی در این مورد صحبت کنم. من معتقدم پژوهش در مورد هوش مصنوعی به جای اینکه روی اعتلای فنون بهینه‌سازی متمرکز شود باید دوباره تمرکز و توجهش را به فهم ماهیت هوش معطوف کند».

نظر شما

شما در حال پاسخ به نظر «» هستید.