پایگاه خبری آکسیوس در گزارشی با استناد به افکار سنجی جدید موسسه ادلمان ، اظهار کرده که اعتماد عمومی جهان ، نسبت به فناوری هوش مصنوعی کمتر شده است. مجموعههای تجاری- فناوری همچون "سیلیکون ولی" اصرار دارند به افکار عمومی دنیا این موضوع را تحمیل کنند ، که هوش مصنوعی قابل اطمینان است ؛ ولی این بی اعتمادی عمومی پس از 18 ماه از انقلاب هوش مصنوعی که با انتشار نسخه تعاملی "اوپنآی" شروع شد اتفاق افتاده است.
براساس نظر سنجی موسسه ادلمان ، اعتماد به هوش مصنوعی در سطح عمومی جهان ، از 61 درصد (سال 2019 ) ، به 53 درصد ( 2024 ) کاهش یافته است. کمتر از 40 درصد از مردم در ایالات متحده آمریکا به فناوری هوش مصنوعی اعتماد دارند ، و این در حالی است که در سال گذشته میلادی این میزان 50 در صد بوده است. یکی از علتهای این موضوع عدم امنیت شغلی میباشد که باعث بیکاری عدهای از مشاغل خدماتی و صنعتی شده و یا اینکه در آستانه بیکاری قرار دارند. به همین جهت کاهش اعتماد عمومی از سال 2018-2019 تا به امروز چیز عجیبی نمیباشد. این موضوعات باعث شده نیمی از 76 درصد مردمی که با فناوری ارتباطی فعالیت دارند ، به هوش مصنوعی بی اعتماد بشوند. چرا که منتظر تایید دانشمندان برای اظهار ایمنی هوش مصنوعی هستند.
اهمیت این موضوع تا آنجا است که ، تا قبل از سال 2022 هوش مصنوعی بیشتر شبیه یک فناوری نوظهور جذاب بصری بود ، ولی با فعال شدن بستر تعامل هوش مصنوعی در قالب چت کردن با افراد ، نگرانیها درباره مسائل مختلف از جمله حریم شخصی و ناامنی شغلی در افکار عمومی به وجود آمده است. عدهای از پژوهشگران اجتماعی معتقدند ، قانونمند کردن هوش مصنوعی باید در اولویت دولتها و افراد باشد. به طوری که شفاف بتوان روی آن نظارت کرد و هدایت اجتماع جامعه را در دست داشت. این موضوع نه تنها صنعت را در خدمت مردم قرار میدهد که ، باعث افزایش اعتماد عمومی به دولتها خواهد شد. چرا که این دولتها هستند که میتوانند بر هوش مصنوعی نظارت کامل انجام دهند.
تاثیرات هوش مصنوعی بر شناخت اجتماعی
فناوری هوش مصنوعی شناخت افراد را دچار تحول نسبت به جهان پیرامونی خودش میکند. این موضوع تقریبا در تمامی صنایع قابل احساس است اما ، نمیتوان گفت این تغییرات حتما مثبت هستند. چرا که هر صنعتی برخلاف مزایای خوبی که دارد و فرصتهای پیشرفت و گسترش شغلی و درآمدی را باعث میشود ، نمیتواند ارامش حاکم بر فضای شهری که مردمان یک جامعه به آن احتیاج مبرم و مزمن دارند را بدهد. حتی میتوان گفت که یک تهدید برای زیست اجتماعی و سایر زیست بومهای طبیعی محسوب میشود. به طور مثال وجود صنعت هوانوردی با تمام زیباییها و کارآمدیهایی که دارد باعث ایجاد آلودگیهای صوتی و یا آسیب به دستها و جنگلهای محیط شهرها شده است.
هوش مصنوعی نیز از این قاعده مستثناء نیست. از این جهت نمیتوان وجود ارزشهای اخلاقی را برای این فناوری در نظر گرفت ؛ به همین دلیل نسبت به چیزهای جدیدی که نسبت به این صنعت تجاری اعلام میشود را ، جانب احتیاط نگه داشت. یکی از مهم ترین دلایل عدم درک درست از فضایی ایجاد شده هوش مصنوعی است ، که اطلاعات زیادی را میتواند در زمان کوتاه (چند ثانیهای یا چند دقیقهای) به کاربر رایانهای بدهد. از نگاه دانشمندان علوم پایه-زیستی جهان تعامل هوش مصنوعی ، جهانی است که هنوز نقاط تاریک زیادی دارد و بی اعتمادی به درستی آن ایمنی زیادی را برای مخاطبان و کاربرانش میدهد. ضمن اینکه عدهای از محققان ادعا کردهاند ، هوش مصنوعی میتواند بر مهندسی انتخابات یک کشور تاحد زیادی موثر باشد که این خود از خطرات قابل توجه هوش مصنوعی است.
به اعتقاد پژوهشگران چند موضوع در رابطه با تعامل فردی نسبت به هوش مصنوعی را ، باید مورد توجه قرار داد.
اول ؛ هوش مصنوعی به راحتی میتواند اشتباه کند
چت باتهای هوش مصنوعی برای کارهایی مثل نوشتن و تصمیم گیریهای مهم احتیاج به دادههایی دارند که شاید تشخیص آن برای این فناوری مشکل باشد. به همین جهت امکان اشتباه کردن آن به راحتترین شکل وجو دارد. مثلا پاسخ اشتباه برای سوال در مورد یک کتاب از نمونههای آن میباشد. در حالی که میتوان پاسخ خود را با جستجوی سادهای در وبسایتی به دست بیاوریم. درست است که هوش مصنوعی برای هر سوالی پاسخی دارد ولی اطلاعات آنها محدود میباشد و تنها به دادهای از پیش تعیین شده خود متکی میباشند و میتواند از اشتباهاتش درس بگیرد. هوش مصنوعی حتی نمیتواند موضوع اختلافی بین یک وسیله ارتباطی یا دیجیتالی را مقایسه کند. این ناتوانی فناوری هوش مصنوعی در قضاوت نسبت به احوالات شخصی بین دونفر نیز صدق میکند. چرا که از قاعدهی های کلی و جزئی زندگی افراد اطلاعی ندارد.
دوم ؛ میتوان از این فناوری برای تغییر اطلاعات استفاده کرد
از آنجایی که هوش مصنوعی توانایی بریده کردن یا چکیده کردن اطلاعات یک کتاب را دارد ، میتواند اطلاعات مشابه را با یکدیگر اشتباه کند و آنها را تغییر دهد. چرا که درک درستی از درخواست شما ندارد و امکان تطابق غلط یک متن را مطابق با برنامه از پیش تعیین شده خود را دارد. نکتهای دیگر برای این موضوع ، درک محدود هوش مصنوعی است. درکی که برای ارائه راه حلها و پیشنهادات درست ، احتیاج به نظرات کامل کاربر را دارد ولی این فناوری حتی با درک کامل موقعیت فردی باز هم نمیتواند پاسخ مناسبی به کاربران بدهد. چرا که اساسا درکی از روابط عاطفی و احساسی ندارد.
سوم ؛ از بین رفتن خلاقیت با استفاده از هوش مصنوعی
امروزه در بسیاری مشاغل سعی بر استفاده از هوش مصنوعی میشود. به طور مثال خبرنگاران ، طراحان هنری از هوش مصنوعی برای افزایش بهرهوری کارایی خود استفاده میکنند. این موضوع در کوتاه مدت شاید اثرات مثبتی را داشته باشد اما در میان مدت و بلند مدت اثرات منفی قابل توجهی دارد ؛ از جمله آنها از بین رفتن خلاقیت فردی برای شغل مورد نظر خود میباشد.
چهارم ؛ خطر سوء استفاده از هوش مصنوعی برای کاربران
هوش مصنوعی همانند سایر فناوریها آسیبپذیر است و خطر سوء استفاده از آن همواره وجود دارد. به طور مثال میتوان برای آزار دادن افراد ، ارعاب و تحقیرکردن استفاده کرد. این موضوع حتی در نمونههای پیشرفتهتر نیز دیده شده است. مثل تولید و ایجاد تصاویر با استفاده از "دیپ فیک و داس" که نشان از خطرات احتمالی این فناوری دارد. دسترسی به فناوری تشخیص تصویر به تروریستها در هر کشوری این توانایی را میدهد که از آن به عنوان ابزاری برای عملیات تروریستی اقدام کند.
لازم به ذکر است ، با توجه به مولفههای ذکر شده اعتماد کامل و مطلق به هوش مصنوعی خطرات زیادی را به دنبال دارد. بنابراین میتوان نتیجه گرفت که این فناوری صرفا یک ابزار است و جایگزینی برای مهارتهای فردی و اجتماعی نیست. همچنین نمیتوان به آن برای کارهای روزانه متکی بود چرا در بلند مدت آسیب زا میباشد.
حمید اسدی – خبرنگار تحریریه جوان قدس
نظر شما