با پیچیده‌تر شدن فناوری هوش مصنوعی و توسعه ابزارها در دسترس، در آستانه مشاهده خطرات متعددی هستیم. در نتیجه عاقلانه است که دولت‌ها و سازمان‌ها، استراتژی‌هایی برای مقابله با سوءاستفاده از این ابزارها ایجاد کنند.

در سال ۲۰۱۹ فردی با استفاده از فناوری شبیه‌سازی صدا و تماس با مدیرعامل یک شرکت تأمین انرژی در انگلیس، توانست خودش را به عنوان رئیس شرکت اصلی که در آلمان مستقر بود جا بزند و از شرکت انگلیسی تقاضای انتقال فوری مبلغی معادل ۲۴۳۰۰۰ دلار را داشته باشد. مدیر شرکت انگلیسی بدون ذره‌ای تردید، هویت تماس‌گیرنده را به عنوان رئیس شرکت آلمانی باور کرده بود. فرد تماس گیرنده توانسته بود با استفاده از هوش مصنوعی لهجه آلمانی و آهنگ صدای رئیس شرکت مادر را شبیه‌سازی کند.

اما فناوری هوش مصنوعی شبیه‌سازی صدا چگونه کار می‌کند؟  AI Voice Cloning یک تکنیک دیپ فیک است که می‌تواند صدای انسان را تجزیه‌وتحلیل و تکرار کند. تنها چیزی که نیاز دارد نمونه‌ صدای کوتاهی از فرد مورد نظر است و هوش مصنوعی فوراً آن را یاد می‌گیرد. بعد از دانستن نحوه کار ابزار شبیه‌سازی صدای هوش مصنوعی می‌توان به راحتی از آن استفاده کرد.

اقتضائات شبکه‌های اجتماعی نیز به این امر کمک می‌کند. فرد کلاهبردار به راحتی می‌تواند صدای فرد موردنظر را از صفحه شخصی او در فضای مجازی برداشته و به نرم‌افزار شبیه‌ساز وارد کند. سپس فایل صوتی که خودش آماده کرده است را از طریق شبکه اجتماعی یا یک پیام‌رسان برای فرد مالباخته ارسال کند. کاهش کیفیت صدا در بستر اینترنت و وجود نویز در صدایی که در فضاهای باز ضبط می‌شوند به کمک کلاهبردار آمده و تشخیص جعلی بودن صدا را برای مالباخته دشوارتر می‌کند.

تاکنون موارد زیادی از این دست کلاهبرداری‌ها از سرتاسر جهان گزارش شده است که «کلاهبرداری از سالمندان آمریکایی» متداول‌ترین نوع آن بوده است.

کلاهبردارن آمریکایی با استفاده از این فناوری با سالمندان تماس گرفته و خود را به عنوان فرزندان و بستگان آن سالمند معرفی می‌کنند. کلاهبردارن پس از کسب اعتماد سالمند، از او تقاضای پول کرده و به‌راحتی توسط خود فرد حسابش را خالی می‌کنند.

براساس جدیدترین یافته‌های محققان که فاکس‌نیوز آن را منتشر کرده است؛ انسان‌ها توانایی تشخیص صدای شبیه‌سازی شده با هوش مصنوعی را ندارند. این گزارش تأکید می‌کند باوجود آنکه برخی از افراد شرکت‌کننده در این پژوهش قبلاً برای تشخیص صدای جعلی آموزش دیده بودند؛ بازهم فریب خوردند.

با توجه به فراگیری روزافزون هوش‌مصنوعی و کاربردهای آن، لزوم ایجاد سازوکاری برای مقابله با سوءاستفاده‌کنندگان از این فناوری بیش‌ از پیش احساس می‌شود. چه بسا شرکت‎‌های امنیت نرم‌افزار آنگونه که در گذشته آنتی‌ویروس‌ها را تولید کردند، تصمیم به تولید امکانی برای تشخیص هویت‌های جعلی بگیرند.

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.