دیپ فیک (Deepfake) نوعی هوش مصنوعی است که برای ایجاد صداها، تصاویر و ویدیوهای جعلی استفاده میشود. نام دیپ فیک هم فناوری مورد استفاده و هم محتوای جعلی ناشی از آن را به خوبی توصیف میکند، چرا که به ساخت محتوای جعلی (Fake) با استفاده از یادگیری عمیق (Deep Learning) اشاره میکند.
دیپ فیک ها اغلب محتوای موجود را تغییر میدهند، جایی که به عنوان مثال چهره یک نفر با دیگری عوض میشود. علاوه بر این همچنین محتوای کاملاً منحصر بهفرد هم ایجاد میکنند که در آن شخصی در حال انجام یا گفتن چیزی است که هرگز انجام نداده یا نگفته است.
بزرگترین خطری که دیپ فیک ایجاد میکند، توانایی آنها در انتشار اطلاعات نادرست است. به عنوان مثال، در سال 2022 یک ویدیوی دیپ فیک از رئیسجمهور اوکراین منتشر شد که از سربازانش میخواهد تسلیم شوند.
همچنین نگرانیهایی در مورد احتمال دخالت در انتخابات و تبلیغات انتخاباتی مطرح شده است. در حالی که دیپ فیکها تهدیدهای جدی هستند، کاربردهای مناسب و مشروعی نیز دارند، مانند استفاده در حوزههای صداگذاری، سرگرمی، بازیهای کامپیوتری و خدمات پشتیبانی مشتریان.
دیپ فیک چگونه کار میکند؟
دیپ فیک از دو الگوریتم - یکی مولد و دیگری تفکیککننده - برای ایجاد محتوای جعلی استفاده میکند. مولد یک مجموعه داده آموزشی را بر اساس خروجی مورد نظر ایجاد میکند و محتوای دیجیتال جعلی اولیه را ایجاد میکند، در حالی که تفیکیک کننده تجزیه و تحلیل میکند که محتوا چقدر واقعی یا جعلی است. این فرآیند تکرار میشود و به تولیدکننده اجازه میدهد در ایجاد محتوای واقعبینانه بهبود یابد و الگوریتم تفکیککننده در تشخیص نقصها برای اصلاح الگوریتم مولد ماهرتر شود.
ترکیبی از الگوریتمهای مولد و تفکیککننده، یک شبکه مولد متقابل (GAN) ایجاد میکند. یک GAN از یادگیری عمیق برای تشخیص الگوها در تصاویر واقعی استفاده میکند و سپس از آن الگوها برای ایجاد متحوا استفاده میکند. هنگام ایجاد یک عکس دیپ فیک، یک سیستم GAN عکسهای هدف را از زوایای مختلفی مشاهده میکند تا تمام جزئیات و چشماندازها را ثبت کند. هنگام ایجاد یک ویدیوی دیپ فیک، GAN ویدیو را از زوایای مختلف مشاهده میکند و همچنین رفتار، حرکت و الگوهای گفتار را تجزیه و تحلیل میکند.
سپس این اطلاعات چندین بار از طریق تشخیصدهنده اجرا میشود تا واقعگرایی تصویر یا ویدیوی نهایی را تنظیم کند.
در زیر چند رویکرد خاص برای ایجاد دیپ فیک وجود دارد:
دیپ فیک از ویدیو منبع: هنگام کار از یک ویدیوی منبع، یک رمزگذار خودکار عمیق مبتنی بر شبکه عصبی، محتوا را برای درک ویژگیهای مرتبط هدف، مانند حالات چهره و زبان بدن، تجزیه و تحلیل میکند. سپس این ویژگیها را به ویدیوی اصلی تحمیل میکند. این رمزگذار خودکار شامل یک رمزگذار است که ویژگیهای مربوطه را رمزگذاری میکندو یک رمزگشا که این ویژگیها را به ویدیوی مورد نظر تحمیل میکند.
دیپ فیک های صوتی: برای دیپفیکهای صوتی، یک GAN صدای یک فرد را شبیهسازی میکند، مدلی را بر اساس الگوهای صوتی ایجاد میکند و از آن مدل استفاده میکند تا هر چیزی که سازنده میخواهد را بگوید. این تکنیک معمولا توسط توسعهدهندگان بازیهای ویدیویی استفاده میشود.
همگامسازی لب: همگام سازی لب یکی دیگر از روشهای رایج مورد استفاده در دیپ فیک است. در اینجا، دیپ فیک صدای ضبط شده را به ویدیو نگاشت میکند و به نظر میرسد که شخص در حال گفتن کلمات ضبط شده است. اگر صدا به خودی خود یک دیپ فیک باشد، پس ویدیو لایه دیگری از فریب را اضافه میکند. این تکنیک توسط شبکههای عصبی مکرر پشتیبانی میشود.
نرمافزارهای ساخت دیپ فیک
بر اساس گزارش وزارت امنیت داخلی ایالات متحده «تهدید فزاینده هویتهای دیپ فیک»، چندین ابزار معمولاً برای تولید دیپ فیک در عرض چند ثانیه استفاده میشوند. این ابزارها عبارتند از Deep Art Effects، Deepswap، Deep Video Portraits، FaceApp، FaceMagic، MyHeritage، Wav2Lip، Wombo و Zao.
دیپ فیک معمولا چگونه استفاده میشود؟
کاربردهای استفاده از دیپ فیک به طور قابل توجهی متفاوت است. کاربردهای اصلی شامل موارد زیر است:
هنر: دیپ فیک برای تولید موسیقی جدید با استفاده از بدنههای موجود آثار یک هنرمند استفاده میشود.
باجگیری و آسیب به شهرت: نمونه هایی از این موارد زمانی است که یک تصویر هدف در موقعیتی غیرقانونی، نامناسب یا به گونه ای دیگر مانند دروغ گفتن به عموم، درگیر شدن در رسوایی اخلاقی یا مصرف مواد مخدر قرار می گیرد. این ویدئوها برای اخاذی از یک قربانی، خراب کردن شهرت یک فرد، انتقام گرفتن یا صرفاً زورگویی سایبری به آنها استفاده میشود. رایجترین باجگیری یا استفاده انتقامجویانه، ساخت محتوای غیراخلاقی برای فرد قربانی است.
خدمات پاسخگویی به تماس گیرندگان: این سرویسها از دیپ فیک برای ارائه پاسخهای شخصی به درخواستهای تماسگیرنده استفاده میکنند که شامل ارسال تماس و سایر خدمات پذیرش میشود. پشتیبانی تلفنی مشتری این سرویسها از صداهای جعلی برای کارهای سادهای مانند بررسی موجودی حساب یا ثبت شکایت استفاده میکنند.
سرگرمی: در ساخت فیلمهای هالیوودی و گیمها، صدای بازیگران را برای صحنههای خاصی شبیهسازی و دستکاری میکنند. رسانهها از این ویژگی زمانی استفاده میکنند که صحنهای به سختی فیلمبرداری میشودیا زمانی که یک بازیگر دیگر برای ضبط صدای خود در صحنه نیست یا برای صرفهجویی در وقت بازیگر و تیم سازنده. دیپ فیک همچنین برای محتوای طنز و تقلید استفاده میشود که در آن مخاطب متوجه میشود ویدیو واقعی نیست اما از موقعیت طنز آمیزی که دیپ فیک ایجاد میکند لذت میبرد. به عنوان مثال میتوان به دیپ فیک سال 2023 دواین جانسون یا همان راک اشاره کرد.
شواهد نادرست: این شامل ساختن تصاویر یا صداهای نادرست است که میتواند به عنوان مدرکی دال بر گناه یا بیگناهی در یک پرونده قانونی استفاده شود.
تقلب: دیپ فیک برای جعل هویت یک فرد برای به دست آوردن اطلاعات شناسایی شخصی (PII) مانند شماره حساب بانکی و کارت اعتباری استفاده میشود. این ممکن است گاهی اوقات شامل جعل هویت مدیران شرکتها یا سایر کارمندان برای دسترسی به اطلاعات حساس باشد که یک تهدید بزرگ امنیت سایبری است.
اطلاعات غلط و دستکاری سیاسی: ویدئوهای دیپ فیک سیاستمداران یا منابع مورد اعتماد برای تحت تاثیر قرار دادن افکار عمومی استفاده میشود و گاهی اوقات از آن به عنوان انتشار اخبار جعلی یاد میشود.
دستکاری سهام: گاهی دیپ فیک برای تأثیرگذاری بر قیمت سهام شرکت استفاده میشود. به عنوان مثال، یک ویدیوی جعلی از یک مدیر اجرایی که اظهارات مخربی درباره شرکت خود عنوان میکند، می تواند قیمت سهام آن را کاهش دهد. یا یک ویدیوی جعلی درباره یک پیشرفت تکنولوژیکی یا عرضه محصول میتواند سهام یک شرکت را افزایش دهد. اخیراً انتشار یک خبر غیردقیق در مورد تایید ETF در اخبار ارز دیجیتال باعث افزایش بهای بیت کوین تا 48 هزار دلار شده بود.
ارسال پیامک: از پیام های متنی به عنوان کاربردهای آینده فناوری دیپ فیک یاد میشود. به طوری که عوامل تهدید میتوانند از تکنیکهای دیپفیک برای تکرار سبک پیامرسانی کاربران استفاده کنند.
آیا دیپ فیک قانونی است؟
دیپ فیک ها در دنیا عموما قانونی هستند و علیرغم تهدیدهای جدی که ایجاد میکنند، مجریان قانون نمیتوانند در مورد آنها انجام دهند. دیپ فیک تنها در صورتی غیرقانونی است که به آسیب قوانین موجود مانند تصاویر غیراخلاقی، تهمت و افترا یا نفرتافکنی منجر شود.
سه ایالت آمریکا قوانینی در مورد دیپ فیک دارند. تگزاس دیپفیکهایی را که هدفشان تاثیرگذاری بر انتخابات است، ممنوع میکند، ویرجینیا انتشار تصاویر غیراخلاقی را ممنوع کرده و کالیفرنیا قوانینی علیه استفاده از دیپفیکهای سیاسی ظرف 60 روز پس از انتخابات دارد.
فقدان قوانین علیه دیپ فیک به این دلیل است که اکثر مردم از فناوری جدید، کاربردها و خطرات آن بیاطلاع هستند. به همین دلیل، قربانیان در اکثر موارد دیپ فیک تحت حمایت قانون قرار نمیگیرند.
دیپ فیک چگونه خطرناک است؟
دیپ فیک ها علیرغم قانونی بودن، خطرات قابل توجهی دارند، از جمله موارد زیر:
- باج خواهی و آسیب به شهرت که اهداف را در موقعیت های قانونی به خطر انداخته است.
- اطلاعات نادرست سیاسی مانند عوامل تهدید کننده حکومتها و ملتها که عوامل متخاصم از آن برای اهداف پلید استفاده میکنند.
- تداخل در انتخابات، مانند ایجاد ویدئوهای جعلی از نامزدها.
- دستکاری سهام در جایی که محتوای جعلی برای تأثیرگذاری بر قیمت سهام ایجاد میشود.
- کلاهبرداری که در آن فردی جعل هویت می شود تا حساب مالی شخص را سرقت کند.
روشهای تشخیص دیپ فیک
چندین روش برتر برای شناسایی حملات دیپ فیک وجود دارد. موارد زیر نشانههایی از محتوای دیپفیک احتمالی هستند:
- وضعیت غیرمعمول یا نامناسب صورت.
- حرکت غیر طبیعی صورت یا بدن.
- رنگ آمیزی غیر طبیعی
- ویدیوهایی که با بزرگنمایی یا بزرگنمایی عجیب به نظر می رسند.
- صدای ناسازگار
- افرادی که پلک نمیزنند
در دیپ فیک متنی، چند شاخص وجود دارد:
- غلط املایی
- جملاتی که به طور طبیعی بیان نمیشوند.
- آدرس ایمیل منبع مشکوک.
- عبارتی که با فرستنده فرضی مطابقت ندارد.
- پیامهای خارج از متن که به هیچ بحث، رویداد یا موضوعی مرتبط نیستند.
با این حال، هوش مصنوعی به طور پیوسته بر برخی از این شاخصها غلبه میکند، مانند ابزارهایی که از پلک زدن طبیعی پشتیبانی میکنند.
نحوه دفاع در برابر دیپ فیک
شرکتها، سازمانها و سازمانهای دولتی در جهان در حال توسعه فناوری برای شناسایی و مسدود کردن دیپفیک هستند. برخی از شرکتهای رسانههای اجتماعی از فناوری بلاک چین برای تأیید منبع ویدیوها و تصاویر قبل از ورود آنها به پلتفرمهایشان استفاده میکنند. به این ترتیب، منابع قابل اعتماد ایجاد میشود و از محتوای جعلی جلوگیری می شود. در همین راستا، شرکت متا (مالک اینستاگرام، فیسبوک، تردز و واتساپ) و شرکت ایکس (توییتر سابق) هر دو انتشار دیپفیکهای مخرب را ممنوع کردهاند.
نرم افزار حفاظت Deepfake از شرکت های زیر موجود است:
Adobe سیستمی دارد که به سازندگان اجازه میدهد امضایی را به ویدیوها و عکسها با جزئیات مربوط به ساخت آنها اضافه کنند.
مایکروسافت نرمافزار تشخیص دیپفیک مبتنی بر هوش مصنوعی دارد که فیلمها و عکسها را تجزیه و تحلیل میکند تا یک امتیاز اطمینان ارائه کند که نشان میدهد آیا رسانه دستکاری شده است یا خیر.
عملیات Minerva از کاتالوگهای دیپفیکهایی که قبلاً کشف شدهاند استفاده میکند تا بفهمد آیا یک ویدیوی جدید صرفاً اصلاح یک جعلی موجود است که کشف شده و اثر انگشت دیجیتالی به آن داده شده است.
Sensity یک پلت فرم تشخیص ارائه می دهد که از یادگیری عمیق برای شناسایی نشانه های رسانه های دیپ فیک استفاده می کند، به همان روشی که ابزارهای ضد بدافزار به دنبال امضاهای ویروس و بدافزار هستند. هنگامی که کاربران یک دیپ فیک را مشاهده می کنند، از طریق ایمیل هشدار داده می شود.
نمونه های قابل توجه دیپ فیک
چندین نمونه قابل توجه از دیپ فیک وجود دارد، از جمله موارد زیر:
مارک زاکربرگ، بنیانگذار متا، قربانی یک دیپ فیک شد که نشان میداد فیس بوک چگونه بر کاربران خود مالکیت میکند. این ویدئو برای نشان دادن اینکه چگونه مردم میتوانند از پلتفرمهای اجتماعی مانند فیسبوک برای فریب مردم استفاده کنند، طراحی شده بود.
جو بایدن، رئیس جمهور آمریکا هم در سال ۲۰۲۰ قربانی دیپ فیک های متعددی شد که او را در حالات اغراق آمیز زوال شناختی نشان می داد که به منظور تأثیرگذاری بر انتخابات ریاست جمهوری بود. باراک اوباما و دونالد ترامپ نیز قربانی ویدیوهای دیپ فیک شدهاند که برخی برای انتشار اطلاعات نادرست و برخی به عنوان طنز و سرگرمی هستند.
در طول جنگ روسیه و اوکراین در سال 2022، ولودومیر زلنسکی، رئیس جمهور اوکراین به تصویر کشیده شد که به سربازانش میگوید تسلیم روسها شوند.
تاریخچه فناوری هوش مصنوعی عمیق
هوش مصنوعی Deepfake یک فناوری نسبتا جدید است که منشأ آن دستکاری عکسها از طریق برنامههایی مانند فتوشاپ است. در اواسط دهه 2010، قدرت محاسباتی ارزان، مجموعه دادههای بزرگ، هوش مصنوعی و فناوری یادگیری ماشین، همگی برای بهبود پیچیدگی الگوریتمهای یادگیری عمیق ترکیب شدند.
در سال 2014، GAN، فناوری اصلی دیپفیکها، توسط یان گودفلو، محقق دانشگاه مونترال، توسعه یافت. در سال 2017، یک کاربر ناشناس Reddit به نام "deepfakes" شروع به انتشار ویدیوهای دیپ فیک از افراد مشهور و همچنین یک ابزار GAN کرد که به کاربران اجازه می داد چهره خود را در ویدیوها عوض کنند. این موارد در اینترنت و شبکه های اجتماعی منتشر شد.
محبوبیت ناگهانی محتوای دیپفیک، شرکتهای فناوری مانند فیسبوک، گوگل و مایکروسافت را بر آن داشت تا در توسعه ابزارهایی برای شناسایی دیپفیک سرمایهگذاری کنند. علیرغم انتشار اخبار تکنولوژی متعدد برای آگاهسازی مردم و تلاشهای شرکتهای فناوری و دولتها برای مبارزه با دیپفیکها و مقابله با چالش تشخیص دیپفیک، این فناوری همچنان به پیشرفت خود ادامه میدهد و تصاویر و ویدیوهای دیپفیک متقاعدکنندهای را تولید میکند.