2024/11/23
۱۴۰۳ شنبه ۳ آذر
پیشنهادات ما
دیپ فیک چیست؟

دیپ فیک چیست؟

دیپ فیک (Deepfake) نوعی هوش مصنوعی است که برای ایجاد صداها، تصاویر و ویدیوهای جعلی استفاده می‌شود.

دیپ فیک (Deepfake) نوعی هوش مصنوعی است که برای ایجاد صداها، تصاویر و ویدیوهای جعلی استفاده می‌شود. نام دیپ فیک هم فناوری مورد استفاده و هم محتوای جعلی ناشی از آن را به خوبی توصیف می‌کند، چرا که به ساخت محتوای جعلی (Fake) با استفاده از یادگیری عمیق (Deep Learning) اشاره می‌کند.

 

دیپ فیک ها اغلب محتوای موجود را تغییر می‌دهند، جایی که به عنوان مثال چهره یک نفر با دیگری عوض می‌شود. علاوه بر این همچنین محتوای کاملاً منحصر به‌فرد هم ایجاد می‌کنند که در آن شخصی در حال انجام یا گفتن چیزی است که هرگز انجام نداده یا نگفته است.

 

بزرگترین خطری که دیپ فیک ایجاد می‌کند، توانایی آن‌ها در انتشار اطلاعات نادرست است. به عنوان مثال، در سال 2022 یک ویدیوی دیپ فیک از رئیس‌جمهور اوکراین منتشر شد که از سربازانش می‌خواهد تسلیم شوند.

 

همچنین نگرانی‌هایی در مورد احتمال دخالت در انتخابات و تبلیغات انتخاباتی مطرح شده است. در حالی که دیپ فیک‌ها تهدیدهای جدی هستند، کاربردهای مناسب و مشروعی نیز دارند، مانند استفاده در حوزه‌های صداگذاری، سرگرمی، بازی‌های کامپیوتری و خدمات پشتیبانی مشتریان.

 

دیپ فیک چگونه کار می‌کند؟

دیپ فیک از دو الگوریتم - یکی مولد و دیگری تفکیک‌کننده - برای ایجاد محتوای جعلی استفاده می‌کند. مولد یک مجموعه داده آموزشی را بر اساس خروجی مورد نظر ایجاد می‌کند و محتوای دیجیتال جعلی اولیه را ایجاد می‌کند، در حالی که تفیکیک کننده تجزیه و تحلیل می‌کند که محتوا چقدر واقعی یا جعلی است. این فرآیند تکرار می‌شود و به تولیدکننده اجازه می‌دهد در ایجاد محتوای واقع‌بینانه بهبود یابد و الگوریتم تفکیک‌کننده در تشخیص نقص‌ها برای اصلاح الگوریتم مولد ماهرتر شود.

 

ترکیبی از الگوریتم‌های مولد و تفکیک‌کننده، یک شبکه مولد متقابل (GAN) ایجاد می‌کند. یک GAN از یادگیری عمیق برای تشخیص الگوها در تصاویر واقعی استفاده می‌کند و سپس از آن الگوها برای ایجاد متحوا استفاده می‌کند. هنگام ایجاد یک عکس دیپ فیک، یک سیستم GAN عکس‌های هدف را از زوایای مختلفی مشاهده می‌کند تا تمام جزئیات و چشم‌اندازها را ثبت کند. هنگام ایجاد یک ویدیوی دیپ فیک، GAN ویدیو را از زوایای مختلف مشاهده می‌کند و همچنین رفتار، حرکت و الگوهای گفتار را تجزیه و تحلیل می‌کند.

دیپ فیک

سپس این اطلاعات چندین بار از طریق تشخیص‌دهنده اجرا می‌شود تا واقع‌گرایی تصویر یا ویدیوی نهایی را تنظیم کند.

 

در زیر چند رویکرد خاص برای ایجاد دیپ فیک وجود دارد:

 

دیپ فیک از ویدیو منبع: هنگام کار از یک ویدیوی منبع، یک رمزگذار خودکار عمیق مبتنی بر شبکه عصبی، محتوا را برای درک ویژگی‌های مرتبط هدف، مانند حالات چهره و زبان بدن، تجزیه و تحلیل می‌کند. سپس این ویژگی‌ها را به ویدیوی اصلی تحمیل می‌کند. این رمزگذار خودکار شامل یک رمزگذار است که ویژگی‌های مربوطه را رمزگذاری می‌کندو یک رمزگشا که این ویژگی‌ها را به ویدیوی مورد نظر تحمیل می‌کند.

 

دیپ فیک های صوتی: برای دیپ‌فیک‌های صوتی، یک GAN صدای یک فرد را شبیه‌سازی می‌کند، مدلی را بر اساس الگوهای صوتی ایجاد می‌کند و از آن مدل استفاده می‌کند تا هر چیزی که سازنده می‌خواهد را بگوید. این تکنیک معمولا توسط توسعه‌دهندگان بازی‌های ویدیویی استفاده می‌شود.

 

همگام‌سازی لب: همگام سازی لب یکی دیگر از روش‌های رایج مورد استفاده در دیپ فیک است. در اینجا، دیپ فیک صدای ضبط شده را به ویدیو نگاشت می‌کند و به نظر می‌رسد که شخص در حال گفتن کلمات ضبط شده است. اگر صدا به خودی خود یک دیپ فیک باشد، پس ویدیو لایه دیگری از فریب را اضافه می‌کند. این تکنیک توسط شبکه‌های عصبی مکرر پشتیبانی می‌شود.

 

نرم‌افزارهای ساخت دیپ فیک

بر اساس گزارش وزارت امنیت داخلی ایالات متحده «تهدید فزاینده هویت‌های دیپ فیک»، چندین ابزار معمولاً برای تولید دیپ فیک در عرض چند ثانیه استفاده می‌شوند. این ابزارها عبارتند از Deep Art Effects، Deepswap، Deep Video Portraits، FaceApp، FaceMagic، MyHeritage، Wav2Lip، Wombo و Zao.

 

دیپ فیک معمولا چگونه استفاده می‌شود؟

کاربردهای استفاده از دیپ فیک به طور قابل توجهی متفاوت است. کاربردهای اصلی شامل موارد زیر است:

 

هنر: دیپ فیک برای تولید موسیقی جدید با استفاده از بدنه‌های موجود آثار یک هنرمند استفاده می‌شود.

 

باج‌گیری و آسیب به شهرت: نمونه هایی از این موارد زمانی است که یک تصویر هدف در موقعیتی غیرقانونی، نامناسب یا به گونه ای دیگر مانند دروغ گفتن به عموم، درگیر شدن در رسوایی اخلاقی یا مصرف مواد مخدر قرار می گیرد. این ویدئوها برای اخاذی از یک قربانی، خراب کردن شهرت یک فرد، انتقام گرفتن یا صرفاً زورگویی سایبری به آ‌نها استفاده می‌شود. رایج‌ترین باج‌گیری یا استفاده انتقام‌جویانه، ساخت محتوای غیراخلاقی برای فرد قربانی است.

 

خدمات پاسخگویی به تماس گیرندگان: این سرویس‌ها از دیپ فیک برای ارائه پاسخ‌های شخصی به درخواست‌های تماس‌گیرنده استفاده می‌کنند که شامل ارسال تماس و سایر خدمات پذیرش می‌شود.‌ پشتیبانی تلفنی مشتری این سرویس‌ها از صداهای جعلی برای کارهای ساده‌ای مانند بررسی موجودی حساب یا ثبت شکایت استفاده می‌کنند.

 

سرگرمی: در ساخت فیلم‌های هالیوودی و گیم‌ها، صدای بازیگران را برای صحنه‌های خاصی شبیه‌سازی و دستکاری می‌کنند. رسانه‌ها از این ویژگی زمانی استفاده می‌کنند که صحنه‌ای به سختی فیلم‌برداری می‌شودیا زمانی که یک بازیگر دیگر برای ضبط صدای خود در صحنه نیست یا برای صرفه‌جویی در وقت بازیگر و تیم سازنده. دیپ فیک همچنین برای محتوای طنز و تقلید استفاده می‌شود که در آن مخاطب متوجه می‌شود ویدیو واقعی نیست اما از موقعیت طنز آمیزی که دیپ فیک ایجاد می‌کند لذت می‌برد. به عنوان مثال می‌توان به دیپ فیک سال 2023 دواین جانسون یا همان راک اشاره کرد.

 

شواهد نادرست: این شامل ساختن تصاویر یا صداهای نادرست است که می‌تواند به عنوان مدرکی دال بر گناه یا بی‌گناهی در یک پرونده قانونی استفاده شود.

 

تقلب: دیپ فیک برای جعل هویت یک فرد برای به دست آوردن اطلاعات شناسایی شخصی (PII) مانند شماره حساب بانکی و کارت اعتباری استفاده می‌شود. این ممکن است گاهی اوقات شامل جعل هویت مدیران شرکت‌ها یا سایر کارمندان برای دسترسی به اطلاعات حساس باشد که یک تهدید بزرگ امنیت سایبری است.

 

اطلاعات غلط و دستکاری سیاسی: ویدئوهای دیپ فیک سیاستمداران یا منابع مورد اعتماد برای تحت تاثیر قرار دادن افکار عمومی استفاده می‌شود و گاهی اوقات از آن به عنوان انتشار اخبار جعلی یاد می‌شود.

 

دستکاری سهام: گاهی دیپ فیک برای تأثیرگذاری بر قیمت سهام شرکت استفاده می‌شود. به عنوان مثال، یک ویدیوی جعلی از یک مدیر اجرایی که اظهارات مخربی درباره شرکت خود عنوان می‌کند، می تواند قیمت سهام آن را کاهش دهد. یا یک ویدیوی جعلی درباره یک پیشرفت تکنولوژیکی یا عرضه محصول می‌تواند سهام یک شرکت را افزایش دهد. اخیراً انتشار یک خبر غیردقیق در مورد تایید ETF در اخبار ارز دیجیتال باعث افزایش بهای بیت کوین تا 48 هزار دلار شده بود.

 

ارسال پیامک: از پیام های متنی به عنوان کاربردهای آینده فناوری دیپ فیک یاد می‌شود. به طوری که عوامل تهدید می‌توانند از تکنیک‌های دیپ‌فیک برای تکرار سبک پیام‌رسانی کاربران استفاده کنند.

 

آیا دیپ فیک قانونی است؟

دیپ فیک ها در دنیا عموما قانونی هستند و علیرغم تهدیدهای جدی که ایجاد می‌کنند، مجریان قانون نمی‌توانند در مورد آن‌ها انجام دهند. دیپ فیک تنها در صورتی غیرقانونی است که به آسیب قوانین موجود مانند تصاویر غیراخلاقی، تهمت و افترا یا نفرت‌افکنی منجر شود.

 

سه ایالت آمریکا قوانینی در مورد دیپ فیک دارند. تگزاس دیپ‌فیک‌هایی را که هدفشان تاثیرگذاری بر انتخابات است، ممنوع می‌کند، ویرجینیا انتشار تصاویر غیراخلاقی را ممنوع کرده و کالیفرنیا قوانینی علیه استفاده از دیپ‌فیک‌های سیاسی ظرف 60 روز پس از انتخابات دارد.

 

فقدان قوانین علیه دیپ فیک به این دلیل است که اکثر مردم از فناوری جدید، کاربردها و خطرات آن بی‌اطلاع هستند. به همین دلیل، قربانیان در اکثر موارد دیپ فیک تحت حمایت قانون قرار نمی‌گیرند.

 

دیپ فیک چگونه خطرناک است؟

دیپ فیک ها علیرغم قانونی بودن، خطرات قابل توجهی دارند، از جمله موارد زیر:

 

  • باج خواهی و آسیب به شهرت که اهداف را در موقعیت های قانونی به خطر انداخته است.
  • اطلاعات نادرست سیاسی مانند عوامل تهدید کننده حکومت‌ها و ملت‌ها که عوامل متخاصم از آن برای اهداف پلید استفاده می‌کنند.
  • تداخل در انتخابات، مانند ایجاد ویدئوهای جعلی از نامزدها.
  • دستکاری سهام در جایی که محتوای جعلی برای تأثیرگذاری بر قیمت سهام ایجاد می‌شود.
  • کلاهبرداری که در آن فردی جعل هویت می شود تا حساب مالی شخص را سرقت کند.

 

روش‌های تشخیص دیپ فیک

چندین روش برتر برای شناسایی حملات دیپ فیک وجود دارد. موارد زیر نشانه‌هایی از محتوای دیپ‌فیک احتمالی هستند:

 

  • وضعیت غیرمعمول یا نامناسب صورت.
  • حرکت غیر طبیعی صورت یا بدن.
  • رنگ آمیزی غیر طبیعی
  • ویدیوهایی که با بزرگنمایی یا بزرگنمایی عجیب به نظر می رسند.
  • صدای ناسازگار
  • افرادی که پلک نمی‌زنند

 

در دیپ فیک متنی، چند شاخص وجود دارد:

 

  • غلط املایی
  • جملاتی که به طور طبیعی بیان نمی‌شوند.
  • آدرس ایمیل منبع مشکوک.
  • عبارتی که با فرستنده فرضی مطابقت ندارد.
  • پیام‌های خارج از متن که به هیچ بحث، رویداد یا موضوعی مرتبط نیستند.

با این حال، هوش مصنوعی به طور پیوسته بر برخی از این شاخص‌ها غلبه می‌کند، مانند ابزارهایی که از پلک زدن طبیعی پشتیبانی می‌کنند.

 

نحوه دفاع در برابر دیپ فیک

شرکت‌ها، سازمان‌ها و سازمان‌های دولتی در جهان در حال توسعه فناوری برای شناسایی و مسدود کردن دیپ‌فیک هستند. برخی از شرکت‌های رسانه‌های اجتماعی از فناوری بلاک چین برای تأیید منبع ویدیوها و تصاویر قبل از ورود آن‌ها به پلتفرم‌هایشان استفاده می‌کنند. به این ترتیب، منابع قابل اعتماد ایجاد می‌شود و از محتوای جعلی جلوگیری می شود. در همین راستا، شرکت متا (مالک اینستاگرام، فیسبوک، تردز و واتس‌اپ) و شرکت ایکس (توییتر سابق) هر دو انتشار دیپ‌فیک‌های مخرب را ممنوع کرده‌اند.

 

نرم افزار حفاظت Deepfake از شرکت های زیر موجود است:

 

Adobe سیستمی دارد که به سازندگان اجازه می‌دهد امضایی را به ویدیوها و عکس‌ها با جزئیات مربوط به ساخت آنها اضافه کنند.

 

مایکروسافت نرم‌افزار تشخیص دیپ‌فیک مبتنی بر هوش مصنوعی دارد که فیلم‌ها و عکس‌ها را تجزیه و تحلیل می‌کند تا یک امتیاز اطمینان ارائه کند که نشان می‌دهد آیا رسانه دستکاری شده است یا خیر.

 

عملیات Minerva از کاتالوگ‌های دیپ‌فیک‌هایی که قبلاً کشف شده‌اند استفاده می‌کند تا بفهمد آیا یک ویدیوی جدید صرفاً اصلاح یک جعلی موجود است که کشف شده و اثر انگشت دیجیتالی به آن داده شده است.

 

Sensity یک پلت فرم تشخیص ارائه می دهد که از یادگیری عمیق برای شناسایی نشانه های رسانه های دیپ فیک استفاده می کند، به همان روشی که ابزارهای ضد بدافزار به دنبال امضاهای ویروس و بدافزار هستند. هنگامی که کاربران یک دیپ فیک را مشاهده می کنند، از طریق ایمیل هشدار داده می شود.

 

نمونه های قابل توجه دیپ فیک

چندین نمونه قابل توجه از دیپ فیک وجود دارد، از جمله موارد زیر:

 

مارک زاکربرگ، بنیانگذار متا، قربانی یک دیپ فیک شد که نشان می‌داد فیس بوک چگونه بر کاربران خود مالکیت می‌کند. این ویدئو برای نشان دادن اینکه چگونه مردم می‌توانند از پلتفرم‌های اجتماعی مانند فیس‌بوک برای فریب مردم استفاده کنند، طراحی شده بود.

 

جو بایدن، رئیس جمهور آمریکا هم در سال ۲۰۲۰ قربانی دیپ فیک های متعددی شد که او را در حالات اغراق آمیز زوال شناختی نشان می داد که به منظور تأثیرگذاری بر انتخابات ریاست جمهوری بود. باراک اوباما و دونالد ترامپ نیز قربانی ویدیوهای دیپ فیک شده‌اند که برخی برای انتشار اطلاعات نادرست و برخی به عنوان طنز و سرگرمی هستند.

ویدیوی ساختگی دستگیری ترامپ

در طول جنگ روسیه و اوکراین در سال 2022، ولودومیر زلنسکی، رئیس جمهور اوکراین به تصویر کشیده شد که به سربازانش می‌‌‌گوید تسلیم روس‌ها شوند.

 

تاریخچه فناوری هوش مصنوعی عمیق

هوش مصنوعی Deepfake یک فناوری نسبتا جدید است که منشأ آن دستکاری عکس‌ها از طریق برنامه‌هایی مانند فتوشاپ است. در اواسط دهه 2010، قدرت محاسباتی ارزان، مجموعه داده‌های بزرگ، هوش مصنوعی و فناوری یادگیری ماشین، همگی برای بهبود پیچیدگی الگوریتم‌های یادگیری عمیق ترکیب شدند.

 

در سال 2014، GAN، فناوری اصلی دیپ‌فیک‌ها، توسط یان گودفلو، محقق دانشگاه مونترال، توسعه یافت. در سال 2017، یک کاربر ناشناس Reddit به نام "deepfakes" شروع به انتشار ویدیوهای دیپ فیک از افراد مشهور و همچنین یک ابزار GAN کرد که به کاربران اجازه می داد چهره خود را در ویدیوها عوض کنند. این موارد در اینترنت و شبکه های اجتماعی منتشر شد.

 

محبوبیت ناگهانی محتوای دیپ‌فیک، شرکت‌های فناوری مانند فیس‌بوک، گوگل و مایکروسافت را بر آن داشت تا در توسعه ابزارهایی برای شناسایی دیپ‌فیک سرمایه‌گذاری کنند. علی‌رغم انتشار اخبار تکنولوژی متعدد برای آگاه‌سازی مردم و تلاش‌های شرکت‌های فناوری و دولت‌ها برای مبارزه با دیپ‌فیک‌ها و مقابله با چالش تشخیص دیپ‌فیک، این فناوری همچنان به پیشرفت خود ادامه می‌دهد و تصاویر و ویدیوهای دیپ‌فیک متقاعدکننده‌ای را تولید می‌کند.

 

پیشنهادات ما
دیدگاه‌ها

نظراتی كه به تعميق و گسترش بحث كمك كنند، پس از مدت كوتاهی در معرض ملاحظه و قضاوت ديگر بينندگان قرار مي گيرد. نظرات حاوی توهين، افترا، تهمت و نيش به ديگران منتشر نمی شود.