وقتی ویدیوها روشن است تام کروز این بازیگر مشهور آمریکایی در شبکه اجتماعی Tikotak حضور داشت که به او نشان می داد جادو می کند و آب نبات می خورد، شاید تنها سرنخ از جعلی بودن این ویدیوها نام اکانت موجود در صفحه باشد. مدیر صفحه شبکه های اجتماعی deeptomcruise از فناوری Deepfick برای ایجاد ویدیوهای جعلی از بازیگر مشهور در حال انجام کارهای سرگرم کننده مانند جادو و رقص استفاده می کند.
می توان گفت قبلا یکی از روش های تشخیص تصویر با دیپیک ساخته شده بود اثر دره توهم دره توهمات نامی است که به نگاه خیره و خالی که در چشمان یک انسان غیرواقعی مانند یک روبات انسان نما وجود دارد داده شده است. اما تصاویر چهره های جعلی امروز آنقدر واقعی شده اند که بیننده را از توهم بیرون آورده و به دنیای فریبنده دیپ فیک می کشاند.
شباهت باورنکردنی این تصاویر با چهره های واقعی می تواند منجر به استفاده مخرب از این فناوری شود. مجرمان سایبری می توانند از این فناوری برای راه اندازی کمپین های اطلاعات نادرست برای اهداف سیاسی و اقتصادی و سایر روش های خلاقانه برای تقلب استفاده کنند. یکی از مهم ترین دغدغه ها در این زمینه استفاده از فناوری دیفتونگ برای ایجاد محتوای جعلی یا ضعیف شده توسط افراد مشهور به منظور اخاذی از آنها است. بنابراین، توسعه اقدامات متقابل برای شناسایی محتوای دیفتونگها در صحنه، به رقابت شدید بین مجرمان و عاملان جنگ سایبری از یک سو و عوامل امنیت سایبری از سوی دیگر تبدیل شده است.
مطالعه جدیدی که در مجله منتشر شده است اطلاعیه های آکادمی ملی علوم ایالات متحده آمریکا آنچه منتشر شده است نشان می دهد که فناوری Deepfike چقدر برای مخاطبان جذاب و باورپذیر است. نتایج این تحقیق نشان می دهد که افراد مبتلا به دیفتری به راحتی می توانند افراد را فریب دهند، حتی در بسیاری از موارد شرکت کنندگان در این مطالعه چهره های جعلی را قابل اعتمادتر از چهره افراد واقعی می دانند. هانی فرید، نویسنده مقاله و استاد دانشگاه کالیفرنیا، برکلی، می گوید:
ما دریافتیم که نه تنها چهره های مصنوعی بسیار واقعی هستند، بلکه در برخی موارد قابل اعتمادتر از چهره های واقعی به نظر می رسند.
نتایج این مطالعه نگرانی های جدی در مورد کارایی بالای استفاده مخرب از این فناوری ایجاد کرده است.
پیتر دیدیکاستادیار دانشگاه ایتالیایی-سوئیسی لوگانو، سوئیس که در این مطالعه شرکت نداشت، گفت:
ما به معنای واقعی کلمه وارد دنیای خطرناک Deep شده ایم.
ابزار مورد استفاده برای ایجاد محتوای دیجیتالی این پژوهش به راحتی در دسترس عموم است. اگرچه تولید محتوای متحرک جعلی، مانند ویدیوهای دیفتری، پیچیدهتر از تصاویر ثابت است و به زمان و مهارت زیادی نیاز دارد، اما دیدیک معتقد است که ابزارهای ساده برای ایجاد چنین ویدیوهایی احتمالاً در آینده نزدیک به طور گسترده در دسترس عموم قرار خواهند گرفت.
برای ساخت تصاویر مصنوعی مورد استفاده در این تحقیق از روش تعامل دو شبکه عصبی استفاده شده است که این روش در واقع نمونه ای از شاخه ای از علم در یادگیری عمیق به نام شبکه مولد درگیری و. در ابتدا، یکی از این شبکهها به نام تهیهکننده، مجموعهای در حال تکامل از تصاویر مصنوعی ایجاد کرد. درست مانند یک دانشجوی هنر که در طول زمان تلاش می کند تا در هنر نقاشی پرتره ای از خود بر روی صورت یک فرد مسلط شود. شبکه عصبی دیگری به نام آشکارساز او که قبلاً با تصاویر واقعی آموزش دیده بود، تصاویر گرفته شده توسط شبکه تولید را با مقایسه آنها با داده های استخراج شده از تصاویر واقعی ارزیابی می کند.
در مرحله اول، شبکه ژنراتور پیکسل های تصادفی را با هم جمع آوری می کند و به تدریج با بازخوردی که از سیستم تشخیص می گیرد، پیکسل ها را تغییر می دهد تا تصاویر دقیق تر و واقعی تر شوند. در نهایت، تصاویر آنقدر واقعی می شوند که سیستم تشخیص قادر به تشخیص تصاویر واقعی از جعلی نیست. شبکه عصبی مبتنی بر آموزش عمیق است که با مجموعهای از پرترههای مردان و زنان سیاهپوست از شرق آسیا، جنوب آسیا و سفیدپوستان توسعه یافته است، در حالی که تحقیقات قبلی از تصاویر بیشتری از مردان سفیدپوست منتخب استفاده کرده است.
پس از ایجاد 400 نمونه جعلی مربوط به همان تعداد تصویر واقعی، محققان از 315 شرکتکننده خواستند تصاویر واقعی را از 128 تصویر جعلی تشخیص دهند. گروهی متشکل از 219 شرکتکننده ابتدا آموزشها و بازخوردهای لازم را از انتخاب اولیه خود برای تشخیص و تمایز بین تصاویر جعلی و واقعی دریافت کردند. در نهایت، از شرکت کنندگان در یک گروه 233 نفری خواسته شد تا 128 تصویر را بر اساس قابلیت اطمینان آنها از یک (کمتر قابل اعتماد) تا 7 (موثق تر) رتبه بندی کنند.
دقت گروه اول در تشخیص تصاویر دیفتری از تصاویر واقعی به انتخاب تصادفی محدود می شود. به طور متوسط حدود 2.48٪. گروه دوم با وجود آموزش هایی که در زمینه تشخیص تصاویر جعلی دریافت کردند، عملکرد چندان خوبی نداشتند. دقت تشخیص این گروه کمتر از 60 درصد است، هرچند بازخوردی در مورد انتخاب اشتباه گروه اول دریافت کردند. اما عملکرد گروه سوم شگفت انگیزتر بود. با 82.4 در مقابل 48.4، شرکت کنندگان در گروه سوم دریافتند که تصاویر چهره های جعلی قابل اعتمادتر از تصاویر افراد واقعی است.
محققان اصلا انتظار چنین نتایجی را نداشتند. سوفی نایتینگل، یکی از نویسندگان این مطالعه، می گوید:
در ابتدا فکر می کردیم که مردم اعتماد کمتری به چهره های جعلی دارند.
البته، اثر دره توهم در برخی موارد به شرکتکنندگان کمک کرد تا چهرههای جعلی را شناسایی کنند، بنابراین شاید بهتر باشد ابتدا به چشمهای سوژه برای شناسایی چهرههای دیفتانگ توجه کنید. بلبل چنین می گوید:
ما نمی گوییم که تصاویر منفرد ساخته شده با دیفتری از تصاویر واقعی قابل تشخیص نیستند، اما تعداد قابل توجهی از آنها قابل تشخیص هستند.
نتایج این مطالعه به نگرانی در مورد وجود این فناوری برای ایجاد تصاویر جعلی کمک می کند. بلبل توضیح می دهد:
اکنون هر کسی می تواند بدون دانش خاصی از Photoshop یا CGI محتوای جعلی ایجاد کند.
تو بهترینی مدیر و موسس آزمایشگاه تجزیه و تحلیل چند رسانه ای و هوش بصری در دانشگاه کالیفرنیای جنوبی که در این مطالعه شرکت نداشت، گفت: نتایج می تواند این تصور را برای عموم ایجاد کند که دیفتری در آینده کاملا غیرقابل تشخیص است. او نگران است که دانشمندان از تلاش برای توسعه روشهای خلاقانه برای شناسایی چنین محتوای جعلی دست بردارند. عبدالمقاید معتقد است سرعت توسعه چنین روشهای تشخیصی با افزایش دقت محتوای دیفتری و روشهای مختلف تولید آن سازگاری ندارد و این امر میتواند در آینده منجر به مشکلات قانونی شود.
سام گرگوریمدیر اختراعات و استراتژی برنامه در موسسه شاهد می گوید:
موضوعی که در جامعه علمی به اندازه کافی به آن پرداخته نشده است، چگونگی بهبود مستمر اثربخشی روشهای تشخیص محتوای تقلبی است.
موسسه شاهد یک سازمان حقوق بشری است و بخشی از فعالیت آن در زمینه مدیریت محتوا است. گرگوری معتقد است که توسعه ابزارهایی برای تشخیص دیفتری مهم است زیرا مردم اغلب تمایل دارند توانایی خود را برای تشخیص محتوای جعلی بصری بیش از حد ارزیابی کنند. او می گوید:
افراد جامعه باید بدانند چه زمانی مورد سوء استفاده قرار می گیرند.
این دقیقاً همان چیزی است که محققان دانشگاه کالیفرنیا هنگام طراحی مطالعه خود در نظر داشتند. در نهایت، آنها سه راه حل ممکن را ارائه می دهند که یکی از آنها استفاده از واترمارک های پاک نشدنی از محتوای تولید شده توسط Deepfick است. این واترمارک ها مانند اثر انگشتی هستند که در محتوای جعلی بافته شده اند و خلاص شدن از شر آنها کار آسانی نیست. واترمارک در یک نگاه به شما این امکان را می دهد که بدانید این محتوا توسط فرآیندهای رایانه ای ساخته شده است.
محققان مقاله خود را با یک داستان هشدار پایان می دهند. آنها می گویند که دیفتری در آینده همچنان یک تهدید خواهد بود:
ما کسانی را که این فناوری را توسعه می دهند تشویق می کنیم تا به تهدیدات ناشی از این فناوری فکر کنند. اگر خطرات این فناوری بیشتر از فواید آن است، بهتر است از ابتلا به دیفتری اجتناب کنید.