تصاویر ایجاد شده با هوش مصنوعی گاهی واقعی تر به نظر می رسند

وقتی ویدیوها روشن است تام کروز این بازیگر مشهور آمریکایی در شبکه اجتماعی Tikotak حضور داشت که به او نشان می داد جادو می کند و آب نبات می خورد، شاید تنها سرنخ از جعلی بودن این ویدیوها نام اکانت موجود در صفحه باشد. مدیر صفحه شبکه های اجتماعی deeptomcruise از فناوری Deepfick برای ایجاد ویدیوهای جعلی از بازیگر مشهور در حال انجام کارهای سرگرم کننده مانند جادو و رقص استفاده می کند.

می توان گفت قبلا یکی از روش های تشخیص تصویر با دیپیک ساخته شده بود اثر دره توهم دره توهمات نامی است که به نگاه خیره و خالی که در چشمان یک انسان غیرواقعی مانند یک روبات انسان نما وجود دارد داده شده است. اما تصاویر چهره های جعلی امروز آنقدر واقعی شده اند که بیننده را از توهم بیرون آورده و به دنیای فریبنده دیپ فیک می کشاند.

مقاله مرتبط:

شباهت باورنکردنی این تصاویر با چهره های واقعی می تواند منجر به استفاده مخرب از این فناوری شود. مجرمان سایبری می توانند از این فناوری برای راه اندازی کمپین های اطلاعات نادرست برای اهداف سیاسی و اقتصادی و سایر روش های خلاقانه برای تقلب استفاده کنند. یکی از مهم ترین دغدغه ها در این زمینه استفاده از فناوری دیفتونگ برای ایجاد محتوای جعلی یا ضعیف شده توسط افراد مشهور به منظور اخاذی از آنها است. بنابراین، توسعه اقدامات متقابل برای شناسایی محتوای دیفتونگ‌ها در صحنه، به رقابت شدید بین مجرمان و عاملان جنگ سایبری از یک سو و عوامل امنیت سایبری از سوی دیگر تبدیل شده است.

مطالعه جدیدی که در مجله منتشر شده است اطلاعیه های آکادمی ملی علوم ایالات متحده آمریکا آنچه منتشر شده است نشان می دهد که فناوری Deepfike چقدر برای مخاطبان جذاب و باورپذیر است. نتایج این تحقیق نشان می دهد که افراد مبتلا به دیفتری به راحتی می توانند افراد را فریب دهند، حتی در بسیاری از موارد شرکت کنندگان در این مطالعه چهره های جعلی را قابل اعتمادتر از چهره افراد واقعی می دانند. هانی فرید، نویسنده مقاله و استاد دانشگاه کالیفرنیا، برکلی، می گوید:

ما دریافتیم که نه تنها چهره های مصنوعی بسیار واقعی هستند، بلکه در برخی موارد قابل اعتمادتر از چهره های واقعی به نظر می رسند.

نتایج این مطالعه نگرانی های جدی در مورد کارایی بالای استفاده مخرب از این فناوری ایجاد کرده است.

  آخرین پتنت هوآوی در مورد گوشی تمام صفحه با قاب یکپارچه اعمال می شود

پیتر دیدیکاستادیار دانشگاه ایتالیایی-سوئیسی لوگانو، سوئیس که در این مطالعه شرکت نداشت، گفت:

ما به معنای واقعی کلمه وارد دنیای خطرناک Deep شده ایم.

ابزار مورد استفاده برای ایجاد محتوای دیجیتالی این پژوهش به راحتی در دسترس عموم است. اگرچه تولید محتوای متحرک جعلی، مانند ویدیوهای دیفتری، پیچیده‌تر از تصاویر ثابت است و به زمان و مهارت زیادی نیاز دارد، اما دیدیک معتقد است که ابزارهای ساده برای ایجاد چنین ویدیوهایی احتمالاً در آینده نزدیک به طور گسترده در دسترس عموم قرار خواهند گرفت.

برای ساخت تصاویر مصنوعی مورد استفاده در این تحقیق از روش تعامل دو شبکه عصبی استفاده شده است که این روش در واقع نمونه ای از شاخه ای از علم در یادگیری عمیق به نام شبکه مولد درگیری و. در ابتدا، یکی از این شبکه‌ها به نام تهیه‌کننده، مجموعه‌ای در حال تکامل از تصاویر مصنوعی ایجاد کرد. درست مانند یک دانشجوی هنر که در طول زمان تلاش می کند تا در هنر نقاشی پرتره ای از خود بر روی صورت یک فرد مسلط شود. شبکه عصبی دیگری به نام آشکارساز او که قبلاً با تصاویر واقعی آموزش دیده بود، تصاویر گرفته شده توسط شبکه تولید را با مقایسه آنها با داده های استخراج شده از تصاویر واقعی ارزیابی می کند.

مقاله مرتبط:

در مرحله اول، شبکه ژنراتور پیکسل های تصادفی را با هم جمع آوری می کند و به تدریج با بازخوردی که از سیستم تشخیص می گیرد، پیکسل ها را تغییر می دهد تا تصاویر دقیق تر و واقعی تر شوند. در نهایت، تصاویر آنقدر واقعی می شوند که سیستم تشخیص قادر به تشخیص تصاویر واقعی از جعلی نیست. شبکه عصبی مبتنی بر آموزش عمیق است که با مجموعه‌ای از پرتره‌های مردان و زنان سیاهپوست از شرق آسیا، جنوب آسیا و سفیدپوستان توسعه یافته است، در حالی که تحقیقات قبلی از تصاویر بیشتری از مردان سفیدپوست منتخب استفاده کرده است.

  گوشته ماکائو احتمالاً بدون کنترل جهانی در دسترس خواهد بود

پس از ایجاد 400 نمونه جعلی مربوط به همان تعداد تصویر واقعی، محققان از 315 شرکت‌کننده خواستند تصاویر واقعی را از 128 تصویر جعلی تشخیص دهند. گروهی متشکل از 219 شرکت‌کننده ابتدا آموزش‌ها و بازخوردهای لازم را از انتخاب اولیه خود برای تشخیص و تمایز بین تصاویر جعلی و واقعی دریافت کردند. در نهایت، از شرکت کنندگان در یک گروه 233 نفری خواسته شد تا 128 تصویر را بر اساس قابلیت اطمینان آنها از یک (کمتر قابل اعتماد) تا 7 (موثق تر) رتبه بندی کنند.

مقاله مرتبط:

دقت گروه اول در تشخیص تصاویر دیفتری از تصاویر واقعی به انتخاب تصادفی محدود می شود. به طور متوسط ​​حدود 2.48٪. گروه دوم با وجود آموزش هایی که در زمینه تشخیص تصاویر جعلی دریافت کردند، عملکرد چندان خوبی نداشتند. دقت تشخیص این گروه کمتر از 60 درصد است، هرچند بازخوردی در مورد انتخاب اشتباه گروه اول دریافت کردند. اما عملکرد گروه سوم شگفت انگیزتر بود. با 82.4 در مقابل 48.4، شرکت کنندگان در گروه سوم دریافتند که تصاویر چهره های جعلی قابل اعتمادتر از تصاویر افراد واقعی است.

محققان اصلا انتظار چنین نتایجی را نداشتند. سوفی نایتینگل، یکی از نویسندگان این مطالعه، می گوید:

در ابتدا فکر می کردیم که مردم اعتماد کمتری به چهره های جعلی دارند.

البته، اثر دره توهم در برخی موارد به شرکت‌کنندگان کمک کرد تا چهره‌های جعلی را شناسایی کنند، بنابراین شاید بهتر باشد ابتدا به چشم‌های سوژه برای شناسایی چهره‌های دیفتانگ توجه کنید. بلبل چنین می گوید:

ما نمی گوییم که تصاویر منفرد ساخته شده با دیفتری از تصاویر واقعی قابل تشخیص نیستند، اما تعداد قابل توجهی از آنها قابل تشخیص هستند.

نتایج این مطالعه به نگرانی در مورد وجود این فناوری برای ایجاد تصاویر جعلی کمک می کند. بلبل توضیح می دهد:

اکنون هر کسی می تواند بدون دانش خاصی از Photoshop یا CGI محتوای جعلی ایجاد کند.

تو بهترینی مدیر و موسس آزمایشگاه تجزیه و تحلیل چند رسانه ای و هوش بصری در دانشگاه کالیفرنیای جنوبی که در این مطالعه شرکت نداشت، گفت: نتایج می تواند این تصور را برای عموم ایجاد کند که دیفتری در آینده کاملا غیرقابل تشخیص است. او نگران است که دانشمندان از تلاش برای توسعه روش‌های خلاقانه برای شناسایی چنین محتوای جعلی دست بردارند. عبدالمقاید معتقد است سرعت توسعه چنین روش‌های تشخیصی با افزایش دقت محتوای دیفتری و روش‌های مختلف تولید آن سازگاری ندارد و این امر می‌تواند در آینده منجر به مشکلات قانونی شود.

  پخش کننده ویدیوی YouTube برای اندروید در حالت تمام صفحه ظاهر جدیدی دارد

سام گرگوریمدیر اختراعات و استراتژی برنامه در موسسه شاهد می گوید:

موضوعی که در جامعه علمی به اندازه کافی به آن پرداخته نشده است، چگونگی بهبود مستمر اثربخشی روش‌های تشخیص محتوای تقلبی است.

موسسه شاهد یک سازمان حقوق بشری است و بخشی از فعالیت آن در زمینه مدیریت محتوا است. گرگوری معتقد است که توسعه ابزارهایی برای تشخیص دیفتری مهم است زیرا مردم اغلب تمایل دارند توانایی خود را برای تشخیص محتوای جعلی بصری بیش از حد ارزیابی کنند. او می گوید:

افراد جامعه باید بدانند چه زمانی مورد سوء استفاده قرار می گیرند.

این دقیقاً همان چیزی است که محققان دانشگاه کالیفرنیا هنگام طراحی مطالعه خود در نظر داشتند. در نهایت، آنها سه راه حل ممکن را ارائه می دهند که یکی از آنها استفاده از واترمارک های پاک نشدنی از محتوای تولید شده توسط Deepfick است. این واترمارک ها مانند اثر انگشتی هستند که در محتوای جعلی بافته شده اند و خلاص شدن از شر آنها کار آسانی نیست. واترمارک در یک نگاه به شما این امکان را می دهد که بدانید این محتوا توسط فرآیندهای رایانه ای ساخته شده است.

محققان مقاله خود را با یک داستان هشدار پایان می دهند. آنها می گویند که دیفتری در آینده همچنان یک تهدید خواهد بود:

ما کسانی را که این فناوری را توسعه می دهند تشویق می کنیم تا به تهدیدات ناشی از این فناوری فکر کنند. اگر خطرات این فناوری بیشتر از فواید آن است، بهتر است از ابتلا به دیفتری اجتناب کنید.

دیدگاهتان را بنویسید