محققان الگوریتمی ساختهاند که با بررسی بازتابهای درون چشم میتواند تصاویر واقعی را از تصاویر ساختهشده با فناوری دیپفیک تشخیص دهد.
محققان دانشگاه بوفالو الگوریتمی برای شناسایی تصاویر دیپفیک توسعه دادهاند که از طریق آنالیز - تعمیرات یخچال نیکسان در شهر آزادشهر استان گلستان - بازتابهای درون چشم میتواند صحت و درستی تصاویر را بسنجد. این گروه که مطالعهشان در - تعمیرات یخچال نیکسان در شهر آزادشهر استان گلستان - «کنفرانس بینالمللی IEE در زمینه آکوستیک، گفتار و پردازش سیگنال» پذیرفته شده، مدعیاند که این الگوریتم تا ۹۴ درصد در زمینه - تعمیرات یخچال نیکسان در شهر آزادشهر استان گلستان - تشخیص تصاویر و ویدیوهای جعلی موفق عمل میکند.
علت - تعمیرات یخچال نیکسان در شهر آزادشهر استان گلستان - توانایی این الگوریتم در شناسایی تصاویر جعلی بسیار ساده است؛ چون هوش مصنوعی در فناوری دیپفیک به هیچ عنوان در زمینه ساخت بازتابهای دقیق چشمی - تعمیرات یخچال نیکسان در شهر آزادشهر استان گلستان - عملکرد خوبی ندارد. دکتر «سیوی لیو» (Siwei Lyu) از محققان - تعمیرات یخچال نیکسان در شهر آزادشهر استان گلستان - این گروه میگوید: «قرنیه تقریبا مثل یک - تعمیرات یخچال نیکسان در شهر آزادشهر استان گلستان - نیمکره بینقص و بسیار بازتابدهنده است. بنابراین هر نوری که از منابع مختلف به چشم میرسد، روی قرنیه تصویر میسازد.»
دکتر لیو افزود: «هر دو چشم باید الگوی بازتابش بسیار مشابهی داشته باشند چون یک سوژه را مشاهده میکنند. ما معمولا در هنگام نگاه کردن - تعمیرات یخچال نیکسان در شهر آزادشهر استان گلستان - به چهره افراد متوجه این موضوع نمیشویم.» هوش مصنوعی دیپفیک نمیتوند بازتاب یکسانی در هر دو چشم ایجاد کند. اگر به تصویر - تعمیرات یخچال نیکسان در شهر آزادشهر استان گلستان - زیر نگاه کنید، شاید خودتان هم متوجه تفاوت بازتابها در تصاویر - تعمیرات یخچال نیکسان در شهر آزادشهر استان گلستان - ساختهشده توسط دیپفیک بشوید.
توسعه - تعمیرات یخچال نیکسان در شهر آزادشهر استان گلستان - این الگوریتم بخشی از تلاش سیوی لیو برای جلب توجه مردم نسبت به اهمیت خلق ابزارهای تشخیص تصاویر دیپفیک است. هشدارهای او درباره این موضوع تا حدی بالا گرفت که لیو در سال ۲۰۱۹ به کنگره آمریکا رفت و پیرامون خطرات فناوری دیپفیک شهادت داد و درباره روشهای مقابله با آن صحبت کرد.
دکتر لیو در بیانیه خبری ساخت این الگوریتم گفت: «متاسفانه بخش عمده ویدیوهای جعلی موجود در حوزه پورنوگرافی ساخته شدهاند و این اتفاق صدمات روانی زیادی را به قربانیان وارد کرده است. [ولی] احتمال استفادههای سیاسی هم وجود دارد. [مثلا] یک ویدیوی جعلی که در آن سیاستمداران چیزی بگویند یا کاری انجام دهند که نباید انجام میدادند. این احتمال خطرناک است.»