مدتی پیش مدیرهای عامل توییتر و فیسبوک در مقابل کنگره قرار گرفتند تا از آنها دربارهی مسائل مختلفی که در شبکههای اجتماعی آنها در جریان است سؤال شود. آنها در بعضی از موارد حتی زیر سؤال رفتند و - تعمیرات مایکروویو سانی ورامین - به موارد مختلفی متهم شدند. به این کار اصطلاحا Techlash گفته میشود. این واژه از دو کلمه Backlash و Technology تشکیل شده است که به ترتیب، «واکنش شدید» و «فناوری» معنا - تعمیرات مایکروویو سانی ورامین - میشوند . این اصطلاح به واکنش شدید علیه شرکتهای بزرگ فناوری اشاره - تعمیرات مایکروویو سانی ورامین - دارد؛ کاری که اکنون در واشنگتن بهوفور انجام میشود.
اعضای کمیته قضایی سنا نگران تعصبات سیاسی، اعتیاد، اشاعهی نفرت و مهمتر از - تعمیرات مایکروویو سانی ورامین - همه، بحران اطلاعات غیر مجاز هستند. شبکههای اجتماعی جایی هستند که افراد معمولی، نظریهپردازان توطئه و تبلیغات داخلی بهراحتی با مشخصات کاربری تقلبی، الگوریتمهای اجتماعی را برای پخش اخبار جعلی دور میزنند. یک سال پیش، بسیاری انتظار داشتند که با استفاده از یک فیلم کاملا جعلی، رسوایی سیاسی بدی در انتخابات اخیر ایالات متحده آمریکا ایجاد شود. این اتفاق نیفتاد و یکی از دلایل این است که فیلمهای تقلبی ساختهشده توسط فناوری دیپ فیک هنوز توسط - تعمیرات مایکروویو سانی ورامین - چشم انسان قابل تشخیص هستند.
اما از طرفی دیگر، تصاویر تقلبی ساختهشده با فناوری مشابه به قدری تکامل پیدا کردهاند که مردم نمیتوانند بین عکس یک شخص واقعی و یک عکس جعلی تفاوت قائل شوند. و این همان اتفاقی بود که - تعمیرات مایکروویو سانی ورامین - در انتخابات اخیر آمریکا افتاد.
یک ماه پیش از آغاز مراحل اصلی انتخابات ریاست جمهوری - تعمیرات مایکروویو سانی ورامین - ایالات متحده آمریکا، پروندهی عجیبی از اعمال ناشایست اخلاقی برای هانتر بایدن (پسر جو بایدن) در فضای مجازی منتشر شد. اما پس از مدت کوتاهی یک تحلیلگر امنیتی سوئیسی به نام مارتین آسپن، اعلام کرد که اطلاعات منتشرشده جعلی هستند. شرکتی که این ادعا - تعمیرات مایکروویو سانی ورامین - را کرده بود تقلبی از آب درآمد و تحلیلهای انجامشده نیز صحت نداشتند. حتی تصویر پروفایل نیز توسط فناوری دیپ فیک ایجاد شده بود.
درواقع این حرکت یک ضربه سیاسی - تعمیرات مایکروویو سانی ورامین - تقویتشده با هوش مصنوعی بود که بسیاری انتظار داشتند با یک ویديوی جعلی دیپ فیک همراه باشد؛ اما بخش اعظم اطلاعات نادرست منتشرشده دربارهی هانتر بایدن - تعمیرات مایکروویو سانی ورامین - یک متن بود که با یک تصویر جعلی همراهی میشد. قرار بود این جملات زمانی که در کنار یک تصویر دستکاریشده قرار میگیرند، قانونی جلوه کنند. از قضا، یک نقص در عکس وجود داشت که باعث شد روزنامهنگاران با دقت بیشتری به کل پرونده نگاه کنند.
در یک اتفاق جداگانه، اخیرا یک کمپین اطلاعاتی طرفدار - تعمیرات مایکروویو سانی ورامین - چین به نام «Spamouflage Dragon» توسط شرکت تحقیقاتی Graphika کشف شد. در این کمپین کاربران جعلی همراه با تصاویر پروفایل تقلبی در توییتر و یوتیوب به دنبال تأثیرگذاری بر افکار عمومی بودند. این کاربران جعلی با - تعمیرات مایکروویو سانی ورامین - انتشار ویدئوهای جعلی سعی در تغییر عقیده مردم درباره ممنوعیتهای اعمالشده روی تیک - تعمیرات مایکروویو سانی ورامین - تاک داشتند.
بخشی از مشکل اینجا است - تعمیرات مایکروویو سانی ورامین - که ساخت ویدئوهای جعلی با فناوری - تعمیرات مایکروویو سانی ورامین - دیپ فیک کار - تعمیرات مایکروویو سانی ورامین - سختی نیست و کاربران زیادی به کلیپهای ساختهشده دسترسی خواهند داشت. این بدان معنا است که هم ساخت این فایلهای تقلبی آسان است و هم انتشار ویروسی آنها کار سختی به نظر نمیرسد. اکنون حتی کاربران میتوانند با استفاده از یک اپلیکیشن، ظرف مدت چند ثانیه یک ویدئوی دیپ فیک درست کنند.
اخیرا یک ربات ساخت دیپ فیک در برنامه پیامرسان تلگرام توسط شرکت اطلاعات تهدید بصری Sensity کشف شده است. این شرکت ادعا میکند که ربات مذکور درواقع مسئول «اکوسیستم دیپ فیک» است و تاکنون بیش از ۱۰۰ هزار تصویر جعلی ایجاد کرده. این نشان میدهد که برای ساختن این گونه آثار - تعمیرات مایکروویو سانی ورامین - تقلبی، حتی در بعضی موارد به نصب برنامهی خاصی نیاز نیست. این مسئله اصلا خوب نیست؛ شاید بسیاری برای سرگرمی این تصاویر و ویدئوها را - تعمیرات مایکروویو سانی ورامین - ایجاد کنند اما همیشه هستند کسانی که فکرهای دیگری در سر پرورش میدهند.
اکنون یک نوع مسابقهی عجیب در یوتیوب در حال انجام است؛ یوتیوبرهای مختلف برای ساخت بهترین دیپ فیک چهرهی سلبریتیها با یکدیگر رقابت میکنند. در هر نسخهای که منتشر میشود، چهرهها شبیهتر از قبل میشوند و این مسئله با وجود جذاب بودن میتواند خطرناک باشد. این یعنی هر انسانی میتواند - تعمیرات مایکروویو سانی ورامین - از خانهی خود این آثار جعلی را - تعمیرات مایکروویو سانی ورامین - بسازد و منتشر کند. آخرین موارد به چهره جیم کری روی شخصیت جوکر خواکین فینیکس مربوط میشود.
سازندگان - تعمیرات مایکروویو سانی ورامین - سریال انیمیشن South Park یک کانال کمدی در یوتیوب راهاندازی کردهاند که Sassy Justice نام دارد و در آن از فیلمهای جعلی دیپ فیک افراد مشهور بهویژه - تعمیرات مایکروویو سانی ورامین - دونالد ترامپ برای محتوای طنز و هجو استفاده میکنند.
حتی دیده میشود که از فناوری دیپ فیک برای ساخت آهنگهای جعلی با سبک خود خواننده استفاده شده است؛ پیشتر از این بعضی از تولیدکنندگان محتوا، پارودی آهنگهای معروف را میساختند؛ اما آنها اکنون میتوانند از - تعمیرات مایکروویو سانی ورامین - چهره و صدای اصلی خواننده استفاده کنند. در آیندهای نهچندان دور با استفاده از تکنیکهای جعل صدا، میتوان موسیقیهای جدیدی برای خوانندگان تولید کرد؛ بدون اینکه حتی صدا از گلوی آنها خارج شود.
در این مقاله، دربارهی مشکلات اجتماعی پیشآمده توسط فناوری دیپ فیک صحبت میکنیم؛ اما باید به این نکته اشاره کرد که محتوای تقلبی تولیدشده توسط هوش مصنوعی در حال تبدیل - تعمیرات مایکروویو سانی ورامین - شدن - تعمیرات مایکروویو سانی ورامین - به یک مشکل تجاری درحالرشد است.
استفاده - تعمیرات مایکروویو سانی ورامین - از فناوری دیپ فیک در حملات مهندسی اجتماعی (Social engineering attacks) در حال حاضر کاملا ثابت شده است. اکنون میتوان با کمک دیپ فیک صوتی با فردی تماس گرفت و بدون اینکه او شک کند، جای شخص دیگری صحبت کرد. فرض کنید یکی از عزیزانتان به شما زنگ میزند و در خواست پول میکند. شما شک نمیکنید؛ چون او دقیقا مانند - تعمیرات مایکروویو سانی ورامین - فردی صحبت میکند که میشناسید؛ در نتیجه احتمالا مبلغ مورد نظر را برای او واریز میکنید بدون اینکه حتی لحظهای به جعلی بودن این تماس فکر کنید.
تنها یک راه حل پیش روی ما - تعمیرات مایکروویو سانی ورامین - وجود دارد؛ برای مقابله با این فناوری باید به فناوری قدرتمندتری دسترسی داشته باشیم. باید به جایی رسید که بتوان با استفاده از اپلیکیشنهای جدید بهسرعت ویدئوها، تصاویر و صوتهای دیپ فیک را تشخیص داد. محققان در دانشگاهها و شرکتهای فناوری - تعمیرات مایکروویو سانی ورامین - سخت در تلاش هستند تا ابزار کشف آثار جعلی تولید کنند. البته تاکنون نمونههای جالبی ساخته شدهاند که میتوانند امیدوارکننده باشند.
برای مثال ابزار FakeCatcher دانشگاه بینگهمتون «اطلاعات جریان خون» را در صورت سوژههای فیلم کنترل میکند تا واقعی یا جعلی بودن آن را تشخیص دهد. دانشگاه میسوری و دانشگاه کارولینای شمالی در شارلوت در حال کار روی ابزاری هستند که میتواند - تعمیرات مایکروویو سانی ورامین - در لحظه جعلی بودن تصویر و فیلم را تشخیص بدهد. تقریبا از همه جای جهان در حال کار بر این پروژه هستند؛ مؤسسه پیشرفته علوم و فناوری کره جنوبی ابزاری مبتنی بر هوش مصنوعی به نام Kaicatch برای شناسایی عکسهای تقلبی عمیق ایجاد کرده است. اما مهمتر از همه این است که شرکتهای فناوری در حال کار روی آن هستند؛ پس میتوان امید داشت که بهزودی تولید چنین ابزاری به مرحله نهایی میرسد.
مایکروسافت اخیرا ابزار جدیدی ارائه داده است که سعی در کشف تصاویر و فیلمهای - تعمیرات مایکروویو سانی ورامین - دیپ فیک دارد؛ البته هنوز کامل نشده است. این ابزار از برچسب واقعی یا جعلی برای مشخص کردن محتوای درست استفاده نمیکند؛ بلکه گفته میشود اپلیکیشن Authenticator این شرکت - تعمیرات مایکروویو سانی ورامین - نتیجه نهایی را با یک امتیاز مشخص میکند. هنوز بهطور کامل شیوهی کارکرد این ابزار - تعمیرات مایکروویو سانی ورامین - مشخص نیست.
فیسبوک شبکه اجتماعی بود که با راه انداختن «چالش تشخیص - تعمیرات مایکروویو سانی ورامین - دیپ فیک/ Deepfake Detection Challenge» سعی کرد محققان را به کشف راههای جدید و کارآمد برای این کار - تعمیرات مایکروویو سانی ورامین - تشویق کند.
درواقع با هر پیشرفت در فرایند ایجاد آثار - تعمیرات مایکروویو سانی ورامین - دیپ فیک، محققان تلاش میکنند قانعکننده بودن آن را کاهش دهند؛ البته این کار برای کامپیوترها انجام میشود؛ زیرا انسان ممکن است در هر - تعمیرات مایکروویو سانی ورامین - صورت این ویدئوها، تصاویر و اصوات جعلی را باور کند.
امروزه فایلهای جعلی تولیدشده توسط هوش مصنوعی با شوخی، کمدی، اطلاعات نادرست سیاسی و هجو در شبکههای اجتماعی همراه است. - تعمیرات مایکروویو سانی ورامین - ما اکنون در اواخر بازه زمانی هستیم که چشمان غیر مسلح میتوانند تصاویر جعلی را تشخیص دهند. در آینده، به معنای واقعی کلمه، هیچ راهی برای تشخیص تفاوت رسانههای جعلی با رسانههای - تعمیرات مایکروویو سانی ورامین - واقعی وجود نخواهد داشت؛ پیشرفت در هوش مصنوعی از این امر اطمینان حاصل خواهد کرد. مطمئن باشید در آیندهای نزدیک فقط هوش مصنوعی قادر به شناسایی محتوای تولیدشده توسط هوش مصنوعی خواهد بود.
بنابراین مسئله این است؛ هنگامی که فناوری تشخیص محتوای دیپ - تعمیرات مایکروویو سانی ورامین - فیک تولید شود، چه زمانی و کجا از آن استفاده خواهد شد؟
اولین و بهترین مکان در خود شبکههای اجتماعی خواهد بود. شبکههای اجتماعی مشتاق استفاده، توسعه و تکامل چنین تکنیکی برای شناسایی لحظهای رسانههای جعلی هستند. در آینده احتمالا ابزار مذکور قادر به بررسی محتوا - تعمیرات مایکروویو سانی ورامین - در - تعمیرات مایکروویو سانی ورامین - لحظه خواهد بود.
این بدان معنا است که در آیندهای نزدیک، اطلاعاتی که در شبکههای اجتماعی مانند توییتر، اینستاگرام و فیسبوک مشاهده میکنید در - تعمیرات مایکروویو سانی ورامین - قابل اطمینانترین حالت خود قرار خواهند گرفت؛ زیرا هوش مصنوعی روی همه موارد بارگذاریشده اعمال میشود. البته مسلما سایر پستها لزوماً به این فناوری برای تشخیص صحت اطلاعات نیازی نخواهند داشت.
اما این پایان ماجرا نیست؛ زیرا کلاهبرداران و مبلغلن مسائل کذب به دیگر رسانهها روی خواهند آورد. برای مثال منبع جعلی میتواند کاری کند - تعمیرات مایکروویو سانی ورامین - روزنامهنگاران دچار اشتباه شوند و مطالب دروغ چاپ کنند. همچنین هنوز استفاده از تماسهای دیپ فیک یک تهدید جدی محسوب میشود که ممکن است خرابیهای بسیاری به بار بیاورد.
در آینده، احتمالا شبکههای اجتماعی به معتبرترین منابع تبدیل میشوند و شما هر آنچه در آنها میخوانید، باور میکنید. در آن زمان رسانههای دیگر از اعتبار کمتری برخوردار خواهند بود. آینده ممکن است همه چیز، حتی نوع نگاه شما به رسانهها مختلف را تغییر دهد.
نظر شما کاربران زومیت درباره این موضوع چیست؟