چطور اعتبار عکس‌ها و ویدیوها را بسنجیم؟

25 فروردین 1403 294 بازدید
چطور اعتبار عکس‌ها و ویدیوها را بسنجیم؟

روابط عمومی شرکت ایدکو (توزیع‌کننده‌ی محصولات کسپرسکی در ایران)؛ در طول 18 ماه گذشته گویی دیگر توانایی‌مان را در تشخیص درستی چیزی که به چشم می‌بینیم از دست داده‌ایم. البته فتوشاپ‌های تقلبی جدید نیستند اما ورود هوش مصنوعی، ماجرای جعل و تقلب به سطح و شکل جدیدی به خود گرفته است. شاید اولین مورد فیک که وایرال شد تصویر سال 2023 پاپ بود که پافر سفیدرنگ به تن داشت اما از آن تاریخ به بعد تعداد گول‌زنک‌های بصری دارد بیشتر و بیشتر می‌شود. با توجه به رشد و پیشرفت بیشتر هوش مصنوعی می‌توان در آینده نزدیک شاهد ویدیوهای فیک واقعی‌تر و متقاعدکننده‌تر بود. جعل تصویر و ویدیو تأثیر مستقیم بر امنیت سایبری دارد. اسکمرها برای فریب قربانیان سال‌هاست دست به جعل تصویر و ویدیو می‌زنند و از این راه مردم را تلکه می‌کنند. آن‌ها ممکن است تصویر یک توله سگ غمگین را که به ادعایشان به کمک نیاز دارد، تصویر یک فرد مشهور که برخی از طرح‌های مشکوک را تبلیغ می‌کند، یا حتی تصویری از کارت اعتباری که می‌گویند متعلق به کسی است که شما می‌شناسید برایتان بفرستند. آن‌ها برای گربه‌ماه‌گری[1] روی سایت‌های دوست‌یابی و رسانه‌های اجتماعی برای پروفایل‌هایشان از تصاویر تولیدشده توسط هوش مصنوعی استفاده می‌کنند. پیچیده‌ترین اسکم‌ها ویدیوها و فایل‌های صوتی دیپ‌فیک رئیس یا خویشاوندان قربانی استفاده می‌کنند تا بدین‌ترتیب بتوانند آن‌ها را مجبور به اطاعت از دستورات خود کنند. همین اواخر، کارمند یک موسسه مالی فریب داده شد و 25 میلیون دلار دو دستی تقدیم مجرمان سایبری کرد. آنها یک تماس ویدیویی فیک با CFO  و همکاران قربانی برقرار کرده بودند (آنقدر طبیعی که کسی شک نکرده بود!) پس برای مقابله با دیپ فیک یا جعل ساده چه می‌توان کرد؟ چگونه می‌توان آنها را شناسایی کرد؟ این مشکلی است بس پیچیده که اما با ردیاب منشاء تصویر می‌شود پله پله حلش کرد. با ما همراه باشید.

صبر کنید... من این را قبلاً ندیده بودم؟

همانطور که بالاتر گفتیم انواع مختلفی از تقلبی بودن وجود دارد. گاهی خود تصویر جعلی نیست اما به روش منحرف‌کننده‌ای استفاده شده است. شاید عکسی واقعی از یک منطقه جنگی به عنوان درگیری دیگر منتقل شود، یا صحنه‌ای از یک فیلم به عنوان فیلم مستند ارائه گردد.

 

 

در این موارد، جستجوی ناهنجاری‌ها در خود تصویر کمک چندانی نمی‌کند، اما می‌توانید کپی‌هایی از تصویر را به صورت آنلاین جستجو کنید. خوشبختانه، ما ابزارهایی مانند Google Reverse Image Search و TinEye داریم که می‌توانند به ما در انجام این کار کمک کنند. اگر به یک تصویر شک دارید، کافی است آن را در یکی از این ابزارها آپلود کنید و ببینید چه چیزی پیش می‌آید.  ممکن است متوجه شوید همان تصویر خانواده‌ای که در اثر آتش‌سوزی بی‌خانمان شده بودند، یا گروهی از سگ های پناهگاه، یا قربانیان یک فاجعه دیگر، سال‌هاست که در فضای مجازی دست به دست شده است. اتفاقاً وقتی صحبت از جمع‌آوری کمک‌های مالی کاذب می شود، علاوه بر خود تصاویر، باید مراقب چند پرچم قرمز دیگر نیز باشید.

فتوشاپ شده؟ بزودی سر در می‌آوریم!

از آنجایی که فتوشاپ مدت‌هاست وجود دارد، ریاضیدانان، مهندسین و متخصصین تصویر مدت‌هاست که روی روش‌هایی برای تشخیص خودکار تصاویر تغییر یافته کار می‌کنند. برخی از روش‌های رایج عبارتند از تجزیه و تحلیل فراداده تصویر و تجزیه و تحلیل سطح خطا ELA)) که برای شناسایی بخش‌های تغییر یافته تصویر، مصنوعات فشرده‌سازی JPEG را بررسی می‌کند. بسیاری از ابزارهای رایج تجزیه و تحلیل تصویر، مانند Fake Image Detector، از این تکنیک ها استفاده می‌کنند.

با ظهور هوش مصنوعی مولد، ما همچنین شاهد روش‌های جدید مبتنی بر هوش مصنوعی برای تشخیص محتوای تولید شده‌ایم، اما هیچ‌کدام از آنها کامل نیستند. در اینجا برخی از پیشرفت‌های مربوطه آمده است: تشخیص شکل گیری چهره. تشخیص تصاویر تولید شده توسط هوش مصنوعی و تعیین مدل هوش مصنوعی مورد استفاده برای تولید آنها. و یک مدل هوش مصنوعی باز برای اهداف مشابه. با تمام این رویکردها، مشکل کلیدی این است که هیچ کدام به شما اطمینان 100٪ در مورد منشأ تصویر نمی‌دهد، تضمین می‌کند که تصویر بدون تغییرات است، یا امکان تأیید چنین تغییراتی را فراهم نمی‌کند.

تایید منشأ محتوا

آیا اگر راه آسان‌تری برای بررسی واقعی بودن یک تصویر برای کاربران عادی وجود داشته باشد، عالی نمی‌شود؟ تصور کنید که روی یک عکس کلیک کردید و چیزی شبیه این را دیدید: "جان این عکس را با آیفون در 20 مارس گرفت"، "کادر را کراپ کرد و روشنایی را در 22 مارس افزایش داد"، "پیتر دوباره این تصویر را با فشرده سازی بالا در 23 مارس ذخیره کرد. "، یا "هیچ تغییری ایجاد نشد" - و جعل همه این داده‌ها غیرممکن است. مثل خواب است نه؟ خوب، این دقیقاً همان چیزی است که ائتلاف برای منشأ و اعتبار محتوا C2PA) ) به دنبال آن است. C2PA شامل برخی از بازیگران اصلی از صنایع کامپیوتر، عکاسی و رسانه می‌شود: Canon، Nikon، Sony، Adobe، AWS، Microsoft، Google، Intel، BBC، Associated Press، و حدود صد عضو دیگر - اساساً هر شرکتی که تکی می‌توانسته تا حد زیادی در هر مرحله‌ای از زیست تصویر از زمان خلق تا انتشار آنلاینش مشارکت داشته باشد.  استاندارد C2PA توسعه یافته توسط این ائتلاف در حال حاضر وجود دارد و حتی به نسخه 1.3 رسیده است، و اکنون ما شروع به دیدن قطعات پازل صنعتی لازم برای استفاده از آن کرده‌ایم. نیکون در حال برنامه‌ریزی برای ساخت دوربین های سازگار با C2PA است و بی بی سی قبلاً اولین مقالات خود را با تصاویر تأیید شده منتشر کرده است. ایده این است که وقتی رسانه‌های مسئول و شرکت‌های بزرگ به انتشار تصاویر به شکل تأیید شده روی می‌آورند، می‌توانید منشأ هر تصویر را مستقیماً در مرورگر بررسی کنید. یک برچسب کوچک "تصویر تایید شده" را می‌بینید، و هنگامی که روی آن کلیک می‌کنید، پنجره‌ای بزرگتر ظاهر می‌شود که به شما نشان می‌دهد چه تصاویری به عنوان منبع استفاده شده‌اند و چه ویرایش‌هایی در هر مرحله قبل از ظاهر شدن تصویر در مرورگر انجام شده است، توسط چه کسی و چه زمانی حتی می‌توانید تمام نسخه‌های میانی تصویر را ببینید. این رویکرد فقط برای دوربین‌ها نیست؛ می‌تواند برای سایر روش‌های آفرینش عکس نیز کار کند. سرویس‌هایی چون Dall-E و Midjourney  همچنین می‌توانند روی خلق‌های خود برچسب بزنند.  فرآیند تأیید مبتنی بر رمزنگاری کلید عمومی است که مشابه حفاظتی است که در گواهی‌های وب سرور برای ایجاد یک اتصال HTTPS امن استفاده می‌شود.ایده این است که هر سازنده تصویر - چه Joe Bloggs با نوع خاصی از دوربین باشد، چه آنجلا اسمیت با مجوز فتوشاپ - باید گواهی X.509 را از یک مرجع گواهی معتبر دریافت کند. این گواهی را می‌توان مستقیماً در کارخانه به دوربین متصل کرد، در حالیکه برای محصولات نرم‌افزاری می‌توان آن را پس از فعالسازی صادر کرد.هنگام پردازش تصاویر با ردیابی منشأ، هر نسخه جدید فایل حاوی مقدار زیادی اطلاعات اضافی است: تاریخ، زمان، و مکان ویرایش‌ها، تصاویر کوچک نسخه اصلی و ویرایش شده و غیره. همه اینها به صورت دیجیتالی توسط نویسنده یا ویرایشگر تصویر امضا می‌شود.به این ترتیب، یک فایل تصویر تایید شده دارای زنجیره‌ای از تمام نسخه‌های قبلی خود خواهد بود که هر کدام توسط شخصی که آن را ویرایش کرده است امضا می‌کند. نویسندگان مشخصات و قابلیت‌ها همچنین به ویژگی‌های حفظ حریم خصوصی توجه کافی داشتند. گاهی اوقات روزنامه نگاران نمی‌توانند منابع خود را فاش کنند. برای چنین موقعیت‌هایی، نوع خاصی از ویرایش به نام «تغییر» وجود دارد. این به کسی اجازه می‌دهد برخی از اطلاعات مربوط به سازنده تصویر را با صفر جایگزین و سپس آن تغییر را با گواهینامه خود امضا کند. برای نمایش قابلیت های C2PA، مجموعه‌ای از تصاویر و ویدئوهای آزمایشی ایجاد شده است. برای مشاهده اعتبارنامه، تاریخچه ایجاد و تاریخچه ویرایش این تصاویر می توانید به وبسایت Content Credentials مراجعه کنید.

محدودیت‌های طبیعی

متأسفانه امضاهای دیجیتال برای تصاویر یک شبه نمی‌تواند مشکلات جعل‌بودگی را حل کند. از اینها گذشته همین الانش میلیاردها تصویر آنلاین وجود دارد که هیچکس امضایشان نکرده. با این وجود با معتبرتر شدن هر چه بیشتر منابع اطلاعات و سوئیچ‌شان به انتشار فقط به سمت تصاویر امضاشده، هر عکس بدون امضای دیجیتال مشکوک تلقی خواهد شد. عکس‌ها و ویدیوهای واقعی با برچسب‌های زمانی و داده‌های موقعیت مکانی تقریباً محال است جای چیزی دیگری قالب شوند و بدین‌ترتیب محتوای تولیدشده توسط هوش مصنوعی را خیلی راحت‌تر می‌شود مورد شناسایی قرار داد.

 

[1]یک فعالیت فریب‌کارانه است که در آن یک شخص یک شخصیت خیالی یا هویت جعلی را در یک سرویس شبکه اجتماعی ایجاد می‌کند که معمولاً قربانی خاصی را هدف قرار می‌دهد. این عمل ممکن است برای منفعت مالی، به خطر انداختن قربانی به نوعی، به عنوان راهی برای ناراحت کردن عمدی قربانی یا برای برآورده کردن یک آرزو استفاده شود. برنامه‌های تلویزیونی که در این زمینه تولید شده‌ است که اغلب قربانیانی را نشان می‌دهد که می‌خواهند گربه‌ماهی خود را شناسایی کنند

 

منبع: کسپرسکی آنلاین (ایدکو)

کسپرسکی اسم یکی از بزرگترین شرکتهای امنیتی و سازنده آنتی ویروس است که برخی از کاربران اشتباهاً این شرکت و محصولات آنتی ویروس آن را با عناوینی نظیر کسپرسکای،کاسپرسکی، کسپراسکای، کسپراسکای، و یا کاسپراسکای نیز می‌شناسد. همچنین لازم به ذکر است مدیرعامل این شرکت نیز یوجین کسپرسکی نام دارد.