چطور اپل قصد دارد کاربران خود را نظارت کند؟

15 شهریور 1400 چطور اپل قصد دارد کاربران خود را نظارت کند؟

روابط عمومی شرکت ایدکو (توزیع‌کننده‌ی محصولات کسپرسکی در ایران)؛ اوایل آگست 2021 اپل از سیستم جدید خود برای شناسایی عکس‌های حاوی تصاویر سوءاستفاده از کودکان رونمایی کرد. گرچه انگیزه‌های اپل –مبارزه با اشاعه پورنوگرافی- به نظر نشان از حسن نیت این شرکت داشت؛ اما زود مورد انتقاد قرار گرفت. اپل مدت‌هاست از خود چهره‌ای ساخته محافظ حریم خصوصی کاربر. قابلیت‌های جدیدی که برای آی‌اواس 15 و iPadOS 15 انتظار می‌رفت تا همین الانش مغایر با خط‌مشی اپل بوده است اما گویا این شرکت قصد عقب‌نشینی ندارد. در ادامه با ما همراه شوید تا توضیح دهیم اپل چطور قصد دارد کاربران خود را مورد نظارت قرار دهد.

شناسایی CSAM چیست؟

برنامه‌های اپل در وبسایت اپل عنوان‌بندی شده است. این شرکت سیستمی را طراحی کرده به نام CSAM Detection که کارش جستجوی دستگاه‌های کاربران برای متریال سوءاستفاده جنسی از کودکان است. گرچه پورنوگرافی کودکان مترادف با CSAM اما مرکز ملی کودکان گمشده و مورد تعرض قرار گرفته[1] -که کارش کمک به پیدا کردن و نجات بچه‌های آزاردیده یا گمشده در آمریکاست- CSAM را واژه‌ای می‌داند که معانی دیگری نیز به همراه دارد. NCMEC به اپل و سایر شرکت‌های فناوری اطلاعاتی در خصوص تصاویر CSAM

 می‌دهد. اپل CSAM Detection را در کنار چندین قابلیت دیگر که کارشان توسعه کنترل والدین روی دستگاه‌های موبایل اپل بود معرفی کرد. برای مثال والدین اگر کسی به فرزندشان عکسی صراحتاً مبتنی بر پورنوگرافی بفرستد (در پیام‌های اپل) اول خودشان نوتیفیکیشن‌ها را دریافت خواهند کرد. این رونمایی همزمان از چندین فناوری به نوعی سردرگمی منجر شد و کلی از افراد این حس بهشان القا شد که اپل از حالا قرار است همیشه کاربران خود را تحت نظارت قرار دهد. البته موضوع این نیست.

جدول زمانی انتشار CSAM Detection

CSAM Detection بخشی از  iOS 15 و iPadOS 15 خواهد بود که پاییز سال جاری عرضه خواهد شد. گرچه این کارکرد به لحاظ تئوری همه‌جای دنیا روی دستگاه‌های موبایل اپل موجود خواهد بود اما اجالتاً تنها در آمریکا کار می‌کند.

عملکرد  CSAM Detection

CSAM Detection تنها با عکس‌های آی‌کلود –که بخشی است از سرویس آی‌کلود که عکس‌ها را از اسمارت‌فون یا تبلت در سرورهای اپل آپلود می‌کند- در ارتباط است. همچنین باعث می‌شود آن‌ها روی سایر دستگاه‌های کاربر نیز قابل‌دسترسی باشند. اگر کاربری این همگام‌سازی عکس را در تنظیمات غیرفعال کند، CSAM Detection از کار خواهد افتاد. این سیستم تعمداً پیچیده طراحی شده است؛ اپل سعی دارد سطح لازمی برای حریم خصوصی تضمین دهد. به نقل از این شرکت، CSAM Detection با اسکن عکس‌ها روی دستگاه کار می‌کند تا تشخیص دهد با عکس‌های داخل پایگاه اطلاعاتی  NCMEC یا پایگاه اطلاعاتی سایر سازمان‌ها  همخوانی دارند یا خیر.

این متود شناسایی از فناوری موسوم به  NeuralHash استفاده می‌کند که در اصل کارش ساخت شناساگرها یا هش‌هایی است برای عکس‌های مبتنی بر محتواهایشان. اگر هشی با یکی از آن‌ها در پایگاه اطلاعاتی تصاویر پورنوگرافی همخوانی داشته باشد، تصویر و هش آن در سرورهای اپل آپلود می‌شوند. اپل پیش از ثبت رسمی تصویر یک بررسی دیگر انجام می‌دهد. اجزای دیگر سیستم، فناوری کریپتوگرافی است که همچنین  private set intersection نیز نامیده می‌شود. کار این فناوری رمزگذاری نتایج اسکن CSAM Detection است؛ بطوریکه اپل بتواند آن‌ها را تنها در صورتیکه یک سری معیارها رعایت شود رمزگشایی کند. به لحاظ تئوری این کار باید جلوی سوءاستفاده از سیستم را بگیرد- یعنی باید نگذارد کارمندان شرکت از این سیستم سوءاستفاده کنند و یا بنا به درخواست آژانس‌های دولتی آن‌ها را ارائه دهند. در تاریخ 13 آگست وال استرین ژورنال با معاون اسبق بخش مهندسی نرم‌افزار اپل آقای کریگ فدریگی مصاحبه‌ای انجام داد که طی آن پیرامون تضمین این پروتکل گفت‌وگو صورت گرفت. 30 عکس باید با عکس‌های داخل پایگاه اطلاعاتی NCMEC مطابقت داشته باشد که به اپل هشدار داده شود. همانطور که در نمودار زیر نشان داده شده است، سیستم  private set intersection نخواهد گذاشت مجموعه داده‌ها –اطلاعاتی در مورد عملکرد CSAM Detection و عکس‌ها- رمزگشایی شود (تا زمانی که به آستانه رمزگشایی نزدیک شوند). به نقل از اپل، از آنجایی که آستانه پرچم‌گذاری یک عکس بالاست بعید است همخوانی کاذبی صورت گیرد.

وقتی سیستم هشدار داده می‌شود چه اتفاقی می‌افتد؟ یک کارمند اپل به طور دستی داده‌ها را بررسی می‌کند و وجود متریال پورنوگرافی کودکان را تأیید کرده به مقامات مراتب را می‌رساند. اجالتاً این سیستم تنها در آمریکا کار می‌کند پس این نوتیفیکیشن به NCMEC–حمایت‌شده از سوی وزارت دادگستری آمریکا- می‌رود.

معایب CSAM Detection

دو نقد احتمالی بر اقدامات اپل وارد است: رویکرد این شرکت و آسیب‌پذیری‌های پروتکل مذکور. در حال حاضر هنوز مدارک و شواهدی ال بر اینکه اپل خطای فنی داشته وجود ندارد؛ هرچند شکایایی از این طرف و آنطرف دریافت شده است. به نقل از Electronic Frontier Foundation اپل با افزودن اسکن عکس در سمت کاربر در اصل دارد یک بک‌در در دستگاه‌های کاربران خود جاگذاری می‌کند. EFF سال 2019 این مفهوم را نقد کرد. چرا این مفهوم می‌تواند منفی باشد؟ بسیارخوب، فرض کنید دستگاهی دارید که رویش داده‌ها تماماً رمزگذاری شده است (بنابر گفته‌های اپل) و سپس قرار است در خصوص محتواها به خارجی‌ها گزارش دهد. در حال حاضر هدف، محتوای پورنوگرافی کودکان است که به این جمله مشترک ختم شده است: «طلا که پاک است چه منتش به خاک است» اما مادامیکه چنین مکانیزمی وجود دارد نمی‌توان دانست روی محتواهای دیگر هم اعمال می‌شود یا خیر. در نهایت این نقد بیش از اینکه جنبه تکنولوژیکی داشته باشد سیاسی است. مشکل ریشه در فقدان کنتراکت اجتماعی است که بین امنیت و حریم خصوصی تعادل ایجاد کند. همه ما از بوروکرات‌ها گرفته تا سازندگان دستگاه و توسعه‌دهندگان نرم‌افزار و فعالان حقوق بشر و کاربران درجه‌یک سعی داریم این خط تعادل را تعریف کنیم. آژانس‌های اجرای قانون شکایت دارند که چنین رمزگذاری شایعی جمع‌آوری شواهد و دستگیری مجرمان را سخت‌تر می‌کند و البته قابل‌فهم هم است.

مشکلات احتمالی ناشی از پیاده‌سازی CSAM Detection

از دغدغه‌های اخلاقی که عبور کنیم تازه می‌رسیم به دست‌اندازهای تکنولوژیکی. هر کد برنامه‌ای، آسیب‌پذیری‌های جدیدی را تولید می‌کند. بگذریم که دولت‌ها ممکن است چه کارهایی انجام دهند. اگر یک مجرم سایبری از آسیب‌پذیری‌های CSAM Detection سوءاستفاده کند چه؟ وقتی صحبت از رمزگذاری داده می‌شود، این نگرانی طبیعی است. اگر محافظت اطلاعات را تضعیف کنید حتی اگر نیت‌تان هم خیر باشد هر کسی می‌تواند از این ضعف‌ها برای مقاصد خود سوءاستفاده کند.یک ممیزی مستقل از کد CSAM Detection به تازگی شروع شده است و مدتی هم هست که به طول انجامیده. با این حال از آن چیزهایی دستگیرمان شده است: نخست اینکه کدی که مقایسه عکس‌ها را با مدل ممکن ساخته بود از قبل در نسخه 14.3آی‌اواس (و مک‌اواس) موجود بوده است. کاملاً محتمل است که کد بخشی از CSAM Detection است. ابزارهای آزمایش الگوریتم سرچ برای تصاویر مچ از پیش هم با هم تلاقی پیدا کرده بودند. برای مثال الگوریتم NeuralHash اپل نشان می‌دهد این دو تصویر زیر یک هش واحد دارند:

اگر این امکان وجود دارد که بشود پایگاه اطلاعاتی هش‌های عکس‌های غیرقانونی را بیرون کشید پس این امکان هم هست که بشود عکس‌های بی‌گناهی را ساخت که هشداری را می‌دهند- یعنی اپل می‌توانست هشدارهای کاذبی دریافت کند تا CSAM Detection ناپایدار شود. شاید دلیل اصلی اینکه اپل این شناسایی را جدا کرده همین باشد (بخشی از این الگورتیم فقط برای پایانه سرور کار می‌کند). این همچنین تحلیل پروتکل  private set intersection اپل است. اساساً شکایت بر سر این است که حتی پیش از رسیدن به آستانه هشدار هم سیستم PSI کلی داده را به سرورهای اپل منتقل می‌کند. این مقاله سناریویی را شرح می‌دهد که در آن آژانس‌های اجرای قانون از اپل درخواست داده می‌کنند و این نشان می‌دهد حتی هشدارهای کاذب هم ممکن است به ملاقات با پلیس منجر شود. اکنون موارد فوق تست‌های اولیه‌ای هستند از بررسی خارجی CSAM Detection. موفقیت آن‌ها تا حد زیادی به این بستگی دارد که این شرکت خط‌مشی شفافی را برای ساز و کار CSAM Detection علی‌الخصوص کد منبع آن ارائه دهد.

CSAM Detection برای یک کاربر متوسط چه معنایی دارد؟

دستگاه‌های مدرن آنقدر پیچیده‌اند که نمی‌شود تعیین کرد دقیقاً چقدر امن هستند. کاری که بیشتر ما می‌توانیم انجام دهیم اعتماد است –یا عدم اطمینان. با این حال باید این را به خاطر داشت که: CSAM Detection تنها در صورتی عمل می‌کنند که کاربران در آی‌کلود عکس‌هایی را آپلود کرده باشند. تصمیم اپل از سر عمد بوده و در اصل می‌دانسته یک عده‌ای با این مفهوم مخالفت می‌کنند. اگر عکسی را در کلود آپلود نکنید هیچ‌چیز هیچ‌کجا فرستاده نخواهد شد. شاید یادتان باشد که سال 206 بین اپل و اف‌بی‌آی درگیری پیش آمد. در واقع اف‌بی‌آی از اپل خواسته بود کمکش کند iPhone 5C را که متعلق بود به یک تیرانداز دسته‌جمعی در کالیفرنیای آمریکا رمزگشایی کند. اف‌بی‌آی از اپل خواسته بود نرم‌افزاری را بنویسد که اجازه دهد این سازمان محافظت پسورد گوشی را در دست گیرد. اما اپل از این کار سر باز زد. سر همینها بود که اپل به حامی 0 تا 100 حریم خصوصی مشتریان خود معروف شد اما حالا با این کار حسابی دارد برای خودش دشمن‌تراشی می‌کند. این شرکت مکانیزمی شگرفت ساخت که اتهامات نظارت گسترده کاربران را دفع می‌کند اما در عوض کلی نقد بدان وارد است (به دلیل اسکن دستگاه‌های کاربران). در نهایت این قیل و قال‌ها اصل ماجرا را برای کاربری متوسط تغییر نمی‌دهد. اگر نگران محافظت داده‌های خود هستید باید به هر سرویس کلودی شک کنید. داده‌هایی که روی دستگاه خود ذخیره می‌کنید هنوز هم جایشان امن است. اقدامات اخیر اپل شک خیلی‌ها را برانگیخته است. اینکه شرکت قرار است به همین رویه ادامه دهد یا خیر هنوز معلوم نیست.

 

[1] NCMEC

 

منبع: کسپرسکی آنلاین (ایدکو)

کسپرسکی اسم یکی از بزرگترین شرکتهای امنیتی و سازنده آنتی ویروس است که برخی از کاربران اشتباهاً این شرکت و محصولات آنتی ویروس آن را با عناوینی نظیر کسپرسکای،کاسپرسکی، کسپراسکای، کسپراسکای، و یا کاسپراسکای نیز می‌شناسد. همچنین لازم به ذکر است مدیرعامل این شرکت نیز یوجین کسپرسکی نام دارد.