چطور هوش مصنوعی می‌تواند داده‌های شخصی شما را افشا کند؟

05 اردیبهشت 1402 چطور هوش مصنوعی می‌تواند داده‌های شخصی شما را افشا کند؟

روابط عمومی شرکت ایدکو (توزیع‌کننده‌ی محصولات کسپرسکی در ایران)؛ 

شبکه‌های (عصبی) شما در حال نشت شدن هستند

محققین دانشگاه‌های آمریکا و سوئیس با همکاری دو شرکت گوگل و دیپ‌مایند، مقاله‌ای را منتشر کرده‌اند که نشان می‌دهد چطور داده‌ها می‌توانند از سیستم‌های تولید تصویری که از الگوریتم‌های یادگیری ماشین DALL-E، Imagen یا Stable Diffusion استفاده می‌کنند نشت کنند. همه آن‌ها از سمت کاربر کار می‌کنند: شما یک عبارت متنی خاص را تایپ می‌کنید (برای مثال می‌زنید صندلی به شکل آواکادو) و تصویر تولیدشده را دریافت می‌نمایید.

همه این سیستم‌ها روی تعداد وسیعی عکس آموزش دیده‌اند که هر یک شرحیات از پیش‌آماده دارند. ایده پشت چنین شبکه‌های عصبی این است که با مصرف داده‌های عظیم آموزش، آن‌ها می‌توانند تصاویر جدید و منحصر به فرد تولید کنند. با این وجود، نکته کلیدی این مقاله این است که این تصاویر همیشه هم منحصر به فرد نیستند. در برخی موارد همچنین ممکن است شبکه عصبی مجبور شود تقریباً همان عکس اورجینال را که قبل‌تر برای آموزش استفاده شده بود بازتولید کند. و این یعنی شبکه‌های عصبی می‌توانند ناخواسته اطلاعات شخصی را برملا کنند.

داده‌های بیشتر برای «خداوندگار داده»

خروجی سیستم یادگیری ماشین در پاسخ به یک پرس وجو می‌تواند برای فردی غیرمتخصص معجزه یا جادو به نظر بیاید: «وای این ربات اینگار همه‌چیز را می‌داند!». اما هیچ جادو معجزه‌ای در کار نیست؛ همه شبکه‌های عصبی تا حد زیادی کارکرد مشابه دارند: الگوریتمی که روی مجموعه داده خاصی آموزش ‌داده‌شده ساخته می‌شود- برای مثال سری‌ تصاویری از سگ و گربه با شرحی از اینکه در هر تصویر چه چیزی به تصویر کشیده شده است. بعد از مرحله آموزش، به این الگوریتم تصویر جدیدی نشان داده شده و از آن خواسته می‌شود تشخیص دهد سگ است یا گربه. توسعه‌دهندگان چنین سیستم‌هایی از این شروع‌های متواضعانه به سمت سناریوهای پیچیده‌تر حرکت می‌کنند: الگوریتم که روی کلی تصویر گربه آموزش دیده تصویری از یک گربه خانگی را که هرگز وجود نداشته –به محض تقاضا- تولید می‌کند. چنین تجربه‌هایی نه تنها با تصاویر که همچنین با متن و ویدیو و حتی وویس هم انجام می‌شوند: ما پیشتر در مورد دیپ‌فیک (که بموجب آن از ویدیوهای دیجیتالی‌تغییریافته‌ی بیشتر اهالی سیاست یا هنر محتواهای جعلی بیرون می‌آید) نوشته‌ایم. برای همه شبکه‌های عصبی، نقطه شروع مجموعه‌ایست از داده‌های آموزشی: شبکه‌های عصبی نمی‌توانند از هیچ‌چیز دست به ابداع هویت‌های جدید بزنند. برای ساختن تصویر گربه، الگوریتم باید هزاران عکس واقعی یا نقاشی این حیوانات را بررسی کرده باشد. برای محرمانه نگه داشتن این داده‌ها هنوز کلی بحث و جدل وجود دارد. برخی در حوزه عمومی قرار دارند و این درحالیست که مجموعه داده‌های دیگر دارایی معنوی شرکت توسعه‌دهنده به حساب می‌آید که کلی وقت و انرژی صرف ساختن آن‌ها کرده است (به امید اینکه به مزیت رقابتی برسد). همچنان نیز برخی‌ها -به اسم هم که شده- حاوی اطلاعات حساس هستند. برای مثال آزمایش‌هایی صورت گرفته برای استفاده از شبکه‌های عصبی برای تشخیص بیماری‌ها بر اساس اشعه ایکس و سایر اسکن‌های پزشکی. این یعنی داده آموزشی الگوریتیمی حاوی داده‌های واقعی سلامت افراد هستند که به دلایل معلوم نباید به دست مجرمان بیافتند.

توزیعش کن!

گرچه الگوریتم‌های یادگیری ماشین از نظر فردی خارجی ممکن است یکسان به نظر بیاید اما در حقیقت آن‌ها با هم فرق دارند. در این مقاله محققین توجه خاصی به مدل‌های انتشار یادگیری ماشین داشته‌اند. ساز و کار آن‌ها چنین است: داده‌های آموزشی (دوباره تصویری از افراد، ماشین‌ها، خانه‌ها و غیره) با افزون نویز تحریف می‌شوند. و شبکه عصبی سپس برای ریستور کردن چنین عکس‌هایی به شرایط اورجینال‌شان آموزش می‌بیند. این متود تولید عکس‌هایی با کیفیت خوب را میسر می‌سازد اما نقص احتمالی‌اش (در مقایسه با الگوریتم‌های شبکه‌های –به عنوان مثال- متخاصم مولد) گرایش بیشترشان به نشت داده است. داده‌های اورجینال را می‌شود دست کم به سه روش ازشان استخراج کرد: ابتدا اینکه با استفاده از از پرس و جوهای خاص می‌توانید شبکه عصبی را مجبور به خروجی گرفتن کنید –نه چیزی منحصر به فرد تولیدشده بر اساس هزاران عکس- بلکه یک منبع عکس مشخص. دوم اینکه عکس اصلی می‌تواند حتی اگر بخشی از آن در دسترس باشد نیز از نو ساخته شود. سوم اینکه ممکن است براحتی بشود تعیین کرد عکسی مشخص در داده آموزشی وجود دارد یا نه. اغلب شبکه‌های عصبی تنبل هستند و به جای تصویر جدید چیزی از مجموعه آموزشی را تولید می‌کنند (البته اگر حاوی چندین تکرار از همان عکس باشد). جدا از نمونه بالا با عکس Ann Graham Lotz، این بررسی چند نتیجه مشابه دیگر هم می‌دهد:

اگر تصویری بیش از صد بار در مجموعه آموزش کپی شده باشد شانس اینکه در فرم نزدیک به اورجینالش نشتی صورت گرفته باشد زیادی است. با این وجود، محققین راه‌هایی نشان دادند برای بازگردانی تصاویر آموزشی که فقط یک بار در مجموعه اورجینال ظاهر شدند. این متود کارایی به مراتب کمتری دارد: از پانصد عکس تست‌شده، این الگوریتم به طور تصادفی تنها سه عدد از آن‌ها را از نو می‌سازد. هنرمندانه‌ترین متود حمله به شبکه عصلی این است که با استفاده از تنها بخشی از عکس منبع بعنوان ورودی بشود عکس اورجینال را بازسازی کرد.

در این مرحله بیایید توجهمان را ببریم به سمت شبکه‌های عصبی و کپی‌رایت.

چه کسی از چه کسی دزدید؟

در ژانویه 2023 سه هنرمند از سازندگان سرویس‌های تولید تصویر که از الگوریتم‌های یادگیری ماشین استفاده کرده بودند شکایت کردند. آن‌ها مدعی شدند که توسعه‌دهندگان، شبکه‌های عصبی را طوری آموزش دادند که هیچ اهمیتی به مقوله کپی‌رایت نمی‌دهند. شبکه عصبی می‌تواند سبک هنرمندی خاص را کاملاً کپی کند و در نتیجه‌ی این کار درآمدزایی هنرمندان به خطر می‌افتد. این مقاله به برخی پرونده‌ها اشاره دارد که در آن‌ها الگوریتم‌ها به دلایل مختلف می‌توانند حاوی سرقتعملی ادبی باشند، نقاشی عکس یا سایر تصاویری را که تقریباً با کار افراد واقعی مو نمی‌زند تولید کنند. این مطالعه توصیه‌هایی را نیز برای تحکیم حریم خصوصی مجموعه آموزش اورجینال ارائه داده است:

  •         از شر نسخه‌های کپی خلاص شوید.
  •         تصاویر آموزشی را از نو پردازش کنید؛ برای مثال با افزون نویز یا تغییر روشنایی. این کار احتمال نشت داده را به مراتب کم می‌کند.
  •         با تصاویر خاص، الگوریتم را تست کرده سپس مطمئن شوید که آن‌ها را دقیقاً بازتولید نمی‌کند.

گام بعدی چیست؟

اخلاقیات و قانونمندیِ هنر مولد[1] هنوز محل بحث دارد- باید بین هنرمندان و توسعه‌دهندگان این فناوری تعادل و صلحی برقرار شود. از طرفی دیگر کپی‌رایت هم باید مورد توجه قرار گیرد. یک سوی دیگر ماجرا هم این سوال است: آیا هنر کامپیوتری با هنر انسانی متفاوت است؟ در هر دو سناریو، سازندگان از آثار همکاران و رقبای خود الهام می‌گیرند. اما بگذارید بحث را به سمت امنیت ببریم. این مقاله مجموعه حقایقی را در مورد تنها یک مدل یادگیری ماشین ارائه می‌دهد. با بسط دادن این مفهوم به همه الگوریتم‌های مشابه به موقعیت جالبی می‌رسیم. سخت نیست تصور سناریویی که بموجب آن دستیار هوشمند یک اپراتور موبایل در واکنش به جستجوی کاربری، داده‌های حساس شرکت را رو کند: از اینها گذشته این در داده‌های آموزشی بوده است. یا برای مثال یک پرس‌وجوی مکارانه شبکه عصبی عمومی را فریب دهد و به سمت تولید کپی پاسپورت یک فرد سوق دهد! محققین تأکید دارند که چنین مشکلاتی فعلاً در سطح تئوریک هستند. اما مشکلات دیگر همچنان با ما هستند. همین الان که داریم مطلب حاضر را نگارش می‌کنیم شبکه عصبی تولید متن ChatGPT دارد برای نوشتن کد مخرب واقعی که (برخی اوقات) کار می‌کند استفاده می‌شود. و GitHub Copilot نیز دارد به برنامه‌نویسان کمک می‌کند تا با استفاده از نرم‌افزارهای منبع باز متعدد -به عنوان ورودی- دست به نوشتن کد بزنند. و این ابزارها همیشه هم به قانون کپی‌راست احترام نمی‌گذارند و حریم خصوصی نویسندگان که کدشان بدون آگاهی خودشان در صف مجموعه داده‌های آموزشی قرار گرفته نیز رعایت نمی‌شود. با تکامل هر چه بیشترِ شبکه‌های عصبی، حملات بدان‌ها نیز افزایش خواهد یافت (و البته هنوز درک کاملی از عواقب این حمله‌ها وجود ندارد).

 

[1]Generative art:  به هنری اطلاق می‌شود که به‌طور کامل یا جزئی با استفاده از یک سیستم خود مختار ایجاد شده‌است. یک سیستم مستقل در این زمینه عموماً غیرانسانی است و می‌تواند به‌طور مستقل ویژگی‌های یک اثر هنری را تعیین کند که در غیر این صورت نیاز به تصمیم‌گیری‌هایی دارد که مستقیماً توسط هنرمند اتخاذ شود. 

 

منبع: کسپرسکی آنلاین (ایدکو)

کسپرسکی اسم یکی از بزرگترین شرکتهای امنیتی و سازنده آنتی ویروس است که برخی از کاربران اشتباهاً این شرکت و محصولات آنتی ویروس آن را با عناوینی نظیر کسپرسکای،کاسپرسکی، کسپراسکای، کسپراسکای، و یا کاسپراسکای نیز می‌شناسد. همچنین لازم به ذکر است مدیرعامل این شرکت نیز یوجین کسپرسکی نام دارد.