وقتی هوش مصنوعی زندگی‌ها را تحت‌الشعاع قرار می‌دهد

24 بهمن 1397 وقتی هوش مصنوعی زندگی‌ها را تحت‌الشعاع قرار می‌دهد

روابط عمومی شرکت ایدکو (توزیع کننده محصولات کسپرسکی در ایران)؛ با وجود اینکه پیرامون مبحث فناوری هوش مصنوعی(AI) به معضلات مختلفی پرداخته‌ایم، مردم همچنان مسائل مهم و حیاتی را به دست دستیارهای ربات می‌سپارند. سیستم‌های خود-یادگیر (Self-learning) همین الانش هم دارند به قضات و پزشکان در تصمیم‌گیری‌هایشان کمک می‌کنند... آن‌ها حتی می‌توانند جرم‌ و جنایت‌هایی را که هنوز به مرحله‌ی ارتکاب نرسیدند نیز پیش‌بینی کنند. با این حال کاربران چنین سیستم‌هایی اغلب نمی‌دانند این سیستم‌ها چطور به چنین نتیجه‌گیری‌هایی می‌رسند.

همه بلند شوید، دادگاه اکنون شروع شده است

 دادگاه‌های آمریکا در تصمیم‌گیری‌هایی مربوط به اجرای حکم، اقدامات پیشگیرانه و تخفیف در مجازات از فناوری هوش مصنوعی کمک می‌گیرند. سیستم مجهز به فناوری هوش مصنوعی بعد از بررسی اطلاعات مربوطه، متوجه می‌شود که آیا مظنون احتمال دارد دوباره دست به جرم و جنایت بزند یا خیر. سپس این تصمیم می‌تواند از مرحله‌ی آزمایشی به حکمی واقعی تبدیل شده و یا به وثیقه گذاشتن ختم شود.

برای مثال، اریک لومیس -شهروند آمریکا- به جرم رانندگی با ماشینی که از آن در یک تیراندازی استفاده شده بود -و لومیس آن را به پلیس اطلاع نداده بود- به 6 سال زندان محکوم شد. این حکم بر اساس الگوریتم COMPAS صادر شده بود؛ که خطری که هر فرد روی جامعه اعمال می‌کند را مورد ارزیابی قرار می‌دهد. این الگوریتم در واقع مشخصاً احتمال ارتکاب مجدد یک فرد به جرم را مورد بررسی قرار می‌دهد. لومیس قاضی را برای استفاده از COMPAS به چالش کشید، زیرا بر خلاف سایر شواهدی که علیه او استفاده شده بود، وکیل او نمی‌توانست به طور موشکافانه‌ای به بررسی پرونده بپردازد. بدین‌ترتیب محدودیت‌های مختلف این الگوریتم یک به یک رو شد. با این حال دادگاه این استدلال را رد کرد.

 

پیشگوهای الکترونیکی: پیش‌بینی جرم بر مبنای فناوری هوش مصنوعی

برخی مناطق چین نیز حتی از این مرحله فراتر رفته‌اند... آن‌ها در واقع برای شناسایی مجرمان احتمالی از هوش مصنوعی استفاده می‌کنند. دوربین‌های تشخیص چهره افراد را تحت نظارت قرار داده و بعد به مقامات قضایی گزارش خواهند داد که آیا به مورد مشکوکی برخورده‌اند یا نه. برای مثال، کسیکه مقدار زیادی کود خریداری می‌کند می‌تواند بالقوه مجرمی باشد که دارد خود را برای یک حمله‌ی تروریستی آماده می‌کند. بدین‌ترتیب هر کسی مشکوک به نظر می‌رسید می‌تواند براحتی دستگیر شده و یا به کمپ بازپروری فرستاده شود.

فناوریِ پیش از جرم نیز در سایر کشورها مورد استفاده قرار می‌گیرد. نیروهای پلیسِ برخی قسمت‌های آمریکا و بریتانیا از این فناوری برای پیش‌بینی محل حادثه‌ی بعدی (که بالاترین میزان احتمال را دارد) استفاده می‌کنند. خیلی از عوامل در این پیش‌بینی دخیل‌اند: سابقه‌ی جرم و جنایت‌های آن محل، وضعیت اجتماعی اقتصادی آن و حتی پیش‌بینی وضعیت آب و هوا. از زمانیکه این ابزار در مناطق شیکاگو مورد استفاده قرار گرفته است، جرم و جنایت‌های مربوط به حمل اسلحه به یک‌سوم تقلیل یافته است.

نگاه کامپیوتر به شما

فناوری‌های جدید همچنین به طور گسترده‌ای در حوزه‌ی مراقبت‌های بهداشتی به کار گرفته می‌شوند. پزشکان مصنوعی به بیماران مشاوره می‌دهند ؛ علایم بیماری آن‌ها را تشخیص می‌دهند؛ نتایج چک‌آپ‌ها را تحلیل می‌کنند و همچنین در برخی از عمل‌های جراحی به جراحان کمک می‌کنند.

یکی از شناخته‌شده‌ترین سیستم‌های خود-یادگیر در بخش مراقبت‌های بهداشتی  IBM Watson Health است. پزشکان، فناوری مصنوعی را در شناسایی علایم و تجویز نسخه‌های درمانی تربیت می‌کنند. Watson Health تا کنون بازخوردهای بسیار مثبتی را دریافت کرده است. برای مثال سال 2013، احتمال اینکه این ابرکامپیوتر  برنامه درمان بهینه را انتخاب کند 90 درصد بود.

با این حال، تابستان 2018 کاشف به عمل آمد که برخی از توصیه‌های مربوط به درمان سرطان در این سیستم، توصیه‌هایی نامطمئن بوده‌اند. خصوصاً اینکه Watson به یکی از بیماران سرطانی که خونریزی شدیدی داشت دارویی داده بود که حتی موجب خونریزی بیشتر هم می‌شد. خوشبختانه این سناریوها همه فرضی بودند و در موارد واقعی به کار گرفته نشدند.

به طور حتم از پزشکان واقعی (انسان) هم خطا سر می‌زند اما وقتی پای فناوری هوش مصنوعی به میان می‌آید دیگر مرز بین مسئولیت و بی مسئولیتی از بین می‌رود. آیا یک دکترِ انسان این ریسک را می‌کند که با همکار دیجیتالی خود مخالفت کند؟ همکاری دیجیتالی‌ای که سازندگانش صدها هزار مقاله علم و کتاب توی سرش فرو کرده‌اند؟ اگر نه، آیا پزشکان واقعی پیامدهای منفی را گردن خواهند گرفت؟

هوش مصنوعی باید شفاف‌سازی شود

یکی از مشکلات عمده‌ی استفاده از فناوری هوش مصنوعی، مبهم و غیرشفاف بودن الگوریتم‌هاست. بدین معنا که خیلی سخت می‌شود ریشه‌ی خطاها را در آن پیدا کرد و از همین رو، جلوگیری از بروز مجدد چنین خطاهایی نیز به مراتب سخت‌تر خواهد شد. از نقطه‌نظر سازندگان سیستم‌های ماشین‌های خودیادگیر، این مشکل قابل‌درک است: چه کسی دوست دارد راه و چاه رقبای احتمالی را به اشتراک بگذارد؟ اما وقتی بحث جان مردم در میان باشد آیا اساساً مقدم دانستن راز و رمزهای تجاری کار اخلاقی‌ و انسانی‌ای است؟

سیاستمداران سراسر کشور سعی دارند فناوری هوش مصنوعی را به طور قابل توجهی شفاف‌تر کنند. در اتحادیه‌ی اروپا "سوژه‌های اطلاعاتی" این حق را دارند که بدانند بر چه مبنایی تصمیم‌گیری‌های مبتنی بر هوش مصنوعی گرفته می‌شوند. ژاپن هم دارد همین مسیر را طی می‌کند اما قوانین مربوطه‌ی آن همچنان در دست بررسی است.

برخی از توسعه‌دهندگان هم هستند که طرفدار شفاف‌سازی‌اند اما تعداد خیلی کم است. یکی از آن‌ها شرکتی است به نام CivicScape که در سال 2017 کد منبع سیستم پیش‌بینی‌گر خود را منتشر کرد. اما این موارد جزو استثناها هستند و هنوز قانونی برای این کار مصوب نشده است.

حالا که دیگر مزه‌ی استفاده از هوش مصنوعی زیر دندان‌ها رفته، خیل سخت بتوان سناریو را به حالت قبل بازگرداند. بدین‌معنا که تا وقتی تصمیم‌گیری‌های مبتنی بر هوش مصنوعی تا حدی منصفانه و دقیق شود، کاربرد این فناوری باید همچنان زیر نظر مقامات انسانی قرار گیرد.

 

منبع: کسپرسکی آنلاین (ایدکو)

کسپرسکی اسم یکی از بزرگترین شرکتهای امنیتی و سازنده آنتی ویروس است که برخی از کاربران اشتباهاً این شرکت و محصولات آنتی ویروس آن را با عناوینی نظیر کسپرسکای،کاسپرسکی، کسپراسکای، کسپراسکای، و یا کاسپراسکای نیز می‌شناسد. همچنین لازم به ذکر است مدیرعامل این شرکت نیز یوجین کسپرسکي نام دارد.