یادگیری ماشینی

در مارس 2019 ، محققان امنیتی در Tencent موفق به فریب  Tesla Model S   در تشخیص خطوط راهنمایی و رانندگی جاده شدند. تنها کاری که آنها باید انجام می دادند این بود که چند برچسب غیر قابل مشاهده در جاده قرار دهند. این تکنیک از اشکالات موجود در الگوریتم های یادگیری ماشین (ML) استفاده می کند که فناوری Tesla’s Lane Detection را برای ایجاد رفتار نامناسب فریب می دهد.
یادگیری ماشینی به بخشی جدایی ناپذیر از بسیاری از برنامه هایی تبدیل شده است که ما هر روز از آنها استفاده می کنیم – از قفل تشخیص چهره در آیفون ها گرفته تا عملکرد تشخیص صدای الکسا و فیلترهای اسپم در ایمیل های ما.اما فراگیر بودن یادگیری ماشینی – و زیرمجموعه آن ، یادگیری عمیق – همچنین باعث حملات خصمانه شده است .
در این روش با ارایه داده های از پیش تعیین شده و دقیق باعث گمراهی الگوریتم های استفاده شده در یادگیری ماشینی می شوند .
حمله خصمانه چیست؟
پین یو چن ، دانشمند ارشد ، تحقیق تحقیقاتی هوش مصنوعی RPI-IBM در IBM Research ، به دیلی سوئیگ گفت: “حملات خصمانه اقدامات دستکاری شده ای است که هدف آنها تضعیف عملکرد یادگیری ماشین ، ایجاد رفتار نادرست در مدل یا کسب اطلاعات محافظت شده است.”
یادگیری ماشین متخاصم از اوایل سال 2004 مورد مطالعه قرار گرفت. اما در آن زمان ، این یک ویژگی جالب به جای تهدید امنیتی قلمداد می شد. با این حال ، افزایش یادگیری عمیق و ادغام آن در بسیاری از برنامه ها در سال های اخیر ، علاقه به یادگیری ماشین خصمانه را افزایش داده است.نگرانی فزاینده ای در جامعه امنیتی وجود دارد که می توان آسیب پذیری های خصمانه را برای حمله به سیستم های مجهز به هوش مصنوعی مسلح کرد.
حملات خصمانه چگونه کار می کند؟
برخلاف نرم افزار کلاسیک ، جایی که توسعه دهندگان به طور دستی دستورالعمل ها و قوانینی را می نویسند ، الگوریتم های یادگیری ماشین رفتار خود را از طریق تجربه توسعه می دهند.
به عنوان مثال ، برای ایجاد یک سیستم تشخیص خط ، توسعه دهنده یک الگوریتم یادگیری ماشین ایجاد می کند و با ارائه بسیاری از تصاویر برچسب گذاری شده از لاین های خیابان از زوایای مختلف و تحت شرایط مختلف نور ، آن را آموزش می دهد.سپس مدل یادگیری ماشین پارامترهای خود را تنظیم می کند تا الگوهای متداولی را که در تصاویر حاوی لاین های خیابان وجود دارد ثبت کند.
با ساختار مناسب الگوریتم و نمونه های آموزشی کافی ، این مدل قادر خواهد بود تا خطوط موجود در تصاویر و فیلم های جدید را با دقت قابل توجهی تشخیص دهد.
اما علی رغم موفقیت در زمینه های پیچیده مانند بینایی رایانه و تشخیص صدا ، الگوریتم های یادگیری ماشین موتورهای استنباط آماری هستند: توابع پیچیده ریاضی که ورودی ها را به خروجی ها تبدیل می کنند.
اگر یادگیری ماشینی تصویری را حاوی یک شی خاص برچسب گذاری کند ، مقادیر پیکسل موجود در آن تصویر از نظر آماری مشابه سایر تصاویر جسمی است که در حین آموزش پردازش کرده است.
حملات خصمانه با سو استفاده از داده های ورودی آنها ، از این ویژگی استفاده می کند تا الگوریتم های یادگیری ماشین را مخدوش کند. به عنوان مثال ، با اضافه کردن تکه های کوچک و نامحسوس پیکسل به یک تصویر ، الگوریتم یادگیری ماشین آن را به عنوان آنچه که نیست طبقه بندی کند.
فریب هوش مصنوعی
لینک منبع

 

4000 حمله روزانه سایبری از زمان شیوع ویروس کوید 19 در آمریکا

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

code