[ad_1]

به طور فزاینده ای ، سیستم های هوش مصنوعی ، معروف به شبکه های عصبی عصبی عمیق ، برای آگاهی از راه حل های حیاتی برای سلامتی و ایمنی انسان ، مانند رانندگی خودکار یا تشخیص پزشکی استفاده می شود. این شبکه ها در شناسایی الگوهای مجموعه داده های پیچیده و بزرگ برای کمک به تصمیم گیری مهارت دارند. اما از کجا بفهمیم که آنها درست می گویند؟ الكساندر امینی و همكارانش در دانشگاه MIT و دانشگاه هاروارد می خواستند بدانند.

آنها راهی سریع برای یک شبکه عصبی برای روانکاری داده ها و نمایش نه تنها پیش بینی بلکه همچنین سطح اطمینان مدل بر اساس کیفیت داده های موجود ایجاد کرده اند. پیشرفت می تواند زندگی را نجات دهد ، زیرا یادگیری عمیق امروزه در دنیای واقعی جای گرفته است. سطح امنیت شبکه می تواند تفاوت بین یک وسیله نقلیه مستقل باشد ، که بیان می کند “برای عبور از تقاطع همه چیز روشن است” و “احتمالاً روشن است ، بنابراین برای هر مورد متوقف شوید.”

روش های فعلی برای تخمین عدم قطعیت برای شبکه های عصبی از نظر محاسباتی گران و برای کسری های ثانیه نسبتاً کند هستند. اما رویکرد امینی ، “رگرسیون شواهد عمیق” نامیده می شود ، روند را تسریع می کند و می تواند به نتایج ایمن تری منجر شود. امینی ، دانشجوی دکترای گروه پروفسور دانیلا روس در آزمایشگاه علوم رایانه ای و هوش مصنوعی MIT (CSAIL) گفت: “ما نه تنها توانایی داشتن مدل های با کارایی بالا ، بلکه همچنین درک این توانایی را داریم.” )

“این ایده مهم است و به طور گسترده قابل استفاده است. می توان از آن برای ارزیابی محصولاتی استفاده کرد که به مدلهای علمی متکی هستند. با ارزیابی عدم اطمینان یک مدل علمی ، ما همچنین می آموزیم که چقدر خطا از مدل انتظار داریم و داده های از دست رفته می توانند بهبود بخشند. روس می گوید.

امینی این مطالعه را در كنفرانس NeurIPS ماه آینده همراه با راس كه استاد مهندسی برق و علوم رایانه اندرو است و ارنا ویتربی ، مدیر CSAIL و معاون تحقیقات در MIT دانشكده محاسبات استیون A. شوارتزمن ارائه می دهند. و دانشجویان تحصیلات تکمیلی ویلکو شوارتینگ از MIT و Ava Soleimany از MIT و هاروارد.

عدم اطمینان موثر

پس از یک داستان بالا و پایین ، آموزش عمیق اثربخشی قابل توجهی را در کارهای مختلف نشان داده است ، حتی در برخی موارد از دقت انسان فراتر رفته است. به نظر می رسد حتی امروز ، یادگیری عمیق به هر کجا که کامپیوتر باشد می رود. این نتایج موتور جستجو ، خبرهای رسانه های اجتماعی و تشخیص چهره را تغذیه می کند. امینی می گوید: “ما با استفاده از آموزش های عمیق موفقیت زیادی کسب کردیم.” “شبکه های عصبی واقعاً در 99 درصد مواقع می توانند پاسخ صحیح را بدانند.” اما وقتی زندگی آنلاین است 99 درصد آن را کاهش نمی دهد.

امینی می گوید: “نکته ای که محققان از آن گریخته اند ، توانایی این مدل ها در شناخت و گفتن به ما است که چه زمانی ممکن است اشتباه باشد.” “ما واقعاً به این 1 درصد از مواقع اهمیت می دهیم و اینکه چگونه می توانیم این شرایط را به طور مطمئن و م effectivelyثر تشخیص دهیم.”

شبکه های عصبی می توانند عظیم باشند ، گاهی اوقات با میلیاردها پارامتر پر می شوند. بنابراین این می تواند یک محاسبات سنگین باشد ، فقط برای گرفتن جواب ، چه رسد به یک سطح اطمینان. تجزیه و تحلیل عدم اطمینان در شبکه های عصبی موضوع جدیدی نیست. اما رویکردهای قبلی ناشی از آموزش عمیق بیز برای درک اعتماد به نفس وی بارها به نمونه برداری از شبکه یا شبکه عصبی متکی بوده است. این فرایند به زمان و حافظه نیاز دارد ، لوکسی که ممکن است در ترافیک پرسرعت وجود نداشته باشد.

محققان راهی برای تخمین عدم قطعیت فقط یک عملکرد شبکه عصبی ابداع کرده اند. آنها شبکه را با خروجی حجیم طراحی کردند ، نه تنها یک راه حل بلکه توزیع احتمال جدید ، از جمله شواهدی در حمایت از این راه حل تولید می کنند. این توزیع ها که توزیع های اثبات نامیده می شوند ، مستقیماً اطمینان مدل را از پیش بینی خود جلب می کنند. این شامل هر گونه عدم اطمینان موجود در داده های ورودی اصلی و همچنین در راه حل نهایی مدل است. این تمایز می تواند نشان دهد که آیا با تغییر در شبکه عصبی یا عدم ورود فقط می توان عدم اطمینان را کاهش داد.

بررسی اعتماد به نفس

محققان برای آزمایش روش خود ، کار با چالش بینایی رایانه را آغاز کردند. آنها شبکه عصبی خود را برای تجزیه و تحلیل تصویر رنگی یک چشم و محاسبه مقدار عمق (یعنی فاصله از لنز دوربین) برای هر پیکسل آموزش دادند. وسیله نقلیه خودمختار می تواند محاسبات مشابهی را برای ارزیابی مجاورت خود با عابر پیاده یا وسیله نقلیه دیگر استفاده کند ، که کار ساده ای نیست.

عملکرد شبکه آنها با مدلهای مدرن قبلی برابر بود ، اما همچنین توانایی محاسبه عدم اطمینان خود را نیز داشت. همانطور که محققان امیدوار بودند ، شبکه عدم قطعیت بالا برای پیکسل ها را پیش بینی کرد ، جایی که عمق اشتباه را پیش بینی کرد. امینی می گوید: “این در برابر اشتباهاتی که شبکه مرتکب می شود بسیار کالیبره شده است ، که فکر می کنیم یکی از مهمترین موارد در ارزیابی کیفیت ارزیابی کننده عدم اطمینان جدید بود.”

این تیم همچنین برای آزمایش استرس در کالیبراسیون خود ، نشان داد که شبکه عدم اطمینان بیشتری را برای داده های “خارج از گسترش” پیش بینی کرده است – انواع کاملاً جدیدی از تصاویر که در طول آموزش هرگز مشاهده نشده اند. آنها پس از آموزش شبکه برای صحنه های داخل سالن ، آنها را با گروهی از صحنه های رانندگی در فضای باز تغذیه کردند. این شبکه دائماً هشدار می داد كه پاسخ های وی نسبت به صحنه های جدید در فضای باز نامشخص است. این آزمون توانایی سیگنالینگ شبکه را درصورتی که کاربران نیازی به اعتماد کامل به راه حل های آن ندارند برجسته می کند. در این موارد ، “امینی” می گوید ، “اگر این یک برنامه مراقبت های بهداشتی باشد ، ممکن است به تشخیصی که مدل ارائه می دهد اعتماد نکنیم و در عوض نظر دوم را جویا شویم.”

این شبکه حتی می دانست که چه زمان عکس گرفته شده است ، به طور بالقوه در برابر حملات دستکاری داده ها محافظت می کند. در مطالعه دیگری ، محققان سطح سر و صدای مسابقه را در گروهی از تصاویر ارسال شده به وب افزایش دادند. این اثر ظریف بود – به سختی برای چشم انسان قابل درک است – اما شبکه این تصاویر را بو می کشد و نتیجه آن را با عدم اطمینان زیاد نشان می دهد. این توانایی هشدار به اطلاعات جعلی می تواند به شناسایی و جلوگیری از حملات مسابقه ای کمک کند ، نگرانی فزاینده در عصر جعل عمیق.

رگرسیون شواهد عمیق “یک رویکرد ساده و ظریف است که در زمینه ارزیابی عدم اطمینان پیشرفت می کند ، که برای رباتیک و دیگر سیستم های کنترل دنیای واقعی مهم است” ، رایا هادسل ، محقق هوش مصنوعی در DeepMind که درگیر نبود کار کردن “این کار به روشی جدید انجام می شود که از برخی جنبه های کثیف سایر رویکردها – مانند نمونه برداری یا گروه ها – جلوگیری می کند ، که باعث می شود آن علاوه بر زیبایی بلکه در محاسبات نیز کارآمدتر باشد – یک ترکیب برنده.”

رگرسیون مشهود عمیق می تواند باعث افزایش ایمنی در تصمیم گیری با کمک AI شود. “ما شروع به دیدن تعداد بیشتری از آنها می کنیم [neural network] مدل ها از آزمایشگاه تحقیق و به دنیای واقعی نشت می کنند ، به موقعیت هایی می رسند که افراد را با عواقب بالقوه تهدید کننده زندگی لمس می کند. ” هر استفاده کننده از روش ، اعم از پزشک یا شخصی که روی صندلی مسافر خودرو است ، باید از هر گونه خطر یا عدم اطمینان مرتبط با این تصمیم آگاه باشد. “این سیستم نه تنها به منظور نشان دادن سریع عدم قطعیت ، بلکه همچنین استفاده از آن برای تصمیم گیری محافظه کارانه تر در سناریوهای پرخطر به عنوان یک وسیله نقلیه خودمختار که به یک تقاطع نزدیک می شود ، فراهم می کند.

وی گفت: “هر زمینه ای که دارای یادگیری ماشینی قابل استفاده باشد ، در نهایت باید احساس عدم اطمینان کافی داشته باشد.”

این کار تا حدی توسط بنیاد ملی علوم و انستیتوی تحقیقات تویوتا از طریق مرکز تحقیقات مشترک Toyota-CSAIL پشتیبانی شد.

[ad_2]

منبع: packge-news.ir