[ad_1]

شبکه های عصبی عمیق ، سیستم های چند لایه ساخته شده برای پردازش تصاویر و سایر داده ها با استفاده از مدل سازی ریاضی ، سنگ بنای هوش مصنوعی هستند.

اگر شبکه ای که یک اتومبیل خودران را هدایت می کند ، علامت توقف را به درستی تعبیر نکند ، آنها می توانند نتایج به ظاهر پیچیده ای داشته باشند ، اما از راه های مختلف نسبتاً بی ضرر – شناسایی نادرست یک حیوان به حیوان دیگر – تا بالقوه کشنده می توانند گمراه کننده باشند. که ادامه آن را ایمن نشان می دهد.

یک فیلسوف از دانشگاه هوستون در مقاله ای منتشر شده در هوش ماشین طبیعت که ممکن است فرضیات رایج در مورد علت این خرابی های ادعا شده اشتباه باشد ، اطلاعاتی که برای ارزیابی قابلیت اطمینان این شبکه ها بسیار مهم است.

از آنجا که یادگیری ماشینی و سایر اشکال هوش مصنوعی بیشتر در جامعه قرار می گیرد و در همه موارد از صندوق های خودکار گرفته تا سیستم های امنیت سایبری مورد استفاده قرار می گیرد ، کامرون باکنر ، استادیار فلسفه در دانشگاه UH ، گفت که درک منبع بسیار مهم است. از شکستهای آشکار ناشی از آنچه محققان “مثالهای مسابقه ای” می نامند ، هنگامی که یک سیستم شبکه عصبی عمیق هنگام برخورد با اطلاعات خارج از ورودی های یادگیری مورد استفاده برای ساخت شبکه ، تصاویر یا داده های دیگر را بد قضاوت می کند. آنها نادر هستند و “مسابقه ای” نامیده می شوند زیرا اغلب توسط یک شبکه یادگیری ماشین دیگر ایجاد می شوند یا کشف می شوند – چیزی مانند سرعت در جهان یادگیری ماشین بین روش های پیچیده تر برای ایجاد نمونه های مسابقه و روش های پیچیده تر برای آنها کشف و جلوگیری از

باكنر گفت: “بعضی از این مسابقات مسابقه ای در عوض می توانند مصنوعات باشند و ما باید بدانیم كه آنها چه چیزی هستند تا بدانیم كه این شبکه ها چقدر قابل اعتماد هستند.”

به عبارت دیگر ، وقفه اشتعال می تواند ناشی از تعامل بین آنچه شبکه باید پردازش کند و مدلهای واقعی که در آن دخیل هستند ، باشد. این دقیقاً همان اشتباه کامل نیست.

باكنر نوشت: “فهم مفاهیم مثالهای مسابقه ای مستلزم بررسی احتمال سوم است: حداقل بعضی از این مدلها مصنوعات هستند.” “… بنابراین ، در حال حاضر صرفاً صرفاً برای رد این مدل ها و هم خطراتی در استفاده ساده لوحانه آنها وجود دارد.”

وقایع ضد و نقیضی که باعث اشتباه این سیستم های یادگیری ماشین می شوند لزوماً ناشی از سو abuseاستفاده عمدی نیستند ، اما بیشترین خطر را به دنبال دارد.

باكنر گفت: “این بدان معنی است كه شركت كنندگان مخرب می توانند سیستم هایی را كه به یك شبكه قابل اعتماد دیگر متكی هستند فریب دهند.” “این برنامه های امنیتی دارد.”

سیستم امنیتی مبتنی بر فناوری تشخیص چهره را می توان هک کرد تا اجازه دهد مثلاً نقض شود یا برگه های برچسب بر روی علائم جاده ای قرار بگیرند که باعث سو cars تعبیر خودروها از علامت می شوند ، حتی اگر از نظر ناظر بی خطر باشند.

تحقیقات قبلی نشان داده است ، برخلاف تصورات قبلی ، مثالهای متناقضی به طور طبیعی وجود دارد – لحظاتی که سیستم یادگیری ماشین به جای اینکه از طریق خطای داده ، از طریق تعامل پیش بینی نشده ، داده ها را سو mis تفسیر کند. آنها نادر هستند و تنها با استفاده از هوش مصنوعی قابل تشخیص هستند.

اما آنها واقعی هستند و باكنر اظهار داشت كه وی نیاز به بازنگری در نحوه برخورد محققان با ناهنجاری ها یا مصنوعات را مطرح می كند.

این مصنوعات به خوبی درک نشده اند. باکنر قیاس بازتاب لنز در عکس را پیشنهاد می کند – پدیده ای که به دلیل نقص در لنز دوربین ایجاد نمی شود ، بلکه در عوض با تعامل نور با دوربین ایجاد می شود.

اگر می دانید چگونه تفسیر کنید ، درخشش لنز به طور بالقوه اطلاعات مفیدی را ارائه می دهد – مانند مکان خورشید. به گفته وی ، این مسئله این سال را ایجاد می کند که آیا یادگیری ماشینی حوادث ناگوار ناشی از یک مصنوعات نیز دارای اطلاعات مفیدی است؟

باكنر گفت ، به همان اندازه مهم این است كه این روش جدید تفكر در مورد چگونگی اثرات مصنوعی می تواند بر روی شبكه های عصبی عمیق تأثیر بگذارد ، نشان می دهد كه خوانش نادرست از وب نباید به طور خودكار دلیل بر عدم یادگیری عمیق تلقی شود. معتبر.

وی گفت: “برخی از این مسابقات مسابقه ای می تواند مصنوعات باشد.” “ما باید بدانیم که این مصنوعات چیستند تا بتوانیم از قابلیت اطمینان شبکه ها مطلع شویم.”

منبع تاریخچه:

مواد تهیه شده توسط دانشگاه هوستون. اصلی ، نوشته شده توسط جانی کوور. توجه: مطالب را می توان از نظر سبک و طول ویرایش کرد.

[ad_2]

منبع: packge-news.ir