Gépi tanulási algoritmusok védekezési módszerei

OData támogatás
Konzulens:
Lestyán Szilvia
Hálózati Rendszerek és Szolgáltatások Tanszék

A napjainkban rendelkezésre álló hatalmas mennyiségű adat es számítási kapacitás lehetővé tette, hogy a legmodernebb gépi tanulási modellek az emberi teljesítőképességgel is versenybe szállhassanak. Emiatt a neurális hálózatokat olyan rendszerekbe implementálják, ahol döntéseik megbízhatóbbak, mint az embereké. A legújabb tanulmanyok azonban rámutattak arra, hogy a mély tanulási rendszerek következetesen hibásan osztályozzák a támadói mintákat, amelyeket természetesen előforduló képek módosításával alakítanak ki. Ezek gyakran nem érzékelhetők az emberek által, és komoly fenyegetést jelentenek a vizuális felismeréshez használt neurális hálózatokra. Szakdolgozatom elsődleges célja, hogy olyan hatékony védelmi technikákat mutassak be, amelyek megakadályozzák azt, hogy a támadói minták megtévesszék a mély tanulási rendszereket és hogy bemutassam képességeiket. Azt is megvizsgálom, hogyan tanítják a neurális hálózatokat, és tanulási folyamatuk hibáit, amelyek lehetővé teszik az támadói minták létrehozását.

Letölthető fájlok

A témához tartozó fájlokat csak bejelentkezett felhasználók tölthetik le.