Pregled bibliografske jedinice broj: 1212015
Uporaba metoda objašnjivosti nad modelima strojnog učenja u svrhu razvoja sustava za očuvanje kibernetičke sigurnosti
Uporaba metoda objašnjivosti nad modelima strojnog učenja u svrhu razvoja sustava za očuvanje kibernetičke sigurnosti, 2022., diplomski rad, diplomski, Zagreb
CROSBI ID: 1212015 Za ispravke kontaktirajte CROSBI podršku putem web obrasca
Naslov
Uporaba metoda objašnjivosti nad modelima strojnog učenja u svrhu razvoja sustava za očuvanje kibernetičke sigurnosti
(Using Explanatory Methods on Machine Learning Models as a Part of Cybersecurity System Development)
Autori
Krznarić, Sanja
Vrsta, podvrsta i kategorija rada
Ocjenski radovi, diplomski rad, diplomski
Mjesto
Zagreb
Datum
05.07
Godina
2022
Stranica
66
Mentor
Pintar, Damir
Ključne riječi
strojno učenje ; objašnjivost ; kibernetička sigurnost ; CICIDS2017 ; agnostičke metode
(machine learning ; interpretability ; cybersecurity ; CICIDS2017 ; model agnostic methods)
Sažetak
U današnje vrijeme, kada se većina ekonomskih, komercijalnih, kulturalnih, socijalnih i upravnih aktivnosti odvija "online", kibernetička sigurnost ima vrlo važnu ulogu. Eksponencijalni rast broja i raznolikosti kibernetičkih napada doveo je do potrebe za automatizacijom procesa ekstrakcije znanja iz svakim danom sve većeg broja podataka, a idealnim alatom za to pokazalo se strojno učenje. Kako bi modelima strojnog učenja implementiranima u svrhe očuvanja kibernetičke sigurnosti bilo moguće vjerovati, odnosno kako bi se povećala količina ljudskog znanja o domeni te spriječile potencijalne netočne i nepouzdane predikcije, potrebno je da implementirani modeli budu interpretabilni. Interpretabilnost modela strojnog učenja moguće je postići korištenjem "white-box" modela koji su jednostavni te pri treningu koriste metode koje ekstrahiraju znanje u ljudski interpretabilnom obliku, no takvi modeli često nisu dovoljno kompleksni te ih svojim performansama nadmašuju puno moćniji, no nažalost neinterpretabilni "black-box" modeli. Potreba za iskorištavanjem prediktivne moći "black-box" modela uz zadržavanje interpretabilnosti dovela je do razvoja područja objašnjivosti u strojnom učenju. Ovaj rad fokusira se na korištenje agnostičkih metoda objašnjivosti kako bi se interpretirao rad "black-box" modela treniranih nad skupom podataka vezanim uz kibernetičku sigurnost. Globalne agnostičke metode korištene su u svrhu generalne interpretacije te potencijalne redukcije broja značajki implementiranih modela, dok su lokalne agnostičke metode korištene u svrhu dobivanja detaljnih objašnjenja nad individualnim predikcijama. Rezultati "black-box" modela te pravila ekstrahirana agnostičkim metodama uspoređeni su s rezultatima i pravilima ekstrahiranima iz "white-box" modela treniranih pod istim uvjetima nad istim podatkovnim skupom.
Izvorni jezik
Hrvatski
Znanstvena područja
Elektrotehnika, Računarstvo
POVEZANOST RADA
Ustanove:
Fakultet elektrotehnike i računarstva, Zagreb
Profili:
Damir Pintar
(mentor)