Wyjaśnialna sztuczna inteligencja (XAI)

https://aie24.pl/

Wykazywanie wyjaśnień tylko dla poprawnej metody lub klasy jest mylące i niewystarczające. Takie podejście może wywołać fałszywe zaufanie do metody wyjaśniania i czarnej skrzynki. Taka sytuacja może wystąpić, gdy mapy istotności (w wizji komputerowej mapa istotności to obraz, który pokazuje unikalną jakość każdego piksela) są wyjaśnieniami, ponieważ mają tendencję do podkreślania krawędzi, zapewniając w ten sposób podobne wyjaśnienia dla każdej klasy. Te wyjaśnienia mogą być identyczne, nawet jeśli model jest zawsze błędny.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *