Właściwości wartości informacji

Można by zapytać, czy informacja może być szkodliwa: czy rzeczywiście może mieć ujemną wartość oczekiwaną? Intuicyjnie należy się spodziewać, że będzie to niemożliwe. W końcu w najgorszym przypadku można po prostu zignorować informacje i udawać, że nigdy ich nie otrzymaliśmy. Potwierdza to następujące twierdzenie, które dotyczy dowolnego agenta decyzyjno-teoretycznego korzystającego z dowolnej sieci decyzyjnej z możliwymi obserwacjami Ej: Oczekiwana wartość informacji jest nieujemna:

Twierdzenie wynika bezpośrednio z definicji VPI, a dowód zostawiamy jako ćwiczenie. Jest to oczywiście twierdzenie o wartości oczekiwanej, a nie rzeczywistej. Dodatkowe informacje mogą łatwo doprowadzić do planu, który okaże się gorszy niż pierwotny plan, jeśli informacje te wprowadzają w błąd. Na przykład badanie lekarskie, które daje fałszywie dodatni wynik, może prowadzić do niepotrzebnej operacji; ale to nie znaczy, że test nie powinien być wykonywany. Należy pamiętać, że VPI zależy od aktualnego stanu informacji. Może się zmienić w miarę zdobywania większej ilości informacji. Dla dowolnego dowodu Ej, wartość jego pozyskania może spaść (np. jeśli inna zmienna silnie ogranicza a posteriori dla Ej) lub w górę (np. jeśli inna zmienna dostarcza wskazówki, na której opiera się Ej, umożliwiając nowe i lepsze planowany do opracowania). Zatem VPI nie jest addytywny. To znaczy,

VPI jest jednak niezależne od zamówienia. To znaczy,

gdzie notacja VPI(·|E) oznacza VPI obliczoną zgodnie z rozkładem a posteriori, gdzie E jest już obserwowane. Niezależność porządku odróżnia działania wykrywające od zwykłych działań i upraszcza problem obliczania wartości sekwencji działań czujnikowych.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *