Problem zarządzania zaufaniem występuje we wszystkich rozproszonych, otwartych systemach, w których uczestnicy (agenci) działają w sytuacji niepewności: wyniki ich działań są bowiem uzależnione od działań innych, autonomicznych agentów, którzy nie podlegają centralnej kontroli. Jako przykład można się posłużyć rozproszonymi obliczeniami w systemie Grid. Samolubni agenci (selfish agents) mogą manipulować przydziałem zadań w systemie poprzez nieprawidłowe raportowanie informacji o obciążeniu do algorytmu przydziału zadań (rozproszonego lub scentralizowanego). Algorytm przydziału zadań działający w systemie Grid nie będzie wtedy mógł znaleźć optymalnego rozwiązania. System zarządzania zaufaniem ma na celu podjęcie decyzji, czy można zaufać danym o obciążeniu podawanym przez agenta, oraz powinien motywować agentów do prawidłowego działania. Innym przykładem może być ryzyko nadużycia uprawnień przez autoryzowanych użytkowników w sieci komputerowej. System zarządzania zaufaniem może wtedy podjąć negatywną decyzję o autoryzacji lub o zwiększeniu obserwacji mało zaufanych użytkowników. Problem zarządzania zaufaniem można zdefiniować następująco: Zarządzanie zaufaniem pozwala agentom na podejmowanie decyzji dotyczących zachowania innych agentów w sytuacji niepewności oraz motywuje agentów do poprawnego działania. Kluczową składową systemu zarządzania zaufaniem jest moduł obliczający zaufanie. Moduł ten posługuje się dowodami zgromadzonymi w repozytorium systemu. Dowody to obserwacje, czyli informacje o zachowaniu innych agentów zgromadzone bezpośrednio przez agenta obliczającego zaufanie; raporty, czyli informacje o zachowaniu innych agentów zgromadzone przez agentów trzecich; oraz rekomendacje, czyli informacje o zaufaniu przekazywane od innych agentów. W niektórych zastosowaniach korzysta się tylko z jednego rodzaju dowodów, na przykład z raportów – na ich podstawie oblicza się reputację, czyli ocenę intencji agenta, opartą na zachowaniu agenta w przeszłości. Reputacja może zostać użyta do określenia zaufania. Inną ważną składową jest moduł obliczający ryzyko; decyzja podejmowana przez system zarządzania zaufaniem zależy łącznie od zaufania oraz ryzyka. (W uproszczeniu, im wyższe ryzyko, tym wyższe musi być zaufanie). Należy zwrócić uwagę, że moduły obliczające zaufanie i ryzyko działają dynamicznie i aktualizują swoje wyniki po otrzymaniu nowych danych. Jeśli agent otrzymuje żądanie interakcji, może najpierw skorzystać z modułu uwierzytelnienia, żeby ustalić tożsamość żądającego agenta. Następnie korzysta z informacji zgromadzonych przez moduły obliczające zaufanie i ryzyko. Na podstawie tych informacji podejmowana jest decyzja o interakcji. Decyzja ta może dotyczyć odmowy interakcji lub sposobu wykonania żądanej interakcji, na przykład przekazania jej do arbitra, zwiększenia obserwacji lub decyzji o szeregowaniu zadania w systemie Grid. Celem projektu jest rozwój algorytmów i protokołów zarządzania zaufaniem w dziedzinach zastosowań rozproszonych, otwartych systemów, takich jak:
Projekt ma na celu utworzenie uniwersalnych algorytmów i protokołów zarządzania zaufaniem oraz zastosowanie metod z dziedziny wspomagania decyzji w warunkach niepewności do poprawy działania systemów zarządzania zaufaniem. Uniwersalne metody będą badane poprzez symulacje, które sprawdzą ich odporność na manipulacje (przy użyciu opracowanych modeli adwersarzy), a także ich wrażliwość na zmiany zachowania agenta. Nowe algorytmy zarządzania zaufaniem będą testowane i udoskonalane w celu zastosowania w każdej z rozważanych dziedzin, korzystając między innymi z realistycznych eksperymentów w laboratorium Planetlab. Wymagania funkcjonalne każdej z dziedzin będą uwzględniane przy projektowaniu i udoskonalaniu algorytmów, a rozwiązania sprawdzone w jednej z dziedzin mogą zostać przeniesione do drugiej dziedziny zastosowań. |
Projects >