Narzędzia użytkownika

Narzędzia witryny


notatki:ai_niepewnosc

Różnice

Różnice między wybraną wersją a wersją aktualną.

Odnośnik do tego porównania

Poprzednia rewizja po obu stronachPoprzednia wersja
Nowa wersja
Poprzednia wersja
notatki:ai_niepewnosc [2025/05/23 14:46] – utworzono administratornotatki:ai_niepewnosc [2025/06/06 10:12] (aktualna) – usunięto administrator
Linia 1: Linia 1:
-====== AI: Niepewność w wiedzy w systemach AI ====== 
- 
- 
-> KIERUNKI (PODEJŚCIA) W ROZWOJU AI 
- 
-> {{:notatki:ai1:image2.png?660x519}} 
- 
- 
- 
-**Niepewność wiedzy** 
- 
-> //Załóżmy, ze zadaniem inżyniera wiedzy jest dobór właściwej reprezentacji wiedzy dla następującego fragmentu wiedzy medycznej, która będzie//\\ 
-> //zapisana w bazie wiedzy przyszłego systemu ekspertowego wspomagającego diagnozę w przypadku chorób serca:// 
- 
-^^> ”Miażdżyca powoduje często zwężenie tętnic wieńcowych. Prowadzi to\\ zazwyczaj do zmniejszenia przepływu krwi w tych naczyniach, co może wywołać\\ \\ niedotlenienie mięśnia sercowego, zwłaszcza przy wysiłku fizycznym”.^^ 
- 
-> //Wykorzystując reprezentacje wiedzy w postaci rachunku predykatów (czy np. reguł w postaci klauzul Horna) inżynier wiedzy zmuszony byłby//\\ 
-> //do przekształcenia powyższego zdania do ścisłej formy umożliwiajacej//\\ 
-> //zastosowanie klarownych implikacji:// 
- 
-^”Miażdżyca powoduje zwężenie tętnic wieńcowych. Prowadzi to do zmniejszenia^ 
- 
-^> przepływu krwi w tych naczyniach, co wywołuje niedotlenienie mięśnia^ 
- 
-^> sercowego przy wysiłku fizycznym”.^ 
- 
- 
- 
-**Niepewność wiedzy** 
- 
-> Niestety prowadzi to do znacznej **radykalizacji** prezentowanych stwierdzeń oraz potencjalnych problemów z odwzorowaniem ostatniej części zdania. 
- 
-> Najważniejszą wadą jest uniemożliwienie przywiązania różnych wag do poszczególnych symptomów. 
- 
-> Lekarz bowiem jest zainteresowany informacjami o dużo subtelniejszej naturze niż stwierdzenie, ze __pacjent z miażdżycą ma niedotlenionymięsień sercowy (__co wydaje __sie oczywiste lecz nie zawsze prawdz__iwe). 
- 
-> Kardiolog może oczekiwać od przyszłego systemu ekspertowego, że będzie ”umiał” on odpowiedzieć np. na pytania: 
- 
-> ▪ jaki ma wpływ wysiłek fizyczny na niedotlenienie mięśnia sercowego u ludzi z jednakowo posuniętą miażdżycą, wykonujących wysiłek fizyczny o różnym natężeniu? 
- 
-> ▪w jakim stopniu człowiek u którego nie występuje niedotlenienie z powodu wysiłku, narażony jest na zwężenie tętnic z powodu miażdżycy? 
- 
- 
- 
-**Niepewność wiedzy** 
- 
-> Wiedza uzyskana od ekspertów jest często 
- 
-> ● niepewna;\\ 
-> ● niekompletna;\\ 
-> ● niespójna;\\ 
-> ● **niedoskonała.** 
- 
-> Systemy ekspertowe muszą być w stanie radzić sobie z wiedzą tego typu. 
- 
- 
- 
-**Niepewność wiedzy** 
- 
-> Istnieją różne podejścia umożliwiające odwzorowanie\\ 
-> przykładowego fragmentu wiedzy medycznej w swej pierwotnej postaci oraz umożliwiające realizacje\\ 
-> procesu wnioskowania również w przypadku postawionych poprzednio pytań. 
- 
-> Podejścia te opierają się zwykle na metodach numerycznych. 
- 
-> Do najważniejszych należą **metody**:\\ 
-> ▪**probabilistyczne,**\\ 
-> ▪**wielowartościowe,**\\ 
-> ▪**rozmyte**\\ 
-> ▪**wykorzystujące teorię Dempstera-Shafera.** 
- 
- 
- 
-> Idea metod probabilistycznych i rozmytych 
- 
-> {{:notatki:ai1:image3.png?877x577}} 
- 
- 
- 
-**Niepewność wiedzy** 
- 
-> Eksperci są w stanie podejmować decyzje w oparciu o swoją często niedoskonałą wiedzę. 
- 
-> Systemy ekspertowe również muszą być w stanie radzić sobie z wiedzą tego typu. 
- 
-^> **Niepewność** można zdefiniować **jako brak dokładnej wiedzy, tzn. takiej, która umożliwia podejmowanie w**^ 
- 
-^> **pełni uzasadnionych decyzji i w pełni wiarygodnych wniosków**.^ 
- 
- 
- 
-> **Czym jest niepewność?** Z formalnego punktu widzenia 
- 
-> Klasyczna logika zakłada, że dostępna wiedza jest doskonała oraz że zawsze jest spełnione **prawo wyłączonego środka:** 
- 
-> **IF A jest TRUE THEN A nie jest FALSE IF A jest FALSE THEN A nie jest TRUE** 
- 
- 
- 
-**Źródła niepewności** 
- 
-> ● Nieprecyzyjność języka naturalnego\\ 
-> ● Trudności ze sformułowaniem zależności w postaci reguł● Łączenie wiedzy kilku ekspertów\\ 
-> ● Niekompletność danych, na których system ma 
- 
-> operować 
- 
- 
- 
-> **Nieprecyzyjność języka naturalnego** 
- 
-^> ● Always 99^> ● Always 100^ 
- 
-^> ● Very often 88\\ ● Usually 85\\ ● Sometimes 20● Usualluy not 10● Never 0^> ● Very often 87\\ ● Usually 79\\ ● Sometimes 29● Usualluy not 16● Never 0^ 
- 
- 
- 
-> **Łączenie wiedzy kilku ekspertów** 
- 
-> W rozwoju systemów ekspertowych bierze udział wielu 
- 
-> ekspertów. 
- 
-> Eksperci często mają odmienne zdanie na dany temat. 
- 
-> Ich wiedza często jest na różnym poziomie w zależności od 
- 
-> zagadnienia w danej dziedzinie. 
- 
- 
- 
-> Metody umożliwiające reprezentacje niepewności wiedzy: 
- 
-> ▪**probabilistyczne,** 
- 
-> ▪**wielowartościowe,**\\ 
-> ▪**rozmyte** 
- 
-> ▪**wykorzystujące teorię**\\ 
-> **Dempstera-Shafera.** 
- 
- 
- 
-> **Metody probabilistyczne** **POJĘCIA PODSTAWOWE** 
- 
- 
- 
-> **Systemy ekspertowe i wiedza niepewna** Załóżmy, że mamy regułę w postaci: 
- 
-> **IF E is TRUE THEN H is TRUE {z prawd. p}** Reguła ta mówi, że jeśli wystąpi **E to H** wystąpi z 
- 
-> prawdopodobieńśtwem **p.** 
- 
-> IF jest ładna pogoda THEN może pójdę na spacer {0.9} 
- 
-> E: pogoda jest ładna 
- 
-> H: może pójdę na spacer 
- 
- 
- 
-> {{:notatki:ai1:image4.png?949x700}} 
- 
-{{:notatki:ai1:image5.png?960x702}} 
- 
-**Teoria prawdopodobieństwa** 
- 
-> ● Prawdopodobieństwo zdarzenia A to liczba z przedziału 
- 
-> [0,1] wyrażająca proporcję przypadków, kiedy dane 
- 
-> zdarzenie zachodzi. 
- 
-> ● p(A) = 0 – całkowita niemożliwość● p(A) = 1 – całkowita pewność 
- 
-> Jeśli wynikiem może być sukces lub porażka: 
- 
-> p(sukces) = liczba_sukcesów / liczba_prób 
- 
-> p(porażka) = liczba_porażek / liczba_prób 
- 
- 
- 
-> **Aksjomaty prawdopodobieństwa** 
- 
-{{:notatki:ai1:image6.png?816x536}} 
- 
- 
- 
-{{:notatki:ai1:image7.png}}{{:notatki:ai1:image8.png?857x182}}{{:notatki:ai1:image9.png?929x654}} 
- 
-> **Rozkład zmiennej losowej (Gaussa)** 
- 
-1 F(x) 
- 
-> P-wo, że X 
- 
-> mieści się w ∆ 
- 
-f(x) 
- 
-> ∆**m** 
- 
-> 20 
- 
-{{:notatki:ai1:image10.png?957x692}} 
- 
-{{:notatki:ai1:image11.png?960x700}} 
- 
-> **Prawdopodobieństwo warunkowe** 
- 
-> Załóżmy, że zdarzenia A i B nie są wzajemnie 
- 
-> wykluczające się. 
- 
-> Prawdopodobieństwo zdarzenia A może zależeć od tego, 
- 
-> czy miało miejsce zdarzenie B. 
- 
-**p(A|B) = liczba_wystąpień_A_oraz_B / liczba_wystąpień_B** 
- 
-> {{:notatki:ai1:image12.png?390x96}} 
- 
- 
- 
-> **Prawdopodobieństwo warunkowe**\\ 
-> Prawdopodobieństwo tego, że wystąpi A i B nazywamy prawdopodobieństwem łącznym tych zdarzeń. 
- 
-{{:notatki:ai1:image13.png?226x67}} 
- 
-> Zatem prawdopodobieństwo warunkowe definiujemy jako: 
- 
-{{:notatki:ai1:image14.png?615x128}} 
- 
- 
- 
-{{:notatki:ai1:image15.png?332x69}}{{:notatki:ai1:image16.png?486x53}}{{:notatki:ai1:image17.png?416x45}}{{:notatki:ai1:image18.png?488x47}}{{:notatki:ai1:image19.png?929x654}} 
- 
-> **Prawdopodobieństwo warunkowe**\\ 
-> Analogicznie prawdopodobieństwo B pod warunkiem A: 
- 
-Prawdopodobieństwo łączne jest przemienne: 
- 
- 
- 
-**Twierdzenie Bayesa**{{:notatki:ai1:image18.png?384x37}}{{:notatki:ai1:image22.png?24}}{{:notatki:ai1:image23.png}}{{:notatki:ai1:image24.png?24}}{{:notatki:ai1:image25.png?18x24}}{{:notatki:ai1:image26.png?18x24}}{{:notatki:ai1:image27.png?20x24}}{{:notatki:ai1:image28.png?21x22}}{{:notatki:ai1:image29.png?24x25}}{{:notatki:ai1:image30.png?22x25}}{{:notatki:ai1:image31.png?25x25}}{{:notatki:ai1:image32.png?25x25}}{{:notatki:ai1:image33.png?24x25}}{{:notatki:ai1:image34.png?0x34}}{{:notatki:ai1:image35.png?10x34}}{{:notatki:ai1:image36.png?0x34}}{{:notatki:ai1:image37.png?0x36}}{{:notatki:ai1:image38.png?0x34}}{{:notatki:ai1:image39.png?0x34}}{{:notatki:ai1:image40.png?0x34}}{{:notatki:ai1:image41.png?32x30}}{{:notatki:ai1:image42.png?29x32}}{{:notatki:ai1:image43.png?12x42}}{{:notatki:ai1:image44.png?0x44}}{{:notatki:ai1:image14.png?358x74}}{{:notatki:ai1:image45.png?12x42}}{{:notatki:ai1:image46.png?18x20}}{{:notatki:ai1:image47.png?21x20}}{{:notatki:ai1:image48.png?18x21}}{{:notatki:ai1:image49.png?22x24}}{{:notatki:ai1:image50.png?28}}{{:notatki:ai1:image51.png?118x66}}{{:notatki:ai1:image52.png?24x22}}{{:notatki:ai1:image53.png?28}}{{:notatki:ai1:image54.png?24x21}}{{:notatki:ai1:image55.png?22x29}}{{:notatki:ai1:image56.png?533x98}}{{:notatki:ai1:image57.png?541x106}} 
- 
-> {{:notatki:ai1:image20.png?809}} 
- 
-> Analogicznie prawdopodobieństwo B pod warunkiem A: 
- 
-{{:notatki:ai1:image21.png?65x22}} 
- 
-> **Wzór Bayesa** 
- 
-> **p(A) – prawdopodobieństwo zdarzenia A**\\ 
-> **p(B) – prawdopodobieństwo zdarzenia B**\\ 
-> **p(A|B) – prawdopodobieństwo zdarzenia A pod warunkiem, że zaszło zdarzenie B p(B|A) – prawdopodobieństwo zdarzenia B pod warunkiem, że zaszło zdarzenie A** 
- 
-> prawdopodobieństwo zajścia jakiegoś zdarzenia (faktu). Jest to oczywiście 
- 
-> prawdopodobieństwo zajścia zdarzenia A pod warunkiem zdarzenia B - co odpowiada 
- 
-> prostej regule ”**Jezeli B to A”,** którego ogólna postać wygląda następująco: 
- 
- 
- 
-> **Prawdopodobieństwo warunkowe**{{:notatki:ai1:image58.png?742x348}}{{:notatki:ai1:image59.png?554x212}}{{:notatki:ai1:image60.png?736x62}}{{:notatki:ai1:image61.png?407x55}}{{:notatki:ai1:image62.png?28}}{{:notatki:ai1:image63.png?14x20}}{{:notatki:ai1:image64.png?10x14}}{{:notatki:ai1:image65.png}}{{:notatki:ai1:image66.png}}{{:notatki:ai1:image67.png?28}}{{:notatki:ai1:image68.png?16x30}}{{:notatki:ai1:image69.png?12x22}}{{:notatki:ai1:image70.png?20x22}}{{:notatki:ai1:image71.png?25x28}}{{:notatki:ai1:image72.png}}{{:notatki:ai1:image73.png}}{{:notatki:ai1:image74.png?32x32}}{{:notatki:ai1:image41.png?32x30}}{{:notatki:ai1:image75.png?30x30}}{{:notatki:ai1:image76.png?29x41}}{{:notatki:ai1:image77.png?18x38}} 
- 
-> {{:notatki:ai1:image20.png?809}} 
- 
-> W przypadku, gdy A zależy od zdarzeń B1, B2,...,Bn wzajemnie się wykluczających: 
- 
-> wtedy 
- 
- 
- 
-> **Prawdopodobieństwo całkowite** 
- 
-> Jeśli Bi i=1...n wyczerpują wszystkie 
- 
-^> {{:notatki:ai1:image78.png?416x54}}\\ \\ ^{{:notatki:ai1:image79.png?440x196}}^\\ \\ > możliwe zdarzenia:\\ \\ S – zbiór wszystkich możliwych zdarzeń;\\ \\ wtedy prawdopodobieństwo całkowite\\ \\ p(A):^ 
- 
-> {{:notatki:ai1:image80.png?454x65}} 
- 
- 
- 
-> **Prawdopodobieństwo całkowite**{{:notatki:ai1:image81.png?533x178}}{{:notatki:ai1:image80.png?454x65}}{{:notatki:ai1:image82.png?528x51}}{{:notatki:ai1:image83.png?784x48}}{{:notatki:ai1:image84.png?789x54}} 
- 
-> {{:notatki:ai1:image20.png?809}} 
- 
-> Jeśli A zależy jedynie od dwóch wykluczających się zdarzeń, np. **B oraz NOT B**: 
- 
- 
- 
-**Reguła Bayesa** 
- 
-> Analogicznie dla B: 
- 
-> {{:notatki:ai1:image85.png?780x50}} 
- 
-> Korzystając z reguły Bayesa otrzymamy: 
- 
-^{{:notatki:ai1:image56.png?283x52}}^ 
- 
-> {{:notatki:ai1:image86.png?838x98}} 
- 
- 
- 
-**Reguła Bayesa** 
- 
-^> {{:notatki:ai1:image86.png?709x83}}^ 
- 
-> Wzór ten jest podstawą do obsługi **niepewności** w systemach ekspertowych z wykorzystaniem metod probabilistycznych. 
- 
- 
- 
-> **Systemy ekspertowe i wiedza niepewna** Załóżmy, że mamy regułę w postaci: 
- 
-> **IF E is TRUE THEN H is TRUE {z prawd. p}** 
- 
-> Reguła ta mówi, że jeśli wystąpi **E to H** wystąpi z 
- 
-> prawdopodobieńśtwem **p.** 
- 
- 
- 
-{{:notatki:ai1:image87.png?693x78}}{{:notatki:ai1:image88.png?929x654}} 
- 
-> **Systemy ekspertowe i wiedza niepewna** 
- 
-^> **IF E is TRUE THEN H is TRUE {p}**^> Jak\\ obliczyć???^ 
- 
-Wiemy, że **E wystąpiło.** 
- 
-Jak policzyć prawdopodobieństwo, że wystąpiło **H ?** 
- 
-Odpowiedź (reguła Bayesa): 
- 
- 
- 
-> **Systemy ekspertowe i wiedza niepewna** 
- 
-> {{:notatki:ai1:image87.png?692x78}} 
- 
-> **p(H) – prawdopodobieństwo a priori wystąpienia H** 
- 
-> **p(E|H) – prawdopodobieństwo, że jeśli wystąpi H,** to wystąpiło też E 
- 
-> **p(~H) – prawdopodobieństwo a priori nie** wystąpienia H 
- 
-> **p(E|~H) – prawdopodobieństwo, że jeśli nie** wystąpi H, to mimo wszystko wystąpiło E 
- 
-> **p(H|E) – prawdopodobieństwo a posteriori wystąpienia** **H, jeśli wystąpiło E** 
- 
- 
- 
-> **Systemy ekspertowe i wiedza niepewna** 
- 
-> {{:notatki:ai1:image87.png?692x78}} 
- 
-> Prawdopodobieństwa **p(H), p(E|H), p(~H) oraz p(E|~H)** 
- 
-> **są określane przez eksperta bądź też** szacowane 
- 
-> statystycznie. 
- 
- 
- 
-> **Systemy ekspertowe i wiedza niepewna** //Co w przypadku wystąpienia wielu hipotez//? 
- 
-> //(Hipotezy oraz przesłanki (dowody, ang. Evidences) muszą być// 
- 
-> //wzajemnie wykluczające się oraz wyczerpujące).// 
- 
-> {{:notatki:ai1:image89.png?750x113}} 
- 
- 
- 
-> **Systemy ekspertowe i wiedza niepewna** 
- 
-> Co w przypadku wystąpienia wielu przesłanek Ei? 
- 
-> //**(Hipotezy oraz przesłanki (dowody, ang. Evidences) muszą być wzajemnie wykluczające się oraz wyczerpujące).**// 
- 
-> {{:notatki:ai1:image90.png?916x85}} 
- 
-> **Powyższy wzór wymaga obliczenia wszystkich prawdopodobieństw warunkowych dla wszystkich możliwych kombinacji przesłanek Ei oraz hipotez Hi.** 
- 
-{{:notatki:ai1:image91.png?357x64}} 
- 
-> W praktyce jest to często niemożliwe. 
- 
-> W przypadku szacowania na podstawie danych pojawiają się watpliwości o jakość uzyskanych szacowań, jeśli np. przykładowych danych pokrywających dany przypadek jest mało. 
- 
- 
- 
-> **Systemy ekspertowe i wiedza niepewna**\\ 
-> Często zakłada się zatem, że **E1, E2,..., En są wzajemnie** niezależne. 
- 
-> Dwa zdarzenia **A oraz B są określane jako** niezależne wtedy i tylko wtedy, gdy: 
- 
-{{:notatki:ai1:image92.png?438x64}} 
- 
- 
- 
-> **Systemy ekspertowe i wiedza niepewna** Zamiast: 
- 
-> {{:notatki:ai1:image90.png?883x85}} 
- 
-> otrzymujemy zatem: 
- 
-> {{:notatki:ai1:image93.png?876x88}} 
- 
-> Założenie takie nie jest zawsze uzasadnione i może 
- 
-> przyczynić się do błędnego działania systemu. 
- 
- 
- 
-**Przykład** 
- 
-> Warunki **E1, E2 oraz E3 są wzajemnie warunkowo** niezależne. 
- 
-> Trzy hipotezy **H1, H2 oraz H3 są** wzajemnie wykluczające się oraz wyczerpujące. 
- 
-> Ekspert dostarcza prawdopodobieństw a priori **p(H1), p(H2), p(H3)**\\ 
-> oraz prawdopodobieństwa warunkowe\\ 
-> **p(Ei|Hj)**\\ 
-> **Hipoteza** 
- 
-^**Prawdopodobieństwo i=1**                              ^                                       ^**i=2**                                 ^**i=3**                                 ^ 
-|> **p(Hi)**\\ **p(E1|Hi)**\\ **p(E2|Hi)**\\ **p(E3|Hi)**|> **0.4**\\ **0.3**\\ **0.9**\\ **0.6**|                                        |                                        | 
-|                                                        |                                       |> **0.35**\\ **0.8**\\ **0.0**\\ **0.7**|> **0.25**\\ **0.5**\\ **0.7**\\ **0.9**| 
- 
- 
- 
-> **Przykład**\\ 
-> Zakładamy, że jako pierwszy zaobserwowane jest **E3 :** 
- 
-> {{:notatki:ai1:image94.png?580x86}} 
- 
-> {{:notatki:ai1:image95.png?765x70}} 
- 
-> {{:notatki:ai1:image96.png?747x60}} 
- 
-> {{:notatki:ai1:image97.png?754x64}} 
- 
-**Hipoteza** 
- 
-^> **p(Hi)**\\ **p(E1|Hi)**\\ **p(E2|Hi)**\\ **p(E3|Hi)**^> **0.4**\\ **0.3**\\ **0.9**\\ **0.6**^> **0.35 0.8**\\ **0.0**\\ **0.7**^> **0.25**\\ **0.5**\\ **0.7**\\ **0.9**^ 
- 
- 
- 
-^> **p(Hi)**\\ **p(E1|Hi)**\\ **p(E2|Hi)**\\ **p(E3|Hi)**^> **0.4**\\ **0.3**\\ **0.9**\\ **0.6**^> **0.35 0.8**\\ **0.0**\\ **0.7**^> **0.25**\\ **0.5**\\ **0.7**\\ **0.9**^ 
- 
-> Następnie zaobserwowano **E1 :**\\ 
-> Powinno być: 
- 
-> {{:notatki:ai1:image98.png?701x85}} 
- 
-> Ale E1, E2, E3 są warunkowo niezależne, zatem: 
- 
-> {{:notatki:ai1:image99.png?710x81}} 
- 
-> {{:notatki:ai1:image100.png?808x45}} 
- 
-> {{:notatki:ai1:image101.png?808x42}} 
- 
-{{:notatki:ai1:image102.png?801x48}} 
- 
- 
- 
-^> **p(Hi)**\\ **p(E1|Hi)**\\ **p(E2|Hi)**\\ **p(E3|Hi)**^> **0.4**\\ **0.3**\\ **0.9**\\ **0.6**^> **0.35 0.8**\\ **0.0**\\ **0.7**^> **0.25**\\ **0.5**\\ **0.7**\\ **0.9**^ 
- 
-> Następnie zaobserwowano **E2 :** 
- 
-> {{:notatki:ai1:image103.png?861x70}} 
- 
-> {{:notatki:ai1:image104.png?884x45}} 
- 
-> {{:notatki:ai1:image105.png?876x45}} 
- 
-> {{:notatki:ai1:image106.png?884x52}} 
- 
-> Ostatecznie zatem najbardziej prawdopodobna jest hipoteza **H3.** 
- 
- 
- 
-> **Przykład 2 - Prognoza pogody** 
- 
-> **IF dzis jest deszcz**\\ 
-> **THEN jutro jest deszcz** 
- 
-> **IF dzis jest slonce**\\ 
-> **THEN jutro jest slonce** 
- 
-> Zakładamy, że nie mając żadnych innych przesłanek, 
- 
-deszcz jest równie prawdopodobny jak słońce – zatem 
- 
-> prawdopodobieństwa a priori wynoszą 0.5. 
- 
- 
- 
-> **Przykład 2 - Prognoza pogody**\\ 
-> **IF dzis jest deszcz {LS=2.5, LN=0.6}**\\ 
-> **THEN jutro jest deszcz {a priori 0.5}**\\ 
-> **IF dzis jest slonce {LS=1.6, LN=0.4}**\\ 
-> **THEN jutro jest slonce {a priori 0.5}**\\ 
-> **LS (//likelihood of sufficiency) – współczynnik wystarczalności//** 
- 
-> Miara przekonania eksperta, że **H wystąpi, jeśli wystąpiło E.** 
- 
-> **LN (//likelihood of necessity) – współczynnik konieczności//** 
- 
-> Miara przekonania eksperta, na ile **E jest istotny dla wystąpienia H.** 
- 
- 
- 
-> **Przykład 2 - Prognoza pogody IF dzis jest deszcz {LS=2.5, LN=0.6}**\\ 
-> **THEN jutro jest deszcz {a priori 0.5}**\\ 
-> **IF dzis jest slonce {LS=1.6, LN=0.4}**\\ 
-> **THEN jutro jest slonce {a priori 0.5}**\\ 
-> LS (//likelihood of sufficiency) – współczynnik wystarczalności// 
- 
-> Miara przekonania eksperta, że **H wystąpi, jeśli wystąpiło E.** 
- 
-{{:notatki:ai1:image107.png?241x64}} 
- 
-^> **np. dla reguły 1:**^> {{:notatki:ai1:image108.png?641x64}}^ 
-|                                                                                               | 
- 
- 
- 
-> **Przykład 2 - Prognoza pogody** 
- 
-> **IF dzis jest deszcz {LS=2.5, LN=0.6}**\\ 
-> **THEN jutro jest deszcz {a priori 0.5}**\\ 
-> **IF dzis jest slonce {LS=1.6, LN=0.4}**\\ 
-> **THEN jutro jest slonce {a priori 0.5}**\\ 
-> LN (//likelihood of necessity) – współczynnik konieczności//\\ 
-> Miara przekonania eksperta, na ile **E jest istotny dla wystąpienia H.** 
- 
-> {{:notatki:ai1:image109.png?287x62}} 
- 
-^**np. dla reguły 2:**^> {{:notatki:ai1:image110.png?630x82}}^ 
-|                                                                                             | 
- 
- 
- 
-> **Przykład 2 - Prognoza pogody** 
- 
-> **LS nie może być otrzymany z LN ani LN z LS.** 
- 
-> Ekspert musi dostarczyć obie wartości. 
- 
-> Nie jest konieczne szacowanie prawdopodobieństw warunkowych. 
- 
-> **LN oraz LS mogą być szacowane bezpośrednio.** 
- 
-> Wysokie wartości **LS (LS >> 1) wskazuje na to, że reguła mocno wspiera** hipotezę **H jeśli zaobserwowano E.** 
- 
-> Małe wartości **LN (0 < LN < 1) wskazują na to, że reguła mocno** zaprzecza hipotezie **H w przypadku braku E.** 
- 
- 
- 
-> **Przykład 2 - Prognoza pogody Reguła 1:** 
- 
-> **IF dzis jest deszcz {LS=2.5, LN=0.6}**\\ 
-> **THEN jutro jest deszcz {a priori 0.5}**\\ 
-> Reguła ta mówi, że jeśli dziś jest deszcz, to jest 
- 
-> duże prawdopodobieństwo, że jutro również będzie 
- 
-> deszcz (**LS=2.5).** 
- 
-> Ale nawet jeśli dziś nie ma deszczu, istnieje pewna 
- 
-> niewielka szansa na to, by jutro był deszcz. (**LN=0.6)** 
- 
- 
- 
-> **Przykład 2 - Prognoza pogody Reguła 2:** 
- 
-> **IF dzis jest slonce {LS=1.6, LN=0.4}**\\ 
-> **THEN jutro jest slonce {a priori 0.5}**\\ 
-> Jeśli dziś jest słońce, jest duże prawdopodobieństwo, że jutro również będzie słońce (**LS=1.6).** 
- 
-> **LN=0.4 określa jakie są szanse na to, że jutro** będzie słońce jeśli dziś mamy deszcz (**E nie jest** spełnione) 
- 
- 
- 
-> **Zalety szacowania niepewności w oparciu o reguły Bayesa** 
- 
-> ● Dobrze rozwinięta teoria matematyczna. 
- 
-> ● Decyzje oparte na metodzie Bayesa są optymalne (pod warunkiem, że znamy odpowiednie 
- 
-> rozkładyprawdopodobieństw). 
- 
-> ● Wszystkie inne metody podejmowania decyzji mogą być co najwyżej zbieżne do metody Bayesa. 
- 
- 
- 
-**Wady reguły Bayesa** 
- 
-> ● Czasami trzeba czynić nieuprawnione założenia 
- 
-> upraszczające problem (np. założenie o niezależności bądź 
- 
-> warunkowej niezależności między zmiennymi). 
- 
-> ● Badania psychologiczne dowodzą, iż ludziom cieżko jest szacować prawdopodobieństwa – często prawd. A priori są niespójne z prawd. warunkowymi. 
- 
- 
- 
-**SIECI BAYESA** 
- 
- 
- 
-{{:notatki:ai1:image111.png?956x720}} 
- 
-{{:notatki:ai1:image112.png?960x700}} 
- 
-**Definicja sieci Bayesowskiej** 
- 
-> Pod pojęciem sieci Bayesowskiej rozumieć będziemy trójkę: B = {N, E,CP}, 
- 
-> Gdzie: dwójka {N, E} jest zorientowanym grafem acyklicznym zbudowanym na podstawie zadanych 
- 
-> prawdopodobieństw warunkowych zawartych w zbiorze CP. 
- 
-> Inaczej mówiąc: 
- 
-> Sieć Bayesa stanowi numeryczny model związków\\ 
-> przyczynowo-skutkowych zachodzących między elementami 
- 
-> zbioru obserwacji i hipotez. Stosując twierdzenie Bayesa, 
- 
-> można dokonywać zarówno wnioskowania progresywnego 
- 
-> (wnioskowanie w przód), jak i wnioskowania regresywnego (wnioskowanie wstecz). 
- 
- 
- 
-{{:notatki:ai1:image113.png?960x700}} 
- 
-{{:notatki:ai1:image114.png?953x700}} 
- 
-{{:notatki:ai1:image115.png?971x720}} 
- 
-**Przykład syntezy sieci Bayesa** 
- 
-> Załóżmy, że dany jest zbiór pewnych zmiennych identyfikujących obserwacje i hipotezy. Przyjmijmy również, że nie jest dla nas w tym momencie ważne, które elementy tego zbiory są obserwacjami a które hipotezami. Niech zbiór tych zmiennych ma następującą postać: 
- 
-Z = {A, B,C, D, E, F, G, H} 
- 
-> Dane są również informacje opisujące związki przyczynowo-skutkowe pomiędzy tymi zmiennymi w postaci zbiory prawdopodobieństw warunkowych CP: 
- 
-> CP = {P(A), P(B|A), P(C|B), P(C|F), P(D|C), P(E|H), P(F|G), P(G), P(H|G)} 
- 
-> Na podstawie tych informacji możemy zbudować następujący graf skierowany, który po uzupełnieniu zbiorem konkretnych wartości prawdopodobieństw warunkowych opisuje sieć Bayesa: 
- 
-B = {N, E,CP} 
- 
- 
- 
-> co można przedstawić graficznie: 
- 
-> CP = {P(A), P(B|A), P(C|B), P(C|F), P(D|C), P(E|H), P(F|G), P(G), P(H|G)} 
- 
-{{:notatki:ai1:image116.png?269x290}} 
- 
-^Sieć Bayesa stanowi numeryczny model związków przyczynowo-\\ \\ > skutkowych zachodzących pomiędzy elementami zbioru obserwacji i\\ \\ hipotez. Stosując twierdzenie Bayea, można dokonywać zarówno\\ \\ wnioskowania progresywnego (wnioskowanie w przód), jak i\\ \\ wnioskowania regresywnego (wnioskowanie wstecz).^ 
- 
- 
- 
-Przykład sieci Bayesowskiej 
- 
-> W podanym niżej tekście występują pewne zależności przyczynowo skutkowe 
- 
-> opisane liczbowo prawdopodobieństwami warunkowymi. 
- 
-> Należy podać zbiór CP takich prawdopodobieństw warunkowych oraz narysować graf przyczynowo-skutkowy. Czy otrzymany graf jest siecią Bayes’a ? 
- 
-> ▪Jeżeli masz __sporo__ pieniędzy, lubisz szybkie samochody i masz __małą__ rodzinę to stawiam 10 do 100, że kupisz mały, czerwony, sportowy samochód. 
- 
-> ▪Ale jeśli masz sporo pieniędzy, lubisz szybkie samochody i masz sporo dzieci to kupisz na pewno kombi z mocnym silnikiem. 
- 
-> ▪Jeżeli jesteś na stanowisku kierowniczym i dbasz o prestiż to na 50 % kupisz mercedesa ze skórzaną tapicerką. 
- 
-> ▪Jeżeli potrzebujesz jedynie wygodnego , prostego\\ 
-> samochodu to na pewno kupisz auto klasy kompaktowej. ▪J__eżeli jest ci wszystko jedno to na 30 % auto średniej kla__sy 
- 
- 
- 
-Rozwiązanie 
- 
-> O - obserwacje:\\ 
-> • a - mała rodzina (mało dzieci),\\ 
-> • b - sporo pieniędzy,\\ 
-> • c - lubić szybkie samochody,\\ 
-> • e - spora rodzina (sporo dzieci),\\ 
-> • f - stanowisko kierownicze,\\ 
-> • h - posiadany prestiż,\\ 
-> • j - chęć wygodny i prostoty,\\ 
-> • k - obojętność. 
- 
-> H - hipotezy: 
- 
-> • D - czerwony, sportowy samochód,\\ 
-> • G - kombi,\\ 
-> • I - sedan ze skórzaną tapicerką,\\ 
-> • L - samochód kompaktowy,\\ 
-> • M – auto średniej klasy 
- 
-> **CP = {P(D|a, c) = 0.1, P(G|b,e) = 1.0, P(I| f, h) = 0.5, P(L|j) = 1.0, P(M|k) = 0.3}** 
- 
- 
- 
-Reprezentacja graficzna: 
- 
-^> {{:notatki:ai1:image117.png?261x349}}^> {{:notatki:ai1:image118.png?209x335}}^ 
- 
-> Jak widać graf jest skierowany (dokładnie określone są kierunki\\ 
-> wnioskowania), jest on acykliczny (gdyż nie zawiera żadnych cykli), zatem jest on siecią Bayesa. 
- 
- 
- 
-Podsumowanie 
- 
-> Wadą tej metody jest fakt, że wymaga ona znajomości\\ 
-> dokładnych wartości lub rozkładów prawdopodobieństw\\ 
-> pojawienia się parametrów zjawiska, czyli problemu będącego przedmiotem rozważań. 
- 
-> Innym problemem jest to, że należy dokonać pewnych\\ 
-> nierealistycznych założeń – na przykład w klasyfikacji\\ 
-> bayesowskiej wymagane wyniki, np. rozpoznawania, muszą się wzajemnie wykluczać. Niestety w wielu przypadkach mogą występować liczne podobne wyniki (np. w diagnostyce: pacjent może mieć wiele chorób). 
- 
-> Innym założeniem, co prawda niewymaganym przez\\ 
-> twierdzenie Bayesa, ale wymuszonym przez praktykę, jest statystyczna niezależność cechy problemu . 
- 
- 
- 
- 
- 
- 
  
notatki/ai_niepewnosc.1748004398.txt.gz · ostatnio zmienione: przez administrator