Rozdíly

Zde můžete vidět rozdíly mezi vybranou verzí a aktuální verzí dané stránky.

Odkaz na výstup diff

courses:x33kui:start [2009/12/16 12:18]
knyttvoj
courses:x33kui:start [2025/01/03 18:29] (aktuální)
Řádek 2: Řádek 2:
  
   * Stránky předmětu: http://​informatika.felk.cvut.cz/​moodle2/​course/​view.php?​id=4   * Stránky předmětu: http://​informatika.felk.cvut.cz/​moodle2/​course/​view.php?​id=4
 +** Nástřel řešení příkladů k testu (rozhodně ne 100% kvalitní): **
 +
 +
 ====== 1 ===== ====== 1 =====
 1.1. Kybernetika zkoumá ​ 1.1. Kybernetika zkoumá ​
Řádek 60: Řádek 63:
  
 2.2. Informační entropie zprávy je  2.2. Informační entropie zprávy je 
-  [ ] součtem množství informace všech symbolů ve zprávě ​+  [X] součtem množství informace všech symbolů ve zprávě ​
   [ ] střední hodnotou informace ve zprávě, tj. množství informace připadající na jeden symbol ​   [ ] střední hodnotou informace ve zprávě, tj. množství informace připadající na jeden symbol ​
   [ ] funkcí pravděpodobnostního rozložení symbolů ve zprávě   [ ] funkcí pravděpodobnostního rozložení symbolů ve zprávě
  
 2.3. Informační entropie náhodné veličiny ​ 2.3. Informační entropie náhodné veličiny ​
-  [ ] je měřítkem neurčitosti její hodnoty ​+  [X] je měřítkem neurčitosti její hodnoty ​
   [ ] je definována pouze pro nezáporné veličiny ​   [ ] je definována pouze pro nezáporné veličiny ​
   [ ] je definována pouze pro veličiny nabývající hodnot z konečné množiny   [ ] je definována pouze pro veličiny nabývající hodnot z konečné množiny
Řádek 86: Řádek 89:
  
 2.7. Nechť diskrétní náhodná veličina S nabývá n možných hodnot. ​ 2.7. Nechť diskrétní náhodná veličina S nabývá n možných hodnot. ​
-  [ ] Informační entropie H(S) není nikdy nižší než logaritmus n (při základu 2) +  [X] Informační entropie H(S) není nikdy nižší než logaritmus n (při základu 2) 
   [ ] Informační entropie H(S) není nikdy vyšší než logaritmus n (při základu 2)    [ ] Informační entropie H(S) není nikdy vyšší než logaritmus n (při základu 2) 
   [X] Informační entropie H(S) je vždy nezáporná   [X] Informační entropie H(S) je vždy nezáporná
Řádek 104: Řádek 107:
   [ ] termodynamických a lingvistických ​   [ ] termodynamických a lingvistických ​
   [X] jejichž každý stav má svou známou pravděpodobnost   [X] jejichž každý stav má svou známou pravděpodobnost
 +
 ====== 3 ====== ====== 3 ======
  
Řádek 225: Řádek 229:
 ====== 6 ====== ====== 6 ======
  
-6.1. Přípustná heuristika h [ ] zaručí nalezení nejlepšího řešení [ ] zaručí nalezení řešení v nejkratším čase [ ] vždy zabrání zacyklení prohledávacího algoritmu+6.1. Přípustná heuristika h  
 +  ​[X] zaručí nalezení nejlepšího řešení ​ 
 +  ​[X] zaručí nalezení řešení v nejkratším čase  
 +  ​[X] vždy zabrání zacyklení prohledávacího algoritmu
  
-6.2. Heuristika h je přípustná,​ když []h(n) ≤ h*(n) ∀ n []h(n) ≤ h*(n0) ∀ n [ ] h(n) ≤ h*(n{goal}) ∀ n+6.2. Heuristika h je přípustná,​ když  
 +  ​[X] h(n) ≤ h*(n) ∀ n  
 +  ​[ ] h(n) ≤ h*(n0) ∀ n  
 +  ​[ ] h(n) ≤ h*(n{goal}) ∀ n
  
-6.3. Heuristika h je přípustná,​ když []h(n_0) ≤ h(n) ∀ n []h(n) ≤ h*(n) ∀ n [ ] h*(n) ≤ h*(n_{goal}) ∀ n+6.3. Heuristika h je přípustná,​ když  
 +  ​[ ] h(n_0) ≤ h(n) ∀ n  
 +  ​[X] h(n) ≤ h*(n) ∀ n  
 +  ​[ ] h*(n) ≤ h*(n_{goal}) ∀ n
  
-6.4. Heuristika h je přípustná,​ když []g(n) ≤ g*(n) ∀ n []h(n) ≤ h*(n) ∀ n []f(n) ≤ f*(n) ∀ n+6.4. Heuristika h je přípustná,​ když  
 +  ​[ ] g(n) ≤ g*(n) ∀ n   
 +  ​[X] h(n) ≤ h*(n) ∀ n  
 +  ​[X] f(n) ≤ f*(n) ∀ n
  
-6.5. Heuristika h1 je více informovaná (dominuje) heuristice h2 když []h2(n) ≤ h1(n) ≤ h*(n) ∀ n [ ] h1(n) ≤ h1*(n) ale neplatí h2(n) ≤ h2*(n) ∀ n [ ] h2(n) ≤ h2*(n) ale neplatí h1(n) ≤ h1*(n) ∀ n+6.5. Heuristika h1 je více informovaná (dominuje) heuristice h2 když  
 +  ​[X] h2(n) ≤ h1(n) ≤ h*(n) ∀ n   
 +  ​[ ] h1(n) ≤ h1*(n) ale neplatí h2(n) ≤ h2*(n) ∀ n  
 +  ​[ ] h2(n) ≤ h2*(n) ale neplatí h1(n) ≤ h1*(n) ∀ n
  
-6.6. Je-li heuristika monotónní [ ] není přípustná [ ] je přípustná [ ] je lokálně přípustná+6.6. Je-li heuristika monotónní ​ 
 +  ​[ ] není přípustná ​ 
 +  ​[ ] je přípustná ​ 
 +  ​[X] je lokálně přípustná
  
-6.7. A* nalezne optimální řešení [ ] existuje-li,​ [ ] je-li h přípustná [ ] pouze neobsahuje-li stavový prostor cykly+6.7. A* nalezne optimální řešení ​ 
 +  ​[X] existuje-li, ​ 
 +  ​[X] je-li h přípustná ​ 
 +  ​[ ] pouze neobsahuje-li stavový prostor cykly
  
-6.8. Se vzrůstající kvalitou heuristiky h algoritmus A* [ ] nalezne kvalitnější řešení [ ] prohledá menší část stavového prostoru [ ] nalezne větší počet správných řešení+6.8. Se vzrůstající kvalitou heuristiky h algoritmus A*  
 +  ​[ ] nalezne kvalitnější řešení ​ 
 +  ​[X] prohledá menší část stavového prostoru ​ 
 +  ​[ ] nalezne větší počet správných řešení
 ====== 7 ====== ====== 7 ======
  
-7.1. Nevýhodou lokálního prohledávání stavového prostoru pomocí algoritmu hill- climbing je, že: [ ] prohledávání je neúplné [ ] stavový prostor je nekonečný +7.1. Nevýhodou lokálního prohledávání stavového prostoru pomocí algoritmu hill- climbing je, že:  
-[ ] prohledávání může uváznout v lokálním minimu+  ​[ ] prohledávání je neúplné ​ 
 +  ​[ ] stavový prostor je nekonečný 
 +  [ ] prohledávání může uváznout v lokálním minimu 
 + 
 +7.2. Tendenci algoritmu hill-climbing uvíznout v lokálním extrému lze částečně řešit:  
 +  [X] opakovaným restartem algoritmu z náhodně vybraných počátečních bodů  
 +  [ ] opakovaným restartem algoritmu ze stejného počátečního bodu 
 +  [ ] náhodným restartem algoritmu ze stejného počátečního bodu 
  
-7.2. Tendenci algoritmu hill-climbing uvíznout v lokálním extrému lze částečně řešit: [ ] opakovaným restartem algoritmu z náhodně vybraných počátečních bodů [ ] opakovaným restartem algoritmu ze stejného počátečního bodu +7.3. Genetický algoritmus:​ 
-[ ] náhodným restartem algoritmu ze stejného počátečního bodu 7.3. Genetický algoritmus:​ +  [ ] optimalizuje počet chromozómů v populace ​ 
-[ ] optimalizuje počet chromozómů v populace [ ] optimalizuje fitness funkci [ ] optimalizuje pravděpodobnost křížení+  ​[X] optimalizuje fitness funkci ​ 
 +  ​[ ] optimalizuje pravděpodobnost křížení
 ====== 8 ====== ====== 8 ======
  
-8.1. Při rozhodování za neurčitosti za rozhodovací strategii považujeme:​ [ ] pravidlo pro výběr rozhodnutí na základě pozorovaných příznaků [ ] postup, jenž nám zajistí optimální rozhodnutí pro aktuální vnitřní stav [ ] funkci, která hodnotí kvalitu všech rozhodnutí přes všechny stavy+8.1. Při rozhodování za neurčitosti za rozhodovací strategii považujeme: ​ 
 +  ​[X] pravidlo pro výběr rozhodnutí na základě pozorovaných příznaků ​ 
 +  ​[ ] postup, jenž nám zajistí optimální rozhodnutí pro aktuální vnitřní stav  
 +  ​[ ] funkci, která hodnotí kvalitu všech rozhodnutí přes všechny stavy
  
-8.2. Kritérium MiniMax při rozhodování za neurčitosti:​ [ ] volí rozhodovací strategii, která minimalizuje maximální riziko přes všechny možné vnitřní stavy [ ] je založeno na znalosti apriorního pravděpodobnostního rozložení stavů [ ] volí vnitřní stav s minimálním rozdílem mezi apriorní a aposteriorní pravděpodobností (před a po pozorování příznaků)+8.2. Kritérium MiniMax při rozhodování za neurčitosti: ​ 
 +  ​[X] volí rozhodovací strategii, která minimalizuje maximální riziko přes všechny možné vnitřní stavy  
 +  ​[ ] je založeno na znalosti apriorního pravděpodobnostního rozložení stavů ​ 
 +  ​[ ] volí vnitřní stav s minimálním rozdílem mezi apriorní a aposteriorní pravděpodobností (před a po pozorování příznaků)
  
-8.3. Bayesovská optimální strategie: [ ] minimalizuje střední riziko [ ] je založena na znalosti apriorního pravděpodobnostního rozložení stavů [ ] lze ji sestrojit "bod po bodu", tj. nalezením optimálního rozhodnutí pro jednotlivá pozorování příznaků.+8.3. Bayesovská optimální strategie: ​ 
 +  ​[X] minimalizuje střední riziko ​ 
 +  ​[X] je založena na znalosti apriorního pravděpodobnostního rozložení stavů ​ 
 +  ​[ ] lze ji sestrojit "bod po bodu", tj. nalezením optimálního rozhodnutí pro jednotlivá pozorování příznaků.
  
-8.4. Pro bayesovský klasifikátor platí: [ ] objekt vždy přiřadí do nejpravděpodobnější třídy ve smyslu pravděpodobnosti třídy podmíněné daným příznakovým vektorem [ ] množství dat nutných k odhadu výše zmíněné podmíněné pravděpodobnosti roste lineárně s požadovanou přeností odhadu [ ] minimalizuje střední chybu klasifikace+8.4. Pro bayesovský klasifikátor platí: ​ 
 +  ​[ ] objekt vždy přiřadí do nejpravděpodobnější třídy ve smyslu pravděpodobnosti třídy podmíněné daným příznakovým vektorem ​ 
 +  ​[ ] množství dat nutných k odhadu výše zmíněné podmíněné pravděpodobnosti roste lineárně s požadovanou přeností odhadu ​ 
 +  ​[ ] minimalizuje střední chybu klasifikace
  
-8.5. Naivní bayesovská klasifikace je postup, který: [ ] není prakticky využitelný,​ protože na rozdíl od bayesovské klasifikace je jeho složitost exponenciální vzhledem k počtu příznaků (složek příznakového vektoru) [ ] předpokládá rovnost příznaků v rámci dané třídy [ ] předpokládá nezávislost mezi příznaky (složkami příznakového vektoru)+8.5. Naivní bayesovská klasifikace je postup, který: ​ 
 +  ​[ ] není prakticky využitelný,​ protože na rozdíl od bayesovské klasifikace je jeho složitost exponenciální vzhledem k počtu příznaků (složek příznakového vektoru) ​ 
 +  ​[ ] předpokládá rovnost příznaků v rámci dané třídy ​  
 +  ​[X] předpokládá nezávislost mezi příznaky (složkami příznakového vektoru)
  
-8.6. O perceptronu lze prohlásit: [ ] jde o lineární klasifikátor [ ] jde o nejjednodušší trojvrstvou dopřednou neuronovou síť, která umožňuje implementovat jednoduché logické funkce jako je AND, OR nebo XOR [ ] nejde o neuronovou síť, protože u něj nepozorujeme emergentní jevy nutné pro toto pojmenování+8.6. O perceptronu lze prohlásit: ​ 
 +  ​[X] jde o lineární klasifikátor ​ 
 +  ​[ ] jde o nejjednodušší trojvrstvou dopřednou neuronovou síť, která umožňuje implementovat jednoduché logické funkce jako je AND, OR nebo XOR  
 +  ​[ ] nejde o neuronovou síť, protože u něj nepozorujeme emergentní jevy nutné pro toto pojmenování
  
-8.7. Klasifikace metodou nejbližších sousedů (kNN) je založena na myšlence podobnosti. Jde o podobnost mezi: [ ] podobnost mezi příznakovými vektory reprezentujícími (klasifikované) objekty [ ] vzájemnou podobnost pro dvojice testovacích příkladů [ ] podobnost mezi třídami trénovacích a testovacích příkladů+8.7. Klasifikace metodou nejbližších sousedů (kNN) je založena na myšlence podobnosti. Jde o podobnost mezi:  
 +  ​[ ] podobnost mezi příznakovými vektory reprezentujícími (klasifikované) objekty ​ 
 +  ​[ ] vzájemnou podobnost pro dvojice testovacích příkladů ​ 
 +  ​[X] podobnost mezi třídami trénovacích a testovacích příkladů
  
-8.8. Klasifikace metodou nejbližších sousedů (kNN): [ ] je lineární metodou - rozhodovací hranice je vždy lineární [ ] čím vyšší je počet sousedů (k), tím je klasifikace přesnější (výpočetní složitost ale roste exponenciálně s k a proto volíme k malá) [ ] při optimálně zvoleném k se kNN klasifikátor shoduje s Bayesovským klasifikátorem+8.8. Klasifikace metodou nejbližších sousedů (kNN): ​ 
 +  ​[ ] je lineární metodou - rozhodovací hranice je vždy lineární ​ 
 +  ​[ ] čím vyšší je počet sousedů (k), tím je klasifikace přesnější (výpočetní složitost ale roste exponenciálně s k a proto volíme k malá) ​ 
 +  ​[ ] při optimálně zvoleném k se kNN klasifikátor shoduje s Bayesovským klasifikátorem
  
-8.9. O trénovací chybě klasifikátoru lze prohlásit: [ ] jde o relativní četnost nesprávně klasifikovaných příkladů v trénovacích datech [ ] pro klasifikátor podle nejbližšího souseda (1-NN) je tato chyba nulová [ ] je nevychýleným odhadem středního rizika klasifikátoru+8.9. O trénovací chybě klasifikátoru lze prohlásit: ​ 
 +  ​[X] jde o relativní četnost nesprávně klasifikovaných příkladů v trénovacích datech ​ 
 +  ​[X] pro klasifikátor podle nejbližšího souseda (1-NN) je tato chyba nulová ​ 
 +  ​[ ] je nevychýleným odhadem středního rizika klasifikátoru
  
-8.10. O testovací chybě klasifikátoru lze prohlásit: [ ] je vždy vyšší nebo rovna trénovací chybě, která je optimistickým odhadem středního rizika klasifikátoru [ ] pro klasifikátor podle nejbližšího souseda (1-NN) je tato chyba nulová [ ] je nevychýleným odhadem středního rizika klasifikátoru+8.10. O testovací chybě klasifikátoru lze prohlásit: ​ 
 +  ​[ ] je vždy vyšší nebo rovna trénovací chybě, která je optimistickým odhadem středního rizika klasifikátoru ​ 
 +  ​[ ] pro klasifikátor podle nejbližšího souseda (1-NN) je tato chyba nulová ​ 
 +  ​[ ] je nevychýleným odhadem středního rizika klasifikátoru
 ====== 9 ====== ====== 9 ======
  
-9.1. Algoritmus minimax, používaný pro [ ] je úplný [ ] má lineární časovou náročnost [ ] má lineární paměťovou náročnost +9.1. Algoritmus minimax, používaný pro prohledávání konečného herního stromu 
-prohledávání konečného herního stromu +  ​[X] je úplný ​ 
-prohledávání konečného herního stromu+  ​[ ] má lineární časovou náročnost ​ 
 +  ​[X] má lineární paměťovou náročnost
  
-9.2. Algoritmus minimax, používaný pro [ ] je optimální [ ] má exponenciální časovou náročnost [ ] má exponenciální paměťovou náročnost+9.2. Algoritmus minimax, používaný pro prohledávání konečného herního stromu 
 +  ​[X] je optimální ​ 
 +  ​[X] má exponenciální časovou náročnost ​ 
 +  ​[ ] má exponenciální paměťovou náročnost
  
-9.3. Algoritmus založený na alfa/beta prořezávání stavového prostoru umožní prohloubit hloubku prohledávání při zachování stejné časové náročnosti [ ] na dvojnásobek [ ] až na dvojnásobek +9.3. Algoritmus založený na alfa/beta prořezávání stavového prostoru umožní prohloubit hloubku prohledávání při zachování stejné časové náročnosti ​ 
-[ ] až o třetinu+  ​[X] na dvojnásobek ​ 
 +  ​[ ] až na dvojnásobek 
 +  [ ] až o třetinu
  
-9.4. Kvalitu alfa/beta prořezávání stavového prostoru zásadním způsobem ovlivňuje [ ] hloubka stavového prostoru [ ] faktor větvení +9.4. Kvalitu alfa/beta prořezávání stavového prostoru zásadním způsobem ovlivňuje ​ 
-[ ] uspořádání následníků (expandantů)+  ​[ ] hloubka stavového prostoru ​ 
 +  ​[ ] faktor větvení 
 +  [ ] uspořádání následníků (expandantů)
  
-9.5. Alfa/beta prořezávání stavového prostoru [ ] zachovává úplnost [ ] nezmění časovou náročnost [ ] nezmění optimalitu algoritmu minimax+9.5. Alfa/beta prořezávání stavového prostoru ​ 
 +  ​[X] zachovává úplnost ​ 
 +  ​[ ] nezmění časovou náročnost ​ 
 +  ​[X] nezmění optimalitu algoritmu minimax
  
-9.6. Při hraní her s prvkem náhody [ ] klesá význam prohledávání do velké hloubky herního stromu [ ] klesá význam alfa/beta prořezávání [ ] klesá efektivní faktor větvení+9.6. Při hraní her s prvkem náhody ​ 
 +  ​[ ] klesá význam prohledávání do velké hloubky herního stromu ​ 
 +  ​[ ] klesá význam alfa/beta prořezávání ​ 
 +  ​[ ] klesá efektivní faktor větvení
  
-9.7. Omezení hloubky prohledávaného herního stromu (cut-off) search [ ] zachovává úplnost [ ] nahrazuje přesné hodnoty užitku (utility) uzlu odhadem [ ] zabraňuje horizontálnímu efektu+9.7. Omezení hloubky prohledávaného herního stromu (cut-off) search ​ 
 +  ​[ ] zachovává úplnost ​ 
 +  ​[ ] nahrazuje přesné hodnoty užitku (utility) uzlu odhadem ​ 
 +  ​[ ] zabraňuje horizontálnímu efektu
  
-9.8. Šachový algoritmus DeepBlue, který porazil Kasparova, prohledával stavový prostor do hloubky v řádech [ ] desítek tahů [ ] stovek tahů +9.8. Šachový algoritmus DeepBlue, který porazil Kasparova, prohledával stavový prostor do hloubky v řádech ​     
-[ ] tisíců tahů+  ​[ ] desítek tahů  
 +  ​[ ] stovek tahů 
 +  [ ] tisíců tahů
  
-9.9. Algoritmus TDGammon, který hraju hru Backgamon na mistrovské úrovni, prohledává stavový prostor do hloubky v řádech [ ] desítek [ ] stovek +9.9. Algoritmus TDGammon, který hraju hru Backgamon na mistrovské úrovni, prohledává stavový prostor do hloubky v řádech ​ 
-[ ] tisíců+  ​[ ] desítek ​ 
 +  ​[ ] stovek 
 +  [ ] tisíců
  
-9.10. Hodnoty, které vrací funkce eval při prohledávání herního stromu s omezenou hloubkou (cut-off search) při hrách bez prvku náhody [ ] musejí být přesné [ ] nemusejí být přesné, ale stačí když jsou monotónně transformované s ohledem na reálné hodnoty +9.10. Hodnoty, které vrací funkce eval při prohledávání herního stromu s omezenou hloubkou (cut-off search) při hrách bez prvku náhody ​ 
-[ ] nemusejí být přesné, ale stačí když jsou lineárně transformované s ohledem na reálné hodnoty+  ​[ ] musejí být přesné ​   
 +  ​[ ] nemusejí být přesné, ale stačí když jsou monotónně transformované s ohledem na reálné hodnoty 
 +  [ ] nemusejí být přesné, ale stačí když jsou lineárně transformované s ohledem na reálné hodnoty
  
-9.11. Hodnoty, které vrací funkce eval při prohledávání herního stromu s omezenou hloubkou (cut-off search) při hrách s prvkem náhody [ ] musejí být přesné [ ] nemusejí být přesné, ale stačí když jsou monotónně transformované s ohledem na reálné hodnoty +9.11. Hodnoty, které vrací funkce eval při prohledávání herního stromu s omezenou hloubkou (cut-off search) při hrách s prvkem náhody ​ 
-[ ] nemusejí být přesné, ale stačí když jsou lineárně transformované s ohledem na reálné hodnoty+  ​[ ] musejí být přesné ​ 
 +  ​[ ] nemusejí být přesné, ale stačí když jsou monotónně transformované s ohledem na reálné hodnoty 
 +  [ ] nemusejí být přesné, ale stačí když jsou lineárně transformované s ohledem na reálné hodnoty
 ====== 10 ====== ====== 10 ======
  
-10.1. Pokud jsou a,b,c,d atomické formule, pak Výraz a & b & c -> d je [ ] trojargumentový predikát [ ] pravidlo modus ponens [ ] formule jazyka predikátové logiky+10.1. Pokud jsou a,b,c,d atomické formule, pak Výraz a & b & c -> d je  
 +  ​[X] trojargumentový predikát ​ 
 +  ​[ ] pravidlo modus ponens ​ 
 +  ​[X] formule jazyka predikátové logiky
  
-10.2. Formalismus sémantické sítě umožňuje [ ] řešit konflikty [ ] vyvozovat děděním [ ] modularizovat znalosti+10.2. Formalismus sémantické sítě umožňuje ​ 
 +  ​[ ] řešit konflikty ​ 
 +  ​[ ] vyvozovat děděním ​ 
 +  ​[ ] modularizovat znalosti
  
-10.3. Součástmi produkčního systému jsou [ ] báze pravidel [ ] interferenční stroj [ ] báze dat+10.3. Součástmi produkčního systému jsou  
 +  ​[X] báze pravidel ​ 
 +  ​[X] interferenční stroj  
 +  ​[X] báze dat
  
-10.4. Relace ISA se v systému rámců využívá [ ] k dědění vlastností [ ] k označení konkrétní instance generického rámce [ ] k označení relace mezi generickými rámci+10.4. Relace ISA se v systému rámců využívá ​ 
 +  ​[ ] k dědění vlastností ​ 
 +  ​[X] k označení konkrétní instance generického rámce ​ 
 +  ​[ ] k označení relace mezi generickými rámci
  
-10.5. Relace AKO se v systému rámců využívá [ ] k dědění vlastností [ ] k označení konkrétní instance generického rámce [ ] k budování ontologií+10.5. Relace AKO se v systému rámců využívá ​ 
 +  ​[X] k dědění vlastností ​ 
 +  ​[ ] k označení konkrétní instance generického rámce ​ 
 +  ​[ ] k budování ontologií
  
-10.6. Scénář je [ ] časová posloupnost predikátových výrazů [ ] posloupnost rámců [ ] soubor podmínek pro aktivaci pravidel produkčního systému+10.6. Scénář je  
 +  ​[ ] časová posloupnost predikátových výrazů ​ 
 +  ​[X] posloupnost rámců ​ 
 +  ​[ ] soubor podmínek pro aktivaci pravidel produkčního systému
  
-10.7. Výraz matka(petr, jana). Je [ ] trojargumentovým predikátovým výrazem [ ] elementárním faktem [ ] tvrzením, které může nabývat hodnot T a F+10.7. Výraz matka(petr, jana). Je  
 +  ​[ ] trojargumentovým predikátovým výrazem ​ 
 +  ​[X] elementárním faktem ​ 
 +  ​[ ] tvrzením, které může nabývat hodnot T a F [//to by tam nesměla být ta tečka//]
  
-10.8. Povinnou položkou každého rámce je [ ] odkaz k podřazenému rámci [ ] jméno rámce [ ] nastavená hodnota počtu povolených položek+10.8. Povinnou položkou každého rámce je  
 +  ​[ ] odkaz k podřazenému rámci [//povinný je odkaz k nadřazenému//​] 
 +  [X] jméno rámce ​ 
 +  ​[ ] nastavená hodnota počtu povolených položek
  
-10.9. Předností znalostních taxonomií je [ ] efektivní řešení konfliktů [ ] zpětné řetězení pravidel [ ] vysoká modularita znalostí+10.9. Předností znalostních taxonomií je  
 +  ​[ ] efektivní řešení konfliktů ​ 
 +  ​[ ] zpětné řetězení pravidel ​ 
 +  ​[ ] vysoká modularita znalostí
  
-10.10. Prohledávání stavového prostoru lze formalizovat produkčním systémem pokud [ ] nepoužíváme backtracking [ ] se prohledává jenom do šířky +10.10. Prohledávání stavového prostoru lze formalizovat produkčním systémem pokud  
-[ ] pokud není třeba řešit konflikty+  ​[ ] nepoužíváme backtracking ​ 
 +  ​[ ] se prohledává jenom do šířky 
 +  [ ] pokud není třeba řešit konflikty
 ====== 11 ====== ====== 11 ======
  
-11.1. Expertní systémy diagnostické [ ] generují vhodnou posloupnost operátorů pro dosažení cíle [ ] jsou vhodné pro návrh terapie v medicíně [ ] uvažují n(n-1) možných hypotéz, kde n je počet listových tvrzení+11.1. Expertní systémy diagnostické ​ 
 +  ​[ ] generují vhodnou posloupnost operátorů pro dosažení cíle   
 +  ​[ ] jsou vhodné pro návrh terapie v medicíně ​  
 +  ​[ ] uvažují n(n-1) možných hypotéz, kde n je počet listových tvrzení
  
-11.2. Expertní systémy s tabulí využívají stratgeie [ ] řízení tokem dat [ ] řízení peer-to-peer (já-pán ty-pán) [ ] typu démon+11.2. Expertní systémy s tabulí využívají stratgeie ​ 
 +  ​[ ] řízení tokem dat  
 +  ​[ ] řízení peer-to-peer (já-pán ty-pán) ​ 
 +  ​[X] typu démon
  
-11.3. Obecný model pro práci s neurčitou informací vždy zahrnuje [ ] vzorec pro výpočet neurčitosti logické kombinace tvrzení [ ] odhady neurčitostí pravidel [ ] vzorec pro kombinaci vlivu více cest uvažování+11.3. Obecný model pro práci s neurčitou informací vždy zahrnuje 
 +  ​[ ] vzorec pro výpočet neurčitosti logické kombinace tvrzení 
 +  ​[ ] odhady neurčitostí pravidel 
 +  ​[ ] vzorec pro kombinaci vlivu více cest uvažování
  
-11.4. Kompozicionální model pro práci s neurčitou informací vyžaduje brát do úvahy [ ] hodnotu kompozicionálního predikátu pro vágnost [ ] všechny podmíněné a sdružené pravděpodobnosti tvrzení +11.4. Kompozicionální model pro práci s neurčitou informací vyžaduje brát do úvahy ​ 
-[ ] podmínku nezávislosti všech tvrzení+  ​[ ] hodnotu kompozicionálního predikátu pro vágnost 
 +  ​[ ] všechny podmíněné a sdružené pravděpodobnosti tvrzení 
 +  [ ] podmínku nezávislosti všech tvrzení
  
-11.5. Listový uzel inferenční sítě je [ ] nedotazovatelný [ ] cílový [ ] mezilehlý+11.5. Listový uzel inferenční sítě je 
 +  ​[ ] nedotazovatelný 
 +  ​[ ] cílový 
 +  ​[ ] mezilehlý
  
-11.6. Mezilehlý uzel inferenční sítě může být [ ] listovým [ ] dotazovatelným či nedotazovatelným [ ] ohodnocený měrou důvery+11.6. Mezilehlý uzel inferenční sítě může být 
 +  ​[ ] listovým 
 +  ​[ ] dotazovatelným či nedotazovatelným 
 +  ​[ ] ohodnocený měrou důvery
  
-11.7. Ve fuzzy modelu pro práci s neurčitou informací platí [ ] CF (E1 & E2) = max {CF (E1); CF(E2)} [ ] CF (E1 & E2) = CF(E1) + CF(E2) – CF(E1).CF(E2) [ ] CF (E1 & E2) = CF(E1) + CF(E2)+11.7. Ve fuzzy modelu pro práci s neurčitou informací platí 
 +  ​[ ] CF (E1 & E2) = max {CF (E1); CF(E2)} 
 +  ​[ ] CF (E1 & E2) = CF(E1) + CF(E2) – CF(E1).CF(E2) 
 +  ​[ ] CF (E1 & E2) = CF(E1) + CF(E2)
  
-11.8. Míra postačitelnosti lambda v Pseudobayesovském modelu pro práci s neurčitou informací leží [ ] v intervalu <0,1) [ ] v intervalu (0, nekonecno) +11.8. Míra postačitelnosti lambda v Pseudobayesovském modelu pro práci s neurčitou informací leží 
-[ ] v intervalu (1, P(H/E))+  ​[ ] v intervalu <0,1) 
 +  ​[ ] v intervalu (0, nekonecno) 
 +  [ ] v intervalu (1, P(H/E))
  
-11.9. Na začátku konzultace expertního systému je aktuální model tvořen: [ ] nulovými měrami důvěry ve všechna tvrzení [ ] expertovými odhady síly pravidel [ ] apriorními měrami důvěry, které dodal uživatel+11.9. Na začátku konzultace expertního systému je aktuální model tvořen: 
 +  ​[ ] nulovými měrami důvěry ve všechna tvrzení 
 +  ​[ ] expertovými odhady síly pravidel 
 +  ​[ ] apriorními měrami důvěry, které dodal uživatel
  
-11.10. Grafem inferenční sítě může být [ ] orientovaný strom [ ] les [ ] orientovaný graf s cykly+11.10. Grafem inferenční sítě může být 
 +  ​[X] orientovaný strom 
 +  ​[X] les 
 +  ​[ ] orientovaný graf s cykly
 ~~DISCUSSION~~ ~~DISCUSSION~~
courses/x33kui/start.1260962326.txt.gz · Poslední úprava: 2025/01/03 18:25 (upraveno mimo DokuWiki)
Nahoru
chimeric.de = chi`s home Valid CSS Driven by DokuWiki do yourself a favour and use a real browser - get firefox!! Recent changes RSS feed Valid XHTML 1.0