Rozdíly

Zde můžete vidět rozdíly mezi vybranou verzí a aktuální verzí dané stránky.

Odkaz na výstup diff

courses:x33kui:start [2009/12/16 10:13]
knyttvoj
courses:x33kui:start [2025/01/03 18:29] (aktuální)
Řádek 2: Řádek 2:
  
   * Stránky předmětu: http://​informatika.felk.cvut.cz/​moodle2/​course/​view.php?​id=4   * Stránky předmětu: http://​informatika.felk.cvut.cz/​moodle2/​course/​view.php?​id=4
 +** Nástřel řešení příkladů k testu (rozhodně ne 100% kvalitní): **
 +
 +
 ====== 1 ===== ====== 1 =====
 1.1. Kybernetika zkoumá ​ 1.1. Kybernetika zkoumá ​
Řádek 60: Řádek 63:
  
 2.2. Informační entropie zprávy je  2.2. Informační entropie zprávy je 
-  [ ] součtem množství informace všech symbolů ve zprávě ​+  [X] součtem množství informace všech symbolů ve zprávě ​
   [ ] střední hodnotou informace ve zprávě, tj. množství informace připadající na jeden symbol ​   [ ] střední hodnotou informace ve zprávě, tj. množství informace připadající na jeden symbol ​
   [ ] funkcí pravděpodobnostního rozložení symbolů ve zprávě   [ ] funkcí pravděpodobnostního rozložení symbolů ve zprávě
  
 2.3. Informační entropie náhodné veličiny ​ 2.3. Informační entropie náhodné veličiny ​
-  [ ] je měřítkem neurčitosti její hodnoty ​+  [X] je měřítkem neurčitosti její hodnoty ​
   [ ] je definována pouze pro nezáporné veličiny ​   [ ] je definována pouze pro nezáporné veličiny ​
   [ ] je definována pouze pro veličiny nabývající hodnot z konečné množiny   [ ] je definována pouze pro veličiny nabývající hodnot z konečné množiny
Řádek 86: Řádek 89:
  
 2.7. Nechť diskrétní náhodná veličina S nabývá n možných hodnot. ​ 2.7. Nechť diskrétní náhodná veličina S nabývá n možných hodnot. ​
-  [ ] Informační entropie H(S) není nikdy nižší než logaritmus n (při základu 2) +  [X] Informační entropie H(S) není nikdy nižší než logaritmus n (při základu 2) 
   [ ] Informační entropie H(S) není nikdy vyšší než logaritmus n (při základu 2)    [ ] Informační entropie H(S) není nikdy vyšší než logaritmus n (při základu 2) 
   [X] Informační entropie H(S) je vždy nezáporná   [X] Informační entropie H(S) je vždy nezáporná
Řádek 104: Řádek 107:
   [ ] termodynamických a lingvistických ​   [ ] termodynamických a lingvistických ​
   [X] jejichž každý stav má svou známou pravděpodobnost   [X] jejichž každý stav má svou známou pravděpodobnost
 +
 ====== 3 ====== ====== 3 ======
  
Řádek 155: Řádek 159:
   [ ] vzájemné informaci T(X:​Y) ​   [ ] vzájemné informaci T(X:​Y) ​
   [ ] pravděpodobnostním rozložení znaků zdroje   [ ] pravděpodobnostním rozložení znaků zdroje
- 
 ====== 4 ====== ====== 4 ======
  
-4.1. Uvažujte nekonečnou zprávu 000111000111000111... [ ] tuto zprávu lze komprimovat [ ] tuto zprávu nelze komprimovat,​ protože P(0)=P(1) [ ] každý n-tý znak je statisticky nezávislý na prvním až (n-1)ním znaku+4.1. Uvažujte nekonečnou zprávu 000111000111000111... ​ 
 +  ​[X] tuto zprávu lze komprimovat ​ 
 +  ​[ ] tuto zprávu nelze komprimovat,​ protože P(0)=P(1) ​ 
 +  ​[ ] každý n-tý znak je statisticky nezávislý na prvním až (n-1)ním znaku
  
-4.2. Turingův stroj [ ] byl prvním sériově vyráběným osobním počítačem [ ] je matematickým modelem pro výpočetní procesy [ ] může implementovat jakýkoliv algoritmus, což je dokázáno matematickou větou.+4.2. Turingův stroj  
 +  ​[ ] byl prvním sériově vyráběným osobním počítačem ​ 
 +  ​[X] je matematickým modelem pro výpočetní procesy ​ 
 +  ​[X] může implementovat jakýkoliv algoritmus, což je dokázáno matematickou větou.
  
-4.3. Kompresní algoritmus, který jakoukoliv zprávu zakóduje do zprávy kratší a jednoznačně dekódovatelné [ ] existuje pouze pro binární zprávy [ ] existuje, ale nelze implementovat Turingovým strojem +4.3. Kompresní algoritmus, který jakoukoliv zprávu zakóduje do zprávy kratší a jednoznačně dekódovatelné ​ 
-[ ] neexistuje+  ​[ ] existuje pouze pro binární zprávy ​ 
 +  ​[ ] existuje, ale nelze implementovat Turingovým strojem 
 +  [X] neexistuje
  
-4.4. Algoritmická entropie (tj. Kolmogorovská složitost) zprávy [ ] je funkcí pravděpodobnostního rozložení symbolů v této zprávě [ ] je délka nejdelšího programu generujícího tuto zprávu [ ] je délka nejkratšího programu generujícího tuto zprávu+4.4. Algoritmická entropie (tj. Kolmogorovská složitost) zprávy ​ 
 +  ​[ ] je funkcí pravděpodobnostního rozložení symbolů v této zprávě ​ 
 +  ​[ ] je délka nejdelšího programu generujícího tuto zprávu ​ 
 +  ​[X] je délka nejkratšího programu generujícího tuto zprávu
  
-4.5. Výpočet algoritmické entropie jakékoliv zprávy [ ] není obecně možný, jde o nerozhodnutelný problém. [ ] lze vždy spočítat v čase rostoucím maximálně exponenciálně s délkou zprávy [ ] je vždy možný, jde-li o zprávu v binárním kódu+4.5. Výpočet algoritmické entropie jakékoliv zprávy ​ 
 +  ​[X] není obecně možný, jde o nerozhodnutelný problém. ​ 
 +  ​[ ] lze vždy spočítat v čase rostoucím maximálně exponenciálně s délkou zprávy ​ 
 +  ​[ ] je vždy možný, jde-li o zprávu v binárním kódu
 přijme zdrojový kód libovolného programu P a jeho D a rozhodne v konečném čase, zda se program P na vstupu přijme zdrojový kód libovolného programu P a jeho D a rozhodne v konečném čase, zda se program P na vstupu
  
-4.6. Algoritmus, který libovolná vstupní data D zastaví, či zacyklí: [ ] existuje pouze pro [ ] existuje, ale nelze implementovat Turingovým strojem ​[ ] neexistuje +4.6. Algoritmus, který libovolná vstupní data D zastaví, či zacyklí: ​ 
-binárně kódované programy P +  ​[ ] existuje pouze pro binárně kódované programy P 
- +  ​[ ] existuje, ale nelze implementovat Turingovým strojem  
-4.7. Konzistentní formální systém, v němž lze dokázat všechny aritmetické zákonitosti,​ [ ] obsahuje i tvrzení v tomto systému nedokazatelná [ ] je nutně úplný, tj. lze v něm dokázat jakékoliv tvrzení formulovatelné jazykem tohoto systému +  [X] neexistuje
-[ ] neexistuje+
  
 +4.7. Konzistentní formální systém, v němž lze dokázat všechny aritmetické zákonitosti, ​
 +  [X] obsahuje i tvrzení v tomto systému nedokazatelná ​
 +  [ ] je nutně úplný, tj. lze v něm dokázat jakékoliv tvrzení formulovatelné jazykem tohoto systému
 +  [ ] neexistuje
 ====== 5 ====== ====== 5 ======
  
 5.1. Paměťová náročnost prohledávání do šířky stavového prostoru reprezentovaného stromem o hloubce d a faktorem větvení b je 5.1. Paměťová náročnost prohledávání do šířky stavového prostoru reprezentovaného stromem o hloubce d a faktorem větvení b je
-[ ] bd [ ] b^d [ ] d^b+  ​[ ] bd  
 +  ​[X] b^d  
 +  ​[ ] d^b
  
 5.2. Časová náročnost prohledávání do šířky stavového prostoru reprezentovaného stromem vzrůstá 5.2. Časová náročnost prohledávání do šířky stavového prostoru reprezentovaného stromem vzrůstá
-[ ] lineárně s rostoucí hloubkou stromu [ ] exponenciálně s rostoucí hloubkou stromu [ ] exponenciálně s rostoucím faktorem větvení+  ​[ ] lineárně s rostoucí hloubkou stromu ​ 
 +  ​[X] exponenciálně s rostoucí hloubkou stromu ​ 
 +  ​[ ] exponenciálně s rostoucím faktorem větvení
  
 5.3. Časová náročnost prohledávání do hloubky stavového prostoru reprezentovaného stromem vzrůstá 5.3. Časová náročnost prohledávání do hloubky stavového prostoru reprezentovaného stromem vzrůstá
-[ ] lineárně s rostoucí hloubkou stromu [ ] exponenciálně s rostoucí hloubkou stromu [ ] exponenciálně s rostoucím faktorem větvení+  ​[ ] lineárně s rostoucí hloubkou stromu ​ 
 +  ​[X] exponenciálně s rostoucí hloubkou stromu ​ 
 +  ​[ ] exponenciálně s rostoucím faktorem větvení
  
 5.4. Paměťová náročnost prohledávání do hloubky stavového prostoru reprezentovaného stromem o hloubce d a faktorem větvení b je 5.4. Paměťová náročnost prohledávání do hloubky stavového prostoru reprezentovaného stromem o hloubce d a faktorem větvení b je
-[ ] bd [ ] b^d [ ] d^b+  ​[X] bd  
 +  ​[ ] b^d  
 +  ​[ ] d^b
  
 5.5. Algoritmus prohledávání do hloubky s iterativně se zvyšující hloubkou prohledávání při prohledávání stavového prostoru, který neobsahuje cykly 5.5. Algoritmus prohledávání do hloubky s iterativně se zvyšující hloubkou prohledávání při prohledávání stavového prostoru, který neobsahuje cykly
-[ ] je paměťově náročnější než prohledávání do šířky [ ] je paměťově stejně náročné jako prohledáváni do šířky [ ] je paměťově méně náročné než prohledávání do šířky+  ​[ ] je paměťově náročnější než prohledávání do šířky ​ 
 +  ​[ ] je paměťově stejně náročné jako prohledáváni do šířky ​ 
 +  ​[X] je paměťově méně náročné než prohledávání do šířky
  
 5.6. Prohledávání do hloubky má nižší paměťovou náročnost oproti prohledávání do šířky v případě, že 5.6. Prohledávání do hloubky má nižší paměťovou náročnost oproti prohledávání do šířky v případě, že
-[ ] stavový prostor má faktor větvení b vždy menší než je jeho hloubka d (b ≤ d) [ ] stavový prostor neobsahuje cykly [ ] velikost OPEN seznamu nepřekročí faktor větvení (b ≤ |OPEN|)+  ​[ ] stavový prostor má faktor větvení b vždy menší než je jeho hloubka d (b ≤ d)  
 +  ​[ ] stavový prostor neobsahuje cykly  
 +  ​[ ] velikost OPEN seznamu nepřekročí faktor větvení (b ≤ |OPEN|) 
 +====== 6 ======
  
-====== ​======+6.1. Přípustná heuristika h  
 +  [X] zaručí nalezení nejlepšího řešení  
 +  [X] zaručí nalezení řešení v nejkratším čase  
 +  [X] vždy zabrání zacyklení prohledávacího algoritmu
  
-6.1Přípustná ​heuristika h [ ] zaručí nalezení nejlepšího řešení ​[ ] zaručí nalezení řešení v nejkratším čase [ ] vždy zabrání zacyklení prohledávacího algoritmu+6.2Heuristika h je přípustná, když  
 +  ​[Xh(n) ≤ h*(n) ∀ n  
 +  ​[ ] h(n) ≤ h*(n0) ∀ n  
 +  ​[ ] h(n) ≤ h*(n{goal}) ∀ n
  
-6.2. Heuristika h je přípustná,​ když []h(n) ≤ h*(n) ∀ n []h(n) ≤ h*(n0) ∀ n [ ] h(n) ≤ h*(n{goal}) ∀ n+6.3. Heuristika h je přípustná,​ když  
 +  ​[ ] h(n_0) ≤ h(n) ∀ n  
 +  ​[X] h(n) ≤ h*(n) ∀ n  
 +  ​[ ] h*(n) ≤ h*(n_{goal}) ∀ n
  
-6.3. Heuristika h je přípustná,​ když []h(n_0) ≤ h(n) ∀ n []h(n) ≤ h*(n) ∀ n [ ] h*(n) ≤ h*(n_{goal}) ∀ n+6.4. Heuristika h je přípustná,​ když  
 +  ​[ ] g(n) ≤ g*(n) ∀ n   
 +  ​[X] h(n) ≤ h*(n) ∀ n  
 +  ​[Xf(n) ≤ f*(n) ∀ n
  
-6.4. Heuristika ​je přípustná, ​když []g(n) ≤ g*(n) ∀ n []h(n) ≤ h*(n) ∀ n []f(n) ≤ f*(n) ∀ n+6.5. Heuristika ​h1 je více informovaná (dominuje) heuristice h2 když  
 +  ​[Xh2(n) ≤ h1(n) ≤ h*(n) ∀ n   
 +  ​[ ] h1(n) ≤ h1*(n) ale neplatí h2(n) ≤ h2*(n) ∀ n  
 +  ​[ ] h2(n) ≤ h2*(n) ale neplatí h1(n) ≤ h1*(n) ∀ n
  
-6.5Heuristika h1 je více informovaná (dominuje) heuristice h2 když []h2(n) ≤ h1(n) ≤ h*(n) ∀ n [ ] h1(n) ≤ h1*(n) ale neplatí h2(n) ≤ h2*(n) ∀ n [ ] h2(n) ≤ h2*(n) ale neplatí h1(n) ≤ h1*(n) ∀ n+6.6Je-li heuristika monotónní  
 +  ​[ ] není přípustná  
 +  ​[ ] je přípustná  
 +  ​[Xje lokálně přípustná
  
-6.6Je-li heuristika monotónní [ ] není přípustná ​[ ] je přípustná [ ] je lokálně přípustná+6.7A* nalezne optimální řešení  
 +  [X] existuje-li,  
 +  ​[X] je-li h přípustná ​ 
 +  ​[ ] pouze neobsahuje-li stavový prostor cykly
  
-6.7. A* nalezne ​optimální ​řešení [ ] existuje-li, ​[ ] je-li h přípustná [ ] pouze neobsahuje-li stavový prostor cykly+6.8Se vzrůstající kvalitou heuristiky h algoritmus ​A*  
 +  [ ] nalezne ​kvalitnější ​řešení ​ 
 +  ​[Xprohledá menší část stavového prostoru  
 +  ​[ ] nalezne větší počet správných ​řešení 
 +====== 7 ======
  
-6.8Se vzrůstající kvalitou heuristiky h algoritmus A* [ ] nalezne kvalitnější řešení ​[ ] prohledá menší ​část stavového prostoru ​[ ] nalezne ​větší počet správných řešení+7.1Nevýhodou lokálního prohledávání stavového prostoru pomocí algoritmu hill- climbing je, že:  
 +  ​[ ] prohledávání je neúplné  
 +  ​[ ] stavový prostor je nekonečný 
 +  ​[ ] prohledávání může uváznout ​lokálním minimu
  
-7.1Nevýhodou lokálního prohledávání stavového prostoru pomocí ​algoritmu hill- climbing ​je, že: [ ] prohledávání je neúplné ​[ ] stavový prostor je nekoneč +7.2Tendenci ​algoritmu hill-climbing ​uvíznout v lokálním extrému lze částečně řešit 
-[ ] prohledávání může uváznout v lokálním minimu+  ​[Xopakovaným restartem algoritmu z náhodně vybraných počátečních bodů  
 +  ​[ ] opakovaným restartem algoritmu ze stejného počátečního bodu 
 +  [ ] náhodným restartem algoritmu ze stejného počátečního bodu 
  
-7.2. Tendenci algoritmu hill-climbing uvíznout v lokálním extrému lze částečně řešit: [ ] opakovaným restartem algoritmu z náhodně vybraných počátečních bodů [ ] opakovaným restartem algoritmu ze stejného počátečního bodu +7.3. Genetický algoritmus:​ 
-[ ] náhodným restartem algoritmu ze stejného počátečního bodu 7.3. Genetický algoritmus:​ +  [ ] optimalizuje počet chromozómů v populace ​ 
-[ ] optimalizuje počet chromozómů v populace [ ] optimalizuje fitness funkci [ ] optimalizuje pravděpodobnost křížení+  ​[X] optimalizuje fitness funkci ​ 
 +  ​[ ] optimalizuje pravděpodobnost křížení 
 +====== 8 ======
  
-8.1. Při rozhodování za neurčitosti za rozhodovací strategii považujeme:​ [ ] pravidlo pro výběr rozhodnutí na základě pozorovaných příznaků [ ] postup, jenž nám zajistí optimální rozhodnutí pro aktuální vnitřní stav [ ] funkci, která hodnotí kvalitu všech rozhodnutí přes všechny stavy+8.1. Při rozhodování za neurčitosti za rozhodovací strategii považujeme: ​ 
 +  ​[X] pravidlo pro výběr rozhodnutí na základě pozorovaných příznaků ​ 
 +  ​[ ] postup, jenž nám zajistí optimální rozhodnutí pro aktuální vnitřní stav  
 +  ​[ ] funkci, která hodnotí kvalitu všech rozhodnutí přes všechny stavy
  
-8.2. Kritérium MiniMax při rozhodování za neurčitosti:​ [ ] volí rozhodovací strategii, která minimalizuje maximální riziko přes všechny možné vnitřní stavy [ ] je založeno na znalosti apriorního pravděpodobnostního rozložení stavů [ ] volí vnitřní stav s minimálním rozdílem mezi apriorní a aposteriorní pravděpodobností (před a po pozorování příznaků)+8.2. Kritérium MiniMax při rozhodování za neurčitosti: ​ 
 +  ​[X] volí rozhodovací strategii, která minimalizuje maximální riziko přes všechny možné vnitřní stavy  
 +  ​[ ] je založeno na znalosti apriorního pravděpodobnostního rozložení stavů ​ 
 +  ​[ ] volí vnitřní stav s minimálním rozdílem mezi apriorní a aposteriorní pravděpodobností (před a po pozorování příznaků)
  
-8.3. Bayesovská optimální strategie: [ ] minimalizuje střední riziko [ ] je založena na znalosti apriorního pravděpodobnostního rozložení stavů [ ] lze ji sestrojit "bod po bodu", tj. nalezením optimálního rozhodnutí pro jednotlivá pozorování příznaků.+8.3. Bayesovská optimální strategie: ​ 
 +  ​[X] minimalizuje střední riziko ​ 
 +  ​[X] je založena na znalosti apriorního pravděpodobnostního rozložení stavů ​ 
 +  ​[ ] lze ji sestrojit "bod po bodu", tj. nalezením optimálního rozhodnutí pro jednotlivá pozorování příznaků.
  
-8.4. Pro bayesovský klasifikátor platí: [ ] objekt vždy přiřadí do nejpravděpodobnější třídy ve smyslu pravděpodobnosti třídy podmíněné daným příznakovým vektorem [ ] množství dat nutných k odhadu výše zmíněné podmíněné pravděpodobnosti roste lineárně s požadovanou přeností odhadu [ ] minimalizuje střední chybu klasifikace+8.4. Pro bayesovský klasifikátor platí: ​ 
 +  ​[ ] objekt vždy přiřadí do nejpravděpodobnější třídy ve smyslu pravděpodobnosti třídy podmíněné daným příznakovým vektorem ​ 
 +  ​[ ] množství dat nutných k odhadu výše zmíněné podmíněné pravděpodobnosti roste lineárně s požadovanou přeností odhadu ​ 
 +  ​[ ] minimalizuje střední chybu klasifikace
  
-8.5. Naivní bayesovská klasifikace je postup, který: [ ] není prakticky využitelný,​ protože na rozdíl od bayesovské klasifikace je jeho složitost exponenciální vzhledem k počtu příznaků (složek příznakového vektoru) [ ] předpokládá rovnost příznaků v rámci dané třídy [ ] předpokládá nezávislost mezi příznaky (složkami příznakového vektoru)+8.5. Naivní bayesovská klasifikace je postup, který: ​ 
 +  ​[ ] není prakticky využitelný,​ protože na rozdíl od bayesovské klasifikace je jeho složitost exponenciální vzhledem k počtu příznaků (složek příznakového vektoru) ​ 
 +  ​[ ] předpokládá rovnost příznaků v rámci dané třídy ​  
 +  ​[X] předpokládá nezávislost mezi příznaky (složkami příznakového vektoru)
  
-8.6. O perceptronu lze prohlásit: [ ] jde o lineární klasifikátor [ ] jde o nejjednodušší trojvrstvou dopřednou neuronovou síť, která umožňuje implementovat jednoduché logické funkce jako je AND, OR nebo XOR [ ] nejde o neuronovou síť, protože u něj nepozorujeme emergentní jevy nutné pro toto pojmenování+8.6. O perceptronu lze prohlásit: ​ 
 +  ​[X] jde o lineární klasifikátor ​ 
 +  ​[ ] jde o nejjednodušší trojvrstvou dopřednou neuronovou síť, která umožňuje implementovat jednoduché logické funkce jako je AND, OR nebo XOR  
 +  ​[ ] nejde o neuronovou síť, protože u něj nepozorujeme emergentní jevy nutné pro toto pojmenování
  
-8.7. Klasifikace metodou nejbližších sousedů (kNN) je založena na myšlence podobnosti. Jde o podobnost mezi: [ ] podobnost mezi příznakovými vektory reprezentujícími (klasifikované) objekty [ ] vzájemnou podobnost pro dvojice testovacích příkladů [ ] podobnost mezi třídami trénovacích a testovacích příkladů+8.7. Klasifikace metodou nejbližších sousedů (kNN) je založena na myšlence podobnosti. Jde o podobnost mezi:  
 +  ​[ ] podobnost mezi příznakovými vektory reprezentujícími (klasifikované) objekty ​ 
 +  ​[ ] vzájemnou podobnost pro dvojice testovacích příkladů ​ 
 +  ​[X] podobnost mezi třídami trénovacích a testovacích příkladů
  
-8.8. Klasifikace metodou nejbližších sousedů (kNN): [ ] je lineární metodou - rozhodovací hranice je vždy lineární [ ] čím vyšší je počet sousedů (k), tím je klasifikace přesnější (výpočetní složitost ale roste exponenciálně s k a proto volíme k malá) [ ] při optimálně zvoleném k se kNN klasifikátor shoduje s Bayesovským klasifikátorem+8.8. Klasifikace metodou nejbližších sousedů (kNN): ​ 
 +  ​[ ] je lineární metodou - rozhodovací hranice je vždy lineární ​ 
 +  ​[ ] čím vyšší je počet sousedů (k), tím je klasifikace přesnější (výpočetní složitost ale roste exponenciálně s k a proto volíme k malá) ​ 
 +  ​[ ] při optimálně zvoleném k se kNN klasifikátor shoduje s Bayesovským klasifikátorem
  
-8.9. O trénovací chybě klasifikátoru lze prohlásit: [ ] jde o relativní četnost nesprávně klasifikovaných příkladů v trénovacích datech [ ] pro klasifikátor podle nejbližšího souseda (1-NN) je tato chyba nulová [ ] je nevychýleným odhadem středního rizika klasifikátoru+8.9. O trénovací chybě klasifikátoru lze prohlásit: ​ 
 +  ​[X] jde o relativní četnost nesprávně klasifikovaných příkladů v trénovacích datech ​ 
 +  ​[X] pro klasifikátor podle nejbližšího souseda (1-NN) je tato chyba nulová ​ 
 +  ​[ ] je nevychýleným odhadem středního rizika klasifikátoru
  
-8.10. O testovací chybě klasifikátoru lze prohlásit: [ ] je vždy vyšší nebo rovna trénovací chybě, která je optimistickým odhadem středního rizika klasifikátoru [ ] pro klasifikátor podle nejbližšího souseda (1-NN) je tato chyba nulová [ ] je nevychýleným odhadem středního rizika klasifikátoru+8.10. O testovací chybě klasifikátoru lze prohlásit: ​ 
 +  ​[ ] je vždy vyšší nebo rovna trénovací chybě, která je optimistickým odhadem středního rizika klasifikátoru ​ 
 +  ​[ ] pro klasifikátor podle nejbližšího souseda (1-NN) je tato chyba nulová ​ 
 +  ​[ ] je nevychýleným odhadem středního rizika klasifikátoru 
 +====== 9 ======
  
-9.1. Algoritmus minimax, používaný pro [ ] je úplný [ ] má lineární časovou náročnost [ ] má lineární paměťovou náročnost +9.1. Algoritmus minimax, používaný pro prohledávání konečného herního stromu 
-prohledávání konečného herního stromu +  ​[X] je úplný ​ 
-prohledávání konečného herního stromu+  ​[ ] má lineární časovou náročnost ​ 
 +  ​[X] má lineární paměťovou náročnost
  
-9.2. Algoritmus minimax, používaný pro [ ] je optimální [ ] má exponenciální časovou náročnost [ ] má exponenciální paměťovou náročnost+9.2. Algoritmus minimax, používaný pro prohledávání konečného herního stromu 
 +  ​[X] je optimální ​ 
 +  ​[X] má exponenciální časovou náročnost ​ 
 +  ​[ ] má exponenciální paměťovou náročnost
  
-9.3. Algoritmus založený na alfa/beta prořezávání stavového prostoru umožní prohloubit hloubku prohledávání při zachování stejné časové náročnosti [ ] na dvojnásobek [ ] až na dvojnásobek +9.3. Algoritmus založený na alfa/beta prořezávání stavového prostoru umožní prohloubit hloubku prohledávání při zachování stejné časové náročnosti ​ 
-[ ] až o třetinu+  ​[X] na dvojnásobek ​ 
 +  ​[ ] až na dvojnásobek 
 +  [ ] až o třetinu
  
-9.4. Kvalitu alfa/beta prořezávání stavového prostoru zásadním způsobem ovlivňuje [ ] hloubka stavového prostoru [ ] faktor větvení +9.4. Kvalitu alfa/beta prořezávání stavového prostoru zásadním způsobem ovlivňuje ​ 
-[ ] uspořádání následníků (expandantů)+  ​[ ] hloubka stavového prostoru ​ 
 +  ​[ ] faktor větvení 
 +  [ ] uspořádání následníků (expandantů)
  
-9.5. Alfa/beta prořezávání stavového prostoru [ ] zachovává úplnost [ ] nezmění časovou náročnost [ ] nezmění optimalitu algoritmu minimax+9.5. Alfa/beta prořezávání stavového prostoru ​ 
 +  ​[X] zachovává úplnost ​ 
 +  ​[ ] nezmění časovou náročnost ​ 
 +  ​[X] nezmění optimalitu algoritmu minimax
  
-9.6. Při hraní her s prvkem náhody [ ] klesá význam prohledávání do velké hloubky herního stromu [ ] klesá význam alfa/beta prořezávání [ ] klesá efektivní faktor větvení+9.6. Při hraní her s prvkem náhody ​ 
 +  ​[ ] klesá význam prohledávání do velké hloubky herního stromu ​ 
 +  ​[ ] klesá význam alfa/beta prořezávání ​ 
 +  ​[ ] klesá efektivní faktor větvení
  
-9.7. Omezení hloubky prohledávaného herního stromu (cut-off) search [ ] zachovává úplnost [ ] nahrazuje přesné hodnoty užitku (utility) uzlu odhadem [ ] zabraňuje horizontálnímu efektu+9.7. Omezení hloubky prohledávaného herního stromu (cut-off) search ​ 
 +  ​[ ] zachovává úplnost ​ 
 +  ​[ ] nahrazuje přesné hodnoty užitku (utility) uzlu odhadem ​ 
 +  ​[ ] zabraňuje horizontálnímu efektu
  
-9.8. Šachový algoritmus DeepBlue, který porazil Kasparova, prohledával stavový prostor do hloubky v řádech [ ] desítek tahů [ ] stovek tahů +9.8. Šachový algoritmus DeepBlue, který porazil Kasparova, prohledával stavový prostor do hloubky v řádech ​     
-[ ] tisíců tahů+  ​[ ] desítek tahů  
 +  ​[ ] stovek tahů 
 +  [ ] tisíců tahů
  
-9.9. Algoritmus TDGammon, který hraju hru Backgamon na mistrovské úrovni, prohledává stavový prostor do hloubky v řádech [ ] desítek [ ] stovek +9.9. Algoritmus TDGammon, který hraju hru Backgamon na mistrovské úrovni, prohledává stavový prostor do hloubky v řádech ​ 
-[ ] tisíců+  ​[ ] desítek ​ 
 +  ​[ ] stovek 
 +  [ ] tisíců
  
-9.10. Hodnoty, které vrací funkce eval při prohledávání herního stromu s omezenou hloubkou (cut-off search) při hrách bez prvku náhody [ ] musejí být přesné [ ] nemusejí být přesné, ale stačí když jsou monotónně transformované s ohledem na reálné hodnoty +9.10. Hodnoty, které vrací funkce eval při prohledávání herního stromu s omezenou hloubkou (cut-off search) při hrách bez prvku náhody ​ 
-[ ] nemusejí být přesné, ale stačí když jsou lineárně transformované s ohledem na reálné hodnoty+  ​[ ] musejí být přesné ​   
 +  ​[ ] nemusejí být přesné, ale stačí když jsou monotónně transformované s ohledem na reálné hodnoty 
 +  [ ] nemusejí být přesné, ale stačí když jsou lineárně transformované s ohledem na reálné hodnoty
  
-9.11. Hodnoty, které vrací funkce eval při prohledávání herního stromu s omezenou hloubkou (cut-off search) při hrách s prvkem náhody [ ] musejí být přesné [ ] nemusejí být přesné, ale stačí když jsou monotónně transformované s ohledem na reálné hodnoty +9.11. Hodnoty, které vrací funkce eval při prohledávání herního stromu s omezenou hloubkou (cut-off search) při hrách s prvkem náhody ​ 
-[ ] nemusejí být přesné, ale stačí když jsou lineárně transformované s ohledem na reálné hodnoty+  ​[ ] musejí být přesné ​ 
 +  ​[ ] nemusejí být přesné, ale stačí když jsou monotónně transformované s ohledem na reálné hodnoty 
 +  [ ] nemusejí být přesné, ale stačí když jsou lineárně transformované s ohledem na reálné hodnoty 
 +====== 10 ======
  
-10.1. Pokud jsou a,b,c,d atomické formule, pak Výraz a & b & c -> d je [ ] trojargumentový predikát [ ] pravidlo modus ponens [ ] formule jazyka predikátové logiky+10.1. Pokud jsou a,b,c,d atomické formule, pak Výraz a & b & c -> d je  
 +  ​[X] trojargumentový predikát ​ 
 +  ​[ ] pravidlo modus ponens ​ 
 +  ​[X] formule jazyka predikátové logiky
  
-10.2. Formalismus sémantické sítě umožňuje [ ] řešit konflikty [ ] vyvozovat děděním [ ] modularizovat znalosti+10.2. Formalismus sémantické sítě umožňuje ​ 
 +  ​[ ] řešit konflikty ​ 
 +  ​[ ] vyvozovat děděním ​ 
 +  ​[ ] modularizovat znalosti
  
-10.3. Součástmi produkčního systému jsou [ ] báze pravidel [ ] interferenční stroj [ ] báze dat+10.3. Součástmi produkčního systému jsou  
 +  ​[X] báze pravidel ​ 
 +  ​[X] interferenční stroj  
 +  ​[X] báze dat
  
-10.4. Relace ISA se v systému rámců využívá [ ] k dědění vlastností [ ] k označení konkrétní instance generického rámce [ ] k označení relace mezi generickými rámci+10.4. Relace ISA se v systému rámců využívá ​ 
 +  ​[ ] k dědění vlastností ​ 
 +  ​[X] k označení konkrétní instance generického rámce ​ 
 +  ​[ ] k označení relace mezi generickými rámci
  
-10.5. Relace AKO se v systému rámců využívá [ ] k dědění vlastností [ ] k označení konkrétní instance generického rámce [ ] k budování ontologií+10.5. Relace AKO se v systému rámců využívá ​ 
 +  ​[X] k dědění vlastností ​ 
 +  ​[ ] k označení konkrétní instance generického rámce ​ 
 +  ​[ ] k budování ontologií
  
-10.6. Scénář je [ ] časová posloupnost predikátových výrazů [ ] posloupnost rámců [ ] soubor podmínek pro aktivaci pravidel produkčního systému+10.6. Scénář je  
 +  ​[ ] časová posloupnost predikátových výrazů ​ 
 +  ​[X] posloupnost rámců ​ 
 +  ​[ ] soubor podmínek pro aktivaci pravidel produkčního systému
  
-10.7. Výraz matka(petr, jana). Je [ ] trojargumentovým predikátovým výrazem [ ] elementárním faktem [ ] tvrzením, které může nabývat hodnot T a F+10.7. Výraz matka(petr, jana). Je  
 +  ​[ ] trojargumentovým predikátovým výrazem ​ 
 +  ​[X] elementárním faktem ​ 
 +  ​[ ] tvrzením, které může nabývat hodnot T a F [//to by tam nesměla být ta tečka//]
  
-10.8. Povinnou položkou každého rámce je [ ] odkaz k podřazenému rámci [ ] jméno rámce [ ] nastavená hodnota počtu povolených položek+10.8. Povinnou položkou každého rámce je  
 +  ​[ ] odkaz k podřazenému rámci [//povinný je odkaz k nadřazenému//​] 
 +  [X] jméno rámce ​ 
 +  ​[ ] nastavená hodnota počtu povolených položek
  
-10.9. Předností znalostních taxonomií je [ ] efektivní řešení konfliktů [ ] zpětné řetězení pravidel [ ] vysoká modularita znalostí+10.9. Předností znalostních taxonomií je  
 +  ​[ ] efektivní řešení konfliktů ​ 
 +  ​[ ] zpětné řetězení pravidel ​ 
 +  ​[ ] vysoká modularita znalostí
  
-10.10. Prohledávání stavového prostoru lze formalizovat produkčním systémem pokud [ ] nepoužíváme backtracking [ ] se prohledává jenom do šířky +10.10. Prohledávání stavového prostoru lze formalizovat produkčním systémem pokud  
-[ ] pokud není třeba řešit konflikty+  ​[ ] nepoužíváme backtracking ​ 
 +  ​[ ] se prohledává jenom do šířky 
 +  [ ] pokud není třeba řešit konflikty 
 +====== 11 ======
  
-11.1. Expertní systémy diagnostické [ ] generují vhodnou posloupnost operátorů pro dosažení cíle [ ] jsou vhodné pro návrh terapie v medicíně [ ] uvažují n(n-1) možných hypotéz, kde n je počet listových tvrzení+11.1. Expertní systémy diagnostické ​ 
 +  ​[ ] generují vhodnou posloupnost operátorů pro dosažení cíle   
 +  ​[ ] jsou vhodné pro návrh terapie v medicíně ​  
 +  ​[ ] uvažují n(n-1) možných hypotéz, kde n je počet listových tvrzení
  
-11.2. Expertní systémy s tabulí využívají stratgeie [ ] řízení tokem dat [ ] řízení peer-to-peer (já-pán ty-pán) [ ] typu démon+11.2. Expertní systémy s tabulí využívají stratgeie ​ 
 +  ​[ ] řízení tokem dat  
 +  ​[ ] řízení peer-to-peer (já-pán ty-pán) ​ 
 +  ​[X] typu démon
  
-11.3. Obecný model pro práci s neurčitou informací vždy zahrnuje [ ] vzorec pro výpočet neurčitosti logické kombinace tvrzení [ ] odhady neurčitostí pravidel [ ] vzorec pro kombinaci vlivu více cest uvažování+11.3. Obecný model pro práci s neurčitou informací vždy zahrnuje 
 +  ​[ ] vzorec pro výpočet neurčitosti logické kombinace tvrzení 
 +  ​[ ] odhady neurčitostí pravidel 
 +  ​[ ] vzorec pro kombinaci vlivu více cest uvažování
  
-11.4. Kompozicionální model pro práci s neurčitou informací vyžaduje brát do úvahy [ ] hodnotu kompozicionálního predikátu pro vágnost [ ] všechny podmíněné a sdružené pravděpodobnosti tvrzení +11.4. Kompozicionální model pro práci s neurčitou informací vyžaduje brát do úvahy ​ 
-[ ] podmínku nezávislosti všech tvrzení+  ​[ ] hodnotu kompozicionálního predikátu pro vágnost 
 +  ​[ ] všechny podmíněné a sdružené pravděpodobnosti tvrzení 
 +  [ ] podmínku nezávislosti všech tvrzení
  
-11.5. Listový uzel inferenční sítě je [ ] nedotazovatelný [ ] cílový [ ] mezilehlý+11.5. Listový uzel inferenční sítě je 
 +  ​[ ] nedotazovatelný 
 +  ​[ ] cílový 
 +  ​[ ] mezilehlý
  
-11.6. Mezilehlý uzel inferenční sítě může být [ ] listovým [ ] dotazovatelným či nedotazovatelným [ ] ohodnocený měrou důvery+11.6. Mezilehlý uzel inferenční sítě může být 
 +  ​[ ] listovým 
 +  ​[ ] dotazovatelným či nedotazovatelným 
 +  ​[ ] ohodnocený měrou důvery
  
-11.7. Ve fuzzy modelu pro práci s neurčitou informací platí [ ] CF (E1 & E2) = max {CF (E1); CF(E2)} [ ] CF (E1 & E2) = CF(E1) + CF(E2) – CF(E1).CF(E2) [ ] CF (E1 & E2) = CF(E1) + CF(E2)+11.7. Ve fuzzy modelu pro práci s neurčitou informací platí 
 +  ​[ ] CF (E1 & E2) = max {CF (E1); CF(E2)} 
 +  ​[ ] CF (E1 & E2) = CF(E1) + CF(E2) – CF(E1).CF(E2) 
 +  ​[ ] CF (E1 & E2) = CF(E1) + CF(E2)
  
-11.8. Míra postačitelnosti lambda v Pseudobayesovském modelu pro práci s neurčitou informací leží [ ] v intervalu <0,1) [ ] v intervalu (0, nekonecno) +11.8. Míra postačitelnosti lambda v Pseudobayesovském modelu pro práci s neurčitou informací leží 
-[ ] v intervalu (1, P(H/E))+  ​[ ] v intervalu <0,1) 
 +  ​[ ] v intervalu (0, nekonecno) 
 +  [ ] v intervalu (1, P(H/E))
  
-11.9. Na začátku konzultace expertního systému je aktuální model tvořen: [ ] nulovými měrami důvěry ve všechna tvrzení [ ] expertovými odhady síly pravidel [ ] apriorními měrami důvěry, které dodal uživatel+11.9. Na začátku konzultace expertního systému je aktuální model tvořen: 
 +  ​[ ] nulovými měrami důvěry ve všechna tvrzení 
 +  ​[ ] expertovými odhady síly pravidel 
 +  ​[ ] apriorními měrami důvěry, které dodal uživatel
  
-11.10. Grafem inferenční sítě může být [ ] orientovaný strom [ ] les [ ] orientovaný graf s cykly+11.10. Grafem inferenční sítě může být 
 +  ​[X] orientovaný strom 
 +  ​[X] les 
 +  ​[ ] orientovaný graf s cykly
 ~~DISCUSSION~~ ~~DISCUSSION~~
courses/x33kui/start.1260954828.txt.gz · Poslední úprava: 2025/01/03 18:25 (upraveno mimo DokuWiki)
Nahoru
chimeric.de = chi`s home Valid CSS Driven by DokuWiki do yourself a favour and use a real browser - get firefox!! Recent changes RSS feed Valid XHTML 1.0