Zde můžete vidět rozdíly mezi vybranou verzí a aktuální verzí dané stránky.
statnice:komise [2018/06/23 17:00] klimesf |
statnice:komise [2025/01/03 18:23] (aktuální) |
||
---|---|---|---|
Řádek 5: | Řádek 5: | ||
inspiracia: | inspiracia: | ||
**http://forum.matfyz.info/viewtopic.php?f=419&t=6981** | **http://forum.matfyz.info/viewtopic.php?f=419&t=6981** | ||
+ | |||
+ | ---- | ||
+ | **26.06.2018** - Pavel Slavík (předseda), David Sedláček (místopředseda), Pavel Žikovský (externista), Miroslav Macík, Natalia Žukovec, Tomáš Werner | ||
+ | |||
+ | Obhajoba - Docela v pohodě, ani nevím jestli mi kontrolovali čas. Sedláček trochu rejpal v otázkách, ale jinak OK. | ||
+ | |||
+ | Posudky B/C (vedoucí/oponent) - výsledná C | ||
+ | |||
+ | **Společná (KO- Werner)** Co je ILP? Třída složitosti? Relaxace pomocí LP. Co je totálně unimodulární matice a příklad úlohy? | ||
+ | - U unimodulární matice jsem nevěděl definici, ale pán Werner naprosto super, snažil se pomáhat a když viděl, že se nechytám, tak řekl že mu to stačí a šli jsme dál. | ||
+ | |||
+ | **Oborová (VIZ - Sedláček)** Vizualizace volumetrických dat. Popište dva přístupy pro vykreslování vol. dat (přímé a nepřímé vykreslování), uvedte příklady metod. Popište detailně dvě metody vykreslování a to metodu First Hit a Average Intensity Projection. | ||
+ | - Popsal jsem princip paprsku a převodu 3D na 2D. Nevěděl jsem moc podrobnosti a věci do hloubky. Chtěli po mě i vzorec na výpočet AIP, to jsem dohromady nedal. | ||
+ | |||
+ | Otázky D. | ||
+ | |||
+ | Celkově C, nálada byla dobrá, pán Slavík docela vysmátý. | ||
---- | ---- | ||
Řádek 39: | Řádek 56: | ||
Rekap. - diplomka A (posudky A/B), spolecna A, oborova B - celkově A | Rekap. - diplomka A (posudky A/B), spolecna A, oborova B - celkově A | ||
+ | ---- | ||
+ | ** 20.6.2018** - Jiri Klema(Predseda), Jan Drchal(Mistopredseda), Natalia Zukovec,Branislav Bosansky, Iveta Mrazova(externista) | ||
+ | |||
+ | Obhajoba - ako pisali uz predo mnou, vacsina komise moc nedavala pozor, na zaver sa akurat tak pytal Klema na pouzite statisticke techniky vyuzite pri vyhodnocovani vysledku a ake vyhody mal nas pristup oproti inym statistickym postupom pouzitim v nasej domene (Attribute estimation from image), pripadne ake su slabosti/nevyhody. Vrelo odporucam si prezentaciu do predu nacvicit, ide to potom lahsie. | ||
+ | |||
+ | ** Spolecna TAL(Zukovec) ** Definovat NP a NPC, polynomialni redukce, Cookova veta a jeji zneni. Bezny postup, ked im nebolo nieco jasne tak sa doptali a velmi docenili, ked to clovek rovno nakreslil na tabulu. | ||
+ | |||
+ | ** Oborova SAN (Mrazova) ** Clustering, rozne techniky a ich nevyhody, specialne popsat K-means,spectral clustering,hierachical clustering, t-SNE, SOM, PCA. Pri tejto otazke chcem pozdravit autora otazok, dat SOM na statnice fakt nie je cool :) (ked uz, tak tomu venovat trochu viac ako doslova 2 slidy). Pri k-means chceli vediet ako sa prepocitavaju centroidi, problem s inicializaciou, ake vzdialenostne funkce mozme pouzit, ako urcit k (nebolo treba vediet priamo techniky, len stacilo povedat,ze dajake existuju na zaklade ktorych mozme vyhodnotit homogennost/kvalitu clustrov), ze to dokonverguje, ale nemusi optimalne -> problem s outliermi. Spectral clustering a t-SNE preco potrebujeme a ako sa da vyuzit/ ake vyhody oproti beznemu k-means. Pri t-SNE chcli Kullerback divergenci. Pak hierarchical clustering len zakladne, ze vysledkom je dendogram, ako vyzera a ako to mozme vytvorit (pristup aglomerative vs divisive). Pak to zacalo byt funny, lebo vcelku dlho sa zastavili na SOM. Ako su definovane neurony, ako si pamataju polohu v priestore, ako vyuzivaju topologiu priestoru, ako funguju jednotlive neurony a ako vedia jeden o druhom, aku maju vyhodu SOM oproti inym technikam, nakreslit co sa deje pri spracovani jednotlivych bodov, ako ich interpretovat. Mal som pocit,ze SOM bolo zakladom otazky a asi to najdolezitejsie pre nich ale to bude asi tym, ze pani Mrazova vyucije neuronky na matfyze :) ale celkovo bola velmi mila, cloveka naviedla a snazila sa pomoct. Vystupovala velmi priatelsky. PCA uz len spomenut kedy sa da vyuzit, zaklad,ze je to odstranenie sumu z covariance matrix, dobre pre high-dimensional data, najprv PCA a pak dajaky clustering ako napr. k-means. | ||
+ | |||
+ | Vysledok: C | ||
+ | |||
+ | |||
---- | ---- | ||