Přístupnostní navigace
E-přihláška
Vyhledávání Vyhledat Zavřít
studijní program
Fakulta: FITZkratka: DIT-ENAk. rok: 2023/2024
Typ studijního programu: doktorský
Kód studijního programu: P0613D140029
Udělovaný titul: Ph.D.
Jazyk výuky: angličtina
Akreditace: 8.12.2020 - 8.12.2030
Profil programu
Akademicky zaměřený
Forma studia
Kombinované studium
Standardní doba studia
4 roky
Garant programu
prof. Ing. Lukáš Sekanina, Ph.D.
Oborová rada
Člen interní :doc. Ing. Jan Kořenek, Ph.D.prof. Ing. Tomáš Vojnar, Ph.D.prof. Dr. Ing. Jan Černockýprof. RNDr. Milan Češka, CSc.prof. Ing. Adam Herout, Ph.D.prof. Ing. Jan M. Honzík, CSc.prof. Ing. Tomáš Hruška, CSc.prof. Ing. Pavel Václavek, Ph.D.prof. Dr. Ing. Pavel Zemčík, dr. h. c.prof. RNDr. Alexandr Meduna, CSc.prof. Dr. Ing. Zbyněk Raidaprof. RNDr. Josef Šlapal, CSc.Člen externí :prof. Ing. Jiří Sochor, CSc.prof.,RNDr. Jiří Barnat, Ph.D.
Oblasti vzdělávání
Cíle studia
Cílem studijního programu je poskytnout vynikajícím absolventům magisterského studia specializované univerzitní vzdělání nejvyššího typu v informatice a výpočetní technice, zvláště pak v oblastech, ve kterých se profilují výzkumné skupiny FIT, a ve vztahu k výzkumným projektům řešeným na FIT:
Profil absolventa
Absolventi doktorského studijního programu Information Technology jsou schopni samostatně provádět vědecko-výzkumnou činnost a tvůrčím způsobem řešit složité teoretické, návrhové, verifikační, testovací, implementační a inovační problémy v oblasti informatiky. Jsou vybaveni pokročilými znalostmi jak z teoretické informatiky, tak i z oblasti algoritmizace, tvorby software i hardware a zkušenostmi s jejich uplatněním v různých aplikacích. Hlavní důraz a cíl studia je směřován na vědeckou a tvůrčí činnost a představení výstupů této činnosti vědecké komunitě na mezinárodní úrovni, zejména ve formě publikačních výstupů. Další nedílnou součástí je získání zkušeností s prací v týmu a pravidelná prezentace dosažených výsledků, nejdříve pro kolegy na FIT a později na mezinárodních vědeckých konferencích. Absolventi doktorského studijního programu mají tedy nejen teoretické a specializované znalosti dle svého odborného zaměření, ale zároveň i zkušenosti s publikační činností a uplatněním a prezentací výsledků na mezinárodní úrovni.
Charakteristika profesí
Absolventi FIT obecně a absolventi doktorského studia zejména nemají problém najít uplatnění jako vědečtí, pedagogičtí či řídicí pracovníci jak v ČR tak v zahraničí.
Podmínky splnění
Jsou vymezeny individuálním studijním plánem studenta, jenž specifikuje studijní předměty, které je student povinen úspěšně absolvovat, předpokládané stáže a účasti na odborných konferencích a minimální pedagogické působení v bakalářském nebo magisterském studijním programu fakulty. Úspěšné ukončení studia je podmíněno:
Vytváření studijních plánů
Jsou stanovena směrnicí děkana Pravidla o organizaci studia na FIT pro sestavovaní individuálního plánu studenta. Individuální studijní plán vychází z tématu disertační práce a podléhá schválení oborovou radou.Předepisuje:
https://www.fit.vut.cz/fit/info/smernice/sm2018-13.pdf
Dostupnost pro zdravotně postižené
Vysoké učení technické v Brně umožňuje studium osobám se zdravotním postižením dle § 21, odst. 1 písm. e) zákona 111/1998 Sb. vysokých školách a o změně a doplnění dalších zákonů ve znění pozdějších předpisů a dle požadavků v této oblasti vyplývajících z nařízení vlády č. 274/2016 Sb., o standardech pro akreditace ve vysokém školství, poskytuje uchazečům o studium a studentům se specifickými potřebami služby v rozsahu a formou odpovídající specifikaci uvedené v Příloze č. 3 k Pravidlům pro poskytování příspěvku a dotací veřejným vysokým školám Ministerstvem školství, mládeže a tělovýchovy, specifikující financování zvýšených nákladů na studium studentů se specifickými potřebami.Služby pro studenty se specifickými potřebami jsou na VUT v Brně realizovány prostřednictvím aktivit specializovaného pracoviště - poradenského centra Alfons, které je součástí Institutu celoživotního vzdělávání VUT v Brně - sekce Poradenství pro studenty.Aktivity poradenského centra a pravidla zpřístupňování studia univerzita garantuje platnou Směrnicí rektora č. 11/2017 upravující postavení uchazečů o studium a studentů se specifickými potřebami na VUT v Brně. Tato vnitřní norma garantuje minimální standardy poskytovaných služeb.Služby poradenského centra jsou nabízeny uchazečům o studium a studentům se všemi typy zdravotního znevýhodnění uvedených ve zmíněném Metodickém standardu Ministerstva školství, mládeže a tělovýchovy.
Návaznost na další typy studijních programů
Studijní program navazuje jak na dobíhající navazující magisterský program Informační technologie, tak na nový navazující magisterský program Informační technologie a umělá inteligence.Studenti mohou dále, podle svých potřeb a mimo své formalizované studium, také absolvovat kurzy a školení týkající se metodologie vědecké práce, publikačních a citačních dovedností, etiky, pedagogiky a tzv. měkkých dovedností, které organizuje VUT či jiné instituce.
Vypsaná témata doktorského studijního programu
Cílem této disertační práce je tvorba řešiče Maxewllových rovnic pro aplikace v medicínských zobrazovacích technikách (MR). Numerické řešení Maxwellových rovnic bude založeno na technice k-Wave (korigovaná pseudospektrální metoda). Vzhledem k rozsahu řešený domén a akceptovatelnému času výpočtu je jedinou možností využití rozsáhlých superpočítačových systémů.Výzkum bude zahájen tvorbou prototypu řešiče v jazyce MATLAB. Po ověření funkčnosti algoritmu dojde k jeho převodu na heterogenní masivně paralelní systémy. Zde očekáváme především multi-GPU systémy Karolina v IT4Innovations a LUMI ve Finsku.Základní výzkumnou otázku je zde dosažení maximální rychlosti při zachování akceptovatelné přesnosti.
Školitel: Jaroš Jiří, doc. Ing., Ph.D.
Tématicky se tato disertační práce orientuje na bezpečnost IoT systémů. Práce by měla obsahovat:
Očekává se účast na relevantních mezinárodních konferencích a publikování v odborných či vědeckých časopisech.
Na vedení práce se bude podílet školitel-specialista dr. Kamil Malinka.
Školitel: Hanáček Petr, doc. Dr. Ing.
Cílem disertační práce je výzkum nových metod pro analýzu kyberbezpečnostních dat s cílem odvodit dodatečné znalosti o útočníkovi, o způsobu útoku nebo cíli útoku. Obsahem práce je výzkum využití technik strojového učení za účelem vývoje nových způsobů identifikace útoků např. v šifrovaném provozu, nových postupů pro odvozování kontextové informace o útočnících a jejich cílech a v neposlední řadě odvozování informace podporující automatizaci reakce na detekovaný útok či hrozbu. Předpokládá se optimalizace a přizpůsobení metod strojového učení pro potřeby detekce samotného útoku, jeho typu, odvozování identifikačních vzorů. Současný výpočetní výkon umožňuje trénovat komplexní modely strojového učení, které jsou schopny odvodit znalosti a souvislosti skryté v síťovém provozu. Tato oblast nebyla doposud důsledně zkoumána a představuje tak vhodné téma pro disertační práci. Výsledky disertační práce lze aplikovat při podpoře a automatizaci činností členů Security Operation Centre, Network Operation Centre, CSIRT či CERT týmů či administrátora sítě.Při řešení práce se předpokládá úzká spolupráce s výzkumným týmem Liberouter (www.liberouter.org) a získávání zpětné vazby od správců výzkumné infrastruktury sdružení CESNET. V případě zodpovědného přístupu k řešení zadaného tématu může být student zapojen do řešení projektů bezpečnostního výzkumu MV ČR nebo MO ČR. Školitelem specialistou k tématu disertační práce je dr. Martin Žádník. Relevantní publikace pro toto téma jsou:
Školitel: Kořenek Jan, doc. Ing., Ph.D.
Tematicky se tato disertační práce orientuje na bezpečnost bezdrátových lokálních sítí. V rámci řešení by mělo dojít k seznámení se s vybranými bezdrátovými sítěmi a jejich zabezpečením. Kroky práce by měly obsahovat: prostudování teorie bezdrátových sítí, jejich vlastností a možností provedení útoků, odzkoušení základních typů útoků, navržení nového způsobu ochrany, experimenty, zhodnocení výsledků a návrh směru dalšího výzkumu.
V současné době neustále roste důraz na kvalitu, spolehlivost a bezpečnost software. V souladu s tím jsou nemalé prostředky investovány do výzkumu moderních technik analýzy a verifikace programů pomocí nejrůznějších automatizovaných metod, jako jsou systematické testování, dynamická analýza, statická analýza, model checking apod. Tyto techniky jsou přitom rozvíjeny nejen na univerzitách, ale do jejich výzkumu a vývoje investuje řada významných mezinárodních společností (Google, Microsoft, IBM, Red Hat, Honeywell, Facebook apod.). Mezi uvedenými metodami patří testování a dynamická analýza k tradičním, již dlouho nejvíce používaným, ale přesto intenzivně dále rozvíjeným přístupům (o čemž svědčí velký počet článků z dané oblasti prezentovaných na mezinárodních konferencích věnovaných obecně programovacím jazykům a/nebo softwarovému inženýrství i velký počet špičkových mezinárodních konferencí specializujících se na danou oblast).
Náplní tématu je rozvoj stávajících a návrh nových metod dynamické analýzy a inteligentního testování, případně kombinovaných s použitím vhodných statických analýz. Tyto analýzy by přitom měly směřovat nejen k co nejefektivnějšímu vyhledávání chyb, ale také k automatické podpoře procesu řízení software (identifikace problematických komponent, problematických změn, podpora rozhodování o tom, které změny začlenit či nezačlenit do nové verze softwarového produktu apod.).
Předmětem výzkumu bude vývoj nových heuristik pro testování a analýzu, které umožní co nejefektivnější odhalení i vzácně se projevujících chyb (jako jsou např. extrapolující dynamické analýzy, vkládání šumu, či fuzz testování) a které umožní automatické získávání zkušeností z dosud provedených testů či analýz a jejich následné využití pro zdokonalení procesu testování či obecně řízení kvality software. Do této oblasti spadá vhodné využití statistických analýz, strojového učení či technik dolování z dat. Předmětem výzkumu je přitom nejen návrh nových technik z dané oblasti, ale také jejich prototypová implementace a experimentální ověření na vhodných případových studiích.
Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT testováním a dynamickou analýzou software, zejména dr. A. Smrčkou, u něhož se předpokládá role školitele specialisty, a dále dr. B. Křenou, dr. J. Fiedorem či T. Fiedorem. Práce naváže na zkušenosti skupiny VeriFIT s nástroji jako ANaConDA či Perun.
V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do grantových projektů (např. nově přijatý projekt GAČR AIDE, nově přijatý evropský projekt HE Chess či některý z nově připravovaných evropských projektů, jež by měly navázat na úspěšně ukončené či aktuálně dokončované evropské projekty H2020 ECSEL Arrowhead Tools a Valu3s). Je zde rovněž možnost úzké spolupráce jednak s různými průmyslovými partnery FIT, např. Honeywell či Red Hat, tak také zahraničními partnery VeriFIT: např. dr. Joao Lourenco (Universidade Nova de Lisboa, Portugalsko).
Školitel: Vojnar Tomáš, prof. Ing., Ph.D.
Modely pro strojové učení, jako jsou regresní algoritmy, rozhodovací stromy či neuronové sítě, se aplikují nejen na vysoce výkonných výpočetních platformách, ale postupně nacházejí své místo v nízkopříkonových vestavěných systémech. V těchto systémech jsou často akcelerovány s využitím specializovaných hardwarových akcelerátorů. Cílem disertační práce bude navrhnout automatizované metody návrhu a optimalizace těchto akcelerátorů s ohledem na jejich efektivitu (energetickou i výpočetní). Současně bude optimalizována struktura akcelerátorů, mapování výpočetního modelu do akcelerátoru i architektura modelu s ohledem na efektivitu zpracování v akcelerátoru. Výzkum spadá to témat řešených výzkumnou skupinou Evolvable Hardware.
Školitel: Sekanina Lukáš, prof. Ing., Ph.D.
Výzkumný problém: Mezi všemi typy demence je Alzheimerova choroba (AD) nejběžnější formou, přičemž 70 % lidí postižených demencí má AD. Vzhledem k tomu, že prevalence AD se zvyšuje s věkem, očekává se, že počet lidí žijících s AD v příštích desetiletích poroste v důsledku lepší kvality života, která má za následek zvýšení věku v mnoha zemích. To vše vedlo ke zvýšenému zaměření na zajištění pre-start detekce AD a odpovídající intervenci, což může vést ke zpomalení progrese onemocnění poskytnutím adekvátní diagnostiky.
Problémy se současnými řešeními: K preklinické AD dochází 10 až 15 let před vypuknutím nemoci, což má za následek změny v mozku, aniž by se projevily nějaké skutečné příznaky nemoci, jako je ztráta paměti atd. Pre-onset znamená detekci AD v preklinickém stádiu nebo před ním. Stávající nejmodernější metody se zaměřují především na detekci pozdějších stádií AD a detekce preklinické AD je stále otevřeným výzkumným problémem. Tento výzkum se proto zaměřuje na detekci AD před propuknutím (tj. včasnou detekci preklinické AD), protože to bude mít obrovský dopad na životy lidí. To může vést k včasnému zásahu a může vést k dalšímu zpomalení progrese onemocnění.
Výzvy: Ve fázi preklinické AD nejsou související příznaky a symptomy jasné, a proto lidé v této fázi nevyhledávají žádnou pomoc. Proto by metoda pro detekci AD před nástupem měla být součástí pravidelného procesu zdravotního screeningu, a proto by měla být dostupná v malých klinických zařízeních.
Téma práce: Způsob detekce preklinické AD bude zahrnovat zkoumání základních mozkových mechanismů pro sledování a sledování změn souvisejících s pre-propuknutím detekce AD. Zobrazování magnetickou rezonancí (MRI) bude použito jako reference pro zkoumání dynamiky mozku, ale v praxi jej nelze použít kvůli jeho vysoké ceně a specializovanému prostředí, které omezuje jeho použití ve fázi screeningu. V tomto výzkumu bude použit elektroencefalogram (EEG), který je široce dostupný, má nízkou cenu, má dobré časové rozlišení a má vysokou mobilitu. Proto si tento projekt klade za cíl prozkoumat změny v základních mozkových mechanismech pomocí EEG k vývoji neuromarkeru založeného na EEG pro detekci AD před propuknutím. Neuromarker bude zahrnovat extrakci funkcí a odpovídající vývoj modelu strojového učení.
Pár slov o školiteli: Dr. Malik nedávno nastoupil na FIT VUT v Brně. Má desetiletou zkušenost s prací v oblasti zpracování neuro-signálů a neuro-obrazu. V současné době je v procesu zakládání výzkumné skupiny v této oblasti na FIT. Jedná se o multidisciplinární projekt, který bude zahrnovat spolupráci s klinickými lékaři. Jádro projektu však souvisí s IT. Jedná se o vývoj nové metody analýzy EEG signálů. Neváhejte mě kontaktovat na malik@fit.vutbr.cz
Školitel: Malik Aamir Saeed, prof., Ph.D.
Současné počítačové systémy a síťové prvky zaznamenávají stovky a tisíce událostí v logovacích souborech, které popisují standardní i nestandardní chování daného zařízení či probíhající komunikaci. Analýzou těchto událostí je možné popsat typické chování daného zařízení a detekovat odchylky způsobené například kybernetickými útoky. Součástí výzkumu je analyzovat události v logovacích souborech a vytvořit model typického chování daného zařízení na základě událostí. Dalším krokem je navrhnout systém detekce nestandardního chování na základě logovacích dat. Toto chování může být způsobeno chybou systému nebo kybernetickým útokem. Pro detekci anomálií lze použít jednoduché metody typu whitelisting či blacklisting, dále je možné modelovat pravděpodobnostní výskyt jednotlivých kategorií událostí pomocí časových řad, případně použít kvalitativní popis typických sekvencí událostí pomocí pravděpodobnostních automatů či jiných formálních prostředků. Cílem práce je prozkoumat metody pro automatizovanou analýzu a detekci anomálií logovacích informací a demonstrovat, jak lze tuto metodu využít k zajištění kybernetické bezpečnosti počítačových systémů.
Školitel: Matoušek Petr, doc. Ing., Ph.D., M.A.
Síťová komunikace používaná malwarem je často šifrovaná, což ztěžuje detekci a náročné použití stávajících metod založených na analýze obsahu. Nedávné práce využívají informace z inicializace připojení nebo aplikují ML na trénování klasifikátorů na základě dostupných vzorků malwarové komunikace. Jak se malware pokouší skrýt, často mění a upravuje své vzorce útoků.Tento projekt si klade za cíl studovat techniky používané malwarem pro komunikaci, včetně metod pro skrývání informací a skrytých kanálů používaných pro ovládání botnetů. Na základě získaných poznatků je jádrem práce výzkum detekčních metod. Očekává se, že pečlivé experimentální vyhodnocení vyhodnotí navržené metody detekce.
Školitel: Ryšavý Ondřej, doc. Ing., Ph.D.
Téma je zaměřeno na algoritmy embedded zpracování obrazu, videa a/nebo signálu. Hlavním cílem je zkoumat možnosti "chytrých" a "malých" zařízení, která by měla nové vlastnosti, a bylo možné je efektivně nasadit do aplikací vyžadujících malé, skryté, distribuované, nízkopříkonové, mechanicky nebo klimaticky namáhané jednotky schopné zpracovávat signálové vstupy. Nasazení takových jednotek je perspektivní a široké a předpokládá se i propojení do klient/server a/nebo cloud systémů. Samotné jednotky mohou být založeny na efektivním CPU/GPU/DSP, na programovatelném hardware, případně na kombinaci těchto technologií. Může se jednat i o smart kamery. Aplikace, které jsou v oblasti zájmu tohoto tématu:
Je možnost spolupráce i na grantových projektech, zejména na nově podávaných projektech TAČR, H2020, ECSEL (potenciálně možnost stipendia či pracovního poměru).
Školitel: Zemčík Pavel, prof. Dr. Ing., dr. h. c.
Problematika identifikace a extrakce konkrétních informací z dokumentů na WWW je již delší dobu předmětem intenzivního výzkumu. Mezi základní překážky, které je třeba překonat, patří nedostatečná strukturovanost HTML dokumentů a absence metainformací (anotací) využitelných pro rozpoznání významu jednotlivých částí obsahu. Tyto chybějící informace jsou proto nahrazovány analýzou různých aspektů webových dokumentů, zejména následujících:
Pro úspěšnou extrakci konkrétní informace z dokumentů je rovněž nezbytná doménová znalost zahrnující očekávanou strukturu extrahované informace (vztahy mezi jednotlivými extrahovanými položkami) a způsob zápisu jednotlivých položek. Tato znalost umožňuje přesnější rozpoznání jednotlivých částí informace v textu dokumentu.
Současné přístupy k extrakci informací z webových dokumentů se soustřeďují zejména na modelování a analýzu dokumentů samotných; modelování extrahované informace za účelem jejího přesnějšího rozpoznání nebylo dosud podrobněji zkoumáno v tomto kontextu. Předpokládaným cílem disertační práce jsou proto následující:
Nedílnou součástí je rovněž experimentální implementace navržených metod s využitím existujících nástrojů a experimentální ověření na reálných dokumentech dostupných na WWW.
Školitel: Burget Radek, doc. Ing., Ph.D.
S nárůstem digitalizace ve veřejné správě je kladen čím dál větší důraz na dostupnost a transparentnost veřejných dat (např. údaje z hlasování územních samosprávních celků, úřední desky, apod.). Ačkoliv zákon mnohdy ukládá povinnost zveřejňovat tato data, neexistují pro ně žádné formální modely, nejsou mnohdy definovány procesy jejich tvorby, zpracování, ukládání a prezentace. Mnohdy se jedná o strojově obtížně zpracovatelná data (dokumenty formátu PDF apod.). Z toho důvodu může být prakticky nemožné tato data dále využít pro další analýzy. Dalším problémem je pak jejich konstantní nárůst (problém big data).Za účelem výše zmíněných problémů vznikají iniciativy standardizace otevřených dat ve veřejné správě. Příkladem je Portál otevřených dat ČR (data.gov.cz, opendata.gov.cz), repositář Otevřená data ČR @ MVČR (github.com/opendata-mvcr) nebo portál otevřených dat města Brna (data.brno.cz).Cílem této disertační práce je studovat a rozšířit existující přístupy pro práci s otevřenými daty v ČR. Zejména se bude jednat o:
Školitel: Hruška Tomáš, prof. Ing., CSc.
Hluboké neuronové konvoluční sítě jsou jasným trendem posledních let v oblasti strojového učení pro analýzu obrazu. Konvoluční neuronové sítě je také možné využít pro analýzu 3D obrazu. Tento přístup je však problematický z pohledu značných výpočetních a paměťových nároků. Cílem disertační práce je zkoumat, analyzovat a hledat nové architektury tzv. grafových neuronových sítí a přístupů k jejich efektivnímu učení pro úlohy rozpoznávání 3D tvaru objektů, kdy datovou sadu tvoří různé reprezentace - např. polygonální 3D modely, voxelová reprezentace, apod.Součástí práce bude i aplikace zkoumaných metod v rámci projektů, na jejichž řešení se školitel podílí.
Školitel: Španěl Michal, doc. Ing., Ph.D.
Hluboké konvoluční sítě jsou jasným trendem posledních let v oblasti strojového učení pro analýzu obrazu. V úlohách s velmi omezenou a specifickou datovou sadou, kdy není dostatečné využít augmentace dat nebo koncepce GAN sítí, je však jejich nasazení složité.Cílem disertační práce je zkoumat, analyzovat a hledat nové architektury hlubokých konvolučních sítí a přístupů k jejich učení pro takové úlohy analýzy obrazu, ve kterých je velikost anotované datové sady extrémně malá a nebo se postupně rozrůstá. Pro naučení neuronových sítí je možné využít neanotovaných dat případně částečně anotovaných dat ve formě uživatelského vstupu.Součástí práce bude i aplikace zkoumaných metod v rámci projektů, na jejichž řešení se školitel podílí.
Exponenciálně narůstající náročnost řešení NP téžkých (případně NP úplných) úloh nedovoluje uplatnění konvenčních optimalizačních postupů využívajících současné výpočetní technologie. Dosažení akceptovatelné kvality řešení je často možné pouze za cenu značných výpočetních nároků a v kombinaci vhodných aplikačně specifických technik (reprezentace problému, inicializace řešení, heuristiky). Není-li odpovídající postup k dispozici, přistupuje se často k aplikaci stochastických optimalizačních algoritmů, typicky inspirovaných různými aspekty z fyziky, biologie či jiných jevů pozorovaných v přírodě. Cílem této práce je zejména výzkum pokročilých přírodou inspirovaných metod a dalších podpůrných technik pro řešení úloh, pro které zatím vhodné postupy neexistují nebo pouze v omezené míře (např. z důvodu jejich specifických vlastností nebo různých omezujících podmínek, které se často vyskytují v praxi). Předpokládá se zaměření na různé modifikace úloh typu TSP, RVP, SAT a dalších, na které mohou být reálné problémy převoditelné.
Školitel: Bidlo Michal, doc. Ing., Ph.D.
Vďaka nasadeniu nových technológií v našom každodennom živote sa neustále generuje obrovské množstvo dát rôznych typov. Vytvorené datasety je potrebné efektívne spracovať - informácie v nich obsiahnuté často podporujú správnosť a presnosť rozhodovacích procesov. Rozvoj metód analýzy údajov je preto dôležitou súčasťou výskumu v informatike. Z rôznych dôvodov nie sú tradičné spôsoby spracovania všeobecne použiteľné, preto je potrebné hľadať nové prístupy. Sú väčšinou založené na umelej inteligencii a strojovom učení.
Inteligentná analýza dát má veľký potenciál uplatnenia na riešenie aktuálnych výskumných úloh v mnohých oblastiach, medzi inými aj v energetike. Toto odvetvie prechádza výraznými zmenami - obnoviteľné zdroje energie, batérie a elektromobilita menia charakter elektrickej siete a z klasickej jednosmernej centralizovanej siete sa stáva obojsmerná distribuovaná sieť. Tento fakt vyvoláva množstvo výskumných otázok a problémov na riešenie. Výskumné problémy, ktorým je možné sa v rámci témy venovať zahŕňajú:
- optimálne riadenie mikrogridov (malých energetických sietí s obnoviteľnými zdrojmi energie) umožňujúcich zdieľanie energie medzi zákazníkmi,
- predikovanie spotreby zákazníkov a výroby z obnoviteľných zdrojov, ktoré sú potrebné pre efektívne riadenie mikrogridov,
- disagregácia spotreby energie na spotreby jednotlivých spotrebičov, ktoré umožnia lepšie porozumieť charakteru spotreby zákazníkov,
- skúmanie anomálií a/alebo extrémnych hodnôt v spotrebe alebo výrobe energie z obnoviteľných zdrojov.
Predmetom záujmu však môže byť analýza dát v širšom zmysle - je možné zamerať sa na úlohy predikcie časových radov, klastrovania, klasifikácie alebo detekcie anomálií v rôznych doménach.
Relevantné publikácie:
Rozinajova, V., Bou Ezzeddine, A., Grmanova, G., Vrablecova, P., Pomffyova, M.(2020): Intelligent Analysis of Data Streams, Published in: Towards Digital Intelligence Society: A Knowledge-based Approach, Publish date 22 December 2020
Kloska M., Rozinajova V. (2021): Towards Symbolic Time Series Representation Improved by Kernel Density Estimators. In: Hameurlain A., Tjoa A.M. (eds) Transactions on Large-Scale Data- and Knowledge-Centered Systems L. Lecture Notes in Computer Science, vol 12930. Springer, Berlin, Heidelberg.
Školitel: Rozinajová Věra, Doc., Ph.D.
Využívání dronů v řadě specifických situacích je dnes důležitým trendem nejen v průmyslu, ale zejména v operacích bezpečnostních složek. Tento trend přináší nové problémy v efektivní komunikaci člověka s dronem, tj. jak zvýšit efektivitu pilota, snížit jeho kognitivní zátěž, zvýšit jeho orientaci ve složitém prostředí či při spolupráci s více drony apod. Cílem této práce je zkoumat nové možnosti v oblasti efektivního a intuitivního využití senzorických dat a jejich fúze s dalšími dostupnými datovými zdroji při interakci pilota s dronem. V rámci řešení je potřeba:
Školitel: Beran Vítězslav, doc. Ing., Ph.D.
The goal of this PhD is to design conversation models in the form of finite state graphs semi-automatically or fully automatically from an unlabeled set of audio or textual training dialogs. Words, phrases, or the user turns can be converted to embeddings using (large) language models trained specifically on conversational data]. These embeddings represent points in a vector space and carry semantic information. The conversations are trajectories in the vector space. By merging, pruning, and modeling the trajectories across a sizable collection of dialogs, we can obtain dialog model skeleton models. These models could be used for fast data content exploration, content visualization, topic detection, and topic-based clustering, and mainly for much faster and cheaper design of fully trustable conversation models for commercial applications.
Školitel: Černocký Jan, prof. Dr. Ing.
Cílem výzkumu je navrhnout novou metodu pro detekci hrozeb pomocí kontextové analýzy síťového provozu. V prostředí síťového provozu chápeme kontextem např. síťové toky, které souvisí s analyzovaným tokem na základě času, identifikaci zdroje apod. Základem kontextové analýza je tedy odhalení vztahů mezi jednotlivými záznamy síťového provozu a jejich použití pro zlepšení schopností detekce hrozeb.Pomocí kontextu je možné identifikovat hrozby, které je v současné době obtížné detekovat, např. z důvodu použití šifrování, vícestupňových charakteristik nebo použití zranitelnosti nulového dne. Kontext sestavený systémem může také poskytnout správcům sítě další informace pro vytvoření celkového obrazu stavu sítě, služeb či aplikací.
Kritickou infrastrukturu tvoří systémy a prvky, jejichž výpadek má závažný dopad na zajištění základních potřeb obyvatel jako jsou například distribuce vody, elektrické energie, plynu a další. Příkladem zařízení kritické infrastruktury jsou elektrárny, rozvodny, vodárenská zařízení, distribuční zařízení plynu, řízení dopravy a podobně. Tyto systému používají pro komunikaci průmyslové řídicí protokoly jako je například Modbus, IEC 104, MMS. Součástí výzkumu bude analýza kybernetických hrozeb v průmyslové komunikaci podle dělení MITRE ATT&CK for ICS a návrh automatizované detekce anomálií. Na základě analýzy běžného provozu je potřeba vybrat atributy pro popis komunikace, které slouží k vytvoření modelu komunikujícího systému. Detekce pak probíhá za použití metod strojového učení, neuronových sítí, statistických metod a podobně. Cílem práce tedy bude prozkoumat chování průmyslového komunikace, zvolit vhodný popis pro modelování a navrhnout vhodnou metodu detekce anomálií.
Projekt se zabývá metrikami pro odhad vizuální kvality obrazu a videa. Cílem práce je výzkum nových metod, které by odstranily některé nedostatky existujících metrik zejména s ohledem na vlastnosti vizuálního vnímání člověka. V úvahu přicházejí např. problémy z oblasti vjemu HDR obrazu a využití přídavných informací (metadata, 3D, atd.) o testovaných scénách pomocí metod strojového učení (např. neuronových sítí).
Školitel: Čadík Martin, doc. Ing., Ph.D.
Tématem disertační práce jsou zejména pokročilé metody zpracování a editace obrazu. Cílem práce je výzkum nových metod s využitím strojového učení, zejména hlubokých konvolučních neuronových sítí.
Tématem jsou algoritmy počítačové grafiky a syntézy obrazu. Hlavním cílem je zkoumat nové a moderní algoritmy počítačové grafiky, související datové struktury, související otázky získávání a zpracování 3D modelů a další aspekty algoritmů tak, aby bylo lépe rozumět jejich vlastnostem a možnostem, zlepšovat a připravovat nové. Je možno pracovat na různých platformách, včetně paralelních CPU jáder x86/64, ARM, Xeon PHI, GPU apod. v OpenCL, CUDA, v FPGA ve VHDL, případně i jinak. Možné algoritmy zahrnují:
Po dohodě je možné zpracovávat i individuálně vybrané algoritmy, které ve výše uvedeném seznamu nejsou, ale patří do dané tématiky.
Je možnost spolupráce i na grantových projektech, zejména na nově podávaných projektech TAČR, H2020, ECSEL (možnost stipendia či pracovního poměru).
Cílem práce je seznámit se s aktuálními problémy počítačového vidění a používaného strojového učení (hluboké konvoluční neuronové sítě) a identifikovat zajímavé problémy k rozvinutí a dalšímu výzkumu. Řešitel má získat nadhled v problematice a experimentovat s populárními algoritmy a identifikovat jejich vhodné okrajové případy, na kterých bude možné dosáhnout zajímavých výsledků a pokroků.Konkrétně se řešitel má zaměřit na následující:
Školitel: Herout Adam, prof. Ing., Ph.D.
This PhD aims at the following issues of speech biometry" (1) improving both speaker verification (SV) and speaker diarization (SD) by exploiting content information generated by automatic speech recognition (ASR) and language meta-information, (2) In SD, explore end-to-end training of SD systems, extending the current schemes (successful only on 2-party conversations) to more, often overlapping, speakers. (3) study, adapt and improve large models trained in unsupervised way (such as wav2vec, WavLM, Whisper), etc. The goal is to study their domain independence, and make them work on challenging small data in unseen conditions and under-resourced scenarios (typical scenario of NIST evaluations). (4) investigate into probabilistic speaker representations allowing for robust evaluation of scores in presence of embeddings coming from different conditions, recordings of different lengths etc, starting from our recent work on Toroidal Probabilistic Linear Discriminant Analysis (tPLDA).
Školitel: Burget Lukáš, doc. Ing., Ph.D.
Efektivní zpracování síťové komunikace na úrovni jednotlivých zpráv je nezbytným předpokladem pro široké spektrum další úloh, např. detekce škodlivé komunikace, monitorování specifického provozu, zajištění kvality služeb, atd. Tato práce se zabývá zpracování a analýzou síťových dat s využitím jazyka P4 a související technologie, která umožňuje vytvářet efektivní aplikace, pro zpracování síťové komunikace na linkových rychlostech. V rámci práce budou studovány možnosti P4 pro různé úlohy, pro které je nutná specifická hardwarová podpora, nebo se musí provádět výhradně v software. Cílem je vytvoření řešení, které díky použití P4 poskytnout efektivní způsoby zpracování a analýzy síťových dat.Odkazy[1] F. Cugini et al., "Telemetry and AI-based security P4 applications for optical networks [Invited]," in Journal of Optical Communications and Networking, vol. 15, no. 1, pp. A1-A10, January 2023, doi: 10.1364/JOCN.470118.[2] Gelenbe, E., Domanska, J., Frohlich, P., Nowak, M. P., & Nowak, S. (2020). Self-Aware Networks That Optimize Security, QoS, and Energy. Proceedings of the IEEE, 108(7), 1150-1167. https://doi.org/10.1109/JPROC.2020.2992559[3] F. Hauser, M. Häberle, M. Schmidt and M. Menth, "P4-IPsec: Site-to-Site and Host-to-Site VPN With IPsec in P4-Based SDN," in IEEE Access, vol. 8, pp. 139567-139586, 2020, doi: 10.1109/ACCESS.2020.3012738.
Řešení tohoto projektu bude vycházet ze stávajících poznatků teorie formálních jazyků o modelech definující jazyky. Projekt se zaměří na automaty a gramatiky. Cílem je konstrukce a výzkum nových verzí těchto modelů a to tak, aby adekvátním způsobem odrážely potřeby moderní informatiky. Řešení projektu bude rovněž zahrnovat diskuzi aplikací těchto systémů např. v oblasti bezpečnosti.Výsledky prvního roku řešení tohoto problému budou publikovány v Acta Informatica v 2023.
Školitel: Meduna Alexandr, prof. RNDr., CSc.
Odporúčacie systémy sú integrálnou súčasťou prakticky každej modernej webovej aplikácie. Personalizované, resp. adaptívne služby, sa stali štandardom, ktorý je používateľmi aplikácií vyžadovaný skoro vo všetkých doménach (napr. spravodajstvo, četoví agenti, sociálne médiá alebo vyhľadávanie).
Personalizácia má významný vplyv na každodenný život miliónov používateľov naprieč mnohými doménami a aplikáciami. To je zdrojom zásadnej výzvy - návrh metód, ktoré sú nielen presné, ale aj dôveryhodné a spravodlivé. Táto výzva ponúka mnohé výskumné príležitosti vo viacerých smeroch:
Nové metódy strojového učenia pre adaptívne a odporúčacie systémy
Off-policy učenie
Vysvetľovanie odporúčaní
Férovosť a spravodlivosť v odporúčaní
Skreslenia v odporúčaní
Jednotlivé smery a výzvy môžu byť adresované vo viacerých doménach ako napríklad vyhľadávanie, elektronický obchod, spravodajstvo, sociálne médiá a iné.
Súvisiace publikácie:
Školitel: Kompan Michal, doc. Ing., PhD.
Předmětem disertační práce bude zejména vývoj teoretických základů pro nové škálovatelné metody řízení systémů pracujících v pravděpodobnostním prostředí. Zaměříme se na syntézu konečně stavových kontrolérů pro stochastické procesy s částečným pozorováním s využitím pokročilých metod formální kvantitativní analýzy, technikami induktivní syntézy a strojového učení. Práce se rovněž zaměří na využití těchto metod v oblasti řízeních prakticky relevantních pravděpodobnostních systémů, a na důkladné vyhodnocení aplikovatelnosti těchto metod. Výsledky této práce přispějí k pokroku v oblasti automatizace návrhu systémů.
Výzkumu efektivních metod pro syntézu kontrolérů je v současnosti věnována značná pozornost v oblastech formální verifikace, návrhu a implementace programovacích jazyků, umělé inteligence a systémové biologie, o čemž svědčí zaměření řady špičkových konferencí (např. CAV, TACAS, PLDI či CMSB). Syntézou programů a modelů se rovněž zabývá řada velkých projektů na špičkových universitách a výzkumných institucích (např. Berkeley University či Microsoft Research).
Práce bude řešena ve spolupráci s týmem VeriFIT pod vedením doc. M. Češky jr. Dále se počítá s úzkou spoluprací se skupinou prof. J.P. Katoena (řešitel ERC Advanced grantu) z RWTH Aachen University (Německo) a se skupinou assoc. prof. N. Jansena (řešitel ERC Starting grantu) z Radboud University Nijmegen (Nizozemí).
V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do grantových projektů (např. české projekty GAČR či evropské projekty Horizone Europe).
Školitel: Češka Milan, doc. RNDr., Ph.D.
Tématem jsou algoritmy zpracování obrazu, videa a/nebo signálu. Hlavním cílem je zkoumat a do hloubky analyzovat příslušné algoritmy a hledat nové tak, aby měly nové potřebné vlastnosti, a bylo možné je efektivně implementovat. Taková efektivní implementace může , ale nemusí být součástí práce, ale důležité je algoritmy připravit tak, aby šly efektivně zpracovávat například v CPU, v CPU s akcelerací SSE instrukcemi, v embedded systémech, i v kombinaci s FPGA, v Intel Xeon PHI, v systémech s extrémně nízkým příkonem, případně v jiném prostředí. Je možné i využití algoritmů umělé inteligence, včetně neuronových sítí, zejména CNN. Důležité jsou též aplikační možnosti algoritmů s tím, že samotná aplikace může, ale nemusí být součástí řešení. Možné algoritmy/aplikace zahrnují:
Po dohodě je možné zpracovávat i individuálně vybrané téma, které ve výše uvedeném seznamu není, ale patří do dané tématiky.
Je možnost spolupráce i na grantových projektech, zejména na nově podávaných TAČR, MPO, H2020, SCSEL (potenciálně možnost stipendia či pracovního poměru).
Projekt se zabývá pokročilými metodami syntézy obrazu. Cílem práce je výzkum nových metod pro fotorealistické (fyzikálně založené) i nefotorealistické (NPR) simulace světelné interakce ve scéně. Předpokládá se intenzivní spolupráce a stáže na špičkových institucích a firmách v oboru (Adobe, USA, MPII Saarbrücken, Německo, Disney Curych, Švýcarsko, INRIA Bordeaux, Francie).
Projekt se zabývá pokročilými metodami výpočetní fotografie. Cílem práce je výzkum nových metod pro výpočetní fotografii, což zahrnuje zejména softwarové řešení, které může být případně dále kombinováno s novou optikou a dalším hardware. Mezi oblasti výzkumu patří zpracování HDR obrazu a videa, převod barevného obrazu na černobílý, spektrální obraz a mnoho dalších.
Dnešní neustále vzrůstající nároky na zpracování a vizualizaci dat kladou stále větší důraz na vývoj kvalitních, rychlých a uživatelsky přívětivých nástrojů určených pro tyto účely. Běžné typy vizualizačních prvků (diagramů) přestávají být dostačující pro prezentaci komplexních vícedimenzionálních dat. Takovými daty jsou například geografická data reprezentující vztah dat vůči geografické poloze (příkladem může výskyt nějakých jevů na zemském povrchu). Potřeba vizualizovat taková data v dnešní době přesahuje hranice akademického prostředí. S vizualizacemi geografických dat se můžeme setkat v komerční sféře (vizualizace rozmístění poboček, síťové topologie), veřejném sektoru (schémata hromadné dopravy), médiích (šíření pandemie, ekonomické a demografické ukazatele, apod.), ale i mezi běžnými uživateli (zaznamenávání osobních cest). Vizualizační prvky bývají často skládány do pokročilých pohledů (dashboardů, apod.).
Uživatelé mají v dnešní době možnost využít dva typy nástrojů určených k vizualizaci geografických dat:
Oba přístupy mají své výhody a nevýhody. V rámci TAČR projektu v roce 19/20 ve spolupráci VUT, MU a firmy Flowmon vznikla knihovna Geovisto, která se snaží vhodně kombinovat zmíněné přístupy. Vychází z programové knihovny Leaflet, nicméně snaží se o poskytnutí vyšší míry abstrakce prostřednictvím sady nástrojů nabízejí hotové tématické mapy (kartogram, mapa spojení, ...). Tyto tématické mapy je přitom možné konfigurovat jak programově, tak do jisté míry i za použití ovládacích prvků podobných ze známých geografických autorských systémů. Cílovou skupinou jsou programátoři, kteří chtějí použít existující hotové řešení, nicméně nechtějí být limitováni nutnosti studovat daný framework, ale zároveň také nechtějí být závislí na limitacích proprietárních systémů.
Cílem disertační práce práce bude studovat existující přístupy pro vizualizaci geografických dat a zkoumat
Strojové učenie je v centre výskumu v oblasti umelej inteligencie. Témam spojeným so strojovým učením sa venuje množstvo výskumníkov v akademickom svete a aj v biznise v prestížnych vedeckých pracoviskách. Riešenia vedeckých výziev sa veľmi rýchlo dostávajú do praxe. Oblasť je veľmi dynamická.
Témy v tejto doméne definujú významné vedecké konferencie, na ktorých sa stretávajú výskumníci z celého sveta (rank A*) ako napríklad ICML (International Conference on Machine Learning), NeurIPS (Advances in Neural Information Processing Systems), IJCAI (International Joint Conference on AI), COLT (Conference on Learning Theory). Témy a ich špecializáciu budú viesť externí mentori.
Zaujímavé výskumné výzvy zahŕňajú témy (ale sa neobmedzujú takto):
General Machine Learning (e.g., active learning, clustering, online learning, ranking, reinforcement learning, semi-supervised learning, time series analysis, unsupervised learning)
Deep Learning (e.g., architectures, generative models, deep reinforcement learning)
Learning Theory (e.g., bandits, game theory, statistical learning theory)
Optimization (e.g., convex and non-convex optimization, matrix/tensor methods, sparsity)
Trustworthy Machine Learning (e.g., accountability, causality, fairness, privacy, robustness)
Existuje veľa aplikačných domén, kde sa pokročilé metódy strojového učenia dajú využiť.
Výskum bude doktorand vykonávať v rámci Kempelenovho inštitútu inteligentných technológií (KInIT, https://kinit.sk) v Bratislave pod vedením výskumníkov zo svetovo uznávaných výskumných skupín. Predpokladá sa kombinovaná (externá) forma štúdia a pracovný pomer na plný úväzok v KInIT.
Školitel: Bieliková Mária, prof. Ing., Ph.D.
Rostoucí trend používání IT technologií přináší vzrůstající nároky na uživatele, kteří musí činit více a více rozhodnutí týkající se IT bezpečnosti. V rámci řešení práce by mělo dojít k seznámení se s bezpečnostními technikami a jejich použitelností pro uživatele. Cílem práce je zlepšit použitelnost vybraných bezpečnostních technik, aby byly účinné v praxi, a to s ohledem na znalosti lidského faktoru a principy designu zaměřeného na uživatele. Práce se bude zabývat především vnímáním nových technologií, jako je umělá inteligence, nebo měnícími se trendy v oblasti jedno- a vícefaktorové autentizace. Očekává se účast na relevantních mezinárodních konferencích a publikování v odborných či vědeckých časopisech.
Výzkumný problém: Cévní mozková příhoda je stav, kdy je omezen nebo zastaven přívod krve do mozku. Když pacient s cévní mozkovou příhodou dorazí do nemocnice, postupuje se podle standardního protokolu k poskytnutí lékařské pomoci pacientovi a také k posouzení vlivu cévní mozkové příhody na mozek. Obecně může následovat druhá mrtvice, která může být pro pacienta zničující. Proto je důležité předvídat další mrtvici a poskytnout péči, která může zabránit další mrtvici nebo alespoň minimalizovat její účinky.
Problémy se současnými řešeními: Standardní protokol v nemocnici zahrnuje testy krve a moči, stejně jako neuroimaging pomocí CT a MRI skenů. Tyto testy se používají k posouzení poškození způsobeného prvním úderem. Předpověď další mozkové příhody však závisí na zkušenostech lékaře a je velmi subjektivní. V mnoha případech pacient, který je po léčbě poslán domů, utrpí doma druhou devastující mozkovou příhodu, která může mít za následek trvalou invaliditu.
Výzvy: Standardní protokol v nemocnicích má za následek generování velkého množství dat, například stovky snímků z CT a MRI skenů, stovky enzymů z krevních a močových testů atd. Úkolem je kolektivně analyzovat všechna tato data a najít korelace, které může u pacienta předpovědět druhou mozkovou příhodu.
Téma práce: Tento výzkum vyvine metodu objektivní predikce výskytu druhé cévní mozkové příhody z dat shromážděných v nemocnici pomocí standardního protokolu pro hodnocení, léčbu a management cévní mozkové příhody. Analýza a vývoj bude zahrnovat techniky strojového učení, které zpracovávají multimodální data zahrnující obrázky, signály, text a čísla.
Pár slov o školiteli: Dr. Malik nedávno nastoupil na FIT VUT v Brně. Má desetiletou zkušenost s prací v oblasti zpracování neuro-signálů a neuro-obrazu. V současné době je v procesu zakládání výzkumné skupiny v této oblasti na FIT. Jedná se o multidisciplinární projekt, který bude zahrnovat spolupráci s klinickými lékaři. Jádro projektu však souvisí s IT. Jedná se o vývoj nové metody analýzy. Neváhejte mě kontaktovat na malik@fit.vutbr.cz
Neustály nárast množstva dostupných dát zdôrazňuje potrebu ich automatického spracovania a porozumenia. Špeciálnu výzvu predstavuje heterogénny neštruktúrovaný textový obsah v prirodzenom jazyku. Spracovanie prirodzeného jazyka (natural language processing, NLP) sa radí medzi najperspektívnejšie podoblasti umelej inteligencie s obrovským potenciálom inovatívnych aplikácií ovplyvňujúcich každodenný život.
Nedávne pokroky v oblastiach neurónových sietí a strojového učenia, ako napr. hlboké učenie či veľké jazykové modely posunuli úspešnosť a záber porozumenia a generovania prirodzeného jazyka významne dopredu. Napriek tomu stále zostávajú výskumné výzvy týkajúce sa jednotlivých úloh spracovania prirodzeného jazyka, aplikačných domén a jazykov. Je potrebný ďalší výskum a prieskum súvisiacich javov, špeciálnu pozornosť v poslednej dobe púta problém interpretovateľnosti a vysvetliteľnosti modelov pre NLP alebo rôzne inovatívne paradigmy učenia adresujúce problém nízkej dostupnosti zdrojov potrebných pre učenie.
Zaujímavé výskumné výzvy zahŕňajú (najmä, ale nielen):
Jazykové modely
Spracovanie jazykov s malým množstvom zdrojov
Učenie s prenosom / multilingválne učenie
Férovosť, interpretovateľnosť, transparentnosť, vysvetliteľnosť a robustnosť pre NLP
Doménovo-špecifická extrakcia informácií a klasifikácia textu
Vizuálne ukotvenie jazyka, titulkovanie obrázkov, spracovanie multimodálnych dát
Hlboké učenie pre NLP
M. Pikuliak, et al. SlovakBERT: Slovak Masked Language Model. Findings of EMNLP 2022. ACL. To appear.
Pikuliak, M., Šimko, M., Bieliková, M. Cross-lingual learning for text processing: A survey. Expert Systems with Applications, 2020. https://doi.org/10.1016/j.eswa.2020.113765
Korenek, P., Šimko, M. Sentiment analysis on microblog utilizing appraisal theory. World Wide Web, 2014. https://doi.org/10.1007/s11280-013-0247-z
Výskum bude doktorand vykonávať v rámci Kempelenovho inštitútu inteligentných technológií (KInIT, https://kinit.sk) v Bratislave v spolupráci s priemyselnými partnermi alebo výskumníkmi zo svetovo uznávaných výskumných skupín. Predpokladá sa kombinovaná (externá) forma štúdia a pracovný pomer na plný úväzok v KInIT.
Školitel: Šimko Marián, doc. Ing., Ph.D.
Přestože existují technologie, které umožňují publikovat data na WWW ve strojově čitelné podobě (jako např. JSON-LD, RDFa, apod.), velké množství strukturovaných dat je na webu stále publikováno ve formě prostého HTML/CSS kódu, který velmi omezuje možnosti jejich dalšího využití.V poslední době nabývají na významu nové metody strojového učení (zejména deep learning metody), které vykazují zajímavé výsledky např. při rozpoznávání důležitých entit ve slabě strukturovaných nebo nestrukturovaných datech (např. v textu nebo obraze). Oblasti zpracování webových dokumentů však není z tohoto pohledu věnována velká pozornost. Existující práce se zabývají identifikací jednoduchých datových položek a pomíjí strukturovaná data a komplexnější scénáře použití.Cílem tématu je proto analýza a vývoj modelů webového obsahu vhodných jako vstup pro strojové učení a současně i metod strojového učení vhodných pro rozpoznání strukturovaných dat ve webových dokumentech.
Modely vytvárané strojovým učením môžu byť len tak dobré, aké dobré sú dáta, ktoré použijeme na ich trénovanie. Aj preto sa výskumníci a inžinieri snažia získavať čo najlepšie trénovacie dáta. Nie je pritom zriedkavé vynakladať značné ľudské úsilie (pri čistení či anotovaní) s cieľom dosiahnuť potrebnú všeobecnú kvalitu. Niekedy je však ťažké, prípadne nemožné dostatočne pripraviť vzorku dát.
V takýchto prípadoch môžu pomôcť riešenia založené na princípe "človek v procese" (angl. human in the loop), ktorý využíva ľudské úsilie na vylepšovanie strojovo naučených modelov prostredníctvom ľudských zásahov priamo počas trénovania a/alebo počas nasadenia modelov (napr. spätná väzba pri automatickom preklade). Tieto riešenia sú špeciálne užitočné pri cielených zlepšeniach trénovacích dát prostredníctvom identifikácie a riešenia sporných prípadov. Toto je taktiež priamo spojené s vysvetliteľnosťou a interpretovateľnosťou modelov.
Prístupy s človekom procese zahŕňajú pestrú paletu techník z oblastí ako aktívne a interaktívne učenie, ľudské počítanie, čerpanie z davu či kolektívna inteligencia (spolu s motivačnými schémami ako gamifikácia a hry s účelom). Každá z týchto oblastí (či ich kombinácia) predstavuje príležitosti pre nové objavy. Taktiež hraničia s ďalšími disciplínami informatiky ako vizualizácia dát, použiteľnosť a používateľský zážitok a softvérové inžinierstvo.
Aplikačné domény strojového učenia s človekom v procese sú predovšetkým tie s veľkou mierou heterogenity a nestálosti. Takéto domény zahŕňajú napríklad aj detekciu falošných informácií, šírenie informácií online (vrátane šírenia naratívov a mémov), auditovanie algoritmov sociálnych médií a ich tendencií šíriť dezinformácie, podpora manuálneho/automatického overovania informácií (fact-checking) a ďalšie.
J. Cegin, J. Simko, & P. Brusilovsky. A Game for Crowdsourcing Adversarial Examples for False Information Detection. 2nd Workshop on Adverse Impacts and Collateral Effects of Artificial Intelligence Technologies - AIofAI 2022https://ceur-ws.org/Vol-3275/paper2.pdf
J. Šimko and M. Bieliková. Semantic Acquisition Games: Harnessing Manpower for Creating Semantics. 1st Edition. Springer Int. Publ. Switzerland. 150 p. https://link.springer.com/book/10.1007/978-3-319-06115-3
Školitel: Šimko Jakub, doc. Ing., PhD.
Všadeprítomnosť počítania dnes generuje množstvo dát potenciálne využiteľných v trénovaní modelov v strojovom učení. Problémom však je, že tieto dáta spravidla nebývajú anotované, teda bez značiek potrebných pre konvenčné učenie s učiteľom (napr. klasifikáciu). Získavanie značiek pomocou ľudskej práce je pritom veľmi nákladný proces. Výsledkom je teda stav, v ktorom je potrebných značiek málo, sú zlej kvality, alebo vôbec nie sú k dispozícii.
Na obídenie tohto problému sú v súčasnosti skúmané viaceré prístupy: meta-učenie, učenie s prenosom (transfer learning), učenie so slabými signálmi spätnej väzby (weakly supervised learning), učenie s jedným príkladom (one-shot learning), učenie bez priameho príkladu (zero-shot learning). Každá z týchto techník (alebo ich kombinácia) predstavuje príležitosť pre nové objavy. Ortogonálne k týmto technikám stoja vlastnosti modelov ako miera zapojenia (interaktivita) s expertom, robustnosť, vysvetliteľnosť alebo interpretovateľnosť, ktoré sú dôležitým faktorom a prínos v tomto smere je vítaný (v rámci uvádzaných techník aj všeobecne v umelej inteligencii).
Existuje veľa aplikačných domén, kde sa metódy a modely riešenia malého množstva označkovaných dát dajú uplatniť. Nachádzajú sa medzi nimi aj veľmi aktuálne oblasti detekcie nepravdivých informácií, auditovanie algoritmov sociálnych médií a ich tendencií šíriť dezinformácie, či podpora overovania informácií (fact-checking).
I. Srba, B. Pecher, M. Tomlein, R. Moro, E. Stefancova, J. Simko, M. Bielikova. Monant Medical Misinformation Dataset: Mapping Articles to Fact-Checked Claims. Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval - SIGIR 2022.
M. Pikuliak, M. Simko, M. Bielikova. Cross-Lingual Learning for Text Processing: A Survey Expert Systems With Applications or its open access mirror. Expert Systems with Applications. Vol. 165, 2021. https://doi.org/10.1016/j.eswa.2020.113765
Řešení tohoto projektu bude vycházet ze stávajících poznatků o moderních formálních modelech, které se používají v teorii jazyků. Teoretický výzkum těchto modelů bude diskutovat užitečné transformace těchto modelů, jako např. eliminace vymazávajících pravidel či redukce velikosti jejich komponent. Výzkum aplikací takto transformovaných modelů se bude soustředit na oblasti informatiky související s překladači, matematickou lingvistikou a molekulární biologií.Výsledky prvního roku řešení tohoto problému budou publikovány v Acta Informatica v 2023.
Rostoucí trend v používání umělé inteligence přináší nové přístupy v oblasti kybernetické bezpečnosti na obou stranách - útočníci i obránci. Nejvýznamnějšími příklady je použití tzv. "deepfakes" k útoku na biometrické systémy nebo využití technik deeplearningu k detekci kybernetických útoků. Cílem této práce je analyzovat existující přístupy, jejich vlastnosti a potenciální aplikace. Práce by poté měla navrhnout nové aplikace AI pro problémy, které nebyly dříve vyřešeny, a zároveň implementovat nejzajímavější aplikaci.
Cílem je studovat nejnovější trendy v oblasti uživatelské zkušenosti (user experience) a v oblasti moderních uživatelských rozhraní. Řešitel nastuduje nejnovější trendy v oblasti výzkumu a návrhu uživatelských rozhraní. V rámci řešení navrhne vhodná uživatelská rozhraní, která budou představovat výzvu z hlediska jejich uživatelské zkušenosti. Na nich, jejich návrhu a vývoji bude experimentovat s metodologií návrhu uživatelské zkušenosi a uživatelských rozhraní. Získané poznatky bude publikovat na kvalitních fórech zaměřených na návrh uživatelských rozhraní a uživatelskou zkušenost.Konkrétně se řešitel má zěmřit na:
Projekt se zabývá geo-lokalizací v neznámém prostředí pomocí metod počítačového vidění a počítačové grafiky. Hlavním cílem je výzkum a návrh nových metod registrace obrazu s geo-lokalizovanou obrazovou databází nebo s 3D modelem terénu. Cílem je též implementace navržených metod na mobilních zařízeních a hledání jejich dalších aplikací např. v oblastech zpracování obrazu, výpočetní fotografie a rozšířené reality.
Toto téma se zaměřuje na proces a techniky používané pro detekci kybernetických hrozeb, získávání a reprezentaci dat o ohrožení. Cílem této disertační práce je prostudovat současné techniky a navrhnout řešení, které efektivně vylepšuje proces a jeho výsledky použitelné pro detekci malwaru a zjišťování dalších informací o kybernetických hrozbách.
Na vedení práce se bude podílet školitel-specialista
Detekce anomálií je koncept, který je široce využíván v řadě oblastí, jako je například kybernetická bezpečnost, finanční podvody a další. V této práci se student zaměří na vytvoření algoritmů pro detekci anomálií pomocí strojového učení. Navržený přístup bude aplikován na textová data, např. normální text či síťové logovací soubory s cílem automaticky detekovat anomálie v rozsáhlých datových sadách. Mezi aplikační domény vyvíjeného detekčního systému patří elektronická pošta, síťové logy, bezpečnostní logy a podobně. Student se primárně zaměří na metody strojového učení s učitelem, bez učitele a hluboké učení. Vytvořené algoritmy budou ověřeny v experimentálním prostředí. Toto téma bude řešeno ve spolupráci s firmou AT&T Global Network Services v Brně.
Technologie sémantického webu umožňují reprezentaci informací a znalostí pro účely jejich dalšího sdílení např. mezi počítačovými aplikacemi. Dostupné znalostní databáze, jako např. DBPedia nebo Wikidata, obsahují velké množství dále využitelných informací a faktů. Na současném webu je však většina nových informací publikována ve formě dokumentů nejčastěji v jazyce HTML, jejichž další zpracování je problematické zejména kvůli jejich volné struktuře a absenci explicitních informací o významu jednotlivých částí obsahu. Nabízí se dva způsoby, jak tuto propast mezi klasickým a sémantickým webem překonat:
Pro dosažení obou těchto cílů je nutné analyzovat možnosti existujících ontologických modelů s ohledem na popis konkrétních cílových domén a možnosti mapování těchto popisů na obsah reálných webových stránek a dokumentů. Možné aplikace zahrnují mimo jiné následující:
Nedílnou součástí je rovněž experimentální implementace navržených metod s využitím existujících nástrojů a experimentální ověření na reálných datech a dokumentech.
Výzkumný problém: Závislost na alkoholu je chronická a komplexní mozková porucha způsobující zničující individuální i sociální problémy. Kromě toho alkohol způsobuje 3,3 milionu úmrtí ročně na celém světě, což je téměř 6 % všech úmrtí. Mnoho z těchto úmrtí je spojeno se závislostí na alkoholu. Proto je důležité prozkoumat metody pro diagnostiku a léčbu závislosti na alkoholu.
Problémy se současnými řešeními: Obvykle se screening a hodnocení problémů souvisejících s alkoholem zakládá hlavně na zprávách z autotestů. Přesnost zpráv o autotestech však byla zpochybněna, zejména u silných pijáků, protože zprávy z autotestů mohou zkreslovat diagnózu kvůli ztrátě paměti pacienta (pacienti nemohou měřit spotřebu alkoholu) a/nebo nečestnému chování. Proto tento výzkum navrhuje vyvinout objektivní a kvantitativní metodu pro detekci závislosti na alkoholu.
Výzvy: Vzhledem k tomu, že závislost na alkoholu vede ke změnám v dynamice mozku, je životně důležité prozkoumat a vyvinout metodu založenou na mozkové aktivitě. Hlavní výzva při vývoji takové objektivní a kvantitativní metody však spočívá v její implementaci pro screening v menších klinických zařízeních. To omezuje vyšetřování na elektroencefalogram (EEG), který je levný, vysoce mobilní a má dobré časové rozlišení. Jiné modality, jako je MRI, PET atd., není možné použít v menších klinických zařízeních.
Téma práce: Se současnými inovacemi v mozkových EEG signálech lze zkoumat mozkové dráhy zapojené do závislosti. V posledních několika desetiletích byl výzkum EEG používán k pochopení komplexních základních procesů spojených s patofyziologií závislosti. Interpretace takových procesů pomocí mozkových sítí pomocí EEG může pomoci nejen při diagnostice závislosti, ale také pomoci při léčbě závislosti. Tento výzkum si klade za cíl vyvinout neuromarkery založené na interpretaci mozkové sítě pomocí EEG. Neuromarker bude zahrnovat extrakci funkcí a odpovídající vývoj modelu strojového učení.