Přístupnostní navigace
E-přihláška
Vyhledávání Vyhledat Zavřít
studijní program
Fakulta: FITZkratka: DITAk. rok: 2021/2022
Typ studijního programu: doktorský
Kód studijního programu: P0613D140028
Udělovaný titul: Ph.D.
Jazyk výuky: čeština
Akreditace: 8.12.2020 - 8.12.2030
Profil programu
Akademicky zaměřený
Forma studia
Prezenční studium
Standardní doba studia
4 roky
Garant programu
prof. Ing. Lukáš Sekanina, Ph.D.
Oborová rada
Předseda :prof. Ing. Lukáš Sekanina, Ph.D.Člen interní :prof. Ing. Pavel Václavek, Ph.D.prof. Ing. Tomáš Vojnar, Ph.D.prof. Ing. Jan M. Honzík, CSc.prof. Dr. Ing. Pavel Zemčík, dr. h. c.prof. Dr. Ing. Zbyněk Raidaprof. RNDr. Josef Šlapal, CSc.prof. RNDr. Milan Češka, CSc.prof. Ing. Tomáš Hruška, CSc.prof. Ing. Martin Drahanský, Ph.D.prof. Dr. Ing. Jan Černockýprof. RNDr. Alexandr Meduna, CSc.prof. Ing. Adam Herout, Ph.D.doc. Ing. Jan Kořenek, Ph.D.Člen externí :prof.,RNDr. Jiří Barnat, Ph.D. (FI MUNI)prof. Ing. Jiří Sochor, CSc. (FI MUNI)
Oblasti vzdělávání
Cíle studia
Cílem studijního programu je poskytnout vynikajícím absolventům magisterského studia specializované univerzitní vzdělání nejvyššího typu v informatice a výpočetní technice, zvláště pak v oblastech, ve kterých se profilují výzkumné skupiny FIT, a ve vztahu k výzkumným projektům řešeným na FIT:
Profil absolventa
Absolventi doktorského studijního programu Information Technology jsou schopni samostatně provádět vědecko-výzkumnou činnost a tvůrčím způsobem řešit složité teoretické, návrhové, verifikační, testovací, implementační a inovační problémy v oblasti informatiky. Jsou vybaveni pokročilými znalostmi jak z teoretické informatiky, tak i z oblasti algoritmizace, tvorby software i hardware a zkušenostmi s jejich uplatněním v různých aplikacích. Hlavní důraz a cíl studia je směřován na vědeckou a tvůrčí činnost a představení výstupů této činnosti vědecké komunitě na mezinárodní úrovni, zejména ve formě publikačních výstupů. Další nedílnou součástí je získání zkušeností s prací v týmu a pravidelná prezentace dosažených výsledků, nejdříve pro kolegy na FIT a později na mezinárodních vědeckých konferencích. Absolventi doktorského studijního programu mají tedy nejen teoretické a specializované znalosti dle svého odborného zaměření, ale zároveň i zkušenosti s publikační činností a uplatněním a prezentací výsledků na mezinárodní úrovni.
Charakteristika profesí
Absolventi FIT obecně a absolventi doktorského studia zejména nemají problém najít uplatnění jako vědečtí, pedagogičtí či řídicí pracovníci jak v ČR tak v zahraničí.
Podmínky splnění
Jsou vymezeny individuálním studijním plánem studenta, jenž specifikuje studijní předměty, které je student povinen úspěšně absolvovat, předpokládané stáže a účasti na odborných konferencích a minimální pedagogické působení v bakalářském nebo magisterském studijním programu fakulty. Úspěšné ukončení studia je podmíněno:
Vytváření studijních plánů
Jsou stanovena směrnicí děkana Pravidla o organizaci studia na FIT pro sestavovaní individuálního plánu studenta. Individuální studijní plán vychází z tématu disertační práce a podléhá schválení oborovou radou.Předepisuje:
https://www.fit.vut.cz/fit/info/smernice/sm2018-13.pdf
Dostupnost pro zdravotně postižené
Vysoké učení technické v Brně umožňuje studium osobám se zdravotním postižením dle § 21, odst. 1 písm. e) zákona 111/1998 Sb. vysokých školách a o změně a doplnění dalších zákonů ve znění pozdějších předpisů a dle požadavků v této oblasti vyplývajících z nařízení vlády č. 274/2016 Sb., o standardech pro akreditace ve vysokém školství, poskytuje uchazečům o studium a studentům se specifickými potřebami služby v rozsahu a formou odpovídající specifikaci uvedené v Příloze č. 3 k Pravidlům pro poskytování příspěvku a dotací veřejným vysokým školám Ministerstvem školství, mládeže a tělovýchovy, specifikující financování zvýšených nákladů na studium studentů se specifickými potřebami.Služby pro studenty se specifickými potřebami jsou na VUT v Brně realizovány prostřednictvím aktivit specializovaného pracoviště - poradenského centra Alfons, které je součástí Institutu celoživotního vzdělávání VUT v Brně - sekce Poradenství pro studenty.Aktivity poradenského centra a pravidla zpřístupňování studia univerzita garantuje platnou Směrnicí rektora č. 11/2017 upravující postavení uchazečů o studium a studentů se specifickými potřebami na VUT v Brně. Tato vnitřní norma garantuje minimální standardy poskytovaných služeb.Služby poradenského centra jsou nabízeny uchazečům o studium a studentům se všemi typy zdravotního znevýhodnění uvedených ve zmíněném Metodickém standardu Ministerstva školství, mládeže a tělovýchovy.
Návaznost na další typy studijních programů
Studijní program navazuje jak na dobíhající navazující magisterský program Informační technologie, tak na nový navazující magisterský program Informační technologie a umělá inteligence.Studenti mohou dále, podle svých potřeb a mimo své formalizované studium, také absolvovat kurzy a školení týkající se metodologie vědecké práce, publikačních a citačních dovedností, etiky, pedagogiky a tzv. měkkých dovedností, které organizuje VUT či jiné instituce.
Vypsaná témata doktorského studijního programu
Náplní práce je návrh a praktické vyzkoušení nového typu digitálních agentů. Tito by měli být založeni na kombinaci aktorového přístupu s přístupy hlubokého strojového učení. Aktorový přístup je alternativou k objektovému přístupu. V tomto modelu je základní výpočetní jednotkou aktor, který realizuje čtyři základní operace: založ, pošli, přijmi a řiď; další operace jsou asynchroní, založené na posílání zpráv mezi aktory. Hluboké strojové učení je založeno na využití algoritmů (neuronových sítí) operujících s daty uspořádanými ve vrstvách. Předpokládáme, že agent nového typu bude složen z mnoha actorů a bude schopen se učit díky vytěžování toků zpráv, které si mezi sebou aktoři posílají. Výše uvedené hypotézy budou prakticky testovány v průmyslu v prostředí "agentové továrny" u partnera projektu.
Školitel: Zbořil František, doc. Ing., Ph.D.
Téma disertační práce spadá do oblasti monitorování a bezpečnosti počítačových sítí. Je primárně zaměřeno na detekci bezpečnostních událostí s využitím technologií GPU a FPGA. Při řešení tématu disertační práce se předpokládá využití charakteristických vlastností síťového provozu a možnosti paralelního zpracování síťového provozu pomocí uvedených technologií. Předpokládá se návrh vhodných metod pre-filtrace síťového provozu tak, aby bylo na jedné straně možné využívat velke množiny detekčních pravidel a na druhé straně byly redukovány hardwarové zdroje dostupné na akceleračních kartách. Pro pre-filtrace síťového provozu a extrakci klíčových vlastností provozu se předpokládá využití technologie FPGA a technik approximate computing. Využití GPU se předpokládá primárně pro akceleraci klasifikátorů vyvinutých pomocí technik strojového učení.
Školitel: Kořenek Jan, doc. Ing., Ph.D.
Cílem této disertační práce je tvorba řešiče Maxewllových rovnic pro aplikace v medicínských zobrazovacích technikách (MR). Numerické řešení Maxwellových rovnic bude založeno na technice k-Wave (korigovaná pseudospektrální metoda). Vzhledem k rozsahu řešený domén a akceptovatelnému času výpočtu je jedinou možností využití rozsáhlých superpočítačových systémů.Výzkum bude zahájen tvorbou prototypu řešiče v jazyce MATLAB. Po ověření funkčnosti algoritmu dojde k jeho převodu na heterogenní masivně paralelní systémy. Zde očekáváme především multi-GPU systémy jako je Summit a Siera v USA a následně velký klastr v IT4Innovations, který jde do produkce v roce 2020.Základní výzkumnou otázku je zde dosažení maximální rychlosti při zachování akceptovatelné přesnosti.
Školitel: Jaroš Jiří, doc. Ing., Ph.D.
Cílem práce je navázat na aktuální výsledky výzkumu metod obklopující inteligence (Ambient Intelligence) a inteligentního řízení budov (Smart Buildings, Smart Home) a přinést nové metody, které využijí analýzu chování uživatelů k predikci jejich aktivit a následně k ovládání budovy s ohledem na maximalizaci očekávané míry jejich spokojenosti. Součástí je výzkum možností interakce člověka s budovou s využitím různých typů senzorů a aktuátorů a metod umělé inteligence. Předpokládá se vhodná kombinace reálných a simulovaných součástí systému při realizaci případových studií.
Školitel: Janoušek Vladimír, doc. Ing., Ph.D.
Cílem práce je vyhledávat a vytvářet algoritmy, které umožní vysoce kvalitní pořizování snímků pomocí obyčejné kamery chytrého telefonu (nebo ekvivalentní). Zároveň je cílem zpracovávat takto pořízené snímky a získávat z nich podrobné znalosti o materiálu a podrobnostech snímaného vzorku. Pořízení jednoho "vysoce kvalitního snímku" bude probíhat s použitím opakovaného fotografování téhož povrchu k dosažení invariance vůči osvětlení, dosažení "superresolution", eliminace šumu a nahodilých vlivů. Činnosti v rámci výzkumu a vývoje budou sestávat z těchto dílčích témat a zaměřovat se na ně:
Školitel: Herout Adam, prof. Ing., Ph.D.
Tématicky se tato disertační práce orientuje na bezpečnost různých systémů, které mají zajistit anonymitu nebo pseudonymitu uživatelů internetu (například sítí typu TOR). Práce by měla obsahovat:
Očekává se účast na relevantních mezinárodních konferencích a publikování v odborných či vědeckých časopisech.
Na vedení práce se bude podílet školitel-specialista dr. Kamil Malinka.
Školitel: Hanáček Petr, doc. Dr. Ing.
Tématicky se tato disertační práce orientuje na bezpečnost IoT systémů. Práce by měla obsahovat:
Při kvalitní publikační činnosti lze získat jak jednorázové tak pravidelné mimořádné stipendium. Získání grantové podpory z širších zdrojů není ničím limitováno.
Školitel: Kolář Dušan, doc. Dr. Ing.
Tematicky se tato disertační práce orientuje na bezpečnost bezdrátových lokálních sítí. V rámci řešení by mělo dojít k seznámení se s vybranými bezdrátovými sítěmi a jejich zabezpečením. Kroky práce by měly obsahovat: prostudování teorie bezdrátových sítí, jejich vlastností a možností provedení útoků, odzkoušení základních typů útoků, navržení nového způsobu ochrany, experimenty, zhodnocení výsledků a návrh směru dalšího výzkumu.
Téma vychází z propojení několika směrů, které se staly v současnosti aktuálními. Prvním z nich je téma Big Data. Pokud se podíváme na obrázek shrnující vývoj této tématiky (viz Témata Big Data ), jde o rozsáhlý soubor různých cílů. Pro nás jsou zajímavé ty na modré linii úspěšných a to:
Se širším tématem prediktivní analýzy souvisí druhý aktuální směr Průmysl 4.0 a zde vysoce požadované téma predikce poruch.
S tématem zpracování v datových skladištích v Big Datech souvisí OLAP a agregace dat a jejich zpracování v paralelních multiprocesorových systémech.
Téma rovněž vychází z dlouholetého výzkumu procesních modelů, řešeného v minulých letech několika doktorandy ve skupině prof. Hrušky. Základem výzkumu byla analýza procesů s cílem jejich optimalizace.
Protože procesní systémy jsou ve firemní oblasti využívané a pro některé podniky představují klíčový nástroj, je výstupem studia dobré praktické uplatnění doktoranda a to i během studia.
Cílem práce může být nalezení vhodných metod pro analýzu pro zvolených problémů, které se v praxi vyskytují, následně jejich zobecnění a ucelení.
Školitel: Hruška Tomáš, prof. Ing., CSc.
Použití neuronových sítí pro hluboké učení (deep learning) přispělo v posledních letech k výraznému posunu mnoha oblastí, které se opírají o strojové učení - rozpoznávání obrazu, analýza textu atd.Cílem disertační práce je rozvinout existující přístupy využívající obrovské kolekce neanotovaných dat pro naučení neuronových sítí tak, aby výstupy poslední mezilehlé vrstvy bylo možné použít jako vektor příznaků. Součástí práce bude i aplikace zkoumaných metod v rámci evropských projektů, na jejichž řešení se školitel podílí.
Školitel: Smrž Pavel, doc. RNDr., Ph.D.
Cílem práce je detekce a rozpoznání patologií v retinálních snímcích (sítnice oka). Práce bude sestávat z(e):
Školitel: Drahanský Martin, prof. Ing., Ph.D.
Téma navazuje na spolupráci s fy Avast a projekty s ní.
Trendem poslední doby při stavbě superpočítačových systémů je využití heterogenních architektur pro dosažení vysoké výkonnosti a současně nízkého příkonu. Typickým představitelem takového systému je Tsubane-II nebo Salomon, jenž obsahují mimo běžných vícejádrových procesorů i akcelerátory Intel Xeon Phi, nebo systémy jako je Titan jenž sází na grafické karty firmy NVIDIA.
Pokud chceme opravdu využít plný potenciál výpočetního systému je nutné úlohu rozdělit nejen na akcelerační karty, ale rovněž na procesorová jádra. Pokud bychom uvažovali systém Salomon umístěný v Ostravě, procesorová část představuje 1/3 výkonu, zatímco akcelerační karty 2/3.
Cílem práce je navrhnout novou metodiku automatizované rozdělení výpočtu (dekompozice) a vyvážení pracovní zátěže tak, aby byly využity všechny dostupné prostředky a minimalizována komunikace.
U softwarových systémů očekáváme, že jednak nikdy nenastane žádná závažná chyba (deadlock, neoprávněný přístup do paměti, ...), ale také každá akce systému vždy úspěšně skončí v rozumném časovém intervalu. Problémem ověření ukončení v rozumném čase se zabývá analýza mezí (bound analysis). Problémem analýzy mezí je pro zadaný program (nebo funkci) nalézt (horní) odhad složitosti. Přes pokrok v posledních letech ale stále nejsou současné techniky dostatečné. Problémem jsou hlavně složité datové struktury a tzv. otevřený kód, kde analyzujeme pouze části kódu bez znalosti kontextu.Cílem této práce je navázat na současné techniky pro analýzu mezí s cílem analýzy mezí otevřeného kódu a/nebo kódu se složitými datovými strukturami. Práce bude navazovat na práci členů skupiny VeriFIT a práci dr. F. Zullegera z TU Wien a dr. M. Sinna z Fachhochschule St. Pölten.Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT technikami pro verifikace programů se složitými datovými strukturami (zejména dr. L. Holík, prof. T. Vojnar, ing. M. Hruška, ing V. Šoková). V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do grantových projektů (včetně mezinárodních). Je zde rovněž možnost úzké spolupráce s různými zahraničními partnery VeriFIT: TU Wien, Rakousko (dr. F. Zulleger); Uppsala University, Švédsko (prof. P.A. Abdulla, prof. B. Jonsson, dr. Rummer); Verimag, Grenoble, Francie (dr. R. Iosif); IRIF, Paříž, Francie (prof. A. Bouajjani, dr. M. Sighireanu, dr. C. Enea); Academia Sinica, Tchaj-wan (prof. Y.-F. Chen).V rámci tématu se student může také aktivně zapojit do různých grantových projektů, jako je např. projekt GA ČR 20-07487S "SNAPPY - Scalable Techniques for Analysis of Complex Properties of Computer Systems", nebo evropský projekt ECSEL JU "VALU3S - Verification and Validation of Automated Systems' Safety and Security".
Školitel: Rogalewicz Adam, doc. Mgr., Ph.D.
V současné době neustále roste důraz na kvalitu, spolehlivost a bezpečnost software. V souladu s tím jsou nemalé prostředky investovány do výzkumu moderních technik analýzy a verifikace programů pomocí nejrůznějších automatizovaných metod, jako jsou systematické testování, dynamická analýza, statická analýza, model checking apod. Tyto techniky jsou přitom rozvíjeny nejen na univerzitách, ale do jejich výzkumu a vývoje investuje řada významných mezinárodních společností (Google, Microsoft, IBM, Red Hat, Honeywell, Facebook apod.). Mezi uvedenými metodami patří testování a dynamická analýza k tradičním, již dlouho nejvíce používaným, ale přesto intenzivně dále rozvíjeným přístupům (o čemž svědčí velký počet článků z dané oblasti prezentovaných na mezinárodních konferencích věnovaných obecně programovacím jazykům a/nebo softwarovému inženýrství i velký počet špičkových mezinárodních konferencí specializujících se na danou oblast).
Náplní tématu je rozvoj stávajících a návrh nových metod dynamické analýzy a inteligentního testování, případně kombinovaných s použitím vhodných statických analýz. Tyto analýzy by přitom měly směřovat nejen k co nejefektivnějšímu vyhledávání chyb, ale také k automatické podpoře procesu řízení software (identifikace problematických komponent, problematických změn, podpora rozhodování o tom, které změny začlenit či nezačlenit do nové verze softwarového produktu apod.).
Předmětem výzkumu bude vývoj nových heuristik pro testování a analýzu, které umožní co nejefektivnější odhalení i vzácně se projevujících chyb (jako jsou např. extrapolující dynamické analýzy, vkládání šumu, či fuzz testování) a které umožní automatické získávání zkušeností z dosud provedených testů či analýz a jejich následné využití pro zdokonalení procesu testování či obecně řízení kvality software. Do této oblasti spadá vhodné využití statistických analýz, strojového učení či technik dolování z dat. Předmětem výzkumu je přitom nejen návrh nových technik z dané oblasti, ale také jejich prototypová implementace a experimentální ověření na vhodných případových studiích.
Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT testováním a dynamickou analýzou software, zejména dr. A. Smrčkou, u něhož se předpokládá role školitele specialisty, a dále dr. B. Křenou, dr. J. Fiedorem či T. Fiedorem. Práce naváže na zkušenosti skupiny VeriFIT s nástroji jako ANaConDA či Perun.
V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do grantových projektů (např. projekt TAČR Aufover řešený ve spolupráci s Honeywell a Red Hat, projekt GAČR Snappy či evropské projekty H2020 ECSEL Arrowhead Tools a Valu3S). Je zde rovněž možnost úzké spolupráce jednak s různými průmyslovými partnery FIT, např. Honeywell či Red Hat, tak také zahraničními partnery VeriFIT: např. dr. Joao Lourenco (Universidade Nova de Lisboa, Portugalsko) či řada partnerů zapojených do projektů Arrowhead Tools či Valu3S.
Školitel: Vojnar Tomáš, prof. Ing., Ph.D.
Tématem práce je propojení prostředí pro modelování inteligentních systémů s nástroji pro vytváření a provádění simulačních modelů. Doktorand by se měl orientovat zejména na otevřené otázky robotiky, jako jsou například společné plánování, řešení konfliktů a koordinace, a zkoumat jejich řešení právě s využitím simulačních nástrojů jako jsou PNtalk nebo TMass. Výsledkem by měla být analýza problematiky, řešení některých problémů a demonstrace přínosu modelování pro jejich řešení.
Školitel specialista: Ing. Radek Kočí, Ph.D.
V blockchainoch sa používa niekoľko kategórií konsenzuálnych protokolov: Proof-of-Stake, Proof-of-Resource a Byzantine Fault Tolerant protokoly. Každý z nich má iné prípady použitia v permissined a permissionless blcockchainoch, čo je dané hlavne ich výkonom z hľadiska priepustnosti. Každá kategória navyše trpí rôznymi bezpečnostnými hrozbami.
Tato práce je zaměřena na zvyšování kvality fotoakustických obrazů cévního řečiště v prsní tkání pomocí umělé inteligence. Tyto artefakty vznikají několika způsoby: (1) pohybem snímané osoby, např. dýcháním, (2) nedokonalým pokrytím prostoru pomocí detektorů, (3) variabilitou frekvenční a směrové odezvy jednotlivých detektorů, (4) nestabilitou prostředí, např změnou teploty, (5) numerickou metodou výpočtu.V současné době je nutné z fotoakustických dat vytvořit finální obraz, což trvá hodiny a teprve potom jsou odstraňovány artefakty. Našim cílem je detekovat tyto artefakty v surových datech. Druhou oblastí využití umělé inteligence je dopočítání obrazu z podvzorkované varianty a tím značné ušetření výpočetní kapacity.
Cílem práce je vyhledávat a vytvářet algoritmy, které umožní "offline" i v reálném čase detekovat zajímavé objekty v záběrech ze stacionární, částečně pohyblivé, nebo volně pohyblivé kamery. Takto detekované objetky budou re-identifikovány při opakovaném výskytu před touž kamerou, a nebo v záběru jiné kamery. Zaměření práce bude na vozidla, chodce, ale i jiné, aplikačně zajímavé objekty.Činnosti v rámci výzkumu a vývoje budou sestávat z těchto dílčích témat a zaměřovat se na ně:
Většina současné internetové komunikace je šifrována. Platí to i pro mobilní aplikace, které zabezpečují přenos dat pomocí TLS či DTLS. Pro správu počítačové sítě a kybernetickou bezpečnost je potřeba vědět, jaké aplikace komunikují v dané síti. Pro detekci aplikací v šifrovaném provozu je možné určit komunikující aplikaci pomocí metody otisků JA3/JAS3, dále je možné provádět statistickou analýzu šifrovaného provozu či použít metody strojového učení pro určení komunikující aplikace.Součástí výzkumu daného tématu je rešerše a zhodnocení existujících metod pro detekci aplikací v šifrovaném provozu, dále návrh pokročilejších metod či jejich rozšíření. Výzkum se zaměřuje na mobilní aplikace a automatizovanou detekci. Výzkum je součástí výzkumného projektu IGA s názvem Metody AI pro zabezpečení kybernetického prostoru a řídicí systémy.Školitel specialista: Matoušek Petr, Ing., Ph.D., M.A.
Školitel: Ryšavý Ondřej, doc. Ing., Ph.D.
Konečné automaty patří k jedněm z nejdéle studovaných formalismů. Pro operace nad konečnými automaty existuje řada dobře známých algoritmů. Mnoho z těchto algoritmů, které se běžně vyučují, ale selhává, pokud jsou aplikovány na velmi rozsáhlé automaty (se stovkami tisíc, miliony či více stavy, komplikovanými přechodovými relacemi či rozsáhlými abecedami). Ukazuje se ovšem, že takové automaty dnes reálně vznikají v řadě aplikací, např. v oblasti vyhledávání dle regulárních výrazů (s mnoha zahrnutými alternativami, rozsáhlou abecedou, repetičními omezeními atd.), v oblasti hardwarově akcelerovaného vyhledávání dle regulárních výrazů, v abstraktní interpretaci či dalších metodách formální verifikace, rozhodovacích procedurách apod. K úspěšnému zvládnutí práce s takovými automaty je, zdá se, vhodné nahradit klasické algoritmy více heuristickými přístupy, které by mohly posunout efektivitu práce s automaty výrazně dále podobně, jak se stalo v oblasti řešení SAT či SMT problémů. Řada takových algoritmů se v poslední době již v literatuře objevila, přičemž výzkumníci ze skupiny VeriFIT z FIT VUT se na mnoha z nich aktivně podíleli. V dané oblasti ovšem nadále zůstává řada otevřených otázek a mnoho prostoru ke zdokonalování současných řešení tak, aby byly použitelné na opravdu rozsáhlé problémy.
S ohledem na výše uvedené je cílem práce významně posunout současný stav poznání ve světě v oblasti efektivních algoritmů pro práci s rozsáhlými konečnými automaty a jejich různými rozšířeními (stromové automaty, automaty s omezenými čítači, alternující konečné automaty apod.) nebo i dalšími formalismy, jako jsou Petriho sítě. Studované algoritmy budou inspirovány potřebami různých aplikačních oblastí, které konečné automaty používají, zejména pak potřebami rozhodovacích procedur různých logik (např. logik nad řetězci), vyhledáváním podle regulárních výrazů (ať již implementovaného v software či hardwarově akcelerovaného) či abstraktní interpretace používající automaty k reprezentaci množin dosažitelných konfigurací (např. programů pracujících nad řetězci). Budou studovány algoritmy potřebné např. pro redukci nedeterministických automatů, ověřování inkluze nad nimi, aproximující redukci (vedoucí na automaty s nad-aproximovaným jazykem), algoritmy pro tzv. regulární model checking a jeho aplikace, algoritmy pro učení se automatů ze vzorků apod.
Vyvinuté algoritmy mohou být reálně aplikovány ve spolupráci s různými partnery skupiny VeriFIT, kteří o takové algoritmy mají zájem a s VeriFIT již v dané oblasti aktivně spolupracují. Jedná se např. o Microsoft Research, Honeywell či skupiny ANT@FIT a NES@FIT.
Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT rozvojem technik pro práci s automaty, logikami a jejich aplikacemi. Jedná se zejména o dr. L. Holíka, u něhož se předpokládá role školitele-specialisty a který se po dokončení jeho aktuálně rozběhnutého habilitačního řízení stane u tématu hlavním školitelem (s T. Vojnarem následně jako možným školitelem-specialistou). Další spolupráce se pak může rozvíjet mj. s dr. O. Lengálem, doc. A. Rogalewiczem či dr. M. Češkou jr. či současnými doktorandy V. Havlenou nebo J. Síčem.
V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do řady grantových projektů, jako jsou např. projekty GA ČR AutoDev a Snappy, ERC CZ Finiting, ale také TA ČR Aufover. Je zde rovněž možnost úzké spolupráce
Téma je zaměřeno na algoritmy embedded zpracování obrazu, videa a/nebo signálu. Hlavním cílem je zkoumat možnosti "chytrých" a "malých" zařízení, která by měla nové vlastnosti, a bylo možné je efektivně nasadit do aplikací vyžadujících malé, skryté, distribuované, nízkopříkonové, mechanicky nebo klimaticky namáhané jednotky schopné zpracovávat signálové vstupy. Nasazení takových jednotek je perspektivní a široké a předpokládá se i propojení do klient/server a/nebo cloud systémů. Samotné jednotky mohou být založeny na efektivním CPU/GPU/DSP, na programovatelném hardware, případně na kombinaci těchto technologií. Může se jednat i o smart kamery. Aplikace, které jsou v oblasti zájmu tohoto tématu:
Je možnost spolupráce i na grantových projektech, zejména na nově podávaných projektech TAČR, H2020, ECSEL (potenciálně možnost stipendia či pracovního poměru).
Školitel: Zemčík Pavel, prof. Dr. Ing., dr. h. c.
Ukazuje se, že metody syntézy číslicových obvodů využívající evolučních algoritmů, zejména kartézského genetického programování pracujícího přímo nad reprezentací na úrovni hradel, jsou schopny produkovat implementace, které jsou v řadě případů mnohem efektivnější (typicky kompaktnější) nežli implementace získané pomocí současných syntézních technik využívajících interní reprezentace (např. AIG) a iterativní aplikace deterministických přepisovacích pravidel. Typickým cílem optimalizace je redukovat počet hradel optimalizovaného obvodu. V praxi se však vyskytuje požadavek optimalizovat obvod z hlediska více kriterií (např. zpoždění, plocha na čipu). V případě využití systému pro účely resyntézy je multikriteriální optimalizace nutností z důvodu zachování zpoždění obvodu, jehož část je předmětem optimalizace. Cílem disertační práce je navázat na předchozí výzkum a zabývat se možnostmi multikriteriální optimalizace číslicových obvodů s ohledem na dobrou škálovatelnost. Dále se předpokládá využití alternativních reprezentací jako je např. majority uzel, které lépe odrážejí principy nových technologií.Výzkum spadá do témat řešených výzkumnou skupinou Evolvable Hardware.
Školitel: Vašíček Zdeněk, doc. Ing., Ph.D.
Cílem disertační práce je výzkum v oblasti extrakce informací z textu se zaměřením na metody strojového učení aplikovatelné v této oblasti. Součástí bude i realizace extrakčního systému, který bude možné využít pro zpracování rozsáhlých webových dat, získaných např. v projektu CommonCrawl.
Problematika identifikace a extrakce konkrétních informací z dokumentů na WWW je již delší dobu předmětem intenzivního výzkumu. Mezi základní překážky, které je třeba překonat, patří nedostatečná strukturovanost HTML dokumentů a absence metainformací (anotací) využitelných pro rozpoznání významu jednotlivých částí obsahu. Tyto chybějící informace jsou proto nahrazovány analýzou různých aspektů webových dokumentů, zejména následujících:
Pro úspěšnou extrakci konkrétní informace z dokumentů je rovněž nezbytná doménová znalost zahrnující očekávanou strukturu extrahované informace (vztahy mezi jednotlivými extrahovanými položkami) a způsob zápisu jednotlivých položek. Tato znalost umožňuje přesnější rozpoznání jednotlivých částí informace v textu dokumentu.
Současné přístupy k extrakci informací z webových dokumentů se soustřeďují zejména na modelování a analýzu dokumentů samotných; modelování extrahované informace za účelem jejího přesnějšího rozpoznání nebylo dosud podrobněji zkoumáno v tomto kontextu. Předpokládaným cílem disertační práce jsou proto následující:
Nedílnou součástí je rovněž experimentální implementace navržených metod s využitím existujících nástrojů a experimentální ověření na reálných dokumentech dostupných na WWW.
Školitel: Burget Radek, doc. Ing., Ph.D.
Řešení tohoto projektu bude vycházet ze stávajících poznatků o formálních systémech distribuovaného výpočtu. Cílem je konstrukce a výzkum nových automatových a gramatických systémů, které adekvátním způsobem odrážejí potřeby moderních výpočetních metod založených na distribuci. Aplikace těchto systémů se budou soustředit na modelování a výzkum organismů v molekulární biologii a překladačích.
Školitel: Meduna Alexandr, prof. RNDr., CSc.
Řešení tohoto projektu bude vycházet ze stávajících poznatků o formálních systémech paralelního výpočtu. Cílem je konstrukce a výzkum nových automatových a gramatických systémů, které adekvátním způsobem odrážejí potřeby moderních výpočetních metod založených na distribuci. Aplikace těchto systémů se budou soustředit na modelování a výzkum organismů v molekulární biologii a překladačích.
Současná věda stále více spoléhá na vysoce výkonné počítače provádějící náročné simulace. Náročnost těchto simulací nespoléhá pouze v množství dat a operací které je nutné vykonat, ale i v možnostech jednotlivých simulačních frameworků zahrnující různé fyzikální a numerické modely, ohraničující podmínky, typy prostředí atd. Tato variabilita vede ke stovkám různých simulačních scénářů skládajících se z tisíců dílčích úloh. V tomto momentě naráží klasické datově paralelní implementace na své meze, neboť rozhodovací logika daleko převyšuje logiku výpočtu.Druhým úskalím je architektura současných superpočítačových systémů. Již více než dekádu se nejedná o uniformní systémy složený z homogenních prvků s homogenním propojením. Současný trend jsou silně heterogenní architektury složené s vícejádrových procesorů a různých akcelerátorů, např. GPU, FPGA, Xeon Phi. Optimalizace komplexních frameworků pro tyto architektury a následné vyvažování zátěže se stává limitujícím prvkem. Cílem této disertační práce je prozkoumat techniky funkčního paralelismu a návrh automatizovaných simulačních platforem umožnující distribuci výpočtu na vhodné hardwarové komponenty.
Generatívne adversariálne siete (GAN) zavedené Goodfellowom et al. v roku 2014 našli veľa zaujímavých aplikácií v rôznych doménach. GAN umožňujú zlepšiť výkonnosť klasifikátorov založených na neurónových sieťach a tiež obohatiť vzorovú sadu ťažko dostupných súborov údajov. Kombinácia dvoch GAN (tiež známa ako dual-GAN) navyše umožňuje vykonávať unsupervissed mapovanie medzi dvoma rôznymi doménami množiny údajov. Takéto rozšírenie je možné ďalej použiť ako filter šumu v súboroch údajov. Cieľom tejto práce je preskúmať existujúce aplikačné domény a vhodné scenáre GAN so zameraním na bezpečnostné aspekty. Môže sa napríklad analyzovať použitie sietí GAN na extrakciu údajov citlivých na súkromie. Ďalej by mala práca preskúmať nové prístupy k útokom využívajúcim GAN a vyhodnotiť ich úspešnosť. Na záver by mala práca navrhnúť nové obranné techniky a prediskutovať ich predpoklady a obmedzenia.
Na vedení práce se bude podílet školitel-specialista dr. Ivan Homoliak.
Cílem práce je generování různých poškození do syntetických otisků prstů a analýza jejich kvality. Práce bude sestávat z(e):
Praca sa zameriava najma na analyzu postrannych kanalov HW penazeniek ale aj SW zranitelnostami protokolu, ktory sa vyuziva na komunikaciu medzi penazenkou a klientskou stanicou. Do uvahy pripada model utocnika, ktory odcudzil penazenku, ale aj model utocnika, ktory ma pristup ku klientskej stanici kam sa penazenka pripaja pomocou USB, bluetooth, etc. Hardware pre projekt bude objednany, uvazujeme na nasledovnych penazenkach: Trezor One/T, CoolBitX, Ellipal, Ledger Nano S, etc.Na vedení práce se bude podílet školitel-specialista dr. Ivan Homoliak.
Hluboké konvoluční sítě jsou jasným trendem posledních let v oblasti strojového účení pro analýzu obrazu. V úlohách s velmi omezenou a specifickou datovou sadou, kdy není dostatečné využít augmentace dat nebo koncepce GAN sítí, je však jejich nasazení stále problematické.Cílem disertační práce je zkoumat, analyzovat a hledat nové architektury hlubokých konvolučních sítí a přístupů k jejich učení pro takové úlohy analýzy obrazu, ve kterých je velikost anotované datové sady extrémně malá a nebo se postupně rozrůstá. Pro naučení neuronových sítí je možné využít neanotovaných dat případně částečně anotovaných dat ve formě uživatelského vstupu.Součástí práce bude i aplikace zkoumaných metod v rámci projektů, na jejichž řešení se školitel podílí.
Školitel: Španěl Michal, doc. Ing., Ph.D.
V současnosti existuje řada způsobů reprezentace a uložení 3D dat v počítači. Nejčastěji používanou je polygonální reprezentace, kvůli své jednoduchosti a všestrannosti. Pro některé specifické úlohy jsou často využívány volumetrické reprezentace, které mohou významně zjednodušit operace, jejichž realizace s polygonálními modely je složitá. Nastupujícím trendem jsou pak hybridní reprezentace, které se snaží spojit výhody obou těchto reprezentací a případně odstranit nutnost změny jedné reprezentace na druhou.
Cílem disertační práce je zkoumat metody uložení a reprezentace 3D dat a návrhovat nové algoritmy zpracování 3D dat s ohledem na typické problémy jako jsou numerická stabilita, robustnost, neuzavřené a non-manifold 3D modely.
Součástí práce bude i aplikace zkoumaných metod v rámci projektů, na jejichž řešení se školitel podílí.
Práce je zaměřena na problematiku modelování a syntézy hybridních výpočetních architektur. Jedná se o systémy, ve kterých jsou jednotlivé úlohy implementovány jako systémy na čipu (SoC, FPGA) pomocí univerzálních či specializovaných procesorů, IP jader a programovatelné logiky. Cílem je zvýšení produktivity při návrhu, optimalizace příkonu a spotřeby energie výsledného obvodu při zachování výkonnosti, případně zvýšení výsledné výkonnosti.
Hlavní cíl práce je hledání možností modelování hybridních architektur a jejich automatizované syntézy a dále pak vypracování metodiky jejich efektivní implementace.
Předpokládá se práce v jazycích C a VHDL, případně v jazycích vycházejících z notace jazyka C, které byly adaptovány pro popis HW (např. SystemC, SystemVerilog apod.). Výsledky práce budou demonstrovány na vhodné výpočetní platformě (např. ZYNQ firmy Xilinx) a aplikaci (např. analýza obrazu či číslicové zpracování signálů ze senzorických polí).
Existuje možnost zapojení se do práce na grantech s možností stipendia, případně i pracovního poměru.
Doktorand v prezenční formě studia bude zapojen do výuky podle potřeb ústavu a fakulty.
Školitel: Fučík Otto, doc. Dr. Ing.
Vďaka nasadeniu nových technológií v každodennom živote sa neustále generuje obrovské množstvo dát rôznych typov. Vytvorené datasety je potrebné efektívne spracovávať - informácie v nich obsiahnuté často podporujú správnosť a presnosť rozhodovacích procesov. Rozvoj metód analýzy údajov je preto dôležitou súčasťou výskumu v informatike. Z rôznych dôvodov nie sú tradičné spôsoby spracovania všeobecne použiteľné, preto je potrebné hľadať nové prístupy. Väčšinou sú založené na umelej inteligencii a strojovom učení.
Aktuálny výskum je zameraný na optimalizačné problémy v energetickej oblasti. Obnoviteľné zdroje energie, veľkokapacitné batérie a elektromobilita menia charakter elektrickej siete - z klasickej jednosmernej centralizovanej siete sa stáva obojsmerná distribuovaná sieť. Tento fakt vyvoláva množstvo výskumných otázok a problémov na riešenie. Jedným z nich je optimalizácia mikrogridu - tu je potrebné zabezpečiť efektívne využitie dostupnej energie (teda napríklad navrhnúť zmysluplné využitie úložiska energie alebo nové spôsoby zdieľania energie medzi zákazníkmi), ale možno tu riešiť aj ďalšie výskumné výzvy.
Predmetom záujmu však môže byť analýza dát v širšom zmysle - je možné zamerať sa na úlohy predikcie, klastrovania, klasifikácie alebo detekcie anomálií v rôznych doménach.
Súvisiace publikácie:
ROZINAJOVÁ, Viera - BOU EZZEDDINE, Anna - GRMANOVÁ, Gabriela - VRABLECOVÁ, Petra - POMFFYOVÁ, Miriama. Intelligent Analysis of Data Streams. In: Paralič, J. et al. (eds.) Towards Digital Intelligence Society: A Knowledge-based Approach. Springer, Cham, Switzerland (2021). https://doi.org/10.1007/978-3-030-63872-6_5
LAURINEC, Peter - LÓDERER, Marek - LUCKÁ, Mária - ROZINAJOVÁ, Viera. Density-based unsupervised ensemble learning methods for time series forecasting of aggregated or clustered electricity consumption. In Journal of Intelligent Information Systems. Vol. 53, iss. 2 (2019), 219-239. https://doi.org/10.1007/s10844-019-00550-3
Výskum bude doktorand vykonávať v rámci Kempelenovho inštitútu inteligentných technológií (KInIT, https://kinit.sk) v Bratislave v spolupráci s priemyselnými partnermi alebo výskumníkmi zo svetovo uznávaných výskumných skupín. Predpokladá sa kombinovaná (externá) forma štúdia a pracovný pomer na plný úväzok v KInIT.
Školitel: Rozinajová Věra, Doc., Ph.D.
Využívání dronů v řadě specifických situacích je dnes důležitým trendem nejen v průmyslu, ale zejména v operacích bezpečnostních složek. Tento trend přináší nové problémy v efektivní komunikaci člověka s dronem, tj. jak zvýšit efektivitu pilota, snížit jeho kognitivní zátěž, zvýšit jeho orientaci ve složitém prostředí či při spolupráci s více drony apod. Cílem této práce je zkoumat nové možnosti v oblasti efektivního a intuitivního využití senzorických dat a jejich fúze s dalšími dostupnými datovými zdroji při interakci pilota s dronem. V rámci řešení je potřeba:
Školitel: Beran Vítězslav, doc. Ing., Ph.D.
Trendem výrobního průmyslu je zavádění kolaborativních robotů do výroby, což umožňuje bližší spolupráci člověka s robotem. Cílem je zefektivnit výrobu využitím robotů na opakované činnosti a pracovníka na činnosti složité, jejich robotizace by byla příliš nákladná a málo škálovatelná. Tento trend přináší nové problémy, jak s roboty efektivně komunikovat: mít představu o stavu robota a jeho chápání situace a snadno a přirozeně robota řídit a programovat. Cílem této práce je zkoumat nové možnosti komunikace člověka s robotem s využitím moderních technologií a zařízení. V rámci řešení je potřeba:
Cílem výzkumu je navrhnout novou metodu pro detekci hrozeb pomocí kontextové analýzy síťového provozu. Tato analýza je založena na odhalení vztahů mezi jednotlivými záznamy síťového provozu a jejich použití pro zlepšení schopností detekce hrozeb.Pomocí kontextu je možné identifikovat hrozby, které je v současné době obtížné detekovat, např. Z důvodu použití šifrování, vícestupňových charakteristik nebo použití zranitelnosti nulového dne. Kontext sestavený systémem může také poskytnout správcům sítě další informace, které vám poskytnou celkový obraz o stavu použité sítě, služeb nebo aplikací.
Téma je vypisováno jako volné, není přímo navázané na projekt. Nicméně při kvalitní publikační činnosti lze získat jak mimořádné, tak pravidelné příjmy navíc jak z interní grantové agentury, tak z dalších zdrojů.Téma se dotýká dnes běžných záležitostí, kdy pokročilé vývojové prostředí "radí" programátorovi, jak udělat nějaký kód lépe (např. kratším zápisem, bezpečnější, eliminovat "zbytečnosti", apod.). Jedná se typicky o analýzu známých konstrukcí a obratů, analýzu mrtvého kódu, podobnosti (kdy dva různé zápisy vedou na stejný cílový kód), apod.Cílem je zdokonalit dané techniky prostřednictvím souběžného použití několika technik tak, aby ve zvoleném směru (např. bezpečnost kódu, přehlednost kódu, vhodnost pro ladění, apod.) bylo možné kód upravit/vylepšit.Bude nutná znalost z oblasti překladačů a to i reverzních, klasifikace, získávání znalostí z dat, umělé inteligence apod.
Konverzační agenti se pomalu stávají běžnou součástí rozhraní pro (prvotní) komunikaci se zákazníkem a odpovídání na jeho otázky. Výzkum v oblasti počítačového zpracování přirozeného jazyka se zaměřuje na vytvoření automatické klasifikace prvotní komunikace a, zejména, otázky uživatele, do předem daných tříd, k nimž existují konkrétní texty. Není však uspokojivě vyřešeno rozšiřování "znalostí" komunikačních agentů při aktualizaci strukturovaných dat, případně při přidání dalších textových materiálů.Cílem disertační práce je rozvinout existující přístupy využívající obrovské kolekce neanotovaných textových dat a způsoby kombinování strukturované a nestrukturované znalosti a optimalizace procesů při rozšiřování funkcionality stávajících i nových konverzačních agentů. Součástí práce bude i aplikace zkoumaných metod v rámci evropských projektů, na jejichž řešení se školitel podílí.
Projekt se zabývá metrikami pro odhad vizuální kvality obrazu a videa. Cílem práce je výzkum nových metod, které by odstranily některé nedostatky existujících metrik zejména s ohledem na vlastnosti vizuálního vnímání člověka. V úvahu přicházejí např. problémy z oblasti vjemu HDR obrazu a využití přídavných informací (metadata, 3D, atd.) o testovaných scénách pomocí metod strojového učení (např. neuronových sítí).
Školitel: Čadík Martin, doc. Ing., Ph.D.
Inteligentné meta-heuristické algoritmy poskytujú pohodlné a praktické riešenie komplexných optimalizačných problémov. V rámci meta-heuristických algoritmov sa do popredia postupne dostávajú prírodou inšpirované algoritmy, pretože sú inteligentné, dokážu sa učiť a prispôsobovať prostrediu podobne ako biologické organizmy. Tieto algoritmy sú pre vedeckú komunitu zaujímavé najmä pre narastajúcu zložitosť pri riešení problémov. Pri rozhodovaní umožňujú spracovávať úlohy s neúplnými pravdepodobnostnými informáciami. Zohľadnenie neurčitosti v procese modelovania, odrážajúce neurčitosť problémov reálneho sveta, môže mať vplyv na výstupy modelu, a teda aj na optimálnu hodnotu účelovej funkcie. Neurčitosť teda pridáva do globálneho optimalizačného procesu ďalšiu vlastnosť.
Väčšina úloh optimalizácie v reálnom svete je vysoko nelineárna, viacúčelová, s rôznymi zložitými obmedzeniami. Nájsť optimálne, alebo suboptimálne riešenie nie je vo všeobecnosti ľahká úloha. Existuje viacero aplikačných domén, kde sú výskumné problémy optimalizácie riešené. Jednou z týchto domén je energetika. Optimálne dynamické predikcie výroby a spotreby energie umožnia optimálne plánovanie a riadenie mikrogridu v reálnom čase.
VRABLECOVÁ, Petra - BOU EZZEDDINE, Anna - ROZINAJOVÁ, Viera - ŠÁRIK, Slavomír - SANGAIAH, Arun Kumar. Smart grid load forecasting using online support vector regression. In Computers and electrical engineering. Vol. 65, iss. January (2018), s. 102-117. https://doi.org/10.1016/j.compeleceng.2017.07.006
ROZINAJOVÁ, Viera - BOU EZZEDDINE, Anna - LÓDERER, Marek - LOEBL, Jaroslav - MAGYAR, Róbert - VRABLECOVÁ, Petra. Computational Intelligence in Smart Grid Environment. In Computational Intelligence for Multimedia Big Data on the Cloud with Engineering Applications. Elsevier, 2018, 23-59. https://doi.org/10.1016/B978-0-12-813314-9.00002-5
Školitel: Bou Ezzeddine Anna, Doc., Ph.D.
Komunikace SCADA (Supervisory Control And Data Acquisition) a ICS (Industrial Control System) slouží pro monitorování a řízení činnosti průmyslových provozů, inteligentních továren a rozvodných sítí. Narušení této komunikace znamená ohrožení výroby důležitých součástí nebo například přerušení dodávky elektrické energie. Pro ochranu komunikace SCADA/ICS můžeme využít pokročilé monitorování, které vytváří profily chování běžné komunikace a detekuje odchylky (anomálie). Pro popis chování je možné využít statistické metody sbírající údaje o počtech a typech přenesených dat, můžeme modelovat komunikační vzory pomocí automatů či vytvářet modely na základě strojového učení. Cílem práce je popsat chování průmyslové komunikace a navrhnout vhodný způsob jejich reprezentace pomocí vícedimenzionálních profilů. Další části práce je ověřit, jaké typy anomálií je možné detekovat pomocí navržených metod a navrhnout jejich rozšíření s cílem zpřesnit detekci anomálií. Téma je součástí výzkumného projektu Bezpečnostní monitorování řídící komunikace ICS v energetických sítích (BONNET). Školitel specialista: Matoušek Petr, Ing., Ph.D., M.A.
Projekt se zabývá pokročilými metodami zpracování a editace obrazu. Cílem práce je výzkum nových metod s využitím strojového učení, zejména hlubokých konvolučních neuronových sítí.
Cílem disertační práce je výzkum nových metod pro mitigaci útoků směřujících k odepření služby. Obsahem práce je výzkum využití technik strojového učení za účelem vývoje nových způsobů identifikace nelegitimního provozu, nových mitigačních postupů a automatizace řízení mitigace. Předpokládá se optimalizace a přizpůsobení metod strojového učení pro potřeby detekce samotného útoku, jeho typu, odvozování vzorů pro blokování nelegitimní části provozu, odvozování parametrů mitigačních metod a výběr vhodné mitigační metody dle typu útoku. Současný výpočetní výkon umožňuje trénovat komplexní modely strojového učení, které jsou schopny odvodit znalosti a souvislosti skryté v síťovém provozu, přímo na živém provozu v síti. Tato oblast nebyla doposud důsledně zkoumána a představuje tak vhodné téma pro disertační práci. Výsledky disertační práce lze aplikovat při podpoře a automatizaci činností členů Security Operation Centre, Network Operation Centre, CSIRT či CERT týmů či administrátora sítě.Při řešení práce se předpokládá úzká spolupráce s výzkumným týmem Liberouter (www.liberouter.org) a získávání zpětné vazby od správců výzkumné infrastruktury sdružení CESNET. V případě zodpovědného přístupu k řešení zadaného tématu může být student zapojen do řešení projektu AdaptDDoS, který je současné době řešen v rámci bezpečnostního výzkumu MV ČR. Školitelem specialistou k tématu disertační práce je dr. Martin Žádník. Relevantní publikace pro toto téma jsou:
Předmětem doktorského studia bude výzkum v oblasti zlepšování kvality a redukci variability se zaměřením na statistické metody, které by bylo možné využít zejména v oblasti vývoje informačních systémů. Model systému kvality bude akceptovat moderní přístupy v této oblasti jakou je např. metodologie Six Sigma, použití grafických modelovacích nástrojů a bude akceptovat principy řízení kvality dané mezinárodními normami ISO. Dalším cílem výzkumné práce je nalezení teoretických konceptů, metod a nástrojů, jež by umožnily zdokonalování procesů řízení kvality vývoje produktů. Očekává se účast na relevantních mezinárodních konferencích a publikování v odborných či vědeckých časopisech.
Školitel: Kreslíková Jitka, doc. RNDr., CSc.
Cílem výzkumu je navrhnout novou metodu pro analýzu, vývoj a implementaci softwarových systémů pro zpracování velkých dat (Big data), která by byla souladu s principem modelem řízené architektury (Model Driven Architecture, MDA). Tato metoda by umožnila snadnou transformaci doménových a platformě nezávislých modelů na různé platformě specifické modely a implementace systémů zpracování velkých dat pomocí různých technologií, a tím v důsledku snazší vývoj, nasazení a evaluaci takových systémů.
Dílčími cíli jsou prozkoumání, vyhodnocení a kategorizace různých technologií zpracování velkých dat; tvorba jejich platformě specifických i obecných meta-modelů; hledání a návrh společného platformě nezávislého meta-modelu; integrace podpory modelů do modelovacích nástrojů či vývoj vlastního; návrh a implementace automatického generování zdrojového kódu z modelů a zpětně modelů ze zdrojového kódu (round-trip engineering); tvorba automatických validačních a výkonnostních testů; podpora agilního vývoje takových systémů vč. jejich nasazení (CI/CD); aj.
Školitel specialista: RNDr. Marek Rychlý, Ph.D.
Vytváření prostředí pro procesně orientovaný přístup vývoje softwarových produktů.
Modelování látek na bázi mechaniky kontinua je převážně doménou pevných materiálu. V této oblasti existuje nepřeberné množství softwarových balíků a značné množství modelů materiálů různých vlastnostech od elastických přes viskoelastické až po plastickou deformaci v nejnovějších verzích. Deformace pevných látek je modelována pomocí kaučukové chování (Ogden), hyperelastických modelů (Mooney Rivlin) až po lineární elasticitu. Všechny tyto modely jsou standardně implementovány v softwarech pro mechaniku kontinua. K dispozici model deformace na mezi kluzu to je práh deformace kdy materiály zejména plastové ale také kovy zač začínají mít trvalou deformaci, což je výhodné při tažení kovů za studena, nebo zvlákňování materiálu.
Naproti tomu, v oblasti kapalin je podobných softwarových modulů výrazně méně. Objevují se ve speciálních programech. Většinou výsledkem je animace chování kapaliny, což je výhodné pro účely grafické vizualizace ve virtuální realitě například počítačových hrách. Nicméně tyto programy poskytují velmi málo analytických nástrojů pro zkoumání a kontrolu procesů. Možnost analytického popisu kapalné soustavy je více méně teoretická. Analytickým popisem je míněno silové působení látky na okolí pomocí tenzoru napětí a deformace, vznik a lokalizace mechanického napětí v systému. Dalším parametrem je pole intenzity napětí, které má vliv na to, jak kapalina působí na okolí. Tyto faktory zatím neexistují v žádném dostupném programu, a pokud by byly vyřešeny, dosáhly by širokého využití, při konstrukci lodí, popisu sedimentace. Další možností je například proces centrifugace, který se používá v biologických systémech na separaci jednotlivých buněčných komponent.
Cílem této disertační práce je akcelerovat nové modely chování pevných látek na superpočítačich vybavených desítkami multi-GPU uzlů. Práce se bude zaměřovat na techniky implementace GPGPU kódů pomocí vysokoúrovňových knihoven a akceleraci komunikace pomocí unifikované paměti a RMA přístupů do paměti jiných uzlů
Přesná simulace taktického chování člověka vyžaduje dostupnost modelu lidského rozhodovacího procesu. Náplní tezí bude výzkum škálovatelných architektur modelů chování kombinujících přístupy strojového učení a doménové expertní znalosti pro spektrum požadavků na chování v různých taktických scénářích. Důležitým aspektem návrhového procesu bude ladění a validace modelu taktického rozhodování.
Školitel: Chudý Peter, doc. Ing., Ph.D., MBA
Tématem jsou algoritmy počítačové grafiky a syntézy obrazu. Hlavním cílem je zkoumat nové a moderní algoritmy počítačové grafiky, související datové struktury, související otázky získávání a zpracování 3D modelů a další aspekty algoritmů tak, aby bylo lépe rozumět jejich vlastnostem a možnostem, zlepšovat a připravovat nové. Je možno pracovat na různých platformách, včetně paralelních CPU jáder x86/64, ARM, Xeon PHI, GPU apod. v OpenCL, CUDA, v FPGA ve VHDL, případně i jinak. Možné algoritmy zahrnují:
Po dohodě je možné zpracovávat i individuálně vybrané algoritmy, které ve výše uvedeném seznamu nejsou, ale patří do dané tématiky.
Je možnost spolupráce i na grantových projektech, zejména na nově podávaných projektech TAČR, H2020, ECSEL (možnost stipendia či pracovního poměru).
Cílem práce je seznámit se s aktuálními problémy počítačového vidění a používaného strojového učení (hluboké konvoluční neuronové sítě) a identifikovat zajímavé problémy k rozvinutí a dalšímu výzkumu. Řešitel má získat nadhled v problematice a experimentovat s populárními algoritmy a identifikovat jejich vhodné okrajové případy, na kterých bude možné dosáhnout zajímavých výsledků a pokroků.Konkrétně se řešitel má zaměřit na následující:
Řešení tohoto projektu bude vycházet ze stávajících poznatků o metodách překladu jazyků a poznatků o systémech formálních modelů, zejména překladových gramatik a automatů. Cílem je konstrukce a výzkum metod překladů založených na takovýchto systémech a to tak, aby nové metody adekvátním způsobem odrážejí potřeby moderních kompilátorů. Aplikace těchto systémů se budou soustředit na překladače.
Motivace:
S rozšířením kryptoměn došlo ruku v ruce i k rozmachu kyberkriminality, která je využívá jako integrální součást. Ať už se jedná o prodej nelegálního zboží na dark marketplace, financování terorismu, sextortion, útoky pokoutně těžícím malwarem či napadení ransomware, tak ve všech výše zmíněných (ale i dalších) případech [3] jsou kryptoměny využívány k zajištění transferu hodnoty. Na tomto poli jsou kryptoměny populární zejména kvůli své pseudonymitě, rychlosti zpracování transakce, absenci centrální regulační entity a vestavěným mechanismům bránícím podvodům. A přesně tyto vlastnosti vytvořily zcela nové výzvy v oblasti forenzní analýzy při řešení takovýchto případů kyberkriminality.
I přes velké úsilí v procesu návrhu (jako použití nejmodernější kryptografie a pokročilých komunikačních technik v peer-to-peer sítích) stejně nejsou i ty největší krypotměnové sítě (jako Bitcoin, Ethereum, Litecoin) odolné vůči technikám zkoumání zahrnující clusterizaci adres [6], korelace [2], statistické zpracování [4, 5], či rovnou odposlech provozu [1].
Cíl:
Záměrem této práce je vyvinou a ověřit nové metody forenzní analýzy kryptoměnových sítí cílící na deanonymizaci uživatele, odhalení jeho IP adresy či jiného identifikátoru.
Předpokládané fáze řešení:
Projekt:
Práce bude navazovat na některé výsledky projektů BAZAR a TARZAN.
Reference: [1] KOSHY, Philip. CoinSeer: A telescope into bitcoin. 2013.[2] GERVAIS, Arthur, et al. On the privacy provisions of bloom filters in lightweight bitcoin clients. In: Proceedings of the 30th Annual Computer Security Applications Conference. 2014. p. 326-335.[3] FOLEY, Sean; KARLSEN, Jonathan R.; PUTNIŠ, Tlis J. Sex, drugs, and bitcoin: How much illegal activity is financed through cryptocurrencies?. The Review of Financial Studies, 2019, 32.5: 1798-1853.[4] NEUDECKER, Till. Characterization of the bitcoin peer-to-peer network (2015-2018). Karlsruhe, Tech. Rep., 2019, 1.[5] KOSHY, Philip; KOSHY, Diana; MCDANIEL, Patrick. An analysis of anonymity in bitcoin using p2p network traffic. In: International Conference on Financial Cryptography and Data Security. Springer, Berlin, Heidelberg, 2014. p. 469-485.[6] MEIKLEJOHN, Sarah, et al. A fistful of bitcoins: characterizing payments among men with no names. In: Proceedings of the 2013 conference on Internet measurement conference. 2013. p. 127-140.
Školitel: Veselý Vladimír, Ing., Ph.D.
Cílem práce je navázat na soudobé techniky návrhu a realizace distribuovaných řidicích systémů v rámci IoT a CPS a přinést nové metody, které akcentují provoz v dynamickém prostředí (ve smyslu dostupnosti senzorů, aktuátorů a služeb, přítomnosti uživatelů apod.) a zohlední i bezpečnostní aspekty systému.Specifickým cílem je využití konceptu multiagentních systémů pro plánování akcí s ohledem na dostupné zdroje a pro inteligentní dohled a komunikaci s uživateli systému. Možnou aplikační oblastí může být řízení inteligentní budovy, resp. Smart Home. Předpokládá se vhodná kombinace reálných a simulovaných součástí systému při realizaci případových studií.
Cílem práce je navázat na soudobé techniky návrhu a realizace distribuovaných řidicích systémů v rámci IoT a CPS a přinést nové metody, které lépe zohlední potřebu analyzovatelnosti a verifikovatelnosti při zachování uživatelské přívětivosti a intuitivní pochopitelnosti modelovacího formalismu a přitom umožní dynamickou rekonfigurovatelnost a adaptabilitu na měnící se podmínky provozu systému.Specifickým cílem je využití a rozvoj moderních metod modelování, simulace, analýzy, verifikace, monitorování a dohledu v řídicích systémech, v souladu s průmyslovými standardy pro IoT, CPS a Průmysl 4.0.
Pro moderní aplikace se ukazuje, že univerzální procesory pro specializované přístroje s často jednoúčelovými aplikacemi nejsou vhodné. V rámci těchto vestavěných (embedded) systémů se jeví velmi důležitým umět navrhnout optimální specializovaný procesor pro danou aplikaci. Tento vývoj se většinou dělá ručně a tudíž pomalu. V rámci výzkumu skupiny Lissom vznikl rekonfigurovatelný překladač jazyka C, který je nyní součástí Codasip Studia firmy Codasip (FIT má univerzitní licenci). Jsou k dispozici zkušenosti s tímto výzkumem. Je jisté, že jde o výzkum na světové úrovni, který je prakticky žádán a není definitivně dořešen. Jsou k dispozici definiční jazyky, mezijazyk i rekonfigurovatelný překladač jayzka C. Schopnost generovat překladač jazyka C z popisu procesoru otevírá další možnosti návrhu procesorů pro moderní aplikace, jako je např. autotuning. Jde o automatické vytvoření optimálního procesoru i překladače pro danou aplikaci. Vyjdeme z parametrizovatelného modelu procesoru a dané aplikace. Vzhledem ke schopnosti automatického generování překladače můžeme vytvořit a přeložit aplikaci pro různé konfigurace překladače i procesoru a simulací vyhodnocovat vlastnosti řešení (rychlost, velikost, spotřebu, plochu, instrukční repertoár apod.). Proto některou z vhodných metod prohledávání stavového prostoru můžeme nalézt optimální variantu. Vzhledem k unikátní možnosti automatického generování překladače je tento přístup značným rozšířením dosavadního postupu popsaného v literatuře, kdy se experimentuje s pevnými překladači jediného procesoru paramerizovatelnými pouze stupněm optimalizace.Automatické nalezení optimálního procesoru s překladačem je vysoce žádáno a má rozhodně aplikační využití.V současnosti je vhodným zaměřením optimalizace rodiny procesorů RISC V (risc five). Existují základní varianty se základním instrukčním repertoárem a množství verifikovaných rozšíření do různých oblastí. Velmi zajímavý by byl postup, která by na základě vložené aplikace (aplikací) vybral z nabízené množiny rozšíření vhodnou variantu. Velikost prohledávaného stavového prostoru může být značná, proto se nabízí např. některý z genetických algoritmů. Více informací po osobní schůzce.Kontakty a informace Prof. Ing. Tomáš Hruška, CSc. - hruska@fit.vutbr.cz
Tématem jsou algoritmy grafiky, zpracování obrazu a videa, tedy "Visual Computing", například HDR (High Dynamic Range) obrazu, multispektrálního obrazu, stereoobrazu, případně obrazu doplněného o vlastnosti materiálu, teplotě, apod. Cílem je lépe porozumět jejich vlastnostem a možnostem, ale i aplikacim, algoritmy do hloubky analyzovat, zlepšovat a připravovat nové. Možné algoritmy zahrnují:
Je možnost spolupráce i na grantových projektech, zejména TAČR, MPO, H2020, ECSEL (potenciálně možnost stipendia či pracovního poměru).
Umělé neuronové sítě (ANN) a tzv. hluboké neuronové sítě se v poslední době hojně používají v komplexních úlohách klasifikace, predikce a rozpoznávání. Cílem disertační práce bude zkoumat možnosti automatizovaného návrhu ANN pomocí evolučních výpočetních technik a optimalizace těchto ANN pro konkrétní platformu (CPU, GPU, ...), kde budou nasazeny. Hlavní pozornost bude zaměřena na optimalizaci velikosti ANN, redukci přístupu do paměti (např. pomocí komprese vah) a generativní přístup ke konstrukci ANN. Výzkum spadá to témat řešených výzkumnou skupinou Evolvable Hardware.
Školitel: Sekanina Lukáš, prof. Ing., Ph.D.
Umělé neuronové sítě (ANN) a tzv. hluboké neuronové sítě se v poslední době hojně používají v komplexních úlohách klasifikace, predikce a rozpoznávání. Jejich hlavní nevýhodou je však vysoká výpočetní a energetická náročnost. V oblasti aproximativního počítání (approximate computing) jsou hledány alternativní nízkopříkonové obvodové implementace těchto sítí, které by byly použitelné i v systémech s omezenými energetickými zdroji, jako jsou např. uzly IoT. Cílem disertační práce bude zkoumat možnosti aproximace jednotlivých komponent ANN a docílit přijatelného kompromisu mezi kvalitou a energetickou náročnosti výpočtu. Bude se jednat zejména o aproximace aritmetických operací při násobení vstupu konstantou, aproximace aktivačních funkcí, konvolučních operací a přístupu do paměti. Výzkum spadá to témat řešených výzkumnou skupinou Evolvable Hardware.
Řešení tohoto projektu bude vycházet ze stávajících poznatků teorie formálních jazyků o modelech definující jazyky. Projekt se zaměří na automaty a gramatiky. Cílem je konstrukce a výzkum nových verzí těchto modelů a to tak, aby adekvátním způsobem odrážely potřeby moderní informatiky. Řešení projektu bude rovněž zahrnovat diskuzi aplikací těchto systémů např. v oblasti bezpečnosti.
Odporúčacie systémy sú integrálnou súčasťou prakticky každej modernej webovej aplikácie. Personalizované, resp. adaptívne služby, sa stali štandardom, ktorý je používateľmi aplikácií vyžadovaný skoro vo všetkých doménach (napr. spravodajstvo, četoví agenti, sociálne médiá alebo vyhľadávanie).
Personalizácia má očividne obrovský vplyv na každodenný život miliónov používateľov naprieč mnohými doménami a aplikáciami. To je zdrojom zásadnej výzvy - návrh metód, ktoré sú nielen presné, ale aj dôveryhodné a spravodlivé. Táto výzva ponúka mnohé výskumné príležitosti vo viacerých smeroch:
Diverzita, novosť a rôznorodosť odporúčaní
Vysvetľovanie odporúčaní
Férovosť a spravodlivosť v odporúčaní
Skreslenia v odporúčaní
Nové metódy strojového učenia pre adaptívne a odporúčacie systémy
Jednotlivé smery a výzvy môžu byť adresované vo viacerých doménach ako napríklad vyhľadávanie, elektronický obchod, spravodajstvo, sociálne médiá a iné.
M. Svrcek, M. Kompan, M. Bielikova. Towards Understandable Personalized Recommendations: Hybrid Explanations. In Computer Science and Information Systems. Vol. 16, No. 1, 2019. https://doi.org/10.2298/CSIS171217012S
O. Kassak, M. Kompan, M. Bielikova. Personalized hybrid recommendation for group of users: Top-N multimedia recommender. In Information Processing and management. Vol. 52, Iss. 3., 2016. https://doi.org/10.1016/j.ipm.2015.10.001
Školitel: Bieliková Mária, prof. Ing., Ph.D.
Školitel: Kompan Michal, doc. Ing., PhD.
Cílem této disertační práce je návrh nových metod pro vysoce efektivní vstup a výstup paralelních simulačních algoritmů. Práce klade důraz na distribuci zátěže přes vícenásobné RAID pole, překrývání vstupu a výstupu s výpočtem, offloadování vstupu a výstupu na dedikované uzly, bufferování dat, apt.Výstupem práce bude technika, která na základně aktuálního vytížení výpočetního clusteru a požadavků simulace automaticky navrhne nejvhodnější strategii. Tohoto výsledku bude dosaženo pomocí online sběru a vyhodnocení výkonnostních metrik a technik umělé inteligence a strojového učení.
Předmětem práce je návrh shluků (clusters) obchodních modelů a/nebo jejich parametrů, které budou zachovávat předepsané požadavky na minimalizaci kumulativních rizik, vznikajících při alokaci portfolia s využitím těchto systémů na paralelních časových řadách finančního trhu. Cílem práce je splnění kritérií na linearitu křivky ekvity a minimalizace kumulativního rizika. Očekává se účast na relevantních mezinárodních konferencích a publikování v odborných či vědeckých časopisech.
Počítačem podporovaná syntéza je nový přístup k návrhu systémů, který automaticky transformuje formální specifikaci systému na jeho korektní implementaci. Tento přístup odstraňuje časovou náročnost klasického vývojového procesu, kdy je fáze implementace následována verifikační fází. V posledních letech se v oblasti návrhu systémů objevují nové výzvy související s aplikacemi, které vyžadují kvantitativní usuzování. Jedná se například o syntézu pravděpodobnostních programů či modelů, aproximované výpočty, nebo konstrukce biochemických modelů. Současné techniky syntézy však kvantitativní usuzování dostatečně nepodporují. Výzkumu efektivních metod syntézy je v současnosti věnována značná pozornost v oblastech formální verifikace, návrhu a implementace programovacích jazyků, umělé inteligence a systémové biologie, o čemž svědčí zaměření řady špičkových konferencí (např. CAV, POPL, PLDI či CMSB). Syntézou programů a modelů se rovněž zabývá řada velkých projektů na špičkových universitách a výzkumných institucích (např. Berkeley University či Microsoft Research).
Předmětem disertační práce bude zejména vývoj teoretických základů pro nové škálovatelné metody kvantitativní syntézy. Zaměříme se na využití syntézy řízené syntaxí a na dosud neprozkoumanou oblast spojení pokročilých metod formální kvantitativní analýzy s přístupy založenými na SAT/SMT, prohledávání stavového prostoru a technikami induktivní syntézy. Práce se rovněž zaměří na využití těchto metod v procesu návrhu prakticky relevantních pravděpodobnostních, aproximativních a biochemických systémů, a na důkladné vyhodnocení aplikovatelnosti těchto metod. Výsledky této práce přispějí k pokroku v oblasti automatizace návrhu systémů.
Práce bude řešena ve spolupráci s týmem VeriFIT, zejména s dr. M. Češkou jr., u něhož se předpokládá role školitele-specialisty a který se po dokončení jeho aktuálně rozběhnutého habilitačního řízení stane u tématu hlavním školitelem (s T. Vojnarem následně jako možným školitelem-specialistou). Dále se počítá s úzkou spoluprací se skupinou prof. J.P. Katoena z RWTH Aachen University, jež patří mezi nejlepší vědecké týmy v dané oblasti, se skupinou doc. J. Křetínského z TU Mnichov a také současným doktorandem R. Andriushchenkem.
V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do grantových projektů (např. české projekty GAČR Caqtus a Snappy či evropské projekty H2020 ECSEL Arrowhead Tools a Valu3s).
Cílem je studovat a vědecky a technologicky rozvíjet problematiku zpracování dohledových videí v oblasti dopravy a dolování užitečných dat z nich. Práce bude zaměřena na aktuální algoritmy re-identifikace vozidel, počítání vozidel v dopravě a na parkovacích místech různého druhu, měření rychlosti a získávání dalších zajímavých dat. Zaměření bude na použití kamer umístěných v ne docela výhodných úhlech a pozicích, které stávající a používané algoritmy vylučují z použití.Zejména se řešitel zaměří na následující:
Tématem jsou algoritmy zpracování obrazu, videa a/nebo signálu. Hlavním cílem je zkoumat a do hloubky analyzovat příslušné algoritmy a hledat nové tak, aby měly nové potřebné vlastnosti, a bylo možné je efektivně implementovat. Taková efektivní implementace může , ale nemusí být součástí práce, ale důležité je algoritmy připravit tak, aby šly efektivně zpracovávat například v CPU, v CPU s akcelerací SSE instrukcemi, v embedded systémech, i v kombinaci s FPGA, v Intel Xeon PHI, v systémech s extrémně nízkým příkonem, případně v jiném prostředí. Je možné i využití algoritmů umělé inteligence, včetně neuronových sítí, zejména CNN. Důležité jsou též aplikační možnosti algoritmů s tím, že samotná aplikace může, ale nemusí být součástí řešení. Možné algoritmy/aplikace zahrnují:
Po dohodě je možné zpracovávat i individuálně vybrané téma, které ve výše uvedeném seznamu není, ale patří do dané tématiky.
Je možnost spolupráce i na grantových projektech, zejména na nově podávaných TAČR, MPO, H2020, SCSEL (potenciálně možnost stipendia či pracovního poměru).
Projekt se zabývá pokročilými metodami syntézy obrazu. Cílem práce je výzkum nových metod pro fotorealistické (fyzikálně založené) i nefotorealistické (NPR) simulace světelné interakce ve scéně. Předpokládá se intenzivní spolupráce a stáže na špičkových institucích a firmách v oboru (Adobe, USA, MPII Saarbrücken, Německo, Disney Curych, Švýcarsko, INRIA Bordeaux, Francie).
Projekt se zabývá pokročilými metodami výpočetní fotografie. Cílem práce je výzkum nových metod pro výpočetní fotografii, což zahrnuje zejména softwarové řešení, které může být případně dále kombinováno s novou optikou a dalším hardware. Mezi oblasti výzkumu patří zpracování HDR obrazu a videa, převod barevného obrazu na černobílý, spektrální obraz, atd.
Vývoj systémů založený na modelech (MBD) je v současnosti do jisté míry méně akcentovanou oblastí IT, jelikož je svým rigorózním přístupem pravým opakem dnes prosazovaného agilního vývoje software. Ovšem bez této metodologie by nebylo možné vyvíjet bezpečnostně-kritické systémy, u kterých musí být zajištěna jejich správná funkcionalita ve všech možných situacích. Díky rigoróznímu postupu je ale vývoj těchto systémů značně pomalý a náročný na prostředky. Snahy, jak celý proces urychlit, jsou vidět ve všech fázích vývoje - od specifikace a validace požadavků, přes návrh architektury, generování kódu, jeho testování a verifikaci, až po certifikaci výsledného produktu.
Velkým problémem a zároveň výzvou je, že jednotlivé fáze vývoje jsou úzce provázané, např. pro automatizaci testování a verifikace je potřeba mít strojově zpracovatelné požadavky a architekturu systému, jinak nebude možné odvodit, co vlastně testovat a verifikovat. Tato provázanost vyžaduje znalosti z různých oblastí vývoje a analýzy zároveň, zatímco jak výzkum, tak existující řešení obvykle cílí pouze na jednu konkrétní fázi a vybrané problémy v rámci této fáze. S ohledem na to bude cílem výzkumu vyvinout nové přístupy pro návrh a analýzu systémů využívající data z různých fázi vývoje, případně rozšířit existující přístupy o využití dat z jiných fází. Práce by se měla zaměřit na problémy, které se aktuálně řeší v průmyslu a které zahrnují: nové přístupy pro specifikaci požadavků a systémů usnadňující analýzu a verifikaci, nové metody analýzy a verifikace modelů, metody pokročilého testování založené na modelech, metody pro ověřování ekvivalence modelu a z něj vygenerovaného kódu či pro odvozování modelů na různých úrovních abstrakce.
Řada velkých technologických společností v oblasti avioniky a automobilového průmyslu (např. Honeywell, AIRBUS, Boeing, Thales, Volvo Cars, ANSYS, MathWorks, ObeoSoft, Dassault, DRisQ) vynakládá nemalé prostředky na výzkum a vývoj v této oblasti.
Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT automatizovanou analýzou a verifikací s využitím statických i dynamických metod analýzy a verifikace, jak v podobě formální verifikace, tak i zaměřených na vyhledávání chyb. Předpokládá se zejména úzká spolupráce s dr. J. Fiedorem, u něhož se předpokládá role školitele specialisty, a dále dr. A. Smrčkou, doc. A. Rogalewiczem, dr. O. Lengálem, dr. L. Holíkem či dr. M. Češkou jr. Předpokládá se rovněž úzká spolupráce s firmou Honeywell, kterou zprostředkují zejména dr. J. Fiedor a dále B. Hall (Engineering Fellow, Advanced Technology, Honeywell). Dalším potenciálním průmyslovým partnerem je firma ANSYS z Francie. Podle zaměření práce je pak také pravděpodobná spolupráce s výzkumnými partnery firmy Honeywell, např. prof. Dov Dovi z MIT/Technion v oblasti aplikace formalismu OPM (prof. Dori je autor tohoto formalismu, jenž je nyní také ISO standard) nebo prof. Gopal Gupta z University of Texas v Dallasu, jenž vede špičkovou výzkumnou skupinu v oblasti využití logik pro analýzu systémů (logical reasoning).
V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do grantových projektů (např. TAČR Aufover řešený ve spolupráci s Honeywell a Red Hat, nový český projekt GAČR Snappy, evropský projekt ECSEL Arrowhead Tools či evropský projekt ECSEL Valu3S, bude-li přijat).
Vybrané publikace mimo databázi FIT VUT:
Dnešní neustále vzrůstající nároky na zpracování a vizualizaci dat kladou stále větší důraz na vývoj kvalitních, rychlých a uživatelsky přívětivých nástrojů určených pro tyto účely. Běžné typy vizualizačních prvků (diagramů) přestávají být dostačující pro prezentaci komplexních vícedimenzionálních dat. Takovými daty jsou například geografická data reprezentující vztah dat vůči geografické poloze (příkladem může výskyt nějakých jevů na zemském povrchu). Potřeba vizualizovat taková data v dnešní době přesahuje hranice akademického prostředí. S vizualizacemi geografických dat se můžeme setkat v komerční sféře (vizualizace rozmístění poboček, síťové topologie), veřejném sektoru (schémata hromadné dopravy), médiích (šíření pandemie, ekonomické a demografické ukazatele, apod.), ale i mezi běžnými uživateli (zaznamenávání osobních cest). Vizualizační prvky bývají často skládány do pokročilých pohledů (dashboardů, apod.).
Uživatelé mají v dnešní době možnost využít dva typy nástrojů určených k vizualizaci geografických dat:
Oba přístupy mají své výhody a nevýhody. V rámci TAČR projektu v roce 19/20 ve spolupráci VUT, MU a firmy Flowmon vznikla knihovna Geovisto, která se snaží vhodně kombinovat zmíněné přístupy. Vychází z programové knihovny Leaflet, nicméně snaží se o poskytnutí vyšší míry abstrakce prostřednictvím sady nástrojů nabízejí hotové tématické mapy (kartogram, mapa spojení, ...). Tyto tématické mapy je přitom možné konfigurovat jak programově, tak do jisté míry i za použití ovládacích prvků podobných ze známých geografických autorských systémů. Cílovou skupinou jsou programátoři, kteří chtějí použít existující hotové řešení, nicméně nechtějí být limitováni nutnosti studovat daný framework, ale zároveň také nechtějí být závislí na limitacích proprietárních systémů.
Cílem disertační práce práce bude studovat existující přístupy pro vizualizaci geografických dat a zkoumat
Internet věcí (IoT) tvoří komunikační síť propojující různé typy zařízení v inteligentní domácnosti (smart home), budově (smart building) či nemocnici (smart hospital). Koncová zařízení obvykle komunikují přes L2 sítě typu Zigbee, Z-Wave, WiFi či Bluetooth s kontrolerem (bránou) IoT, která přeposílá data do cloudu pro zpracování a vizualizaci. Toto řešení je většinou dané výrobcem řešení IoT a neumožňuje integraci se stávajícími systémy pro správu sítě (SIEM, SOC). IoT zařízení lze integrovat do centrálního monitorovacího systému pomocí proxy zařízení SNMP, která analyzují provoz IoT a pro různé koncové prvky dynamicky vytvářejí objekty MIB, které jsou dostupné pro správu SNMP. Z pohledu pokročilého řízení je potřeba zpracovávat množství monitorovacích dat z IoT zařízení, která se liší od monitorovacích dat klasických síťových prvků. Cílem dizertační práce je navrhnout a implementovat způsoby pro integraci IoT sítí pro centralizovanou síťovou správu a dále navrhnout metody pro analýzu, zpracování a využití monitorovacích dat IoT zařízení pro správu sítě podle modelu FCAPS. Téma je součástí projektu aplikovaného výzkumu IGA Metody AI pro zabezpečení kybernetického prostoru a řídicí systémy a národní centra kompetence pro kybernetickou bezpečnost. Školitel specialista: Matoušek Petr, Ing., Ph.D., M.A.
Praktické rozhodování u BDI systému je založeno na průběžném budování modelu záměrů agenta a následném provádění tohoto modelu. Původní výpočetní systém BDI agentů, systém AgentSpeak(L) nechával prostor pro další specifikaci některých výpočetních kroků, jakými jsou volba z více možných prostředků k dosažení cílů, volba záměrů k vykonání či volba substitucí při provádění formálních odvozování. Právě na hledání preferencí při výběru prostředků a záměrů se bude soustředit práce v rámci tohoto zadání. Výsledkem má být systém, jehož praktické rozhodování bude vykazovat vyšší míru racionality než vykazují v současnosti existující řešení BDI systémů.
Evoluční návrh je často prováděn pomocí genetického programování a jeho moderních technik, jakými jsou např. sebemodifikace kódu, sémantikou řízené genetické operátory, koevoluce a pokročilé metody reprezentace a evaluace kandidátních řešení. Cílem projektu je navrhnout a implementovat systém genetického programování, který bude využívat několik takových technik současně. Na úlohách zejména z oblasti návrhu obvodů, hlubokých neuronových sítí, aproximativního počítání a symbolické regrese bude experimentálně vyhodnocována účinnost jednotlivých technik a jejich kombinací. Výzkum spadá to témat řešených výzkumnou skupinou Evolvable Hardware.
Strojové učenie je v centre výskumu v oblasti umelej inteligencie. Témam spojeným so strojovým učením sa venuje množstvo výskumníkov v akademickom svete a aj v biznise v prestížnych vedeckých pracoviskách. Riešenia vedeckých výziev sa veľmi rýchlo dostávajú do praxe. Oblasť je veľmi dynamická.
Témy v tejto doméne definujú významné vedecké konferencie, na ktorých sa stretávajú výskumníci z celého sveta (rank A*) ako napríklad ICML (International Conference on Machine Learning), Advances in Neural Information Processing Systems (NeurIPS), International Joint Conference on AI (IJCAI), Conference on Learning Theory (COLT). Témy a ich špecializáciu budú viesť externí mentori.
Zaujímavé výskumné výzvy zahŕňajú témy (ale sa neobmedzujú takto):
General Machine Learning (e.g., active learning, clustering, online learning, ranking, reinforcement learning, semi-supervised learning, time series analysis, unsupervised learning)
Deep Learning (e.g., architectures, generative models, deep reinforcement learning)
Learning Theory (e.g., bandits, game theory, statistical learning theory)
Optimization (e.g., convex and non-convex optimization, matrix/tensor methods, sparsity)
Trustworthy Machine Learning (e.g., accountability, causality, fairness, privacy, robustness)
Existuje veľa aplikačných domén, kde sa pokročilé metódy strojového učenia dajú využiť.
Výskum bude doktorand vykonávať v rámci Kempelenovho inštitútu inteligentných technológií (KInIT, https://kinit.sk) v Bratislave pod vedením výskumníkov zo svetovo uznávaných výskumných skupín. Predpokladá sa kombinovaná (externá) forma štúdia a pracovný pomer na plný úväzok v KInIT.
Aktorový model je alternativou k objektovému přístupu na kterém jsou založeny stávající informační systémy. K jejich hlavním nedostatkům patří: neschopnost souběžnosti (concurrency), paralelizace a tím i masivního škálování informačního prostředí, potřebného pro koncept "Průmyslu 4.0". Dále současné systémy nejsou schopny absorbovat ve větším rozsahu prvky strojového učení, neboť jejich procesy jsou "natvrdo" zakódované (můžeme mluvit o "zombie procesech") a není možné je bez nákladných zásahů konzultantů měnit. Požadavkem zákazníků jsou "chytré" firemní procesy - schopné rekonfigurace na základě aktuálních potřeb a učení se z minulých průběhů. Cílem práce je návrh a otestování firemního kyberfyzického prostředí radikálně zvyšujícího firemní efektivitu.
Obecným cílem výzkumu v rámci zadání je výrazně posunout vpřed současný stav poznání ve světě v oblasti statické analýzy programů, a to jak v oblasti principů, tak i nástrojů alespoň potenciálně využitelných v praxi.
Statická analýza postavená na formálních základech je moderním a rychle se rozvíjejícím přístupem k ověřování korektnosti počítačových systémů, resp. pro vyhledávání chyb v nich. Existuje a dále se rozvíjí mnoho přístupů k takové analýze či verifikaci: analýza toku dat, pokročilé typové analýzy, abstraktní interpretace, model checking apod. Značná pozornost je těmto přístupům věnována nejen v akademické oblasti, ale také řadou špičkových velkých průmyslových společností (např. Facebook, Google, Amazon, Apple, Microsoft, Oracle, Red Hat apod.) i neustále vznikajících specializovaných firem (např. Coverity, GrammaTech, AbsInt, DiffBlue apod.), často následně zakoupených velkými technologickými leadery. Přes tento zájem univerzit i průmyslových společností je však v oblasti statické analýzy stále zapotřebí vyřešit celou řadu teoretických i praktických problémů. Jedním z těchto problémů, na který by se měla práce zaměřit, je škálovatelnost, a to i pro hlubší analýzy, které se zaměřují na komplexní datové či řídicí struktury. Na oltář škálovatelnosti by ale neměla být obětována přesnost analýzy, jak se tomu v průmyslové praxi často děje -- jde tedy o nalezení vhodné rovnováhy mezi přesností (tj. procentem falešných hlášení) a efektivností.
Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT automatizovanou analýzou a verifikací, zejména pak doc. A. Rogalewiczem, dr. L. Holíkem, dr. O. Lengálem, dr. P. Peringerem, Ing. T. Fiedorem, Ing. M. Hruškou, Ing. V. Šokovou či Ing. V. Malíkem. Je zde rovněž možnost úzké spolupráce s různými zahraničními partnery VeriFIT: TU Vienna, Rakousko (dr. F. Zuleger), Uppsala University, Švédsko (prof. P.A. Abdulla, prof. B. Jonsson, doc. P. Rümmer); Verimag, Grenoble, Francie (doc. R. Iosif), IRIF, Paříž, Francie (prof. A. Bouajjani, doc. C. Enea, doc. P. Habermehl), LSV, ENS Paris-Saclay, Francie (prof. M. Sighireanu), Academia Sinica, Tchaj-wan (prof. Y.-F. Chen), TU Kaiserslautern, Německo (prof. A.W. Lin) či TU Braunschweig, Německo (prof. R. Meyer). Téma je zajímavé také z pohledu spolupráce s průmyslovými společnostmi, zejména pak DiffBlue z Velké Británie (dr. P. Schrammel), která vyvíjí mj. statický analyzátor 2LS, do jehož vývoje se již tým VeriFIT zapojil v několika oblastech. Dalšími možnými průmyslovými partnery jsou např. Red Hat, Honeywell či Facebook.
V oblasti statické analýzy programů dosáhla skupina VeriFIT mnoha originálních výsledků publikovaných na špičkových konferencích (např. v oblasti analýzy programů s dynamickými datovými strukturami, parametrickými datovými strukturami, neomezenými poli, řetězci či parametrickým počtem procesů). Řada z dosažených výsledků byla implementována v nástrojích (např. Predator, Forester či 2LS), které získaly řadu ocenění např. na mezinárodní soutěži ve verifikaci software SV-COMP. V nedávné době začali členové skupiny vyvíjet také analyzátory do generických prostředí, jako jsou Facebook Infer či Frama-C.
Konkrétní výzkum v
Cílem této disertační práce je pomoci lékaři s aplikací ultrazvuku při stimulaci mozku. Lékař má v ruce vysílač, kterým pohybuje podél hlavy. Pozice vysílače je snímána kamerou a předávána do počítače, který zná nastavení vysílače a anatomii daného člověka. V reálném se čase pak počítá predikce ohniska v mozku. V současné době, trvá výpočet jednoho snímku asi dvě minuty. Cílem disertační práce je, dostat se pod 1 sekundu. Práce se tedy zaměří na průzkum různých fyzikálních modelů a jejich párování, aproximaci složitých matematických výpočtů (např. řídká FFT, odhady pomocí ANN, atd), efektivní implementaci na grafické kartě a a další.Disertační práce bude řešena v nově podaném projektu ve spolupráci s University College London, Harward University a Virginia University
Cílem práce je navázat na soudobé techniky návrhu a realizace distribuovaných řidicích systémů v rámci IoT a CPS a přinést nové metody, zohledňující rekonfigurovatelnost a adaptaci v dynamickém prostředí, a to jak automatickou, tak interaktivní. Specifický důraz je kladen na zajištění konzistence systému a jeho modelu během rekonfigurace, učení a optimalizace. Možnou aplikační oblastí může být řízení inteligentní budovy, resp. Smart Home.Předpokládá se vhodná kombinace reálných a simulovaných součástí systému při realizaci případových studií.
Cílem práce je rekonstrukce poničených povrchů CD/DVD/BR/HDD, sestávající z:
Všadeprítomnosť počítania dnes generuje množstvo dát potenciálne využiteľných v trénovaní modelov v strojovom učení. Problémom však je, že tieto dáta spravidla nebývajú anotované, teda bez značiek potrebných pre konvenčné učenie s učiteľom (napr. klasifikáciu). Získavanie značiek pomocou ľudskej práce je pritom veľmi nákladný proces. Výsledkom je teda stav, v ktorom je potrebných značiek málo, sú zlej kvality, alebo vôbec nie sú k dispozícii.
Na obídenie tohto problému sú v súčasnosti skúmané viaceré prístupy: meta-učenie, učenie s prenosom (transfer learning), učenie so slabými signálmi spätnej väzby (weak supervision learning), učenie s jedným príkladom (one-shot learning), učenie bez priameho príkladu (zero-shot learning). Každá z týchto techník (alebo ich kombinácia) predstavuje príležitosť pre nové objavy. Ortogonálne k týmto technikám tiež stojí vysvetliteľnosť a interpretovateľnosť modelov, ktorá je dôležitým faktorom a prínos v tomto smere je vítaný (v rámci uvádzaných techník aj všeobecne v umelej inteligencii).
Existuje veľa aplikačných domén, kde sa metódy a modely riešenia malého množstva označkovaných dát dajú uplatniť. Nachádzajú sa medzi nimi aj veľmi aktuálne oblasti detekcie nepravdivých informácií či podpora overovania informácií (fact-checking).
B. Pecher, I. Srba, and M. Bielikova. Learning to Detect Misinformation Using Meta-Learning. Presented in PhD Forum by B. Pechcer at the European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases - ECML-PKDD 2020.
M. Pikuliak, M. Simko, M. Bielikova. Cross-Lingual Learning for Text Processing: A Survey Expert Systems With Applications or its open access mirror. Expert Systems with Applications. Vol. 165, 2021. https://doi.org/10.1016/j.eswa.2020.113765
Téma práce je zaměřeno na rozpoznávání řeči a zpracování dat pro komunikaci ATC-pilot v letectví. Bude se týkat všech komponentů automatického rozpoznávání řeči (ASR), tedy zpracování dat, akustického modelu, slovníku (včetně speciální letecké terminologie) a jazykového modelu.
Zadání vyžaduje zájem o matematiku, statistiku, strojové učení a zpracování řeči, výhodou je zběhlost v jazyce Python a jeho knihovnách pro strojové učení.
Školitel: Černocký Jan, prof. Dr. Ing.
Cílem práce je vyhledávat a vytvářet algoritmy, které umožní v reálném čase provozovat rozšířenou realitu na mobilních (ultramobilních) zařízeních. Jedná se především o algoritmy určení/sledování pozice mobilního zařízení v prostoru pomocí počítačového vidění a využitím vestavěných senzorů mobilního zařízení. Dále se práce zaměří na algoritmy zobrazování virtuálních prvků do reálné scény a na aplikace rozšířené reality na mobilním zařízení.
Zavedením sémantických operátorů do genetického programování umožnilo významně zefektivnit jeden ze základní stavebních pilířů evolučních výpočetních technik a zredukovat množství generací potřebných k nalezení řešení. Cílem disertační práce je navázat na předchozí výzkum a zabývat se možnostmi zavedení sémantických operátorů do kartézského genetického programování a to v úloze návrhu a optimalizace číslicových obvodů a symbolické regrese. Výzkum spadá do témat řešených výzkumnou skupinou Evolvable Hardware.
Cílem práce je vytvoření spolehlivého porovnávání 2D obličeje s projekcí 3D obličeje, konkrétně:
Neustály nárast množstva dostupných dát zdôrazňuje potrebu ich automatického spracovania a porozumenia. Špeciálnu výzvu predstavuje heterogénny neštruktúrovaný textový obsah v prirodzenom jazyku. Spracovanie prirodzeného jazyka (natural language processing, NLP) sa radí medzi najperspektívnejšie podoblasti umelej inteligencie s obrovským potenciálom inovatívnych aplikácií ovplyvňujúcich každodenný život.
Nedávne pokroky v oblastiach neurónových sietí a strojového učenia posunuli úspešnosť a záber porozumenia a generovania prirodzeného jazyka významne dopredu. Napriek tomu stále zostávajú výskumné výzvy týkajúce sa jednotlivých úloh spracovania prirodzeného jazyka, aplikačných domén a jazykov. Je potrebný ďalší výskum a prieskum súvisiacich javov, špeciálnu pozornosť v poslednej dobe púta problém interpretovateľnosti a vysvetliteľnosti modelov pre NLP alebo rôzne inovatívne paradigmy učenia adresujúce problém nízkej dostupnosti zdrojov potrebných pre učenie.
Zaujímavé výskumné výzvy zahŕňajú (najmä, ale nielen):
Učenie s prenosom / multilingválne učenie
Interpretovateľnosť a vysvetliteľnosť pre NLP
Doménovo-špecifická extrakcia informácií a klasifikácia textu
Spracovanie jazykov s malým množstvom zdrojov
Pikuliak, M., Šimko, M., Bieliková, M. Cross-lingual learning for text processing: A survey. Expert Systems with Applications, 2020. https://doi.org/10.1016/j.eswa.2020.113765
Korenek, P., Šimko, M. Sentiment analysis on microblog utilizing appraisal theory. World Wide Web, 2014. https://doi.org/10.1007/s11280-013-0247-z
Školitel: Šimko Marián, doc. Ing., Ph.D.
Modely vytvárané strojovým učením môžu byť len tak dobré, aké dobré sú dáta, ktoré použijeme na ich trénovanie. Aj preto sa výskumníci a inžinieri snažia získavať čo najlepšie trénovacie dáta. Nie je pritom zriedkavé vynakladať značné ľudské úsilie (pri čistení či anotovaní) s cieľom dosiahnuť potrebnú všeobecnú kvalitu. Niekedy je však ťažké, prípadne nemožné dostatočne pripraviť vzorku dát.
V takýchto prípadoch môžu pomôcť riešenia založené princípe "človek v procese" (angl. human in the loop), ktorý využíva ľudské úsilie na vylepšovanie strojovo naučených modelov prostredníctvom ľudských zásahov priamo počas trénovania a/alebo počas nasadenia modelov (napr. spätná väzba pri automatickom preklade). Tieto riešenia sú špeciálne užitočné pri cielených zlepšeniach trénovacích dát prostredníctvom identifikácie a riešenia sporných prípadov. Toto je taktiež priamo spojené s vysvetliteľnosťou a interpretovateľnosťou modelov.
Prístupy s človekom procese zahŕňajú pestrú paletu techník z oblastí ako aktívne a interaktívne učenie, ľudské počítanie, čerpanie z davu či kolektívna inteligencia (spolu s motivačnými schémami ako gamifikácia a hry s účelom). Každá z týchto oblastí (či ich kombinácia) predstavuje príležitosti pre nové objavy. Taktiež hraničia s ďalšími disciplínami informatiky ako vizualizácia dát, použiteľnosť a používateľský zážitok a softvérové inžinierstvo.
Aplikačné domény strojového učenia s človekom v procese sú predovšetkým tie s veľkou mierou heterogenity a nestálosti. Takéto domény zahŕňajú napríklad aj detekciu falošných informácií, šírenie informácií online (vrátane šírenia naratívov a mémov), podpora manuálneho/automatického overovania informácií (fact-checking) a ďalšie.
J. Simko, M. Hanakova, P. Racsko, M. Tomlein, R. Moro and M. Bielikova. Fake News Reading on Social Media: an Eye-tracking Study. In Proc. of the 30th ACM Conference on Hypertext and Social Media - HT 2019, ACM, pp. 221-230. https://doi.org/10.1145/3342220.3343642
J. Šimko and M. Bieliková. Semantic Acquisition Games: Harnessing Manpower for Creating Semantics. 1st Edition. Springer Int. Publ. Switzerland. 150 p. https://link.springer.com/book/10.1007/978-3-319-06115-3
Školitel: Šimko Jakub, doc. Ing., PhD.
Neustále vytváranie a zhromažďovanie veľkého množstva dát prináša zo sebou aj bezpečnostné problémy. Množstvo problémov týkajúcich sa bezpečnosti je potrebné riešiť prostredníctvom metód založených na umelej inteligencii a s pomocou strojového učenia.
Medzi aktuálne výskumné problémy v oblasti informačnej bezpečnosti patrí analýza údajov veľkých bezpečnostných logov, detekcia širokej škály anomálií pri sieťovej komunikácii, detekcia škodlivého správania. Tieto problémy súvisia s úlohami redukcie dimenzionality, zhlukovania a klasifikácie. Výzvou je interpretovateľnosť strojového učenia pri riešeniach bezpečnosti a dôvery.
CHUDÁ, Daniela - KRÁTKY , Peter - BURDA, Kamil. Biometric Properties of Mouse Interaction Features on the Web. In Interacting with Computers : The Interdisciplinary Journal of Human-Computer Interaction. Vol. 30, iss. 5 (2018), s. 359-377. https://doi.org/10.1093/iwc/iwy015
KRÁTKY , Peter - CHUDÁ, Daniela. Recognition of web users with the aid of biometric user model. In Journal of Intelligent Information Systems. Vol. 51, iss. 3 (2018), s. 621-646. https://doi.org/10.1007/s10844-018-0500-0
Školitel: Chudá Daniela, doc. Mgr., Ph.D.
Řešení tohoto projektu bude vycházet ze stávajících poznatků o formálních modelech, zejména automatů a gramatik. Cílem je konstrukce a výzkum nových systemů automatů a gramatik, které adekvátním způsobem odrážejí potřeby moderních výpočetních metod založených na distribuci, kooperaci a regulaci. Kanonické a redukované verze těchto system budou centrem tohoto studia. Aplikace těchto systémů se budou soustředit na modelování a výzkum organismů v molekulární biologii a genetice.
Cieľom tejto práce je navrhnúť škálovateľný decentralizovaný systém elektronického hlasovania založený na smart kontraktoch s maximálnym súkromím voličov, odolnosťou voči chybám a nátlakovým útokom. Takýto prístup by mal byť vhodný a dostatočne robustný pre národné voľby. Prvou výzvou je optimalizácia nákladov na spustenie nákladného zero-knowledge overenia v smart kontrakte prostredníctvom off-chain konštruktov (ako napríklad ZK-Snarks, ZK-Starks). Druhou výzvou je škálovateľnosť w.r.t. počtu účastníkov a možnostiam hlasovania v závislosti na použitom type blockchainu ako permissioned blockchainy (Proof-of-Authority) alebo permissionless blockchainy (Proof-of-Stake).
Řešení tohoto projektu bude vycházet ze stávajících poznatků o moderních formálních systémech, které se používají v teorii jazyků. Teoretický výzkum těchto modelů bude diskutovat užitečné transformace těchto systémů, jako např. eliminace vymazávajících pravidel či redukce velikosti jejich komponent. Výzkum aplikací takto transformovaných systémů se bude soustředit na oblasti informatiky související s překladači, matematickou lingvistikou a molekulární biologií.
Řešení tohoto projektu bude vycházet ze stávajících poznatků o moderních formálních modelech, které se používají v teorii jazyků. Teoretický výzkum těchto modelů bude diskutovat užitečné transformace těchto modelů, jako např. eliminace vymazávajících pravidel či redukce velikosti jejich komponent. Výzkum aplikací takto transformovaných modelů se bude soustředit na oblasti informatiky související s překladači, matematickou lingvistikou a molekulární biologií.
Rostoucí trend v používání umělé inteligence přináší nové přístupy v oblasti kybernetické bezpečnosti na obou stranách - útočníci i obránci. Nejvýznamnějšími příklady je použití tzv. "deepfakes" k útoku na biometrické systémy nebo využití technik deeplearningu k detekci kybernetických útoků. Cílem této práce je analyzovat všechny existující přístupy, jejich vlastnosti a potenciální aplikace. Práce by poté měla navrhnout nové aplikace AI pro problémy, které nebyly dříve vyřešeny, a zároveň implementovat nejzajímavější aplikaci.
Cílem je studovat nejnovější trendy v oblasti uživatelské zkušenosti (user experience) a v oblasti moderních uživatelských rozhraní. Řešitel nastuduje nejnovější trendy v oblasti výzkumu a návrhu uživatelských rozhraní. V rámci řešení navrhne vhodná uživatelská rozhraní, která budou představovat výzvu z hlediska jejich uživatelské zkušenosti. Na nich, jejich návrhu a vývoji bude experimentovat s metodologií návrhu uživatelské zkušenosi a uživatelských rozhraní. Získané poznatky bude publikovat na kvalitních fórech zaměřených na návrh uživatelských rozhraní a uživatelskou zkušenost.Konkrétně se řešitel má zěmřit na:
Cílem práce je navázat na soudobé techniky návrhu a realizace distribuovaných řidicích systémů v rámci IoT a CPS a přinést nové metody, které zohlední potřebu analyzovatelnosti a verifikovatelnosti a přitom umožní adaptabilitu a dynamickou rekonfigurovatelnost systému. Specifickým cílem je aplikace metod analýzy a verifikace v návaznosti na modelem řízený návrh (Model Based Design, MBD) a na simulaci založený vývoj (Simulation Based Develeopment, SBD) v kontextu moderních řídicích systémů a CPS.
Téma se zabývá společným trénováním architektur pro zpracování signálů a dolování informací z řeči, end-to-end přístupy. Zadání vyžaduje zájem o matematiku, statistiku, strojové učení a zpracování signálů, výhodou je zběhlost v jazyce Python a jeho knihovnách pro strojové učení.
BUT Speech@FIT je špičkovou mezinárodní výzkumnou skupinou zabývající se dolováním informací z řeči. Nabízí rovné příležitosti pro všechny, v současné době má členy 10ti národností a (na IT) významný podíl žen.
Více informací viz https://speech.fit.vutbr.cz/
Projekt se zabývá geo-lokalizací mobilních zařízení v neznámém prostředí pomocí metod počítačového vidění a počítačové grafiky. Hlavním cílem je výzkum a návrh nových metod registrace obrazu s geo-lokalizovanou obrazovou databází nebo s 3D modelem terénu. Cílem je též implementace navržených metod na mobilních zařízeních a hledání jejich dalších aplikací např. v oblastech zpracování obrazu, výpočetní fotografie a rozšířené reality.
Toto téma se zaměřuje na proces a techniky používané pro detekci kybernetických hrozeb, získávání a reprezentaci dat o ohrožení. Cílem této disertační práce je prostudovat současné techniky a navrhnout řešení, které efektivně vylepšuje proces a jeho výsledky použitelné pro detekci malwaru a zjišťování dalších informací o kybernetických hrozbách, např. multikriteriální shlukování se zaměřením na vysvětlitelnost.
Na vedení práce se bude podílet školitel-specialista
Cílem práce bude navrhnout a ověřit platformu pro akceleraci algoritmů vestavěné inteligence. Důraz bude kladen na optimalizaci výpočtů pro práci v reálném čase a nízký příkon. V práci budou zkoumány možnosti efektivní implementace klasifikátorů a hlubokých neuronových sítí a jejich vhodného kombinování.
Např. použití obrazových klasifikátorů pro výběr vhodných kandidátních snímků pořízených kamerou a jejich následné zpracování v neuronové síti či kaskádě sítí (např. jednoduchá a rychlá síť v FPGA, pomalejší, ale přesnější v CPU a konečně velmi hluboká a přesná neuronová síť běžící na cloudu či clusteru), může přinést výrazné omezení datových toků. Důsledkem pak může být nejen urychlení výpočtů (čím přesnější je síť, tím je výpočetně a energeticky náročnější a není tedy vhodné ji spouštět na každý snímek pořízený kamerou), ale také výrazné snížení příkonu (přenosy dat mají často větší energetické nároky než výpočty samé).
Kvalita a efektivita navržených algoritmů a výpočetních struktur bude ověřována na reálných datech. Pro implementaci navržených algoritmů se zvažuje využití hybridních výpočetních platforem kombinující výhody technologií FPGA, CPU a GPU.
Předpokládá se spolupráce na výzkumných grantových projektech. Možné aplikace zahrnují tzv. chytré kamery, které rozpoznávají zájmové objekty v reálném čase, senzory s vestavěnou inteligencí pro robotiku či IoT atd.
Použití některých metod strojového učení, například v poslední době populárních hlubokých neuronových sítí, přináší problémy architektury tzv. černé skříňky, která sice může v některých případech správně rozhodovat, ale není možné snadno interpretovat způsob rozhodování, ověřovat, v jakém kontextu jsou závěry ještě věrohodné a nakolik mohou vést drobné změny vstupu ke zcela jiným závěrům.Cílem disertační práce je rozvinout existující přístupy k měření "dokazatelně správných" modelů umělých neuronových sítí a propojit je s technikami generování konfliktních (adversarial) příkladů, aby bylo možné kontrolovat a revidovat existující řešení, využívaná v praxi. Součástí práce bude i aplikace zkoumaných metod v rámci evropských projektů, na jejichž řešení se školitel podílí.
Cílem práce je vytvoření 3D modelu obličeje z 2D fotografií různorodého původu, konkrétně:
Aproximativní počítání (approximate computing) je nová a bouřlivě se rozvíjející výzkumná oblast v rámci které jsou hledány alternativní (typicky nízkopříkonové) implementace nejen základních stavebních komponent jako jsou např. sčítačky a násobičky, ale také komplexních obvodových celků. Významný vývoj můžeme sledovat také v oblasti strojového učení. Dříve jednoduché architektury dnes nahrazují tzv. hluboké neuronové sítě, které jsou schopny dosahovat výrazně lepších výsledků zejména v oblasti klasifikace a detekce objektů v obraze. Daní za vyšší přesnost je však vyšší komplexita vedoucí na velké množství operací a tudíž i vyšší energetickou náročnost. Současně se však ukazuje, že tyto sítě vykazují vysokou úroveň rezistence vůči chybám ve výpočtu. Jako výhodné se proto jeví nasazení aproximovaných obvodů v této oblasti s cílem dosáhnout značné úspory energie.
Moderní GPU nabízejí možnosti zásadního zrychlení výpočtů pomocí jejich paralelizace. Grafické karty Nvidia a architektura CUDA navíc přinášejí relativní nezávislost na použití v čistě grafických úlohách. Mluví se o tzv. GPGPU (General Purpose GPU).Cílem disertační práce je výzkum možností paralelizace výpočetně náročných úloh, které je možné převést na GPU. V rámci řešení by měla vzniknout obecná metodika, umožňující odhad možného zrychlení výpočtu, případně charakterizující rozsah omezení daných použitou architekturou GPU. Výsledky budou demonstrovány na vybraných problémech zahrnujících časově náročné výpočty.
Technologie sémantického webu umožňují reprezentaci informací a znalostí pro účely jejich dalšího sdílení např. mezi počítačovými aplikacemi. Dostupné znalostní databáze, jako např. DBPedia, obsahují velké množství dále využitelných informací a faktů. Na současném webu je však většina nových informací publikována ve formě dokumentů nejčastěji v jazyce HTML, jejichž další zpracování je problematické zejména kvůli jejich volné struktuře a absenci explicitních informací o významu jednotlivých částí obsahu. Nabízí se dva způsoby, jak tuto propast mezi klasickým a sémantickým webem překonat:
Pro dosažení obou těchto cílů je nutné analyzovat možnosti existujících ontologických modelů s ohledem na popis konkrétních cílových domén a možnosti mapování těchto popisů na obsah reálných webových stránek a dokumentů. Možné aplikace zahrnují mimo jiné následující:
Nedílnou součástí je rovněž experimentální implementace navržených metod s využitím existujících nástrojů a experimentální ověření na reálných datech a dokumentech.
Cílem této práce je prozkoumat techniky umělé inteligence pro akceleraci ultrazvukových simulací a tvorbu operačních plánů. Výzkumný problém je postaven následovně. Abychom zjistili, jak ultrazvuk interaguje s lidskou tkání, je nutné vytvořit model tkáně, do něj umístit vysílač a provést výpočetně velice náročnou fyzikální simulaci. Výsledkem takové simulace je rozložení akustického tlaku a uložení tepelné energie v dané oblasti. Pokud s výsledkem nejsme spokojeni, např. nezasáhneme cíl, je nutné posunou vysílač, nebo změnit parametry vysílané vlny a simulaci spustit znovu. Zde by mohla pomoci umělá inteligence, který by se naučila fyzikální model a umožnila predikovat výsledek simulace, případně vylepšila obraz simulace provedené na výrazně nižším rozlišení. V této práci se předpokládá masivní využití superpočítačových technologií, především multi-GPU systémů.
Zvyšující se náklady na výrobu čipů a tlak na technologický vývoj spočívající zejména v neustálém zmenšování prvků vedou ve stále větší míře a u většího počtu producentů k přesunu výroby do levnějších lokalit, zpravidla k externím subjektům. Jen málokterý výrobce si může dovolit mít vlastní výrobu polovodičů. Odvrácenou stranou úspor prostřednictvím outsourcingu jsou zvýšená rizika modifikací návrhu s cílem zajistit přístup (k datům, k řízení), vypnutí či možnosti ovlivnění funkce cizích vyrobených čipů nasazených do aplikací, aniž by to zákazník poznal. Již jsou známy případy úspěšného využití takových technik. V této souvislosti se mluví o tzv. hardwarových trojských koních. Vyvíjí se proto techniky detekce takových modifikací, případně obrany proti nim. Jednou z možností detekce hardwarových trojských koní je například tzv. IP watermarking.
Cílem práce bude
Školitel: Růžička Richard, doc. Ing., Ph.D., MBA
Cílem disertační práce je výzkum nových metod odvozování znalostí o síťových zařízeních a jejich klasifikace z dat o síťovém provozu a z dalších zdrojů. Technologie automatického objevování a popisu zařízení v síti jsou v současnosti velmi žádané a výzkumná činnost v této oblasti je na vzestupu, zatím se však obvykle omezuje jen na využívání jednoho typu zdrojových dat (např. aktivní skenování nebo jen statistiky o množství provozu) či zjišťování jen velmi základních dat o zařízení. Disertační práce by měla navázat na stávající výsledky a kromě vylepšování existujících metod klasifikace zařízení, kde lze využít například moderní techniky strojového učení, by se měla zaměřit především na problematiku fúze dat z více zdrojů. Získání komplexního popisu zařízení vycházejícího z kombinace více dílčích metod je totiž kvůli jejich rozdílné spolehlivosti, míře detailu, možným konfliktům ve vstupních datech a také kvůli časové proměnlivosti, velmi náročné a stále nedostatečně vyřešené téma. Předpokládaným obsahem práce tedy bude vytvoření anotovaných datových sad, návrh vhodné taxonomie zařízení, využití technik strojového učení pro odvozování informací ze síťového provozu (vč. šifrovaného) a aplikace pokročilých metod fúze informací z různých zdrojů. Výsledkem by měla být sada metod pro objevování, identifikaci a klasifikaci zařízení ve vlastní síti podle jejich chování, které by byly aplikovatelné v systémech pro správu sítě.Při řešení práce se předpokládá úzká spolupráce s výzkumným týmem Liberouter (www.liberouter.org) a získávání zpětné vazby od správců výzkumné infrastruktury sdružení CESNET. V případě zodpovědného přístupu k řešení zadaného tématu může být student zapojen do řešení projektu CTI, který je současné době řešen v rámci bezpečnostního výzkumu MV ČR. Školitelem specialistou k tématu disertační práce je dr. Martin Žádník. Další odborné konzultace poskytne dr. Václav Bartoš, který se zabývá touto problematikou ve sdružení CESNET. Téma navazuje na publikace: