Přístupnostní navigace
E-přihláška
Vyhledávání Vyhledat Zavřít
Detail oboru
FITZkratka: DVI4Ak. rok: 2020/2021
Program: Výpočetní technika a informatika
Délka studia: 4 roky
Akreditace od: 1.1.2007Akreditace do: 31.12.2024
Profil
Cílem studijního programu je poskytnout vynikajícím absolventům magisterského studia specializované univerzitní vzdělání nejvyššího typu ve vybraných oblastech informatiky, vypočetní techniky a informačních technologií. Toto vzdělání zahrnuje také průpravu a atestaci k vědecké práci.
Garant
prof. RNDr. Milan Češka, CSc.
Vypsaná témata doktorského studijního programu
The purpose of this thesis is to analyze potential application of cryptographic accumulators in the context of the public blockchains. Identify the most suitable types and settings for particular application and also propose improvements that focus on the performance, security, or storage overhead.
Školitel: Hanáček Petr, doc. Dr. Ing.
Náplní práce je návrh a praktické vyzkoušení nového typu digitálních agentů. Tito by měli být založeni na kombinaci aktorového přístupu s přístupy hlubokého strojového učení. Aktorový přístup je alternativou k objektovému přístupu. V tomto modelu je základní výpočetní jednotkou aktor, který realizuje čtyři základní operace: založ, pošli, přijmi a řiď; další operace jsou asynchroní, založené na posílání zpráv mezi aktory. Hluboké strojové učení je založeno na využití algoritmů (neuronových sítí) operujících s daty uspořádanými ve vrstvách. Předpokládáme, že agent nového typu bude složen z mnoha actorů a bude schopen se učit díky vytěžování toků zpráv, které si mezi sebou aktoři posílají. Výše uvedené hypotézy budou prakticky testovány v průmyslu v prostředí "agentové továrny" u partnera projektu.
Školitel: Zbořil František, doc. Ing., Ph.D.
Tématem jsou algoritmy grafiky, zpracování obrazu a videa, tedy "Visual Computing", například HDR (High Dynamic Range) obrazu, multispektrálního obrazu, stereoobrazu, případně obrazu doplněného o vlastnosti materiálu, teplotě, apod. Cílem je lépe porozumět jejich vlastnostem a možnostem, ale i aplikacim, algoritmy do hloubky analyzovat, zlepšovat a připravovat nové. Předpokládá se práce v jazyce C, C++, C#, assembleru, případě i jinak. Možné algoritmy zahrnují:
Po dohodě je možné zpracovávat i individuálně vybrané algoritmy, které ve výše uvedeném seznamu nejsou, ale patří do dané tématiky.
Je možnost spolupráce i na grantových projektech, zejména na nově podávaných projektech bezpečnostního výzkumu, H2020, ECSEL(potenciálně možnost stipendia či pracovního poměru).
Školitel: Zemčík Pavel, prof. Dr. Ing., dr. h. c.
Trusted computing is a promising concept that enables a remote trusted execution of arbitrary programming logic. The most prominent examples of trusted execution environments (TEE) are Intel SGX, IBM Sanctum, Keystone-enclave. The goal of this work is to analyze all existing TEEs, they properties and potential applications. Then, the work should propose novel applications of TEEs for the problems that were not resolved before while also implement the most interesting application. There is a high potential to combine trusted computing with public blockchains, which should be also addresses in the work.
Monitorování zabezpečené komunikace je obtížné, neboť šifrování znemožňuje analýzu informací, jenž je zabezpečnou komunikací přenášena. Síťové útoky a šíření malware v poslední době častěji používají šifrované přenosy pro znemožnění detekce jejich aktivit současnými detekčními metodami.Cílem disertační práce je návrh metody pro monitorování zabezpečené komunikace, jenž by umožňovala detekci škodlivého šifrovaného oprovozu analýzou charakteristických vlastností komunikace.Práce bude řešena jako součást nově připravovaného projektu TAČR.Školitel specialista: Ing. Vladimír Veselý, Ph.D.
Školitel: Ryšavý Ondřej, doc. Ing., Ph.D.
Tématicky se tato disertační práce orientuje na bezpečnost různých systémů, které mají zajistit anonymitu nebo pseudonymitu uživatelů internetu (například sítí typu TOR). Práce by měla obsahovat:
Očekává se účast na relevantních mezinárodních konferencích a publikování v odborných či vědeckých časopisech.
Na vedení práce se bude podílet školitel-specialista.
Tématicky se tato disertační práce orientuje na bezpečnostní vlastnosti různých systémů, které využívají technologii a princip blockchainu. Práce by měla obsahovat:
Tématicky se tato disertační práce orientuje na bezpečnost IoT systémů. Práce by měla obsahovat:
Při kvalitní publikační činnosti lze získat jak jednorázové tak pravidelné mimořádné stipendium. Získání grantové podpory z širších zdrojů není ničím limitováno.
Školitel: Kolář Dušan, doc. Dr. Ing.
Podíl šifrovaného síťového provozu na celkovém objemu neustále roste. Šifrování dovoluje skrýt obsah síťové komunikace před odposlechem, nicméně zároveň znemožňuje jeho analýzu z pohledu bezpečnosti doposud používanými nástroji a technikami. Cílem práce je definovat nové postupy analýzy síťového provozu, které dovolí odhalovat i v šifrovaném provozu útoky a další kyberbezpečnostní informace ke komunikujícím entitám. Předpokládá se využití technik strojového učení, které dovolí z velkého množství dat odvodit klasifikátory bezpečnostních událostí, odvodit podobnosti mezi entitami nebo rozpoznat odlehlé instance. Strojové učení dovoluje optimalizace výše uvedených úloh s ohledem na různé parametry.V rámci řešení disertační práce se předpokládá velmi úzka spolupráce se sdružením CESNET, které spravuje akademickou síť a může poskytnout data pro strojové učení. Školitelem specialistou pro téma je Ing. Martin Žádník Ph.D., který se v rámci sdružení Cesnet zabývá výzkumem a vývojem nových nástrojů pro monitorování a bezpečnost sítě.
Školitel: Kořenek Jan, doc. Ing., Ph.D.
Tématicky se tato disertační práce orientuje na bezpečnost bezdrátových lokálních sítí. V rámci řešení by mělo dojít k seznámení se s vybranými bezdrátovými sítěmi a jejich zabezpečením. Kroky práce by měly obsahovat:
Použití neuronových sítí pro hluboké učení (deep learning) přispělo v posledních letech k výraznému posunu mnoha oblastí, které se opírají o strojové učení - rozpoznávání obrazu, analýza textu atd.Cílem disertační práce je rozvinout existující přístupy využívající obrovské kolekce neanotovaných dat pro naučení neuronových sítí tak, aby výstupy poslední mezilehlé vrstvy bylo možné použít jako vektor příznaků. Součástí práce bude i aplikace zkoumaných metod v rámci evropských projektů, na jejichž řešení se školitel podílí.
Školitel: Smrž Pavel, doc. RNDr., Ph.D.
This thesis is intended for exploration of the possible applications of zero-knowledge constructs in the context of the public blockchains. Zero-knowledge (ZK) constructs (e.g., proofs) are used to provide public verification of the correctness of a certain computation or operation without revealing any private data related to the computation/operation. In this way, it is possible to implement, for example, public voting or auction protocols that preserve privacy of data publicly produced by distributed participants. The most common ZK constructs are often instantiated by schemes that provide homomorphic encryption, such as ElGammal encryption or integer arithmetic fields over modulo N. However, the feasibility of these constructs in the domain of the public blockchain may vary due to possible high costs, or security aspects. The role of this thesis is to analyze and quantify these existing options and implement the most interesting (and novel) application. Na vedení práce se bude podílet školitel-specialista.
Téma práce se zabývá využitím technik dolování informací z řeči jako je rozpoznávání mluvčího, rozpoznávání jazyk, přepis, a detekce klíčových slov pro vyhledávání struktur zločineckých sítí. Téma souvisí s evropským projektem Horizon 2020 Roxanne, kde je VUT hlavním výzkumným partnerem.
Zadání vyžaduje zájem o matematiku, statistiku, strojové učení a zpracování řeči, výhodou je zběhlost v jazyce Python a jeho knihovnách pro strojové učení.
BUT Speech@FIT je špičkovou mezinárodní výzkumnou skupinou zabývající se dolováním informací z řeči. Nabízí rovné příležitosti pro všechny, v současné době má členy 10ti národností a (na IT) významný podíl žen.
Více informací viz https://www.roxanne-euproject.org/ a https://speech.fit.vutbr.cz/
Školitel: Černocký Jan, prof. Dr. Ing.
Trendem poslední doby při stavbě superpočítačových systémů je využití heterogenních architektur pro dosažení vysoké výkonnosti a současně nízkého příkonu. Typickým představitelem takového systému je Tsubane-II nebo Salomon, jenž obsahují mimo běžných vícejádrových procesorů i akcelerátory Intel Xeon Phi, nebo systémy jako je Titan jenž sází na grafické karty firmy NVIDIA.
Pokud chceme opravdu využít plný potenciál výpočetního systému je nutné úlohu rozdělit nejen na akcelerační karty, ale rovněž na procesorová jádra. Pokud bychom uvažovali systém Salomon umístěný v Ostravě, procesorová část představuje 1/3 výkonu, zatímco akcelerační karty 2/3.
Cílem práce je navrhnout novou metodiku automatizované rozdělení výpočtu (dekompozice) a vyvážení pracovní zátěže tak, aby byly využity všechny dostupné prostředky a minimalizována komunikace.
Školitel: Jaroš Jiří, doc. Ing., Ph.D.
Cílem práce je automaticky navrhovat pozici a nastavení ultrazvukového vysílače při ultrazvukové léčbě. Tedy - doktor ohraničí nádor na CT obraze a cílem tohoto algoritmu je odhadnout nejlepší nastavení vysílače (i několik různých pozic s optimalizací trajektorie). Tento výpočet se následně odešle na cluster k potvrzení.Práce bude obsahovat optimalizační techniky - Evoluční algoritmy, neuronové sítě, hluboké učení, a jiné. Dále bude využívat rozsáhlé ultrazvukové modely implementované na superpočítačích.
U softwarových systémů očekáváme, že jednak nikdy nenastane žádná závažná chyba (deadlock, neoprávněný přístup do paměti, ...), ale také každá akce systému vždy úspěšně skončí v rozumném časovém intervalu. Problémem ověření ukončení v rozumném čase se zabývá analýza mezí (bound analysis). Problémem analýzy mezí je pro zadaný program (nebo funkci) nalézt (horní) odhad složitosti. Přes pokrok v posledních letech ale stále nejsou současné techniky dostatečné. Problémem jsou hlavně složité datové struktury a tzv. otevřený kód, kde analyzujeme pouze části kódu bez znalosti kontextu.Cílem této práce je navázat na současné techniky pro analýzu mezí s cílem analýzy mezí otevřeného kódu a/nebo kódu se složitými datovými strukturami. Práce bude navazovat na práci členů skupiny VeriFIT a práci dr. F. Zullegera z TU Wien a dr. M. Sinna z Fachhochschule St. Pölten.Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT technikami pro verifikace programů se složitými datovými strukturami (zejména dr. L. Holík, prof. T. Vojnar, ing. M. Hruška, ing V. Šoková). V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do grantových projektů (včetně mezinárodních). Je zde rovněž možnost úzké spolupráce s různými zahraničními partnery VeriFIT: TU Wien, Rakousko (dr. F. Zulleger); Uppsala University, Švédsko (prof. P.A. Abdulla, prof. B. Jonsson, dr. Rummer); Verimag, Grenoble, Francie (dr. R. Iosif); IRIF, Paříž, Francie (prof. A. Bouajjani, dr. M. Sighireanu, dr. C. Enea); Academia Sinica, Tchaj-wan (prof. Y.-F. Chen).V rámci tématu se student může také aktivně zapojit do různých grantových projektů, jako je např. projekt GA ČR 16-17538S "Přibližná ekvivalence pro aproximativní počítání", nebo 17-12465S "ROBUST - Verifikace a hledání chyb v pokročilém softwaru".
Školitel: Rogalewicz Adam, doc. Mgr., Ph.D.
V současné době neustále roste důraz na kvalitu, spolehlivost a bezpečnost software. V souladu s tím jsou nemalé prostředky investovány do výzkumu moderních technik analýzy a verifikace programů pomocí nejrůznějších automatizovaných metod, jako jsou systematické testování, dynamická analýza, statická analýza, model checking apod. Tyto techniky jsou přitom rozvíjeny nejen na univerzitách, ale do jejich výzkumu a vývoje investuje řada významných mezinárodních společností (Google, Microsoft, IBM, Red Hat, Honeywell, Facebook apod.). Mezi uvedenými metodami patří testování a dynamická analýza k tradičním, již dlouho nejvíce používaným, ale přesto intenzivně dále rozvíjeným přístupům (o čemž svědčí velký počet článků z dané oblasti prezentovaných na mezinárodních konferencích věnovaných obecně programovacím jazykům a/nebo softwarovému inženýrství i velký počet špičkových mezinárodních konferencí specializujících se na danou oblast).
Náplní tématu je rozvoj stávajících a návrh nových metod dynamické analýzy a inteligentního testování, případně kombinovaných s použitím vhodných statických analýz. Tyto analýzy by přitom měly směřovat nejen k co nejefektivnějšímu vyhledávání chyb, ale také k automatické podpoře procesu řízení software (identifikace problematických komponent, problematických změn, podpora rozhodování o tom, které změny začlenit či nezačlenit do nové verze softwarového produktu apod.).
Předmětem výzkumu bude vývoj nových heuristik pro testování a analýzu, které umožní co nejefektivnější odhalení i vzácně se projevujících chyb (jako jsou např. extrapolující dynamické analýzy, vkládání šumu, či fuzz testování) a které umožní automatické získávání zkušeností z dosud provedených testů či analýz a jejich následné využití pro zdokonalení procesu testování či obecně řízení kvality software. Do této oblasti spadá vhodné využití statistických analýz, strojového učení či technik dolování z dat. Předmětem výzkumu je přitom nejen návrh nových technik z dané oblasti, ale také jejich prototypová implementace a experimentální ověření na vhodných případových studiích.
Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT testováním a dynamickou analýzou software, zejména dr. A. Smrčkou, u něhož se předpokládá role školitele specialisty, a dále dr. B. Křenou, dr. J. Fiedorem či T. Fiedorem. Práce naváže na zkušenosti skupiny VeriFIT s nástroji jako ANaConDA či Perun.
V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do grantových projektů (např. TAČR Aufover řešený ve spolupráci s Honeywell a Red Hat, nový český projekt GAČR Snappy, evropský projekt ECSEL Arrowhead Tools či evropský projekt ECSEL Valu3S, bude-li přijat). Je zde rovněž možnost úzké spolupráce jednak s různými průmyslovými partnery FIT, např. Honeywell či Red Hat, tak také zahraničními partnery VeriFIT: např. dr. Joao Lourenco (Universidade Nova de Lisboa, Portugalsko) či řada partnerů zapojených do projektů Arrowhead Tools či Valu3S.
Školitel: Vojnar Tomáš, prof. Ing., Ph.D.
Tématem práce je propojení prostředí pro modelování inteligentních systémů s nástroji pro vytváření a provádění simulačních modelů. Doktorand by se měl orientovat zejména na otevřené otázky robotiky, jako jsou například společné plánování, řešení konfliktů a koordinace, a zkoumat jejich řešení právě s využitím simulačních nástrojů jako jsou PNtalk nebo TMass. Výsledkem by měla být analýza problematiky, řešení některých problémů a demonstrace přínosu modelování pro jejich řešení.
Školitel specialista: Ing. Radek Kočí, Ph.D.
Řídící systémy ICS (Industrial Control Systems) se používají pro řízení a monitorování průmyslových procesů a zařízení v oblasti energetiky, strojírenství, dopravy, apod. V minulosti tato komunikace probíhala po oddělených sériových sběrnicích, dnes dochází k přechodu nad IPv4/IPv6 a propojení na Internet. S tím souvisí i otázka bezpečnostního monitorování ICS komunikace, která zahrnuje jednak viditelnost komunikace v síti, a jednak analýzu monitorovacích dat v souvislosti s detekcí neobvyklých událostí jako jsou útoky na ICS komunikaci, nefunkční či špatně komunikující zařízení, apod. Narozdíl od komunikace na Internetu bezpečnostní monitorování a analýza ICS komunikace je teprve v začátcích. Téma se zaměřuje převážně na zpracování monitorovacích dat pro potřebu zvýšení viditelnosti chování sítě, a dále na vývoj a použití metod pro detekci anomálií. Toto bude zkoumáno ve spolupráci s partnery výzkumného projektu IoT Monitoring and Forensics (BONNET). Školitel specialista: Ing. Petr Matoušek, Ph.D., M.A.
Tato práce je zaměřena na zvyšování kvality fotoakustických obrazů cévního řečiště v prsní tkání pomocí umělé inteligence. Tyto artefakty vznikají několika způsoby: (1) pohybem snímané osoby, např. dýcháním, (2) nedokonalým pokrytím prostoru pomocí detektorů, (3) variabilitou frekvenční a směrové odezvy jednotlivých detektorů, (4) nestabilitou prostředí, např změnou teploty, (5) numerickou metodou výpočtu.V současné době je nutné z fotoakustických dat vytvořit finální obraz, což trvá hodiny a teprve potom jsou odstraňovány artefakty. Našim cílem je detekovat tyto artefakty v surových datech. Druhou oblastí využití umělé inteligence je dopočítání obrazu z podvzorkované varianty a tím značné ušetření výpočetní kapacity.
Školitel: Herout Adam, prof. Ing., Ph.D.
Komunikační sítě kritické infrastruktury zahrnují například energetické přenosy, jejichž výpadek může mít výrazný dopad na průmysl a velké skupiny obyvatel. Jedním z hlavních úkolů kybernetické bezpečnosti je detekovat útoky na řídící komunikaci kritické infrastruktury s cílem zajistit její odolnost a spolehlivost. Výzkumné téma se konkrétně zaměří na automatizované monitorování řídící komunikace v energetických sítích, zajištění viditelnosti přenosů a pokročilého zpracování monitorovaných dat pro detekci kybernetických hrozeb. Při řešení se budou využívat postupy zavedené v IT sítích, které budeme aplikovat do prostředí průmyslových přenosů OT (Operational Technologies). Cílem práce bude popsat vzory chování různých typů kybernetických útoků, navrhnout metody a postupy pro jejich identifikaci a detekci, a ověřit jejich účinnost. Téma bude řešeno v rámci národního centra kompetence pro kyberkriminalitu. Školitel specialista: Ing. Petr Matoušek, Ph.D., M.A.
Tématem disertační práce bude výzkum problematiky získáváním znalostí z rozsáhlých databází (big data), který bude zaměřený na netradiční přístupy, především pak na aplikaci teorie hrubých množin při získávání asociačních pravidel. Postup práce by měl být následující:
Školitel: Zbořil František, doc. Ing., CSc.
Konečné automaty patří k jedněm z nejdéle studovaných formalismů. Pro operace nad konečnými automaty existuje řada dobře známých algoritmů. Mnoho z těchto algoritmů, které se běžně vyučují, ale selhává, pokud jsou aplikovány na velmi rozsáhlé automaty (se stovkami tisíc, miliony či více stavy, komplikovanými přechodovými relacemi či rozsáhlými abecedami). Ukazuje se ovšem, že takové automaty dnes reálně vznikají v řadě aplikací, např. v oblasti vyhledávání dle regulárních výrazů (s mnoha zahrnutými alternativami, rozsáhlou abecedou, repetičními omezeními atd.), v oblasti hardwarově akcelerovaného vyhledávání dle regulárních výrazů, v abstraktní interpretaci či dalších metodách formální verifikace, rozhodovacích procedurách apod. K úspěšnému zvládnutí práce s takovými automaty je, zdá se, vhodné nahradit klasické algoritmy více heuristickými přístupy, které by mohly posunout efektivitu práce s automaty výrazně dále podobně, jak se stalo v oblasti řešení SAT či SMT problémů. Řada takových algoritmů se v poslední době již v literatuře objevila, přičemž výzkumníci ze skupiny VeriFIT z FIT VUT se na mnoha z nich aktivně podíleli. V dané oblasti ovšem nadále zůstává řada otevřených otázek a mnoho prostoru ke zdokonalování současných řešení tak, aby byly použitelné na opravdu rozsáhlé problémy.
S ohledem na výše uvedené je cílem práce významně posunout současný stav poznání ve světě v oblasti efektivních algoritmů pro práci s rozsáhlými konečnými automaty a jejich různými rozšířeními (stromové automaty, automaty s omezenými čítači, alternující konečné automaty apod.). Studované algoritmy budou inspirovány potřebami různých aplikačních oblastí, které konečné automaty používají, zejména pak potřebami vyhledáváním podle regulárních výrazů (ať již implementovaného v software či hardwarově akcelerovaného), abstraktní interpretace používající automaty k reprezentaci množin dosažitelných konfigurací (např. programů pracujících nad řetězci) a rozhodovacích procedur různých logik (např. logik nad řetězci). Budou studovány algoritmy potřebné např. pro redukci nedeterministických automatů, ověřování inkluze nad nimi, aproximující redukci (vedoucí na automaty s nad-aproximovaným jazykem), algoritmy pro tzv. regulární model checking a jeho aplikace, algoritmy pro učení se automatů ze vzorků apod.
Vyvinuté algoritmy mohou být reálně aplikovány ve spolupráci s různými partnery skupiny VeriFIT, kteří o takové algoritmy mají zájem a s VeriFIT již v dané oblasti aktivně spolupracují. Jedná se např. o Microsoft Research, Honeywell či skupiny ANT@FIT a NES@FIT.
Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT rozvojem technik pro práci s automaty, logikami a jejich aplikacemi. Jedná se zejména o dr. L. Holíka, u něhož se předpokládá role školitele-specialisty, dr. O. Lengála, doc. A. Rogalewicze či dr. M. Češka jr.
V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do řady grantových projektů, jako jsou např. projekty GA ČR AutoDev a Snappy, ERC CZ Finiting, ale také TA ČR Aufover. Je zde rovněž možnost úzké spolupráce s různými zahraničními partnery VeriFIT: Uppsala University, Švédsko (prof. P.A. Abdulla, prof. B. Jonsson, dr. P. Rümmer); Verimag, Grenoble, Francie (dr. R. Iosif), IRIF, Paříž, Francie (prof. A. Bouajjani, dr. M. Sighireanu, dr. C. Enea), Academia Sinica, Tchaj-wan (prof. Y.-F. Chen), TU Vienna, Rakousko (dr. F. Zuleger), University of Oxford, Velká Británie (dr. A.W. Lin), TU Braunschweig, Německo (prof. R. Meyer) či School of Informatics, University of Edinburgh, Velká Británie (prof. R. Mayr).
Téma je zaměřeno na algoritmy embedded zpracování obrazu, videa a/nebo signálu. Hlavním cílem je zkoumat možnosti "chytrých" a "malých" zařízení, která by měla nové vlastnosti, a bylo možné je efektivně nasadit do aplikací vyžadujících malé, skryté, distribuované, nízkopříkonové, mechanicky nebo klimaticky namáhané jednotky schopné zpracovávat signálové vstupy. Nasazení takových jednotek je perspektivní a široké a předpokládá se i propojení do klient/server a/nebo cloud systémů. Samotné jednotky mohou být založeny na efektivním CPU/GPU/DSP, na programovatelném hardware, případně na kombinaci těchto technologií. Může se jednat i o smart kamery. Aplikace, které jsou v oblasti zájmu tohoto tématu:
Je možnost spolupráce i na grantových projektech, zejména na nově podávaných projektech TAČR, H2020, ECSEL (potenciálně možnost stipendia či pracovního poměru).
Cílem disertační práce je výzkum v oblasti extrakce informací z textu se zaměřením na metody strojového učení aplikovatelné v této oblasti. Součástí bude i realizace extrakčního systému, který bude možné využít pro zpracování rozsáhlých webových dat, získaných např. v projektu CommonCrawl.
Problematika identifikace a extrakce konkrétních informací z dokumentů na WWW je již delší dobu předmětem intenzivního výzkumu. Mezi základní překážky, které je třeba překonat, patří nedostatečná strukturovanost HTML dokumentů a absence metainformací (anotací) využitelných pro rozpoznání významu jednotlivých částí obsahu. Tyto chybějící informace jsou proto nahrazovány analýzou různých aspektů webových dokumentů, zejména následujících:
Pro úspěšnou extrakci konkrétní informace z dokumentů je rovněž nezbytná doménová znalost zahrnující očekávanou strukturu extrahované informace (vztahy mezi jednotlivými extrahovanými položkami) a způsob zápisu jednotlivých položek. Tato znalost umožňuje přesnější rozpoznání jednotlivých částí informace v textu dokumentu.
Současné přístupy k extrakci informací z webových dokumentů se soustřeďují zejména na modelování a analýzu dokumentů samotných; modelování extrahované informace za účelem jejího přesnějšího rozpoznání nebylo dosud podrobněji zkoumáno v tomto kontextu. Předpokládaným cílem disertační práce jsou proto následující:
Nedílnou součástí je rovněž experimentální implementace navržených metod s využitím existujících nástrojů a experimentální ověření na reálných dokumentech dostupných na WWW.
Školitel: Burget Radek, doc. Ing., Ph.D.
Řešení tohoto projektu bude vycházet ze stávajících poznatků o formálních systémech distribuovaného výpočtu. Cílem je konstrukce a výzkum nových automatových a gramatických systémů, které adekvátním způsobem odrážejí potřeby moderních výpočetních metod založených na distribuci. Aplikace těchto systémů se budou soustředit na modelování a výzkum organismů v molekulární biologii a překladačích.
Školitel: Meduna Alexandr, prof. RNDr., CSc.
Řešení tohoto projektu bude vycházet ze stávajících poznatků o formálních systémech paralelního výpočtu. Cílem je konstrukce a výzkum nových automatových a gramatických systémů, které adekvátním způsobem odrážejí potřeby moderních výpočetních metod založených na distribuci. Aplikace těchto systémů se budou soustředit na modelování a výzkum organismů v molekulární biologii a překladačích.
Téma je vypsáno jako součást běžícího projektu BONNET. V rámci projektu, i potom interní grantové agentury je možné získat finanční odměnu.
Současná věda stále více spoléhá na vysoce výkonné počítače provádějící náročné simulace. Náročnost těchto simulací nespoléhá pouze v množství dat a operací které je nutné vykonat, ale i v možnostech jednotlivých simulačních frameworků zahrnující různé fyzikální a numerické modely, ohraničující podmínky, typy prostředí atd. Tato variabilita vede ke stovkám různých simulačních scénářů skládajících se z tisíců dílčích úloh. V tomto momentě naráží klasické datově paralelní implementace na své meze, neboť rozhodovací logika daleko převyšuje logiku výpočtu.Druhým úskalím je architektura současných superpočítačových systémů. Již více než dekádu se nejedná o uniformní systémy složený z homogenních prvků s homogenním propojením. Současný trend jsou silně heterogenní architektury složené s vícejádrových procesorů a různých akcelerátorů, např. GPU, FPGA, Xeon Phi. Optimalizace komplexních frameworků pro tyto architektury a následné vyvažování zátěže se stává limitujícím prvkem. Cílem této disertační práce je prozkoumat techniky funkčního paralelismu a návrh automatizovaných simulačních platforem umožnující distribuci výpočtu na vhodné hardwarové komponenty.
Cílem práce je generování různých poškození do syntetických otisků prstů a analýza jejich kvality. Práce bude sestávat z(e):
Školitel: Drahanský Martin, prof. Ing., Ph.D.
Praca sa zameriava najma na analyzu postrannych kanalov HW penazeniek ale aj SW zranitelnostami protokolu, ktory sa vyuziva na komunikaciu medzi penazenkou a klientskou stanicou. Do uvahy pripada model utocnika, ktory odcudzil penazenku, ale aj model utocnika, ktory ma pristup ku klientskej stanici kam sa penazenka pripaja pomocou USB, bluetooth, etc. Hardware pre projekt bude objednany, uvazujeme na nasledovnych penazenkach: Trezor One/T, CoolBitX, Ellipal, Ledger Nano S, etc.Skolitel-specialista prace je Ivan Homoliak.
Hluboké konvoluční sítě jsou jasným trendem posledních let v oblasti strojového účení pro analýzu obrazu. V úlohách s velmi omezenou a specifickou datovou sadou, kdy není dostatečné využít augmentace dat nebo koncepce GAN sítí, je však jejich nasazení stále problematické.Cílem disertační práce je zkoumat, analyzovat a hledat nové architektury hlubokých konvolučních sítí a přístupů k jejich učení pro takové úlohy analýzy obrazu, ve kterých je velikost anotované datové sady extrémně malá a nebo se postupně rozrůstá. Pro naučení neuronových sítí je možné využít neanotovaných dat případně částečně anotovaných dat ve formě uživatelského vstupu.Součástí práce bude i aplikace zkoumaných metod v rámci projektů, na jejichž řešení se školitel podílí.
Školitel: Španěl Michal, doc. Ing., Ph.D.
Hluboké neuronové konvoluční sítě jsou jasným trendem posledních let v oblasti strojového účení pro analýzu obrazu. Konvoluční neuronové sítě je také možné využít pro analýzu 3D obrazu, kdy sít využívá 3D konvoluce. Tento přístup je však problematický z pohledu značných výpočetních a paměťových nároků.Cílem disertační práce je zkoumat, analyzovat a hledat nové architektury hlubokých neuronových sítí a přístupů k jejich efektivnímu učení pro úlohy rozpoznávání 3D tvaru objektů, kdy datovou sadu tvoří různé reprezentace - např. polygonální 3D modely, voxelová reprezentace, apod.Součástí práce bude i aplikace zkoumaných metod v rámci projektů, na jejichž řešení se školitel podílí.
Práce je zaměřena na problematiku modelování a syntézy hybridních výpočetních architektur. Jedná se o systémy, ve kterých jsou jednotlivé úlohy implementovány jako systémy na čipu (SoC, FPGA) pomocí univerzálních či specializovaných procesorů, IP jader a programovatelné logiky. Cílem je zvýšení produktivity při návrhu, optimalizace příkonu a spotřeby energie výsledného obvodu při zachování výkonnosti, případně zvýšení výsledné výkonnosti.
Hlavní cíl práce je hledání možností modelování hybridních architektur a jejich automatizované syntézy a dále pak vypracování metodiky jejich efektivní implementace.
Předpokládá se práce v jazycích C a VHDL, případně v jazycích vycházejících z notace jazyka C, které byly adaptovány pro popis HW (např. SystemC, SystemVerilog apod.). Výsledky práce budou demonstrovány na vhodné výpočetní platformě (např. ZYNQ firmy Xilinx) a aplikaci (např. analýza obrazu či číslicové zpracování signálů ze senzorických polí).
Existuje možnost zapojení se do práce na grantech s možností stipendia, případně i pracovního poměru.
Doktorand v prezenční formě studia bude zapojen do výuky podle potřeb ústavu a fakulty.
Školitel: Fučík Otto, doc. Dr. Ing.
Cílem této disertační práce je návrh a implementace softwaru pro vyhodnocování naměřených dat dutin válcového průřezu. Na základě naměřených dat vytvoří aplikace počítačový model dutiny, ve kterém pak bude hledat poškozená či jinak problematická místa. Systém bude schopen na základě minulých měření predikovat vývoj tohoto místa v budoucnu, za stejných podmínek užívání zařízení obsahujícího měřenou dutinu válcového průřezu (např. hlaveň vojenských zbraní). Zařízení je k dispozici + lze osadit dalšími senzory dle požadavků. Výzkum může být rozdělen do následujících etap:
Trendem výrobního průmyslu je zavádění kolaborativních robotů do výroby, což umožňuje bližší spolupráci člověka s robotem. Cílem je zefektivnit výrobu využitím robotů na opakované činnosti a pracovníka na činnosti složité, jejich robotizace by byla příliš nákladná a málo škálovatelná. Tento trend přináší nové problémy, jak s roboty efektivně komunikovat: mít představu o stavu robota a jeho chápání situace a snadno a přirozeně robota řídit a programovat. Cílem této práce je zkoumat nové možnosti komunikace člověka s robotem s využitím moderních technologií a zařízení. V rámci řešení je potřeba:
Školitel: Beran Vítězslav, doc. Ing., Ph.D.
Téma je vypisováno jako volné, není přímo navázané na projekt. Nicméně při kvalitní publikační činnosti lze získat jak mimořádné, tak pravidelné příjmy navíc jak z interní grantové agentury, tak z dalších zdrojů.Téma se dotýká dnes běžných záležitostí, kdy pokročilé vývojové prostředí "radí" programátorovi, jak udělat nějaký kód lépe (např. kratším zápisem, bezpečnější, eliminovat "zbytečnosti", apod.). Jedná se typicky o analýzu známých konstrukcí a obratů, analýzu mrtvého kódu, podobnosti (kdy dva různé zápisy vedou na stejný cílový kód), apod.Cílem je zdokonalit dané techniky prostřednictvím souběžného použití několika technik tak, aby ve zvoleném směru (např. bezpečnost kódu, přehlednost kódu, vhodnost pro ladění, apod.) bylo možné kód upravit/vylepšit.Bude nutná znalost z oblasti překladačů a to i reverzních, klasifikace, získávání znalostí z dat, umělé inteligence apod.
Konverzační agenti se pomalu stávají běžnou součástí rozhraní pro (prvotní) komunikaci se zákazníkem a odpovídání na jeho otázky. Výzkum v oblasti počítačového zpracování přirozeného jazyka se zaměřuje na vytvoření automatické klasifikace prvotní komunikace a, zejména, otázky uživatele, do předem daných tříd, k nimž existují konkrétní texty. Není však uspokojivě vyřešeno rozšiřování "znalostí" komunikačních agentů při aktualizaci strukturovaných dat, případně při přidání dalších textových materiálů.Cílem disertační práce je rozvinout existující přístupy využívající obrovské kolekce neanotovaných textových dat a způsoby kombinování strukturované a nestrukturované znalosti a optimalizace procesů při rozšiřování funkcionality stávajících i nových konverzačních agentů. Součástí práce bude i aplikace zkoumaných metod v rámci evropských projektů, na jejichž řešení se školitel podílí.
Projekt se zabývá metrikami pro odhad vizuální kvality obrazu a videa. Cílem práce je výzkum nových metod, které by odstranily některé nedostatky existujících metrik zejména s ohledem na vlastnosti vizuálního vnímání člověka. V úvahu přicházejí např. problémy z oblasti vjemu HDR obrazu a využití přídavných informací (metadata, 3D, atd.) o testovaných scénách pomocí metod strojového učení (např. neuronových sítí).
Školitel: Čadík Martin, doc. Ing., Ph.D.
Projekt se zabývá pokročilými metodami zpracování a editace obrazu. Cílem práce je výzkum nových metod s využitím strojového učení, zejména hlubokých konvolučních neuronových sítí.
Přesná simulace taktického chování člověka vyžaduje dostupnost modelu lidského rozhodovacího procesu. Náplní tezí bude výzkum škálovatelných architektur modelů chování kombinujících přístupy strojového učení a doménové expertní znalosti pro spektrum požadavků na chování v různých taktických scénářích. Důležitým aspektem návrhového procesu bude ladění a validace modelu taktického rozhodování.
Školitel: Chudý Peter, doc. Ing., Ph.D., MBA
Řešení tohoto projektu bude vycházet ze stávajících poznatků o metodách překladu jazyků a poznatků o systémech formálních modelů, zejména překladových gramatik a automatů. Cílem je konstrukce a výzkum metod překladů založených na takovýchto systémech a to tak, aby nové metody adekvátním způsobem odrážejí potřeby moderních kompilátorů. Aplikace těchto systémů se budou soustředit na překladače.
V jádru současných metod hlubokého strojového učení leží spojité vektorové reprezentace, které si neuronové sítě samy budují během trénování. Ačkoli empiricky dosahují neuronové sítě často vynikajících výsledků, znalosti a pochopení získaných reprezentací jsou nedostatečné. Úkolem této disertační práce bude studovat neuronové reprezentace pro jednotky textu a řeči různého rozsahu (od fonémů a písmen až po proslovy a dokumenty) a reprezentace získané pro izolované úlohy i více úloh současně (multi-tasking):
Školitel: Burget Lukáš, doc. Ing., Ph.D.
Umělé neuronové sítě (ANN) a tzv. hluboké neuronové sítě se v poslední době hojně používají v komplexních úlohách klasifikace, predikce a rozpoznávání. Jejich hlavní nevýhodou je však vysoká výpočetní a energetická náročnost. V oblasti aproximativního počítání (approximate computing) jsou hledány alternativní nízkopříkonové obvodové implementace těchto sítí, které by byly použitelné i v systémech s omezenými energetickými zdroji, jako jsou např. uzly IoT. Cílem disertační práce bude zkoumat možnosti aproximace jednotlivých komponent ANN a docílit přijatelného kompromisu mezi kvalitou a energetickou náročnosti výpočtu. Bude se jednat zejména o aproximace aritmetických operací při násobení vstupu konstantou, aproximace aktivačních funkcí, konvolučních operací a přístupu do paměti. Výzkum spadá to témat řešených výzkumnou skupinou Evolvable Hardware.
Školitel: Sekanina Lukáš, prof. Ing., Ph.D.
Tématem disertační práce bude systemizace metod a prostředků pro obecné optimalizace (spojité i diskrétní). Postup práce by měl být následující:
Řešení tohoto projektu bude vycházet ze stávajících poznatků teorie formálních jazyků o modelech definující jazyky. Projekt se zaměří na automaty a gramatiky. Cílem je konstrukce a výzkum nových verzí těchto modelů a to tak, aby adekvátním způsobem odrážely potřeby moderní informatiky. Řešení projektu bude rovněž zahrnovat diskuzi aplikací těchto systémů např. v oblasti bezpečnosti.
Cílem této disertační práce je návrh nových metod pro vysoce efektivní vstup a výstup paralelních simulačních algoritmů. Práce klade důraz na distribuci zátěže přes vícenásobné RAID pole, překrývání vstupu a výstupu s výpočtem, offloadování vstupu a výstupu na dedikované uzly, bufferování dat, apt.Výstupem práce bude technika, která na základně aktuálního vytížení výpočetního clusteru a požadavků simulace automaticky navrhne nejvhodnější strategii. Tohoto výsledku bude dosaženo pomocí online sběru a vyhodnocení výkonnostních metrik a technik umělé inteligence a strojového učení.
Při návrhu hardwarových zařízení je klíčové ověřit správnou funkci navržených obvodů. V návrhovém procesu se dnes používá metodologie funkční verifikace nazývaná UVM, která je postavena na jazyku System Verilog. Jedná se o simulaci obvodu s řízeným generováním vstupních dat a automatickým ověřováním výstupů. Klíčovým problémem je dosažení dostatečného pokrytí kódu, stavů nebo funkce analyzovaného obvodu v co nejkratším čase. Cílem práce je proto hledat pro hardwarové architektury z oblasti počítačových sítí různé metody řízení generátoru vstupních dat, tak aby bylo dosaženo v krátkém čase maximální pokrytí analyzovaného obvodu. Předpokládá se využití krátkých běhů simulace pro vytvoření trénovací sady tak, aby bylo možné následně s využitím technik strojového učení automaticky odvodit složitěší pravidla pro řízení generování vstupních dat a dosažení rychlejšího pokrytí zdrojového kódu a jednotlivých stavů obvodu.
V závislosti na nasazení síťových zařízení se liší konfigurace, pravidla a další parametry síťových zařízení. Aby byla zařízení obecně použitelná, jsou v dnešních síťových zařízeních používány algoritmy nebo hardwarové architektury navržené na nejhorší parametry cílového prostředí. S využítím znalosti parametrů cílového nasazení je ale možné architektury optimalizovat na hardwarové zdroje, spotřebu nebo rychlost zpracování dat. Cílem práce je proto využít technik strojového učení pro optimalizaci hardwarových architektur pro zpracování síťového provozu s ohledem na cílové nasazení. Strojové učení bude použito pro vytvoření klasifikátorů, které určí na základě požadovaných vlastností, použitých pravidel a konfigurace parametry výsledné hardwarové architektury. Klasifikátor tak může s ohledem na cílové nasazení optimalizovat architektury pro chytré síťové karty (SmartNICs) v závislosti na cílovém nasazení.
Cílem této disertační práce je tvorba řešiče Maxewllových rovnic pro aplikace v medicínských zobrazovacích technikách (MR). Numerické řešení Maxwellových rovnic bude založeno na technice k-Wave (korigovaná pseudospektrální metoda). Vzhledem k rozsahu řešený domén a akceptovatelnému času výpočtu je jedinou možností využití rozsáhlých superpočítačových systémů.Výzkum bude zahájen tvorbou prototypu řešiče v jazyce MATLAB. Po ověření funkčnosti algoritmu dojde k jeho převodu na heterogenní masivně paralelní systémy. Zde očekáváme především multi-GPU systémy jako je Summit a Siera v USA a následně velký klastr v IT4Innovations, který jde do produkce v roce 2020.Základní výzkumnou otázku je zde dosažení maximální rychlosti při zachování akceptovatelné přesnosti.
Počítačem podporovaná syntéza je nový přístup k návrhu systémů, který automaticky transformuje formální specifikaci systému na jeho korektní implementaci. Tento přístup odstraňuje časovou náročnost klasického vývojového procesu, kdy je fáze implementace následována verifikační fází. V posledních letech se v oblasti návrhu systémů objevují nové výzvy související s aplikacemi, které vyžadují kvantitativní usuzování. Jedná se například o syntézu pravděpodobnostních programů či modelů, aproximované výpočty, nebo konstrukce biochemických modelů. Současné techniky syntézy však kvantitativní usuzování dostatečně nepodporují. Výzkumu efektivních metod syntézy je v současnosti věnována značná pozornost v oblastech formální verifikace, návrhu a implementace programovacích jazyků, umělé inteligence a systémové biologie, o čemž svědčí zaměření řady špičkových konferencí (např. CAV, POPL, PLDI či CMSB). Syntézou programů a modelů se rovněž zabývá řada velkých projektů na špičkových universitách a výzkumných institucích (např. Berkeley University či Microsoft Research).
Předmětem disertační práce bude zejména vývoj teoretických základů pro nové škálovatelné metody kvantitativní syntézy. Zaměříme se na využití syntézy řízené syntaxí a na dosud neprozkoumanou oblast spojení pokročilých metod formální kvantitativní analýzy s přístupy založenými na SAT/SMT, prohledávání stavového prostoru a technikami induktivní syntézy. Práce se rovněž zaměří na využití těchto metod v procesu návrhu prakticky relevantních pravděpodobnostních, aproximativních a biochemických systémů, a na důkladné vyhodnocení aplikovatelnosti těchto metod. Výsledky této práce přispějí k pokroku v oblasti automatizace návrhu systémů.
Práce bude řešena ve spolupráci s týmem VeriFIT, zejména s dr. M. Češkou jr. v roli školitele specialisty, který se zabývá automatizovanou analýzou a syntézou pravděpodobnostních a aproximovaných systémů. Dále se počítá s úzkou spoluprací se skupinou prof. J.P. Katoena z RWTH Aachen University, jež patří mezi nejlepší vědecké týmy v dané oblasti.
V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do grantových projektů (např. nové české projekty GAČR Caqtus a Snappy či evropský projekt ECSEL Arrowhead Tools).
Trendem výrobního průmyslu je zavádění kolaborativních robotů do výroby, což umožňuje bližší spolupráci člověka s robotem. Tento trend přináší nové problémy v efektivní komunikaci robota s člověkem, tj. jak synchronizovat činnost člověka s činností robota, který má za úkol s člověkem na řešení úlohy spolupracovat. Cílem této práce je zkoumat nové možnosti v oblasti vnímání činnosti člověka robotem, synchronizace činností pomocí vhodné percepce a vizualizace stavu spolupráce mezi člověkem a robotem. V rámci řešení je potřeba:
Tématem jsou algoritmy počítačové grafiky a syntézy obrazu. Hlavním cílem je zkoumat nové a moderní algoritmy počítačové grafiky, související datové struktury, související otázky získávání a zpracování 3D modelů a další aspekty algoritmů tak, aby bylo lépe rozumět jejich vlastnostem a možnostem, zlepšovat a připravovat nové. Předpokládá se práce v jazyce C, C++, C#, assembleru, případě i jiných jazycích. Bude-li zájem, je možno pracovat i na paralelních CPU jádrech x86/64, ARM, Xeon PHI, GPU apod. v OpenCL, CUDA, v FPGA ve VHDL, případně i jinak. Možné algoritmy zahrnují:
Je možnost spolupráce i na grantových projektech, zejména na nově podávaných projektech TAČR, H2020, ECSEL (možnost stipendia či pracovního poměru).
V posledních letech bylo ukázáno, že volbou vhodné reprezentace a postupu hledání přechodových pravidel je možné navrhovat složité vícestavové celulární automaty, jejichž chování bylo zatím nedosažitelné existujícími technikami. Nové výzkumy naznačují, že tyto postupy je možné dále vylepšovat a dosáhnout tak zefektivnění procesu návrhu či zcela nových řešení vybraných problémů poskytnutých výsledným celulárním automatem. V rámci disertační práce se předpokládá extensivní výzkum vybraných tříd celulárních systémů a hledání nových metod vedoucích k optimalizaci jejich návrhu či samotných výpočtů úloh, které na nich budou realizovány. Za možné směry lze uvažovat též akcelerace výpočtů pomocí superpočítačů, jednotek GPU, případně FPGA.Školitel specialista: Ing. Michal Bidlo, Ph.D.
Projekt se zabývá pokročilými metodami syntézy obrazu. Cílem práce je výzkum nových metod pro fotorealistické (fyzikálně založené) i nefotorealistické (NPR) simulace světelné interakce ve scéně. Předpokládá se intenzivní spolupráce a stáže na špičkových institucích a firmách v oboru (Adobe, USA, MPII Saarbrücken, Německo, Disney Curych, Švýcarsko, INRIA Bordeaux, Francie).
Projekt se zabývá pokročilými metodami výpočetní fotografie. Cílem práce je výzkum nových metod pro výpočetní fotografii, což zahrnuje zejména softwarové řešení, které může být případně dále kombinováno s novou optikou a dalším hardware. Mezi oblasti výzkumu patří zpracování HDR obrazu a videa, převod barevného obrazu na černobílý, spektrální obraz, atd.
Vývoj systémů založený na modelech (MBD) je v současnosti do jisté míry méně akcentovanou oblastí IT, jelikož je svým rigorózním přístupem pravým opakem dnes prosazovaného agilního vývoje software. Ovšem bez této metodologie by nebylo možné vyvíjet bezpečnostně-kritické systémy, u kterých musí být zajištěna jejich správná funkcionalita ve všech možných situacích. Díky rigoróznímu postupu je ale vývoj těchto systémů značně pomalý a náročný na prostředky. Snahy, jak celý proces urychlit, jsou vidět ve všech fázích vývoje - od specifikace a validace požadavků, přes návrh architektury, generování kódu, jeho testování a verifikaci, až po certifikaci výsledného produktu.
Velkým problémem a zároveň výzvou je, že jednotlivé fáze vývoje jsou úzce provázané, např. pro automatizaci testování a verifikace je potřeba mít strojově zpracovatelné požadavky a architekturu systému, jinak nebude možné odvodit, co vlastně testovat a verifikovat. Tato provázanost vyžaduje znalosti z různých oblastí vývoje a analýzy zároveň, zatímco jak výzkum, tak existující řešení obvykle cílí pouze na jednu konkrétní fázi a vybrané problémy v rámci této fáze. S ohledem na to bude cílem výzkumu vyvinout nové přístupy pro návrh a analýzu systémů využívající data z různých fázi vývoje, případně rozšířit existující přístupy o využití dat z jiných fází. Práce by se měla zaměřit na problémy, které se aktuálně řeší v průmyslu a které zahrnují: nové přístupy pro specifikaci požadavků a systémů usnadňující analýzu a verifikaci, nové metody analýzy a verifikace modelů, metody pokročilého testování založené na modelech, metody pro ověřování ekvivalence modelu a z něj vygenerovaného kódu či pro odvozování modelů na různých úrovních abstrakce.
Řada velkých technologických společností v oblasti avioniky a automobilového průmyslu (např. Honeywell, AIRBUS, Boeing, Thales, Volvo Cars, ANSYS, MathWorks, ObeoSoft, Dassault, DRisQ) vynakládá nemalé prostředky na výzkum a vývoj v této oblasti.
Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT automatizovanou analýzou a verifikací s využitím statických i dynamických metod analýzy a verifikace, jak v podobě formální verifikace, tak i zaměřených na vyhledávání chyb. Předpokládá se zejména úzká spolupráce s dr. J. Fiedorem, u něhož se předpokládá role školitele specialisty, a dále dr. A. Smrčkou, doc. A. Rogalewiczem, dr. O. Lengálem, dr. L. Holíkem či dr. M. Češkou jr. Předpokládá se rovněž úzká spolupráce s firmou Honeywell, kterou zprostředkují zejména dr. J. Fiedor a dále B. Hall (Engineering Fellow, Advanced Technology, Honeywell). Dalším potenciálním průmyslovým partnerem je firma ANSYS z Francie. Podle zaměření práce je pak také pravděpodobná spolupráce s výzkumnými partnery firmy Honeywell, např. prof. Dov Dovi z MIT/Technion v oblasti aplikace formalismu OPM (prof. Dori je autor tohoto formalismu, jenž je nyní také ISO standard) nebo prof. Gopal Gupta z University of Texas v Dallasu, jenž vede špičkovou výzkumnou skupinu v oblasti využití logik pro analýzu systémů (logical reasoning).
V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do grantových projektů (např. TAČR Aufover řešený ve spolupráci s Honeywell a Red Hat, nový český projekt GAČR Snappy, evropský projekt ECSEL Arrowhead Tools či evropský projekt ECSEL Valu3S, bude-li přijat).
Vybrané publikace mimo databázi FIT VUT:
Praktické rozhodování u BDI systému je založeno na průběžném budování modelu záměrů agenta a následném provádění tohoto modelu. Původní výpočetní systém BDI agentů, systém AgentSpeak(L) nechával prostor pro další specifikaci některých výpočetních kroků, jakými jsou volba z více možných prostředků k dosažení cílů, volba záměrů k vykonání či volba substitucí při provádění formálních odvozování. Právě na hledání preferencí při výběru prostředků a záměrů se bude soustředit práce v rámci tohoto zadání. Výsledkem má být systém, jehož praktické rozhodování bude vykazovat vyšší míru racionality než vykazují v současnosti existující řešení BDI systémů.
Evoluční návrh je často prováděn pomocí genetického programování a jeho moderních technik, jakými jsou např. sebemodifikace kódu, sémantikou řízené genetické operátory, koevoluce a pokročilé metody reprezentace a evaluace kandidátních řešení. Cílem projektu je navrhnout a implementovat systém genetického programování, který bude využívat několik takových technik současně. Na úlohách zejména z oblasti návrhu obvodů, hlubokých neuronových sítí, aproximativního počítání a symbolické regrese bude experimentálně vyhodnocována účinnost jednotlivých technik a jejich kombinací. Výzkum spadá to témat řešených výzkumnou skupinou Evolvable Hardware.
Aktorový model je alternativou k objektovému přístupu na kterém jsou založeny stávající informační systémy. K jejich hlavním nedostatkům patří: neschopnost souběžnosti (concurrency), paralelizace a tím i masivního škálování informačního prostředí, potřebného pro koncept "Průmyslu 4.0". Dále současné systémy nejsou schopny absorbovat ve větším rozsahu prvky strojového učení, neboť jejich procesy jsou "natvrdo" zakódované (můžeme mluvit o "zombie procesech") a není možné je bez nákladných zásahů konzultantů měnit. Požadavkem zákazníků jsou "chytré" firemní procesy - schopné rekonfigurace na základě aktuálních potřeb a učení se z minulých průběhů. Cílem práce je návrh a otestování firemního kyberfyzického prostředí radikálně zvyšujícího firemní efektivitu.
Bezpečnost veřejnosti, ochrana soukromí a životního prostředí představují nejdůležitější oblasti zájmu jednotlivých vládních agentur. Rozsáhlé společenské přijetí provozu civilních bezpilotních létajících systémů (UAS) je podmíněno prokázáním jejich souladu s národními, regionálními a mezinárodními předpisy a politikami.
Současný výzkum je zaměřen na určení technických, správních a legislativních výzev provozu UAS. Výzkum v rámci tezí bude zacílen na vytvoření návrhu komplexního řešení řízení bezpilotních prostředků (UTM) s využitím analýzy velkých dat. Samotný návrh UTM zohlední intarakci a integraci do stávajících a budoucích systémů řízení letového provozu.
V rámci tezí budou pro podporu realizace výzkumu zpřístupněny zdroje předních světových organizací, například ICAO a JARUS, a také součinnost s jejich vedoucími představiteli a experty.
Obecným cílem výzkumu v rámci zadání je výrazně posunout vpřed současný stav poznání ve světě v oblasti statické analýzy programů, a to jak v oblasti principů, tak i nástrojů alespoň potenciálně využitelných v praxi.
Statická analýza postavená na formálních základech je moderním a rychle se rozvíjejícím přístupem k ověřování korektnosti počítačových systémů, resp. pro vyhledávání chyb v nich. Existuje a dále se rozvíjí mnoho přístupů k takové analýze či verifikaci: analýza toku dat, pokročilé typové analýzy, abstraktní interpretace, model checking apod. Značná pozornost je těmto přístupům věnována nejen v akademické oblasti, ale také řadou špičkových velkých průmyslových společností (např. Facebook, Google, Amazon, Apple, Microsoft, Oracle, Red Hat apod.) i neustále vznikajících specializovaných firem (např. Coverity, GrammaTech, AbsInt, DiffBlue apod.). Přes tento zájem univerzit i průmyslových společností je však v oblasti statické analýzy stále zapotřebí vyřešit celou řadu teoretických i praktických problémů. Jedním z těchto problémů, na který by se měla práce zaměřit, je škálovatelnost, a to i pro hlubší analýzy, které se zaměřují na komplexní datové či řídicí struktury. Na oltář škálovatelnosti by ale neměla být obětována přesnost analýzy - jde tedy o nalezení vhodné rovnováhy mezi přesností (tj. počtem falešných hlášení) a efektivností.
Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT automatizovanou analýzou a verifikací, zejména pak doc. A. Rogalewiczem, dr. L. Holíkem, dr. O. Lengálem, dr. P. Peringerem, Ing. T. Fiedorem, Ing. M. Hruškou, Ing. V. Šokovou či Ing. V. Malíkem. Je zde rovněž možnost úzké spolupráce s různými zahraničními partnery VeriFIT: Uppsala University, Švédsko (prof. P.A. Abdulla, prof. B. Jonsson, dr. Rümmer); Verimag, Grenoble, Francie (dr. R. Iosif), IRIF, Paříž, Francie (prof. A. Bouajjani, dr. M. Sighireanu, dr. C. Enea, dr. P. Habermehl), Academia Sinica, Tchaj-wan (prof. Y.-F. Chen), TU Vienna, Rakousko (dr. F. Zuleger), TU Kaiserslautern, Německo (prof. A.W. Lin) či TU Braunschweig, Německo (prof. R. Meyer). Téma je zajímavé také z pohledu spolupráce s průmyslovými společnostmi, zejména pak DiffBlue z Velké Británie (dr. P. Schrammel), která vyvíjí mj. statický analyzátor 2LS, do jehož vývoje se již tým VeriFIT zapojil v několika oblastech. Dalšími možnými průmyslovými partnery jsou např. Red Hat, Honeywell či Facebook.
V oblasti statické analýzy programů dosáhla skupina VeriFIT mnoha originálních výsledků publikovaných na špičkových konferencích (např. v oblasti analýzy programů s dynamickými datovými strukturami, parametrickými datovými strukturami, neomezenými poli, řetězci či parametrickým počtem procesů). Řada z dosažených výsledků byla implementována v nástrojích (např. Predator, Forester či 2LS), které získaly řadu ocenění např. na mezinárodní soutěži ve verifikaci software SV-COMP. V nedávné době začali členové skupiny vyvíjet také analyzátory do generických prostředí, jako jsou Facebook Infer či Frama-C.
Konkrétní výzkum v rámci tématu zahrne práci na nových abstraktních doménách vhodných např. pro práci s dynamickými datovými strukturami (včetně např. tzv. překrývaj... úplný popis
Cílem práce je rekonstrukce poničených povrchů CD/DVD/BR/HDD, sestávající z:
Cílem práce je vyhledávat a vytvářet algoritmy, které umožní v reálném čase provozovat rozšířenou realitu na mobilních (ultramobilních) zařízeních. Jedná se především o algoritmy určení/sledování pozice mobilního zařízení v prostoru pomocí počítačového vidění a využitím vestavěných senzorů mobilního zařízení. Dále se práce zaměří na algoritmy zobrazování virtuálních prvků do reálné scény a na aplikace rozšířené reality na mobilním zařízení.
Cílem práce bude vytvoření co nejpřesnějšího modelu kvadrokoptéry a následná tvorba a testování algoritmů řízení letu kvadrokoptéry. Jedním z podcílů práce bude vytvořit platformu pro testování řídicích algoritmů pro vysoce nelineární systémy. Dalším podcílem bude vybavit reálnou kvadrokoptéru takovými senzory, které umožní její bezpečný let ve vnějším i vnitřním prostředí.Školitel - specialista: Ing. Jaroslav Rozman, Ph.D.
Cílem práce je vytvoření spolehlivého porovnávání 2D obličeje s projekcí 3D obličeje, konkrétně:
Anotace se obvykle používají k doplnění informací ke zdroji dat na webunebo k vytváření asociací mezi různými zdroji. Mezi jednoduché příkladypatří komentář nebo značka (tag) na jedné webové stránce. Anotace všakmohou být i strukturované a umožnit doplnění sémantiky k prostému textujeho mapováním na složitější koncepty v ontologii. V roce 2017konsorcium W3C vydalo Web Annotation Data Model, popisující strukturovanýmodel anotací a formát, který umožňuje sdílení a opětovné použitíanotací na různých hardwarových a softwarových platformách. Taktoanotovaný text je pak základem pro budování Webu dat, kterým se zabýváW3C Data Activity.Cílem disertační práce je výzkum v oblasti kolaborativního anotovánítextu strukturovanými anotacemi s využitím Web Annotation Data Model prorozšiřování propojených dat na webu (Linked Open Data on the Web) sezaměřením na uživatelská rozhraní využívaná pro tuto činnost.
S rozvojem myšlenky autonomní mobility nabývá na významu bezpečné zabránění kolize dopravního prostředku s překážkou a také eliminovace potřeby dozorování provozu samotného zařízení člověkem. Cílem tezí je vyzkoumat integrovaný opto-radio-elektronický systém schopný upozornit na okolní provoz a odhadnout vývoj trajektorie pohybu kolizních objektů. S nárůstem popularity bezpilotních létajících systémů (UAS) se spolehlivá detekce a vyhnutí se překážce stávají nevyhnutým prvkem autonomního provozu UAS za hranicí přímé viditelnosti.
Řešení tohoto projektu bude vycházet ze stávajících poznatků o formálních modelech, zejména automatů a gramatik. Cílem je konstrukce a výzkum nových systemů automatů a gramatik, které adekvátním způsobem odrážejí potřeby moderních výpočetních metod založených na distribuci, kooperaci a regulaci. Kanonické a redukované verze těchto system budou centrem tohoto studia. Aplikace těchto systémů se budou soustředit na modelování a výzkum organismů v molekulární biologii a genetice.
Umělé neuronové sítě (ANN) a tzv. hluboké neuronové sítě se v poslední době hojně používají v komplexních úlohách klasifikace, predikce a rozpoznávání. Cílem disertační práce bude zkoumat možnosti automatizovaného návrhu ANN pomocí evolučních výpočetních technik a optimalizace těchto ANN pro konkrétní platformu (CPU, GPU, ...), kde budou nasazeny. Výzkum spadá to témat řešených výzkumnou skupinou Evolvable Hardware.
Řešení tohoto projektu bude vycházet ze stávajících poznatků o moderních formálních systémech, které se používají v teorii jazyků. Teoretický výzkum těchto modelů bude diskutovat užitečné transformace těchto systémů, jako např. eliminace vymazávajících pravidel či redukce velikosti jejich komponent. Výzkum aplikací takto transformovaných systémů se bude soustředit na oblasti informatiky související s překladači, matematickou lingvistikou a molekulární biologií.
Řešení tohoto projektu bude vycházet ze stávajících poznatků o moderních formálních modelech, které se používají v teorii jazyků. Teoretický výzkum těchto modelů bude diskutovat užitečné transformace těchto modelů, jako např. eliminace vymazávajících pravidel či redukce velikosti jejich komponent. Výzkum aplikací takto transformovaných modelů se bude soustředit na oblasti informatiky související s překladači, matematickou lingvistikou a molekulární biologií.
Tématem disertační práce bude problematika Bayesovských sítí. Postup práce by měl být následující:
Projekt se zabývá geo-lokalizací mobilních zařízení v neznámém prostředí pomocí metod počítačového vidění a počítačové grafiky. Hlavním cílem je výzkum a návrh nových metod registrace obrazu s geo-lokalizovanou obrazovou databází nebo s 3D modelem terénu. Cílem je též implementace navržených metod na mobilních zařízeních a hledání jejich dalších aplikací např. v oblastech zpracování obrazu, výpočetní fotografie a rozšířené reality.
Cílem práce bude navrhnout a ověřit platformu pro akceleraci algoritmů vestavěné inteligence. Důraz bude kladen na optimalizaci výpočtů pro práci v reálném čase a nízký příkon. V práci budou zkoumány možnosti efektivní implementace klasifikátorů a hlubokých neuronových sítí a jejich vhodného kombinování.
Např. použití obrazových klasifikátorů pro výběr vhodných kandidátních snímků pořízených kamerou a jejich následné zpracování v neuronové síti či kaskádě sítí (např. jednoduchá a rychlá síť v FPGA, pomalejší, ale přesnější v CPU a konečně velmi hluboká a přesná neuronová síť běžící na cloudu či clusteru), může přinést výrazné omezení datových toků. Důsledkem pak může být nejen urychlení výpočtů (čím přesnější je síť, tím je výpočetně a energeticky náročnější a není tedy vhodné ji spouštět na každý snímek pořízený kamerou), ale také výrazné snížení příkonu (přenosy dat mají často větší energetické nároky než výpočty samé).
Kvalita a efektivita navržených algoritmů a výpočetních struktur bude ověřována na reálných datech. Pro implementaci navržených algoritmů se zvažuje využití hybridních výpočetních platforem kombinující výhody technologií FPGA, CPU a GPU.
Předpokládá se spolupráce na výzkumných grantových projektech. Možné aplikace zahrnují tzv. chytré kamery, které rozpoznávají zájmové objekty v reálném čase, senzory s vestavěnou inteligencí pro robotiku či IoT atd.
Petriho sítě se ve vestavěných a řídicích systémech úspěšně používají již od 70tých let (viz např. SFC, Grafcet). Důvodem jejich popularity je sugestivní vizuální vyjádření, možnost simulace a možnost využití teorie Petriho sítí pro ověření důležitých vlastností systému. Kromě původních Petriho sítí lze dnes ve stejné oblasti použít i vysokoúrovňové Petriho sítě, které kombinují pozitivní vlastnosti původních Petriho sítí s možnostmi vysokoúrovňových programovacích jazyků (strukturované datové typy, objektová orientace). Tím je možné dostat se s Petriho sítěmi i do vyšších úrovní řízení, než je field level a PLC. Cílem aktuálního výzkumu je ověřit aplikovatelnost specifické varanty vysokoúrovňových Petriho sítí, Reference Nets, v návrhu a realizaci distribuovaných a hierarchicky organizovaných řídicích systémů. Reference Nets pracují s dynamicky instanciovatelnými a vzájemně komunikujícími vysokoúrovňovými Petriho sítěmi a umožňují modelovat systém ve vrstvách. Současně umožňují dynamicky rekonfigurovat strukturu systému. Tyto vlastnosti předurčují Reference Nets pro modelování a implementaci komplexních systémů s diskrétními událostmi a kromě toho mohou být Reference Nets efektivně využity v situacích, kdy je požadována dynamická rekonfigurovatelnost systému. Vzhledem k tomu, že u typických komplexnějších řídicích systémů se automaticky předpokládá adaptabilita na průběžně se měnící požadavky a podmínky, v kterých systém pracuje, o mimořádné aktuálnosti tohoto výzkumu nemůže být sebemenších pochyb.Existující implementace Reference Nets (kterou udržují kolegové v Hamburku) není přímo použitelná pro řízení, protože nebyla s tímto cílem navržena (nepracuje v reálném čase, instalace a rekonfigurace je obtížně realizovatelná). Proto byla v Brně navržena a prototypově realizována alternativní implementace, pracující s rozumnou podmnožinou původního inskripčního jazyka, umožňující běh na uzlech s omezenými zdroji a umožňující dynamicky nainstalovat, aktivovat, deaktivovat i odinstalovávat aplikace ve formě Reference Nets. Touto implementací je PNVM - Petri Net Vitrtual Machine. PNVM doplněný o ovladače pro vstupy a výstupy a příkazový interpret (shell, realizovaný pomocí Petriho sítí) se nazývá PNOS - Petri Net Operating System. Tento systém je určen k běhu na uzlech distribuovaného systému.PNOS je použitelný jako východisko pro případná rozšíření a modifikace v rámci aplikací. Momentálně jsou aktuální například aplikace v oblasti Smart Home a IoT (vč. Industrial IoT). V rámci řešení je možná i spolupráce se spřáteleným pracovištěm na univerzitě v Hamburku.Pro více informací se stavte osobně, ideálně v odpoledních hodinách.Doc. Ing. Vladimír Janoušek, Ph.D.http://www.fit.vutbr.cz/~janousek/janousek@fit.vut.cz
Školitel: Janoušek Vladimír, doc. Ing., Ph.D.
Použití některých metod strojového učení, například v poslední době populárních hlubokých neuronových sítí, přináší problémy architektury tzv. černé skříňky, která sice může v některých případech správně rozhodovat, ale není možné snadno interpretovat způsob rozhodování, ověřovat, v jakém kontextu jsou závěry ještě věrohodné a nakolik mohou vést drobné změny vstupu ke zcela jiným závěrům.Cílem disertační práce je rozvinout existující přístupy k měření "dokazatelně správných" modelů umělých neuronových sítí a propojit je s technikami generování konfliktních (adversarial) příkladů, aby bylo možné kontrolovat a revidovat existující řešení, využívaná v praxi. Součástí práce bude i aplikace zkoumaných metod v rámci evropských projektů, na jejichž řešení se školitel podílí.
Cílem práce je vytvoření 3D modelu obličeje z 2D fotografií různorodého původu, konkrétně:
Aproximativní počítání (approximate computing) je nová a bouřlivě se rozvíjející výzkumná oblast v rámci které jsou hledány alternativní (typicky nízkopříkonové) implementace nejen základních stavebních komponent jako jsou např. sčítačky a násobičky, ale také komplexních obvodových celků. Významný vývoj můžeme sledovat také v oblasti strojového učení. Dříve jednoduché architektury dnes nahrazují tzv. hluboké neuronové sítě, které jsou schopny dosahovat výrazně lepších výsledků zejména v oblasti klasifikace a detekce objektů v obraze. Daní za vyšší přesnost je však vyšší komplexita vedoucí na velké množství operací a tudíž i vyšší energetickou náročnost. Současně se však ukazuje, že tyto sítě vykazují vysokou úroveň rezistence vůči chybám ve výpočtu. Jako výhodné se proto jeví nasazení aproximovaných obvodů v této oblasti s cílem dosáhnout značné úspory energie.
Školitel: Vašíček Zdeněk, doc. Ing., Ph.D.
Moderní GPU nabízejí možnosti zásadního zrychlení výpočtů pomocí jejich paralelizace. Grafické karty Nvidia a architektura CUDA navíc přinášejí relativní nezávislost na použití v čistě grafických úlohách. Mluví se o tzv. GPGPU (General Purpose GPU).Cílem disertační práce je výzkum možností paralelizace výpočetně náročných úloh, které je možné převést na GPU. V rámci řešení by měla vzniknout obecná metodika, umožňující odhad možného zrychlení výpočtu, případně charakterizující rozsah omezení daných použitou architekturou GPU. Výsledky budou demonstrovány na vybraných problémech zahrnujících časově náročné výpočty.
Technologie sémantického webu umožňují reprezentaci informací a znalostí pro účely jejich dalšího sdílení např. mezi počítačovými aplikacemi. Dostupné znalostní databáze, jako např. DBPedia, obsahují velké množství dále využitelných informací a faktů. Na současném webu je však většina nových informací publikována ve formě dokumentů nejčastěji v jazyce HTML, jejichž další zpracování je problematické zejména kvůli jejich volné struktuře a absenci explicitních informací o významu jednotlivých částí obsahu. Nabízí se dva způsoby, jak tuto propast mezi klasickým a sémantickým webem překonat:
Pro dosažení obou těchto cílů je nutné analyzovat možnosti existujících ontologických modelů s ohledem na popis konkrétních cílových domén a možnosti mapování těchto popisů na obsah reálných webových stránek a dokumentů. Možné aplikace zahrnují mimo jiné následující:
Nedílnou součástí je rovněž experimentální implementace navržených metod s využitím existujících nástrojů a experimentální ověření na reálných datech a dokumentech.
V posledních letech dochází k výrazným změnám v oblasti síťových aplikací a způsobech řízení síťové infrastruktury. Stále více se prosazuje koncept SDN (Software-Defined Networking) oddělující kontrolní část aplikace (Control plane) od přepínací vrstvy (Data plane). Vznikají nové přístupy pro specifikaci přepínací vrstvy v podobě např. vysoko-úrovňového jazyka P4, který postupně nahrazuje původní standard Openflow a vytváří stále větší tlak na flexibilitu síťových zařízení na úrovni hardware. Jedním ze způsobů, jak pokrýt vysoké požadavky na flexibilitu a výkon síťových zařízení je využití programovatelných čipů s technologií FPGA a vysokoúrovňové syntézy (High-level Synthesis). Cílem této práce je prozkoumat možnosti vysokoúrovňové syntézy v oblasti síťových aplikací a vytvořit efektivní nástroje pro syntézu obvodů z popisu jazyka P4 popř. i nad rámec tohoto jazyka.
Školitel: Martínek Tomáš, doc. Ing., Ph.D.
Řešení tohoto projektu je založeno na rostoucím významu inteligentních budov a potřebnosti komunikační infrastruktury pro jednotlivé komponenty inteligentních autonomních systémů v budovách. Při výzkumu tématu bude především kladena pozornost na bezdrátové sítě pro komunikaci. Odolnost a bezpečnost těchto sítí jak proti náhodných výpadkům, tak proti úmyslným útokům je nepřehlédnutelným požadavkem při využívání inteligentních budov. Řešení by se mělo soustředit jak na studium a návrh odolných sítí, tak i kvantifikaci odolnosti a analýzu možných následků různých nehod, nebo útoků.Alternativně se téma může zabývat bezpečnosti komunikační infrastruktury pro inteligentní vozidla. Na vedení práce se bude podílet školitel-specialista.
Zvyšující se náklady na výrobu čipů a tlak na technologický vývoj spočívající zejména v neustálém zmenšování prvků vedou ve stále větší míře a u většího počtu producentů k přesunu výroby do levnějších lokalit, zpravidla k externím subjektům. Jen málokterý výrobce si může dovolit mít vlastní výrobu polovodičů. Odvrácenou stranou úspor prostřednictvím outsourcingu jsou zvýšená rizika modifikací návrhu s cílem zajistit přístup (k datům, k řízení), vypnutí či možnosti ovlivnění funkce cizích vyrobených čipů nasazených do aplikací, aniž by to zákazník poznal. Již jsou známy případy úspěšného využití takových technik. V této souvislosti se mluví o tzv. hardwarových trojských koních. Vyvíjí se proto techniky detekce takových modifikací, případně obrany proti nim. Jednou z možností detekce hardwarových trojských koní je například tzv. IP watermarking.
Tzv. polymorfní či multifunkční elektronika je výzkumnou oblastí, zkoumající možnosti realizace více funkcí jedním číslicovým obvodem, aniž by docházelo ke strukturální změně tohoto obvodu (rekonfiguraci). Ukazuje se, že tato koncepce může být užitečná zejména tam, kde další funkce obvodu bude využívána jen příležitostně a cena za její implementaci by proto měla být minimální. Takovými aplikacemi může být například vestavěná diagnostika, zvýšená odolnost proti poruchám nebo právě watermarking.
Cílem práce bude
Školitel: Růžička Richard, doc. Ing., Ph.D., MBA
Tématem jsou algoritmy zpracování obrazu, videa a/nebo signálu. Hlavním cílem je zkoumat a do hloubky analyzovat příslušné algoritmy a hledat nové tak, aby měly nové potřebné vlastnosti, a bylo možné je efektivně implementovat. Taková efektivní implementace může , ale nemusí být součástí práce, ale důležité je algoritmy připravit tak, aby šly efektivně zpracovávat například v CPU, v CPU s akcelerací SSE instrukcemi, v embedded systémech, v embedded systémech s FPGA, v Intel Xeon PHI, v systémech s extrémně nízkým příkonem, případně v jiném prostředí. Předpokládá se práce v jazyce C, C++, C#, assembleru, CUDA, OpenCl, případně VHDL či dalších jazycích. Důležité jsou též aplikační možnosti algoritmů s tím, že samotná aplikace může, ale nemusí být součástí řešení. Možné algoritmy/aplikace zahrnují:
Po dohodě je možné zpracovávat i individuálně vybrané téma, které ve výše uvedeném seznamu není, ale patří do dané tématiky.
Je možnost spolupráce i na grantových projektech, zejména na nově podávaných projektech bezpečnostního výzkumu, H2020, SCSEL (potenciálně možnost stipendia či pracovního poměru).