Přístupnostní navigace
E-přihláška
Vyhledávání Vyhledat Zavřít
Detail oboru
FITZkratka: DVI4Ak. rok: 2018/2019
Program: Výpočetní technika a informatika
Délka studia: 4 roky
Akreditace od: 1.1.2007Akreditace do: 31.12.2024
Profil
Cílem studijního programu je poskytnout vynikajícím absolventům magisterského studia specializované univerzitní vzdělání nejvyššího typu ve vybraných oblastech informatiky, vypočetní techniky a informačních technologií. Toto vzdělání zahrnuje také průpravu a atestaci k vědecké práci.
Garant
prof. RNDr. Milan Češka, CSc.
Vypsaná témata doktorského studijního programu
Tématicky se tato disertační práce orientuje na bezpečnost různých systémů, které mají zajistit anonymitu nebo pseudonymitu uživatelů internetu (například sítí typu TOR). Práce by měla obsahovat:
Očekává se účast na relevantních mezinárodních konferencích a publikování v odborných či vědeckých časopisech.
Školitel: Hanáček Petr, doc. Dr. Ing.
Při budování systémů odolných proti poruchám se zvyšují požadavky na plochu, na niž bude systém implementován. Zároveň se zvýší příkon (naroste objem elektroniky) a zhorší se dynamické parametry (do cesty datům se v některých metodách vkládají další komponenty). Zároveň platí, že vybavení některých komponent prostředky pro zvýšení spolehlivosti představuje vyšší / nižší příspěvek pro celkovou spolehlivost analyzované komponenty.
Téma disertace je definováno takto:
Půjde tedy jednak o analýzu vlastností komponent, intenzity jejich využívání v číslicovém systému a analýzu architektury analyzovaného systému.
Po vytvoření metodiky a její implementaci bude mít výzkumná činnost i charakter experimentální práce. Experimenty budou realizovány na platformách hradlových polí od různých výrobců a na konkrétních architekturách.
Tým zaměstnanců a doktorandů na ÚPSY dlouhodobě pracuje v oblasti návrhu systémů odolných proti poruchám.
Školitel: Kotásek Zdeněk, doc. Ing., CSc.
Tématicky se tato disertační práce orientuje na bezpečnost bezdrátových lokálních sítí. V rámci řešení by mělo dojít k seznámení se s vybranými bezdrátovými sítěmi a jejich zabezpečením. Kroky práce by měly obsahovat:
Použití neuronových sítí pro hluboké učení (deep learning) přispělo v posledních letech k výraznému posunu mnoha oblastí, které se opírají o strojové učení - rozpoznávání obrazu, analýza textu atd.Cílem disertační práce je rozvinout existující přístupy využívající obrovské kolekce neanotovaných dat pro naučení neuronových sítí tak, aby výstupy poslední mezilehlé vrstvy bylo možné použít jako vektor příznaků. Součástí práce bude i aplikace zkoumaných metod v rámci evropských projektů, na jejichž řešení se školitel podílí.
Školitel: Smrž Pavel, doc. RNDr., Ph.D.
Modelování se používá pro zachycení důležitých aspektů vyvíjeného systému. V oblasti metod vývoje softwarových systémů došlo k rozvoji přístupu Model Driven Engineering, který využívá modelování v takovém rozsahu, že je lze považovat za základní programovací jazyk. Modely jsou postupně transformovány z abstraktního pohledu na systém do programovacího jazyka. Příkladem mohou být vybrané modely jazyka UML ve spojení s meta-úrovňovými modely MOF využívané metodikou MDA. S transformacemi modelů jsou spojeny dva problémy. První se týká otázky, zda je možné provádět transformace plně automatizovaně, tj. bez zásahu vývojáře. Druhý problém se týká otázky, zda je možné zachovat zachovat náhled na softwarový produkt na úrovni modelů, tj. nepracovat přímo s kódem, ale vždy s modelem, a to i při ladění a změnách aplikace za běhu. Cílem disertační práce je výzkum v oblasti aplikace modelů v procesu vývoje a nasazení systémů s ohledem na výše položené otázky.
Školitel: Janoušek Vladimír, doc. Ing., Ph.D.
Trendem poslední doby při stavbě superpočítačových systémů je využití heterogenních architektur pro dosažení vysoké výkonnosti a současně nízkého příkonu. Typickým představitelem takového systému je Tsubane-II nebo Salomon, jenž obsahují mimo běžných vícejádrových procesorů i akcelerátory Intel Xeon Phi, nebo systémy jako je Titan jenž sází na grafické karty firmy NVIDIA.
Pokud chceme opravdu využít plný potenciál výpočetního systému je nutné úlohu rozdělit nejen na akcelerační karty, ale rovněž na procesorová jádra. Pokud bychom uvažovali systém Salomon umístěný v Ostravě, procesorová část představuje 1/3 výkonu, zatímco akcelerační karty 2/3.
Cílem práce je navrhnout novou metodiku automatizované rozdělení výpočtu (dekompozice) a vyvážení pracovní zátěže tak, aby byly využity všechny dostupné prostředky a minimalizována komunikace.
Školitel: Jaroš Jiří, doc. Ing., Ph.D.
Cílem práce je automaticky navrhovat pozici a nastavení ultrazvukového vysílače při ultrazvukové léčbě. Tedy - doktor ohraničí nádor na CT obraze a cílem tohoto algoritmu je odhadnout nejlepší nastavení vysílače (i několik různých pozic s optimalizací trajektorie). Tento výpočet se následně odešle na cluster k potvrzení.Práce bude obsahovat optimalizační techniky - Evoluční algoritmy, neuronové sítě, hluboké učení, a jiné. Dále bude využívat rozsáhlé ultrazvukové modely implementované na superpočítačích.
V současné době neustále roste důraz na kvalitu, spolehlivost a bezpečnost software. V souladu s tím jsou nemalé prostředky investovány do výzkumu moderních technik analýzy a verifikace programů pomocí nejrůznějších automatizovaných metod, jako jsou systematické testování, dynamická analýza, statická analýza, model checking apod. Tyto techniky jsou přitom rozvíjeny nejen na univerzitách, ale do jejich výzkumu a vývoje investuje řada významných mezinárodních společností (Google, Microsoft, IBM, Red Hat, Honeywell apod.). Mezi uvedenými metodami patří testování a dynamická analýza k tradičním, již dlouho nejvíce používaným, ale přesto intenzivně dále rozvíjeným přístupům (o čemž svědčí velký počet článků z dané oblasti prezentovaných na mezinárodních konferencích věnovaných obecně programovacím jazykům a/nebo softwarovému inženýrství i velký počet špičkových mezinárodních konferencí specializujících se na danou oblast).
Náplní tématu je rozvoj stávajících a návrh nových metod dynamické analýzy a inteligentního testování, případně kombinovaných s použitím vhodných statických analýz. Tyto analýzy by přitom měly směřovat nejen k co nejefektivnějšímu vyhledávání chyb, ale také k automatické podpoře procesu řízení software (identifikace problematických komponent, problematických změn, podpora rozhodování o tom, které změny začlenit či nezačlenit do nové verze softwarového produktu apod.). Předmětem výzkumu bude vývoj nových heuristik pro testování a analýzu, které umožní co nejefektivnější odhalení i vzácně se projevujících chyb (jako jsou např. extrapolující dynamické analýzy, vkládání šumu, či fuzz testování) a které umožní automatické získávání zkušeností z dosud provedených testů či analýz a jejich následné využití pro zdokonalení procesu testování či obecně řízení kvality software. Do této oblasti spadá vhodné využití statistických analýz, strojového učení či technik dolování z dat. Předmětem výzkumu je přitom nejen návrh nových technik z dané oblasti, ale také jejich prototypová implementace a experimentální ověření na vhodných případových studiích.
Školitel: Vojnar Tomáš, prof. Ing., Ph.D.
Školitel: Kolář Dušan, doc. Dr. Ing.
Tématem práce je propojení prostředí pro modelování inteligentních systémů s nástroji pro vytváření a provádění simulačních modelů. Doktorand by se měl orientovat zejména na otevřené otázky robotiky, jako jsou například společné plánování, řešení konfliktů a koordinace, a zkoumat jejich řešení právě s využitím simulačních nástrojů jako jsou PNtalk nebo TMass. Výsledkem by měla být analýza problematiky, řešení některých problémů a demonstrace přínosu modelování pro jejich řešení.
Školitel specialista: Ing. Radek Kočí, Ph.D.
Školitel: Zbořil František, doc. Ing., Ph.D.
Systémy SCADA (Supervisory Control And Data Acquisition) a průmyslové IoT sítě jsou určeny pro řízení a monitorování průmyslových procesů a zařízení. V minulosti tato komunikace probíhala výhradně po oddělených lokálních sítích typu Token Ring, HDLC, apod. Dnes dochází k využití standardích profilů TCP/IP a propojení na internet. S tím souvisí i otázka bezpečnosti a útoků na tyto sítě. Přenosy typu DLMS/COSEM, IEC 104 či IEC 61850 se používají převážně v energetickém sektoru, kde útoky na komunikaci znamenají značné riziko. Jedním z řešení je bezpečnostní monitorivání této komunikace na úrovni rozšířených záznamů o tocích, které slouží k detekci různých typů útoků. Téma dizertační práce se zaměří na chování průmyslových protokolů IoT a SCADA a detekci typických útoků na tyto systémy (poškozené pakety, DoS útok, podvržené příkazy, neautorizované čtení dat). Cílem práce je navrhnout a ověřit postupy pro detekci útoků na tyto sítě s využitím monitorování toků a detekce neobvyklého chování. Toto téma je součástí výzkumného projektu IoT Monitoring and Forensics (IRONSTONE).
Školitel: Matoušek Petr, doc. Ing., Ph.D., M.A.
Internet věcí představuje komunikační síť propojující různé typy zařízení v domácnosti (home IoT networks) nebo v průmyslu (industrial IoT networks). Většina těchto zařízeních obsahuje jen malé či žádné zabezpečení oproti útokům z lokální sítě či z Internetu. Škody způsobené zneužitím těchto zařízení mohou být však velmi vážné. Nejde jenom o záměrný útok, ale i chybné nastavení či výpadek řídící jednotky. Monitorování internetu věcí je novou doménou správy sítě. Zahrnuje jak sledování chování zařízení, tak získávání dat ze senzorů, nastavování, apod. Bezpečnostní monitorování se zaměřuje na detekci útoků a anomálií v komunikaci. Tradiční metody bezpečnostního monitorování mají u IoT sítí omezené použití, neboť komunikace IoT sítí je odlišná od přenosů na Internetu. Je potřeba tyto metody rozšířit, případně zvolit jiný způsob přístupu k metadatům získaným z provozu IoT sítí. Cílem tématu dizertační práce je prozkoumat různé metody bezpečnostního monitorování IoT a definovat možnosti ochrany zařízení či podsítí proti běžným hrozbám. Zároveň je cílem integrovat monitorovací prvky do stávajících SIEM systémů. Téma je součástí projektu aplikovaného výzkumu TAČR IoT Monitoring and Forensics (IRONSTONE).
Cílem práce je detekce a lokalizace (živých) osob za překážkami. Postup práce bude následující:
Školitel: Drahanský Martin, prof. Ing., Ph.D.
Školitel: Herout Adam, prof. Ing., Ph.D.
Cílem práce je zkoumat problémy detekce útoků na počítačové systémy a automatické zpracování škodlivých programů (malware). Práce by měla být motivována snahou navrhnout nové přístupy pro detekci a automatické zpracování škodlivého software. Součástí řešení bude:
Petriho sítě se v řídicích systémech úspěšně používají již od 70tých let (viz např. SFC, Grafcet). Důvodem jejich popularity je sugestivní vizuální vyjádření, možnost simulace a možnost využití teorie Petriho sítí pro ověření důležitých vlastností systému. Kromě původních Petriho sítí lze dnes ve stejné oblasti použít i vysokoúrovňové Petriho sítě, které kombinují pozitivní vlastnosti původních Petriho sítí s možnostmi vysokoúrovňových programovacích jazyků (strukturované datové typy, objektová orientace). Tím je možné dostat se s Petriho sítěmi i do vyšších úrovní řízení, než je field level a PLC. Cílem aktuálního výzkumu je ověřit aplikovatelnost specifické varanty vysokoúrovňových Petriho sítí, Reference Nets, v návrhu a realizaci distribuovaných a hierarchicky organizovaných řídicích systémů. Reference Nets pracují s dynamicky instanciovatelnými a vzájemně komunikujícími vysokoúrovňovými Petriho sítěmi a umožňují modelovat systém ve vrstvách. Současně umožňují dynamicky rekonfigurovat strukturu systému. Tyto vlastnosti předurčují Reference Nets pro modelování a implementaci komplexních systémů s diskrétními událostmi a kromě toho mohou být Reference Nets efektivně využity v situacích, kdy je požadována dynamická rekonfigurovatelnost systému. Vzhledem k tomu, že u typických komplexnějších řídicích systémů se automaticky předpokládá adaptabilita na průběžně se měnící požadavky a podmínky, v kterých systém pracuje, o mimořádné aktuálnosti tohoto výzkumu nemůže být sebemenších pochyb.Existující implementace Reference Nets (kterou udržují kolegové v Hamburku) není přímo použitelná pro řízení, protože nebyla s tímto cílem navržena (nepracuje v reálném čase, instalace a rekonfigurace je obtížně realizovatelná). Proto byla v Brně navržena a prototypově realizována alternativní implementace, pracující s rozumnou podmnožinou původního inskripčního jazyka, umožňující běh na uzlech s omezenými zdroji a umožňující dynamicky nainstalovat, aktivovat, deaktivovat i odinstalovávat aplikace ve formě Reference Nets. Touto implementací je PNVM - Petri Net Vitrtual Machine. PNVM doplněný o ovladače pro vstupy a výstupy a příkazový interpret (shell, realizovaný pomocí Petriho sítí) se nazývá PNOS - Petri Net Operating System. Tento systém je určen k běhu na uzlech distribuovaného systému.PNOS je použitelný jako východisko pro případná rozšíření a modifikace v rámci aplikací. Momentálně jsou aktuální například aplikace v oblasti Smart Home a IoT (vč. Industrial IoT). V rámci řešení je možná i spolupráce se spřáteleným pracovištěm na univerzitě v Hamburku.Pro více informací se stavte osobně, ideálně v odpoledních hodinách.Doc. Ing. Vladimír Janoušek, Ph.D.http://www.fit.vutbr.cz/~janousek/janousek@fit.vut.cz
The proposed dissertation deals with a subset of techniques for extracting meaningful information from speech: voice activity detection, transcription, keyword spotting, speaker recognition, language recognition and other possible modalities. It includes investigation into relevant signal processing and machine learning, and experimentation on standard speech data-sets. The topic is related to several projects running in the BUT Speech@FIT group, see http://speech.fit.vutbr.cz/projects. The candidate should have strong background in mathematics, linear algebra and statistics, and experience in one or more of the following disciplines: signal processing, speech signal processing, machine learning, natural language processing, data-mining. He/she should be experienced with usual scientific programming and scripting languages (C, Matlab, Python). Experience with at least one of machine learning/speech toolkits (Theano, Keras, PyTorch, CNTK, Chainer, KALDI, HTK) is a plus. As the the group is international, a good working knowledge of English is required.
Školitel: Černocký Jan, prof. Dr. Ing.
Různé typy automatů a logik patří mezi nejzákladnější objekty studované a aplikované v oblasti informatiky již desítky let. Přesto v této oblasti existuje řada dosud neuspokojivě vyřešených problémů a neustále se objevují nové vzrušující problémy související se stále novými aplikacemi automatů a logik (např. při symbolické verifikaci nekonečně stavových programů, v rozhodovacích procedurách, při syntéze programů či hardware, při automatizovaném zpracování přirozených jazyků či při analýze síťového provozu). Předmětem disertační práce bude konkrétně rozvoj současného stavu v oblasti efektivní práce s různými typy automatů (automaty nad slovy, stromy či grafy, pravděpodobnostní automaty, automaty rozšířené o různé typy proměnných a operací nad nimi) a logik (např. různé logiky nad slovy, stromy, grafovými strukturami či datovými slovy). Zkoumané techniky by se měly zaměřit na efektivní techniky redukce automatů, jejich porovnávání (jak na přesnou inkluzi či ekvivalenci tak i různé formy přibližné inkluze či ekvivalence), možnosti strojového učení automatů či efektivní rozhodovací techniky vybraných logik (separační logika, WSkS, logiky na řetězci apod.). Významnou části výzkumu by ale také měly být nové aplikace automatů a logik založené na nově navržených technikách pro práci s automaty či logikami. Důraz bude zejména na aplikace z oblasti formální analýzy a verifikace, analýzy síťového provozu, případně syntézy programů či hardware. Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT rozvojem technik pro práci s automaty, logikami a jejich aplikacemi (zejména dr. O. Lengál, dr. M. Češka jr., dr. L. Holík, doc. A. Rogalewicz, Ing. V. Havlena, Ing. P. Janků). V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do grantových projektů (včetně mezinárodních). Je zde rovněž možnost úzké spolupráce s různými zahraničními partnery VeriFIT: Uppsala University, Švédsko (prof. P.A. Abdulla, prof. B. Jonsson, dr. Rummer); Verimag, Grenoble, Francie (dr. R. Iosif), IRIF, Paříž, Francie (prof. A. Bouajjani, dr. M. Sighireanu, dr. C. Enea), Academia Sinica, Tchaj-wan (prof. Y.-F. Chen), TU Vienna, Rakousko (dr. F. Zuleger), University of Oxford, Velká Británie (dr. A.W. Lin), TU Braunschweig, Německo (prof. R. Meyer) či School of Informatics, University of Edinburgh, Velká Británie (prof. R. Mayr).V rámci tématu se student může také aktivně zapojit do různých grantových projektů, jako je např. projekt GA ČR 16-17538S "Přibližná ekvivalence pro aproximativní počítání", 17-12465S "ROBUST - Verifikace a hledání chyb v pokročilém softwaru" či 16-24707Y "Efektivní automaty pro formální rozhodování".
Téma je zaměřeno na algoritmy embedded zpracování obrazu, videa a/nebo signálu. Hlavním cílem je zkoumat možnosti "chytrých" a "malých" zařízení, která by měla nové vlastnosti, a bylo možné je efektivně nasadit do aplikací vyžadujících malé, skryté, distribuované, nízkopříkonové, mechanicky nebo klimaticky namáhané jednotky schopné zpracovávat signálové vstupy. Nasazení takových jednotek je perspektivní a široké a předpokládá se i propojení do klient/server a/nebo cloud systémů. Samotné jednotky mohou být založeny na efektivním CPU/GPU/DSP, na programovatelném hardware, případně na kombinaci těchto technologií. Může se jednat i o smart kamery. Aplikace, které jsou v oblasti zájmu tohoto tématu:
Je možnost spolupráce i na grantových projektech, zejména na nově podávaných projektech TAČR, H2020, ECSEL (potenciálně možnost stipendia či pracovního poměru).
Školitel: Zemčík Pavel, prof. Dr. Ing., dr. h. c.
Cílem disertační práce je výzkum v oblasti extrakce informací z textu se zaměřením na metody strojového učení aplikovatelné v této oblasti. Součástí bude i realizace extrakčního systému, který bude možné využít pro zpracování rozsáhlých webových dat, získaných např. v projektu CommonCrawl.
Problematika identifikace a extrakce konkrétních informací z dokumentů na WWW je již delší dobu předmětem intenzivního výzkumu. Mezi základní překážky, které je třeba překonat, patří nedostatečná strukturovanost HTML dokumentů a absence metainformací (anotací) využitelných pro rozpoznání významu jednotlivých částí obsahu. Tyto chybějící informace jsou proto nahrazovány analýzou různých aspektů webových dokumentů, zejména následujících:
Pro úspěšnou extrakci konkrétní informace z dokumentů je rovněž nezbytná doménová znalost zahrnující očekávanou strukturu extrahované informace (vztahy mezi jednotlivými extrahovanými položkami) a způsob zápisu jednotlivých položek. Tato znalost umožňuje přesnější rozpoznání jednotlivých částí informace v textu dokumentu.
Současné přístupy k extrakci informací z webových dokumentů se soustřeďují zejména na modelování a analýzu dokumentů samotných; modelování extrahované informace za účelem jejího přesnějšího rozpoznání nebylo dosud podrobněji zkoumáno v tomto kontextu. Předpokládaným cílem disertační práce jsou proto následující:
Nedílnou součástí je rovněž experimentální implementace navržených metod s využitím existujících nástrojů a experimentální ověření na reálných dokumentech dostupných na WWW.
Školitel: Burget Radek, doc. Ing., Ph.D.
Fenomenologické modely jsou modely popisující empirické vztahy mezi fenomény způsobem, který odpovídá základním fyzikálním principům, ale není z nich přímo odvozen. Primárním cílem těchto modelů není vysvětlení příčin vzájemné interakce systémových proměnných, ale globální popis chování systému. Uvedený způsob modelování bude v rámci práce aplikován za účelem vytvoření přesných modelů a submodelů kyberneticko-fyzikálních systémů.
Školitel: Chudý Peter, doc. Ing., Ph.D., MBA
Bude doplněno později.Očekává se účast na relevantních mezinárodních konferencích a publikování v odborných či vědeckých časopisech. Zahraniční stáž je možná.Práce může navázat na projekt konstrukce robota pro hledání osob pod závaly a lavinami. K dispozici je robot k tomuto účelu.
Řešení tohoto projektu bude vycházet ze stávajících poznatků o formálních systémech distribuovaného výpočtu. Cílem je konstrukce a výzkum nových automatových a gramatických systémů, které adekvátním způsobem odrážejí potřeby moderních výpočetních metod založených na distribuci. Aplikace těchto systémů se budou soustředit na modelování a výzkum organismů v molekulární biologii a překladačích.
Školitel: Meduna Alexandr, prof. RNDr., CSc.
Současná věda stále více spoléhá na vysoce výkonné počítače provádějící náročné simulace. Náročnost těchto simulací nespoléhá pouze v množství dat a operací které je nutné vykonat, ale i v možnostech jednotlivých simulačních frameworků zahrnující různé fyzikální a numerické modely, ohraničující podmínky, typy prostředí atd. Tato variabilita vede ke stovkám různých simulačních scénářů skládajících se z tisíců dílčích úloh. V tomto momentě naráží klasické datově paralelní implementace na své meze, neboť rozhodovací logika daleko převyšuje logiku výpočtu.Druhým úskalím je architektura současných superpočítačových systémů. Již více než dekádu se nejedná o uniformní systémy složený z homogenních prvků s homogenním propojením. Současný trend jsou silně heterogenní architektury složené s vícejádrových procesorů a různých akcelerátorů, např. GPU, FPGA, Xeon Phi. Optimalizace komplexních frameworků pro tyto architektury a následné vyvažování zátěže se stává limitujícím prvkem. Cílem této disertační práce je prozkoumat techniky funkčního paralelismu a návrh automatizovaných simulačních platforem umožnující distribuci výpočtu na vhodné hardwarové komponenty.
Tématem disertační práce bude výzkum problematiky získáváním znalostí z rozsáhlých databází (big data), který bude zaměřený na netradiční přístupy, především pak na aplikaci teorie hrubých množin při získávání asociačních pravidel. Postup práce by měl být následující:
Školitel: Zbořil František, doc. Ing., CSc.
Práce je zaměřena na problematiku modelování a syntézy hybridních výpočetních architektur. Jedná se o systémy, ve kterých jsou jednotlivé úlohy implementovány jako systémy na čipu (SoC, FPGA) pomocí univerzálních či specializovaných procesorů, IP jader a programovatelné logiky. Cílem je zvýšení produktivity při návrhu, optimalizace příkonu a spotřeby energie výsledného obvodu při zachování výkonnosti, případně zvýšení výsledné výkonnosti.
Hlavní cíl práce je hledání možností modelování hybridních architektur a jejich automatizované syntézy a dále pak vypracování metodiky jejich efektivní implementace.
Předpokládá se práce v jazycích C a VHDL, případně v jazycích vycházejících z notace jazyka C, které byly adaptovány pro popis HW (např. SystemC, SystemVerilog apod.). Výsledky práce budou demonstrovány na vhodné výpočetní platformě (např. ZYNQ firmy Xilinx) a aplikaci (např. analýza obrazu či číslicové zpracování signálů ze senzorických polí).
Existuje možnost zapojení se do práce na grantech s možností stipendia, případně i pracovního poměru.
Doktorand v prezenční formě studia bude zapojen do výuky podle potřeb ústavu a fakulty.
Školitel: Fučík Otto, doc. Dr. Ing.
Disertační práce je zaměřena na zkoumání a rozvoj moderních IT přístupů pro analýzu duševního zdraví a pohody a aplikace psychologických metod v oblasti bezpečnosti informačních systémů. Informace o uživatelích budou zjišťována jak z mobilních zařízení, tak ze záznamů využívání služeb Internetu. Analýza potom využije moderních postupů strojového učení, detekce anomálií apod. Součástí práce bude i aplikace zkoumaných metod v rámci evropských projektů, na jejichž řešení se školitel podílí.
Cílem této disertační práce je návrh autonomního zařízení, které bude snímat a proměřovat dutiny válcového průřezu. Na základě naměřených dat vytvoří počítačový model dutiny, ve kterém pak bude hledat poškozená či jinak problematická místa. Systém bude schopen na základě minulých měření predikovat vývoj tohoto místa v budoucnu, za stejných podmínek užívání zařízení obsahujícího měřenou dutinu válcového průřezu (např. hlaveň tanku či děla). Zařízení je k dispozici + lze osadit dalšími senzory dle požadavků. Výzkum může být rozdělen do následujících etap:
Trendem výrobního průmyslu je zavádění kolaborativních robotů do výroby, což umožňuje bližší spolupráci člověka s robotem. Cílem je zefektivnit výrobu využitím robotů na opakované činnosti a pracovníka na činnosti složité, jejich robotizace by byla příliš nákladná a málo škálovatelná. Tento trend přináší nové problémy, jak s roboty efektivně komunikovat: mít představu o stavu robota a jeho chápání situace a snadno a přirozeně robota řídit a programovat. Cílem této práce je zkoumat nové možnosti komunikace člověka s robotem s využitím moderních technologií a zařízení. V rámci řešení je potřeba:
Školitel: Beran Vítězslav, doc. Ing., Ph.D.
Projekt se zabývá metrikami pro odhad vizuální kvality obrazu a videa. Cílem práce je výzkum nových metod, které by odstranily některé nedostatky existujících metrik zejména s ohledem na vlastnosti vizuálního vnímání člověka. V úvahu přicházejí např. problémy z oblasti vjemu HDR obrazu a využití přídavných informací (metadata, 3D, atd.) o testovaných scénách pomocí metod strojového učení (např. neuronových sítí).
Školitel: Čadík Martin, doc. Ing., Ph.D.
Předzpracování dokumentů je důležitým krokem, který předchází vlastní získávání znalostí nebo extrakci informací z WWW. Mezi základní úkoly předzpracování patří:
Současné metody předzpracování stránek jsou obvykle nezávislé na konkrétní aplikační doméně. Stránka je analyzována na základě vlastností HTML kódu (např. opakující se vzory) nebo na základě vizuální prezentace (nalezení oblastí na základě jejich vizuálních vlastností). Znalosti o doméně (např. jaká data chceme ve stránce nalézt a jaké jsou jejich předpokládané vlastnosti) jsou obvykle využívány až v pozdějších krocích. Ukazuje se však, že pro dosažení vyšší přesnosti by bylo vhodné uvažovat doménovou znalost již v okamžiku předzpracování.
Téma předpokládá výzkum mimo jiné v následujících oblastech:
Předpokládá se rovněž implementace prototypů navržených řešení a jejich experimentální ověření na reálných datech.
Práce se bude zabývat problematikou testování bezpečnostních produktů založenou na pravidlach a metrikách. Pro existující sadu metrik bude vytvořena množina modelů, které budou popisovat množiny metrik. Modely budou podle charakteristiky vlastností metrik vyhodnoceny a výstupem tohoto hodnocení by měla být míra úspěšnosti detekce jednotlivých typů útoků Cílem je vytvoření systému, který na základě zadaných vstupních vlastností vytvoří množinu metrik s odpovídající charakteristikou (např. nejlepší míra detekce konkrétního typu útoku). Tato sada metrik by následne měla pokrývat i neznámé útoky tohoto typu nebo množiny.
Projekt se zabývá pokročilými metodami zpracování a editace obrazu. Cílem práce je výzkum nových metod s využitím strojového učení, zejména hlubokých konvolučních neuronových sítí.
Předmětem doktorského studia bude výzkum v oblasti zlepšování kvality a redukci variability se zaměřením na statistické metody, které by bylo možné využít zejména v oblasti vývoje informačních systémů. Model systému kvality bude akceptovat moderní přístupy v této oblasti jakou je např. metodologie Six Sigma, použití grafických modelovacích nástrojů a bude akceptovat principy řízení kvality dané mezinárodními normami ISO. Dalším cílem výzkumné práce je nalezení teoretických konceptů, metod a nástrojů, jež by umožnily zdokonalování procesů řízení kvality vývoje produktů. Očekává se účast na relevantních mezinárodních konferencích a publikování v odborných či vědeckých časopisech.
Školitel: Kreslíková Jitka, doc. RNDr., CSc.
Vytváření prostředí pro procesně orientovaný přístup vývoje softwarových produktů.
Základním problémem při vývoji softwaru je správné zachycení požadavků, jejich validace a následné převedení do vyvíjeného systému. Během návrhu se používají různé modely pro zachycení rozdílných pohledů na systém - abstraktní pohled na požadavky na vyvíjený systém, podrobná specifikace scénářů chování, realizace scénářů apod. Cílem disertační práce je výzkum kombinace vybraných modelů z jazyka UML a formalismů DEVS a Petriho sítí pro modelování a realizaci požadavků na vyvíjený systém. Důležitým aspektem je zachování stejných modelů po celý vývojový cyklus s možností náhledu na systém v různé míře abstrakce.
Téma je zaměřeno na algoritmy grafiky, zpracování obrazu a videa, tedy "Visual Computing", například HDR (High Dynamic Range) obrazu, multispektrálního obrazu, stereoobrazu, případně obrazu doplněného o vlastnosti materiálu, teplotě, apod. Cílem je lépe porozumět jejich vlastnostem a možnostem, ale i aplikacim, algoritmy do hloubky analyzovat, zlepšovat a připravovat nové. Předpokládá se práce v jazyce C, C++, C#, assembleru, případě i jinak. Možné algoritmy zahrnují:
Po dohodě je možné zpracovávat i individuálně vybrané algoritmy, které ve výše uvedeném seznamu nejsou, ale patří do dané tématiky.
Je možnost spolupráce i na grantových projektech, zejména na nově podávaných projektech bezpečnostního výzkumu, H2020, ECSEL(potenciálně možnost stipendia či pracovního poměru).
Řešení tohoto projektu bude vycházet ze stávajících poznatků o modelech a metodách definice a překladu jazyků a poznatků o systémech formálních modelů, zejména překladových gramatik a automatů. Cílem je konstrukce a výzkum metod překladů založených na takovýchto systémech a to tak, aby nové metody adekvátním způsobem odrážejí potřeby moderních kompilátorů. Aplikace těchto systémů se budou soustředit na překladače.
V době, kdy je nutné vyhodnocovat stále větší množství dat, umět z nich rychle získávat informace a znalosti, vzrůstají požadavky na uživatelská rozhraní IS, které tyto činnosti dokáží uživatelům usnadnit. Navržení kvalitního uživatelského nástroje je z hlediska použitelnosti komplikované a jak poukázal například Stephen Few ve své knize Information Dashboard Design, návrháři se v mnoha případech při tvorbě UI dopouštějí různých chyb, které výrazným způsobem snižují prezentační kvalitu tohoto vizualizačního nástroje.Jedním ze způsobů vyhodnocování použitelnosti je uživatelské testování. Techniky založené na tomto přístupu dokáží poměrně spolehlivě odhalit velké množství nedostatků v použitelnosti. Jejich nevýhodou je však značné úsilí nutné pro jejich vykonání (schopnost interakce s uživateli, čas, cena). Dalším přístupem je vyhodnocování na základě měření a analýzy zvolených charakteristik uživatelského rozhraní (barvy, layout, ...). Tento přístup dokáže odhalit pouze omezené množství problémů použitelnosti avšak jeho předností je právě úspora nákladů a možná automatizace. Na FIT vyvíjíme systém, který dokáže některé rutinní činnosti vyhodnocování použitelnosti automatizovat. Tento systém se skládá ze tří částí: 1. Převod vstupního formátu uživatelského rozhraní/dashboardu (HTML, bitmapa, ...) do interní reprezentace, která nese strukturovaný popis daného UI (např. XML). 2. Výpočet charakteristik: hledání a aplikace zvolených metrik pro výpočet významných charakteristik uživatelského rozhraní. 3. Vytvoření rozhodovacího systému na základě trénovací množiny vypočtených charakteristik (trénování vhodné klasifikační funkce, neuronové sítě, ...). Výhodou této modularizace je možnost náhrady některé z částí v případě, že to konkrétní situace vyžaduje (aplikovaní vybraných metrik pro daný typ UI). Obsahem disertační práce by mělo být vhodné rozšíření vybrané části systému.Více informací po osobní schůzce.Kontakty a informace Prof. Ing. Tomáš Hruška, CSc. - hruska@fit.vutbr.cz
Školitel: Hruška Tomáš, prof. Ing., CSc.
Profilování provozu vychází ze sledování procesů běžících na daném síťovém zařízení a také z probíhající komunikace na základě metadat o komunikaci, například metadat o síťových tocích. Pomocí monitorování toků a sledování běžících procesů lze vytvářet profil daného zařízení, který obsahuje přehled komunikace zařízení v pasivním stavu (bez aktivního uživatelského vstupu), během běžného provozu i během zatížení.Profilování systému je důležité zejména proto, že mnoho aplikací komunikuje po síti bez vědomí uživatele (synchronizace s daty v cloudu, synchronizace kalendáře, kontrola příchozích emailových zpráv, načítání aktualizací). Znalost profilu systému je nezbytná pro detekci botnetu, nakažení virem či průniku útočníka do systému. Součástí výzkumu bude vytvoření nástroje pro profilování komunikace pro různé platfromy dat, sběr dat z vybraných typů zařízení, hledání otisku chování těchto zařízení (fingerprinting) v síťovém provozu pomocí shlukování či automatické vytváření filtrovacích pravidel dle profilu komunikace.Téma je součástí projektu bezpečnostního výzkumu MV Tarzan.
Návrh a realizace systémů odolných proti poruchám má za následek zvýšení plošné redundance (narůstá objem eletroniky), informační redundance (využití parity, ECC či jiného typu nadbytečné informace) nebo časové redundance (násobná realizace instrukcí). Toto téma zapadá tematicky do oblasti třetí, tzn. mezi metody, pro něž je charakteristický nárůst časové redundance. Techniky, které byly doposud využívány, se zaměřovaly především na posouzení instrukcí, které bylo nutno zdvojit - kriteriem byla jejich souvislost s konkrétní aplikací, která nesměla být ohrožena.
Cílem práce bude definování dalších kriterií, která budou rozhodovat o zdvojování instrukcí (např. rozsah hardware, který se podílí na realizaci instrukce/posloupnosti instrukcí, příkon při realizaci instrukce/posloupnosti instrukcí, doba provádění instrukce, typ instrukce). Na takto definovaných kriteriích bude vytvořena metodika pro výběr instrukcí tak, aby byla zajištěna požadovaná spolehlivost.
Cílem práce je multispektrální analýza lidských tkání pro lékařské účely. Postup práce bude následující:
Tato disertační práce se zaměřuje na návrh a implementaci nových algoritmů pro eliminaci vlivu dermatologických problémů na celkový proces rozpoznávání otisků prstů. Jednotlivé etapy práce by měly být následující:
Zvýšení odolnosti systému proti poruchám se obvykle dosahuje formou redundance, ať už se jedná o redundanci prostorovou (replikace na úrovni hardware), časovou (opakování výpočtu) nebo informační (redundantní zakódovaní informace). Uvedené přístupy jsou úzce spjaty. Zvýšení redundance však ovlivňuje spotřebu energie výsledného systému. Cílem tématu je vytvořit a implementovat metodiku návrhu systémů do prostředí, ve kterých je vyžadována vysoká spolehlivost (odolnost proti poruchám) a zároveň je kladen důraz na nízkou spotřebu (low power). Z hlediska optimalizačního se jedná o protichůdné požadavky, jejichž dosažení vyžaduje stanovení kompromisu. Prvním podcílem práce by mohlo být rozšíření dostupných prostředků pro hodnocení spolehlivosti o možnost sledování průběhu spotřeby elektrické energie testovaného systému (DUT). Námi navržený systém umožňuje sledovat projev poruch na elektromechanickém systému, jenž je simulován na PC. Jeden z dalších podcílů by zahrnoval prozkoumání vlivu poruch na spotřebu testované jednotky ve spojitosti s principy vkládání odolnosti do systémů generovaných syntézou HLS, navrženými již dříve rovněž v rámci naší skupiny. Naše principy zahrnují kombinaci redundance prostorové, časové i informační. Vyhodnocení experimentů se zmíněnými prostředky poslouží jako základ pro následný výzkum v dané oblasti. K získání experimentálních výstupů je možné využít dostupných výsledků, kterých v posledních letech tým školitele doc. Kotáska dosáhl:
1) Byla implementována metodika zaměřená na ověřování elektromechanických aplikací z hlediska jejich odolnosti proti poruchám. 2) Navrhli a zrealizovali jsme řadič pro řízení částečné dynamické rekonfigurace po výskytu přechodné nebo trvalé poruchy v FPGA, rozšířili jsme jej o schopnost řídit opravu několika samostatně se vyskytujících trvalých poruch. 3) Navrhli a implementovali jsme metodu vkládání redundance do obvodů realizovaných pomocí vysokoúrovňové syntézy (HLS) s využitím vysokoúrovňových modifikací kódu před jeho zpracováním syntézou HLS. 4) Navrhli jsme metodiku pro synchronizaci stavu systému odolného proti poruchám po odstranění vzniklé poruchy. 5) Vytvořili jsme a implementovali metodiku pro automatickou konstrukci hlídacích obvodů v systémech odolných proti poruchám nakonfigurovaných do FPGA. 6) Vytvořili jsme testovací platformu pro ověřování reakce systémů odolných proti poruchám implementovaných do rekonfigurovatelných architektur na injektované poruchy. 7) Navrhli jsme metodiku pro realizaci systému odolného proti poruchám do omezeného implementačního prostoru v FPGA. Naše výsledky publikujeme na konferencích a v časopisech s IF. Příspěvek, v němž popisujeme naši metodiku synchronizace po poruše získal v prosinci roku 2014 Best Paper Award na konferenci IEEE ICCES v Egyptě.
Na současné systémy jsou kladeny stále větší nároky nejen z hlediska flexibility a efektivity jejich běhu na moderních výpočetních platformách, ale také z hlediska jejich činnosti a služeb, které poskytují a způsobu jejich řízení. Cílem řešení tématu je zejména:
Implicitně se předpokládá orientace projektu na číslicové elektronické systémy, nicméně téma je možno dále orientovat/specializovat, např. do oblastí systémů založených na procesorech a/nebo programovatelných zařízeních typu FPGA, zařízení rekonfigurovatelných za běhu, či elektro-mechanických (cyber-physical) systémů, spolehlivosti technického vybavení, základního programového vybavení (firmware), vrstvy operačního systému, aplikační vrstvy apod.
Školitel: Strnadel Josef, Ing., Ph.D.
Umělé neuronové sítě (ANN) a tzv. hluboké neuronové sítě se v poslední době hojně používají v komplexních úlohách klasifikace, predikce a rozpoznávání. Jejich hlavní nevýhodou je však vysoká výpočetní a energetická náročnost. V oblasti aproximativního počítání (approximate computing) jsou hledány alternativní nízkopříkonové obvodové implementace těchto sítí, které by byly použitelné i v systémech s omezenými energetickými zdroji, jako jsou např. uzly IoT. Cílem disertační práce bude zkoumat možnosti aproximace jednotlivých komponent ANN a docílit přijatelného kompromisu mezi kvalitou a energetickou náročnosti výpočtu. Bude se jednat zejména o aproximace aritmetických operací při násobení vstupu konstantou, aproximace aktivačních funkcí, konvolučních operací a přístupu do paměti. Výzkum spadá to témat řešených výzkumnou skupinou Evolvable Hardware.
Školitel: Sekanina Lukáš, prof. Ing., Ph.D.
Tématem disertační práce bude systemizace metod a prostředků pro obecné optimalizace (spojité i diskrétní). Postup práce by měl být následující:
Řešení tohoto projektu bude vycházet ze stávajících poznatků teorie formálních jazyků o modelech definující jazyky. Projekt se zaměří na automaty a gramatiky. Cílem je konstrukce a výzkum nových verzí těchto modelů a to tak, aby adekvátním způsobem odrážely potřeby moderní informatiky. Řešení projektu bude rovněž zahrnovat diskuzi aplikací těchto systémů např. v oblasti bezpečnosti.
Problematika: Stávající automatizované antivirové systémy dosahují vysoké míry přesnosti v rozhodování, jestli je daný soubor škodlivý či nikoliv. Podstatně hůře pak dokáží určovat, o jaký konkrétní typ malwaru (např. banker, infector, worm...), kmene, natož pak varianty tohoto kmene jde.Cíl práce: Jednalo by se o navržení, implementaci a validaci systému, založeného na strojovém učení, který by na základě dostupných informací dokázal "značkovat" nově příchozí škodlivé vzorky přesným určením jejich typu, kmene a varianty.Mezi dostupnými informacemi lze nalézt: existující detekční sekvence bajtů, algoritmické detekce, dynamické informace z emulátorů/sandboxů/runtime, přesná Yara pravidla atd. Dále se může využít celá řada podpůrných indicií, které sami o sobě nejsou použitelné pro detekci, ale mohou posloužit pro určení typu. Při řešení je potřeba počítat s tím, že množina informací může být neúplná (např. nebudou aktuálně k dispozici dynamické informace).Projekt bude řešen v přímé spolupráci s firmou Avast.Mimořádní i řádné stipendium lze získat např. z interní grantové agentury, případně z dalších zdrojů.
Cílem této disertační práce je návrh nových metod pro vysoce efektivní vstup a výstup paralelních simulačních algoritmů. Práce klade důraz na distribuci zátěže přes vícenásobné RAID pole, překrývání vstupu a výstupu s výpočtem, offloadování vstupu a výstupu na dedikované uzly, bufferování dat, apt.Výstupem práce bude technika, která na základně aktuálního vytížení výpočetního clusteru a požadavků simulace automaticky navrhne nejvhodnější strategii. Tohoto výsledku bude dosaženo pomocí online sběru a vyhodnocení výkonnostních metrik a technik umělé inteligence a strojového učení.
Předmětem práce je návrh shluků (clusters) obchodních modelů a/nebo jejich parametrů, které budou zachovávat předepsané požadavky na minimalizaci kumulativních rizik, vznikajících při alokaci portfolia s využitím těchto systémů na paralelních časových řadách finančního trhu. Cílem práce je splnění kritérií na linearitu křivky ekvity a minimalizace kumulativního rizika. Očekává se účast na relevantních mezinárodních konferencích a publikování v odborných či vědeckých časopisech.
Zintenzivnění letového provozu v podmínkách silné oborové konukrence vytváří předpoklad pro výzkum, vývoj a implementaci nástroje pro optimalizaci letové trajektorie, který zohlední rozhodovací proces pilota. Samotným cílem práce bude vytvoření algoritmů a jejich následná softwarová implementace do podoby nástroje pro plánování trajektorie letu, který obsáhne interaktivní automatické řešení letové trajektorie s využitím optimalizačního přístupu při zohlednění uživatelské preference a nejistoty v definici prostorového pohybu letounu. V rámci syntézy bude řešeno modelování a simulace rozhodovacícho procesu pilota při prostorovém manévrování, přičemž syntéza skupinového rozhodování bude vycházet z konceptu prioritarizace informace.
Tato práce se bude zabývat algoritmy pro plánování pohybu robota. Ty ale většinou neuvažují s věcmi jako je hmotnost a setrvačnost robota, případně pohybová omezení daná typem podvozku. Výsledkem práce by měl být algoritmus, který pro robota s konkrétním typem podvozku nalezne optimalizovanou cestu na základě výše uvedených kritérií a podle zadaných parametrů. Plánovací metoda by měla být schopna vyrovnat se s nečekanými událostmi během pohybu robota, tj. detekovat kolizi či změnu prostředí zásadní pro dokončení naplánovaného pohybu. Školitel specialista: Ing. Jaroslav Rozman, Ph.D.
Téma je zaměřeno na algoritmy počítačové grafiky a obecně syntézy obrazu. Hlavním cílem je zkoumat algoritmy počítačové grafiky, související datové struktury, související otázky zpracování signálu a/nebo obrazu i související otázky získávání a zpracování 3D modelů tak, aby bylo lépe rozumět jejich vlastnostem a možnostem, algoritmy do hloubky analyzovat, zlepšovat a připravovat nové. Předpokládá se práce v jazyce C, C++, C#, assembleru, případě i jiných jazycích. Bude-li zájem, je možno pracovat i na paralelních CPU jádrech x86/64, ARM, Xeon PHI, GPU apod. v OpenCL, CUDA, v FPGA ve VHDL, případně i jinak. Možné algoritmy zahrnují:
V posledních letech bylo ukázáno, že volbou vhodné reprezentace a postupu hledání přechodových pravidel je možné navrhovat složité vícestavové celulární automaty, jejichž chování bylo zatím nedosažitelné existujícími technikami. Nové výzkumy naznačují, že tyto postupy je možné dále vylepšovat a dosáhnout tak zefektivnění procesu návrhu či zcela nových řešení vybraných problémů poskytnutých výsledným celulárním automatem. V rámci disertační práce se předpokládá extensivní výzkum vybraných tříd celulárních systémů a hledání nových metod vedoucích k optimalizaci jejich návrhu či samotných výpočtů úloh, které na nich budou realizovány. Za možné směry lze uvažovat též akcelerace výpočtů pomocí superpočítačů, jednotek GPU, případně FPGA.Školitel specialista: Ing. Michal Bidlo, Ph.D.
Použití mobilních zařízení pro přístup ke službám na Internetu stále roste. Většina aplikací pro mobilní zařízení vzniká narychlo, aby uspokojila poptávku uživatelů. S tím souvisí i chyby v návrhu aplikací, bezpečnosti a zajištění privátnosti dat uživatele. Architektura mobilních aplikací kombinuje přístup klient - server s přístupem sítí peer-to-peer známých na Internetu, přesto se způsob práce mobilních aplikací liší od aplikací na běžných počítačích. Téma disertační práce se týká vývojem a aplikací pokročilých metod pro monitorování mobilní komunikace a její analýzu za účelem účtování služeb, sledování výkonu a detekce bezpečnostních hrozeb. Pro detekci a monitorování provozu mobilních zařízení je vhodné využít techniky profilování chování zařízení z pohledu komunikace založené na sledování toků a komunikujících aplikací na zařízení. Z pohledu síťové komunikace je možné využít techniky otisku zařízení (fingerprinting) a strojového učení pro vytvoření databáze běžných zařízení. Z hlediska analýzy provozu je vhodné detekovat typy aplikací různými inteligentními metodami (SPID, pomocí vzorů, apod.).Student při řešení bude analyzovat vybrané mobilní aplikace, na kterých bude aplikovat vhodné metody pro detekci a monitorování. Cílem práce je definovat vzory typického chování s ohledem na dynamické chování a stanovit možnosti detekce bezpečnostních incidentů (útoky, viry, apod.) na základě těchto vzorů. Téma je součástí projektu IGA Výzkum pokročilých metod ICT.
Projekt se zabývá pokročilými metodami syntézy obrazu. Cílem práce je výzkum nových metod pro fotorealistické (fyzikálně založené) i nefotorealistické (NPR) simulace světelné interakce ve scéně. Předpokládá se intenzivní spolupráce a stáže na špičkových institucích a firmách v oboru (Adobe, USA, MPII Saarbrücken, Německo, Disney Curych, Švýcarsko, INRIA Bordeaux, Francie).
Projekt se zabývá pokročilými metodami výpočetní fotografie. Cílem práce je výzkum nových metod pro výpočetní fotografii, což zahrnuje zejména softwarové řešení, které může být případně dále kombinováno s novou optikou a dalším hardware. Mezi oblasti výzkumu patří zpracování HDR obrazu a videa, převod barevného obrazu na černobílý, spektrální obraz, atd.
Praktické rozhodování u BDI systému je založeno na průběžném budování modelu záměrů agenta a následném provádění tohoto modelu. Původní výpočetní systém BDI agentů, systém AgentSpeak(L) nechával prostor pro další specifikaci některých výpočetních kroků, jakými jsou volba z více možných prostředků k dosažení cílů, volba záměrů k vykonání či volba substitucí při provádění formálních odvozování. Právě na hledání preferencí při výběru prostředků a záměrů se bude soustředit práce v rámci tohoto zadání. Výsledkem má být systém, jehož praktické rozhodování bude vykazovat vyšší míru racionality než vykazují v současnosti existující řešení BDI systémů.
Evoluční návrh je často prováděn pomocí genetického programování a jeho moderních technik, jakými jsou např. sebemodifikace kódu, sémantikou řízené genetické operátory, koevoluce a pokročilé metody reprezentace a evaluace kandidátních řešení. Cílem projektu je navrhnout a implementovat systém genetického programování, který bude využívat několik takových technik současně. Na úlohách zejména z oblasti návrhu obvodů, hlubokých neuronových sítí, aproximativního počítání a symbolické regrese bude experimentálně vyhodnocována účinnost jednotlivých technik a jejich kombinací. Výzkum spadá to témat řešených výzkumnou skupinou Evolvable Hardware.
Na současné operační systémy (OS) jsou kladeny stále větší nároky nejen z hlediska flexibility a efektivity jejich běhu na moderních výpočetních platformách, ale také z hlediska spolehlivosti činnosti jejich jader a služeb, které poskytují aplikační vrstvě. Cílem řešení tématu je zejména:
Téma je možno orientovat různými směry, např. do oblasti nízkopříkonových aplikací/OS či aplikací/OS určených k běhu na vestavných platformách či na více jádrech. Z hlediska operačních systémů je možno stavět na škále "konvenčních" OS typu Unix, Linux, Android, Windows, iOS či specializovaných OS typu QNX, uC/OS-I(II, III), FreeRTOS, MQX apod.
Pokročilé avionické systémy pro dopravní letouny a letouny všeobecného letectví budou vyžadovat návrh a implementaci moderního protokolu pro komunikaci mezi palubní zobrazovací jednotkou a uživatelskou aplikací. Současné průmyslově akceptované řešení způsobuje nežádoucí latenci a do jisté míry také omezení rozsáhlejší interakce s palubním avionickým systémem. Cílem práce bude návrh moderního komunikačního protokolu a funkcionality podporované zobrazovacími systémy, které budou využitelné ve vývoji budoucích palubních displejových systémů podléhajících certifikaci leteckým úřadem.
Cílem práce je vyhledávat a vytvářet algoritmy, které umožní v reálném čase provozovat rozšířenou realitu na mobilních (ultramobilních) zařízeních. Jedná se především o algoritmy určení/sledování pozice mobilního zařízení v prostoru pomocí počítačového vidění a využitím vestavěných senzorů mobilního zařízení. Dále se práce zaměří na algoritmy zobrazování virtuálních prvků do reálné scény a na aplikace rozšířené reality na mobilním zařízení.
Vývoj simulačních technologií směřuje v posledním desetiletí k přirozené integraci prvků rozšířené reality, jejichž širšímu uplatnění brání nedostatky plynoucí ze současného stavu techniky. Cílem práce bude analýza, návrh a implementace nových přístupů pro zvýšení autenticity rozšířené reality pro využití v komplexních simulacích v reálném čase.
Cílem práce bude vytvoření co nejpřesnějšího modelu kvadrokoptéry a následná tvorba a testování algoritmů řízení letu kvadrokoptéry. Jedním z podcílů práce bude vytvořit platformu pro testování řídicích algoritmů pro vysoce nelineární systémy. Dalším podcílem bude vybavit reálnou kvadrokoptéru takovými senzory, které umožní její bezpečný let ve vnějším i vnitřním prostředí.Školitel - specialista: Ing. Jaroslav Rozman, Ph.D.
Statická analýza postavená na formálních základech je moderním a rychle se rozvíjejícím přístupem k ověřování korektnosti počítačových systémů, resp. pro vyhledávání chyb v nich. Existuje a dále se rozvíjí mnoho přístupů k takové analýze či verifikaci: analýza toku dat, pokročilé typové analýzy, abstraktní interpretace, model checking apod. Značná pozornost je těmto přístupům věnována nejen v akademické oblasti, ale také řadou špičkových velkých průmyslových společností (např. IBM, Microsoft, Google, NEC, Red Hat, Facebook, Amazon apod.) i nově vznikajících spin-off firem (např. Coverity, GrammaTech, AbsInt, DiffBlue apod.). Přes tento zájem univerzit i průmyslových společností je však v oblasti statické analýzy stále zapotřebí vyřešit celou řadu teoretických i praktických problémů. Předmětem disertační práce bude konkrétně rozvoj současného stavu v oblasti statické analýzy zaměřené na programy se složitými řídicími a/nebo datovými strukturami: zvýšení obecnosti těchto technik, zvýšení jejich škálovatelnosti, zlepšení stupně automatizace. Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT automatizovanou analýzou a verifikací, zejména pak dr. L. Holíkem, doc. A. Rogalewiczem, dr. O. Lengálem, dr. P. Peringerem, Ing. T. Fiedorem, Ing. M. Hruškou, Ing. V. Šokovou či Ing. V. Malíkem. Je zde rovněž možnost úzké spolupráce s různými zahraničními partnery VeriFIT: Uppsala University, Švédsko (prof. P.A. Abdulla, prof. B. Jonsson, dr. Rummer); Verimag, Grenoble, Francie (dr. R. Iosif), IRIF, Paříž, Francie (prof. A. Bouajjani, dr. M. Sighireanu, dr. C. Enea), Academia Sinica, Tchaj-wan (prof. Y.-F. Chen), TU Vienna, Rakousko (dr. F. Zuleger), University of Oxford, Velká Británie (dr. A.W. Lin) či TU Braunschweig, Německo (prof. R. Meyer). Téma je zajímavé také z pohledu spolupráce s průmyslovými společnostmi, zejména pak DiffBlue z Velké Británie (dr. P. Schrammel), která vyvíjí mj. statický analyzátor 2LS, do jehož vývoje se již tým VeriFIT zapojil v několika oblastech. Dalšími možnými průmyslovými partnery jsou např. Red Hat či Honeywell.V oblasti statické analýzy programů dosáhla skupina VeriFIT mnoha originálních výsledků publikovaných na špičkových konferencích (např. v oblasti analýzy programů s dynamickými datovými strukturami, parametrickými datovými strukturami, neomezenými poli, řetězci či parametrickým počtem procesů). Řada z dosažených výsledků byla implementována v nástrojích (např. Predator či Forester), které získaly řadu ocenění např. na mezinárodní soutěži ve verifikaci software SV-COMP. Konkrétní výzkum v rámci tématu se zaměří na další významné zdokonalení metod, na nichž tyto nástroje stojí, ať už se jedná o techniky založené na automatech, logikách či grafech. Cílem bude např. umožnit efektivní analýzu programů s více různými typy dat (např. ukazatele a celočíselné proměnné), navrhnout nové techniky analýzy programů s dynamickými datovými strukturami (např. s využitím analýzy založené na šablonách a vazby na řešení SAT/SMT problémů), umožnit efektivní verifikaci konečnosti a nekonečnosti běhu programů či automatickou analýzu složitosti, umožnit verifikaci fragmentů kódu, umožnit verifikaci paralelních programů, kde každé jednotlivé vlákno má neomezený stavový prostor či také kombinovat různé (omezené) statické a dynamické analýzy programů za účelem efektivního vyhledávání chyb v nich.V rámci tématu se student může také aktivně zapojit do různých grantových projektů, jako je např. projekt GA ČR Robust či evropský projekt H2020 ECSEL Aquas.
Průmysl 4.0 je populárním pojmem, který zastřešuje postupný vývoj a aktuální trendy v oblasti průmyslové automatizace a výměny dat z výroby, kyber-fyzických systémů, internetu věcí, cloudového počítání a chytrých továren. Velká data z výroby je možné použít na modelování výrobních procesů a odhalování kritických míst, pro prediktivní údržbu, podporu plánování navazujících logistických aktivit apod.Cílem disertační práce je výzkum a vývoj metod strojového učení, které budou dostatečně robustní, aby si poradily s proměnlivou kvalitou dat, a přitom dostatečně kvalitní, aby umožnily analýzy a predikce, přinášející průmyslu novou hodnotu. Práce budou navázany na mezinárodní projekty, na jejichž řešení se školitel podílí.
Syntéza programů a výpočetních modelů patří mezi moderní a rychle se rozvíjející oblast formálních metod. Cílem syntézy je automatizované nalezení programu či matematického modelu, který splňuje požadované chování specifikované vhodným způsobem. Výzkumu efektivních metod syntézy je v současnosti věnována značná pozornost v oblastech formální verifikace, návrhu a implementace programovacích jazyků, umělé inteligence a systémové biologie, o čemž svědčí zaměření řady špičkových konferencí (např. CAV, POPL, PLDI či CMSB). Syntézou programů a modelů se rovněž zabývá řada velkých projektů na špičkových universitách a výzkumných institucích (např. Berkeley University či Microsoft Research). Předmětem disertační práce bude zejména návrh metod pro syntézu stochastických modelů, které poskytují vhodnou abstrakci při návrhu a analýze počítačových systémů a komunikačních protokolů. Stochastické modely se rovněž často používají pro popis a analýzu řady biochemických procesů. Konkrétní výzkum v rámci tématu se zaměří na syntézu pomocí skeče, převod problému syntézy na řešení instancí SAT/SMT problémů a evoluci programů/modelů pomocí genetického programování. Tyto techniky byly úspěšně použity při syntéze deterministických programů/modelů, ale jejich efektivní aplikace na syntézu stochastických modelů vyžaduje řešení celé řady teoretických i praktických problémů, spojených zejména s nutností syntetizovat kinetické parametry modelů a s výpočetně náročnějšími metodami dovolujícími ohodnotit kvalitu kandidátních modelů. Klíčovou vlastností navrhovaných metod je, vzhledem k velikosti programu/modelu a vzhledem ke složitosti specifikace jeho chování, jejich škálovatelnost. Proto bude předmětem disertační práce rovněž výzkum efektivních metod pro kvantitativní analýzu zahrnující abstrakci a agregaci stochastických modelů, časovou separaci přechodů či návrh efektivních metod pro hodnocení kandidátních řešení. Součástí výzkumu bude také možnost přibližného a/nebo masivně paralelního řešení uvedených problémů. Práce bude řešena ve spolupráci s týmem VeriFIT (zejména s dr. M. Češkou jr. v roli školitele specialisty), který se zabývá automatizovanou analýzou a verifikací počítačových systémů, jež je jedním z přirozených předstupňů pro automatickou syntézu, a rovněž se skupinou prof. L. Sekaniny, který se zabývá evolučními algoritmy a genetickým programováním. Tyto výzkumné týmy dosáhly mnoha originálních výsledků v oblasti různých aplikací formální technik (jež mohou být použity jako výhodný startovací bod pro vývoj nových technik hodnocení kandidátních řešení) i v oblasti evolučního řešení problémů. Dále se počítá s úzkou spoluprací se skupinou prof. M. Kwiatkowské z Oxford University, jež patří mezi nejlepší vědecké týmy v dané oblasti. Některé publikace související s tématem -- další viz níže:
Řešení tohoto projektu bude vycházet ze stávajících poznatků o regulovaných formálních modelech, zejména automatů a gramatik. Cílem je konstrukce a výzkum nových systemů regulovaných automatů a gramatik, které adekvátním způsobem odrážejí potřeby moderních výpočetních metod založených na distribuci, kooperaci a regulaci. Kanonické a redukované verze těchto system budou centrem tohoto studia. Aplikace těchto systémů se budou soustředit na modelování a výzkum organismů v molekulární biologii a genetice.
Rozvoji technologií výroby číslicových obvodů, zejména co do jejich rychlosti (a tedy z pohledu informatiky výpočetního výkonu takto realizovaného stroje), se v posledních desetiletích zatím stále daří naplňovat již dávno ustanovený Mooreův zákon. Pocit blízkosti technologických limitů však motivuje výzkumníky k tomu, aby hledali i nové technologie realizace číslicových obvodů. Mezi ně patří například prvky na bázi uhlíku, realizované nanotechnologiemi, které se chovají podobně jako klasické polovodiče, ale i další. U řady těchto nekonvenčně realizovaných prvků se objevuje zajímavý efekt, totiž možnost realizace více než jedné logické funkce jedním logickým prvkem (vícefunkčnost). Efekt vícefunkčnosti však může dobře sloužit k realizaci kompaktních implementací i s využitím konvenčních polovodičových prvků (současná polymorfní elektronika).
Efektivní využití možnosti realizace více než jedné logické funkce jedním prvkem závisí převážně na dostupných technikách návrhu a jejich schopnosti pracovat s více cílovými funkcemi. Konvenční techniky návrhu jsou v těchto případech použitelné jen velmi omezeně, evoluční techniky návrhu často naráží na problém škálovatelnosti.
Tato práce by měla
Školitel: Růžička Richard, doc. Ing., Ph.D., MBA
Řešení tohoto projektu bude vycházet ze stávajících poznatků o moderních formálních modelech, které se používají v teorii jazyků. Teoretický výzkum těchto modelů bude diskutovat užitečné transformace těchto modelů, jako např. eliminace vymazávajících pravidel či redukce velikosti jejich komponent. Výzkum aplikací takto transformovaných modelů se bude soustředit na oblasti informatiky související s překladači, matematickou lingvistikou a molekulární biologií.
Tématem disertační práce bude problematika Bayesovských sítí. Postup práce by měl být následující:
Cílem práce bude navrhnout a ověřit platformu pro akceleraci algoritmů vestavěné inteligence. Důraz bude kladen na optimalizaci výpočtů pro práci v reálném čase a nízký příkon. V práci budou zkoumány možnosti efektivní implementace klasifikátorů a hlubokých neuronových sítí a jejich vhodného kombinování.
Např. použití obrazových klasifikátorů pro výběr vhodných kandidátních snímků pořízených kamerou a jejich následné zpracování v neuronové síti či kaskádě sítí (např. jednoduchá a rychlá síť v FPGA, pomalejší, ale přesnější v CPU a konečně velmi hluboká a přesná neuronová síť běžící na cloudu či clusteru), může přinést výrazné omezení datových toků. Důsledkem pak může být nejen urychlení výpočtů (čím přesnější je síť, tím je výpočetně a energeticky náročnější a není tedy vhodné ji spouštět na každý snímek pořízený kamerou), ale také výrazné snížení příkonu (přenosy dat mají často větší energetické nároky než výpočty samé).
Kvalita a efektivita navržených algoritmů a výpočetních struktur bude ověřována na reálných datech. Pro implementaci navržených algoritmů se zvažuje využití hybridních výpočetních platforem kombinující výhody technologií FPGA, CPU a GPU.
Předpokládá se spolupráce na výzkumných grantových projektech. Možné aplikace zahrnují tzv. chytré kamery, které rozpoznávají zájmové objekty v reálném čase, senzory s vestavěnou inteligencí pro robotiku či IoT atd.
Petriho sítě se ve vestavěných a řídicích systémech úspěšně používají již od 70tých let (viz např. SFC, Grafcet). Důvodem jejich popularity je sugestivní vizuální vyjádření, možnost simulace a možnost využití teorie Petriho sítí pro ověření důležitých vlastností systému. Kromě původních Petriho sítí lze dnes ve stejné oblasti použít i vysokoúrovňové Petriho sítě, které kombinují pozitivní vlastnosti původních Petriho sítí s možnostmi vysokoúrovňových programovacích jazyků (strukturované datové typy, objektová orientace). Tím je možné dostat se s Petriho sítěmi i do vyšších úrovní řízení, než je field level a PLC. Cílem aktuálního výzkumu je ověřit aplikovatelnost specifické varanty vysokoúrovňových Petriho sítí, Reference Nets, v návrhu a realizaci distribuovaných a hierarchicky organizovaných řídicích systémů. Reference Nets pracují s dynamicky instanciovatelnými a vzájemně komunikujícími vysokoúrovňovými Petriho sítěmi a umožňují modelovat systém ve vrstvách. Současně umožňují dynamicky rekonfigurovat strukturu systému. Tyto vlastnosti předurčují Reference Nets pro modelování a implementaci komplexních systémů s diskrétními událostmi a kromě toho mohou být Reference Nets efektivně využity v situacích, kdy je požadována dynamická rekonfigurovatelnost systému. Vzhledem k tomu, že u typických komplexnějších řídicích systémů se automaticky předpokládá adaptabilita na průběžně se měnící požadavky a podmínky, v kterých systém pracuje, o mimořádné aktuálnosti tohoto výzkumu nemůže být sebemenších pochyb.Existující implementace Reference Nets (kterou udržují kolegové v Hamburku) není přímo použitelná pro řízení, protože nebyla s tímto cílem navržena (nepracuje v reálném čase, instalace a rekonfigurace je obtížně realizovatelná). Proto byla v Brně navržena a prototypově realizována alternativní implementace, pracující s rozumnou podmnožinou původního inskripčního jazyka, umožňující běh na uzlech s omezenými zdroji a umožňující dynamicky nainstalovat, aktivovat, deaktivovat i odinstalovávat aplikace ve formě Reference Nets. Touto implementací je PNVM - Petri Net Vitrtual Machine. PNVM doplněný o ovladače pro vstupy a výstupy a příkazový interpret (shell, realizovaný pomocí Petriho sítí) se nazývá PNOS - Petri Net Operating System. Tento systém je určen k běhu na uzlech distribuovaného systému.PNOS je použitelný jako východisko pro případná rozšíření a modifikace v rámci aplikací. Momentálně jsou aktuální například aplikace v oblasti Smart Home a IoT (vč. Industrial IoT). V rámci řešení je možná i spolupráce se spřáteleným pracovištěm na univerzitě v Hamburku.Pro více informací se stavte osobně, ideálně v odpoledních hodinách.Doc. Ing. Vladimír Janoušek, Ph.D.http://www.fit.vutbr.cz/~janousek/janousek@fit.vut.cz
Aproximativní počítání (approximate computing) je nová a bouřlivě se rozvíjející výzkumná oblast v rámci které jsou hledány alternativní (typicky nízkopříkonové) implementace nejen základních stavebních komponent jako jsou např. sčítačky a násobičky, ale také komplexních obvodových celků. Aproximace obvodů používaných v oblasti zpracování multimediálních dat patří díky vysoké rezistenci multimediálních aplikací vůči chybám a možnosti dosažení značné úspory energie mezi jeden z nejvyhledávanějších cílů. Cílem disertační práce bude zkoumat možnosti aproximace obvodové implementace nově vzniklého video kodeku H.265 (označováného jako HEVC), jehož nasazení je plánováno např. ve standardu DVBT2. V rámci disertační práce se student bude zabývat optimalizací kodeku HEVC z pohledu příkonu s využitím technik aproximativního počítání. Problém spočívá ve vytipování vhodných částí kodeku a navržení způsobu jejich aproximace. Nabízí se též možnost kombinovat různé aproximované komponenty a hledat nejvhodnější kompromis z pohledu příkon versus kvalita.
Školitel: Vašíček Zdeněk, doc. Ing., Ph.D.
Moderní GPU nabízejí možnosti zásadního zrychlení výpočtů pomocí jejich paralelizace. Grafické karty Nvidia a architektura CUDA navíc přinášejí relativní nezávislost na použití v čistě grafických úlohách. Mluví se o tzv. GPGPU (General Purpose GPU).Cílem disertační práce je výzkum možností paralelizace výpočetně náročných úloh, které je možné převést na GPU. V rámci řešení by měla vzniknout obecná metodika umožňující odhad možného zrychlení výpočtu, případně charakterizující rozsah omezení, daných použitou architekturou GPU. Výsledky budou demonstrovány na vybraných problémech zahrnujících časově náročné výpočty.
Na současné systémy jsou kladeny stále větší nároky nejen z hlediska flexibility a efektivity jejich běhu na moderních výpočetních platformách, ale také z hlediska jejich bezpečnosti. Cílem řešení tématu je zejména:
Logování událostí síťových zařízení i aplikací je důležitým zdrojem dat pro správu sítě. Většina profesionálních SIEM systémů získává logovací soubory z mnoha síťových zařízení a služeb. Pro zpracování se často využívá hledání řetězců (pattern-based monitoring) či vyhledávání dotazacími jazyky typu SQL. Toto je však problematické u rozsáhlých souborů, kdy hledání jednotlivých informací a jejich korelace nemůže být řešena manuálně. Jedním z přístupů pro hledání bezpečnostních incidentů na základě logovacích informací, je rekonstrukce pomocí temporální logiky a jazyka EPL (Event Processing Language). Pomocí temporální logiky je možné popsat chování známých útoků, které je pak možné převést do jazyka EPL a aplikovat nad soubory s logovacími informacemi.Cílem tématu je prozkoumat možnost využití temporální logiky pro bezpečnostní analýzu logovacích souborů, navrhnout systém pro testování formulí popisujících útoky nad logacími daty a ověřit jeho funkčnost na běžných zdrojích logovacích záznamů. Téma je součástí projektu bezpečnostního výzkumu MV Tarzan.
Rapidní rozvoj technologií způsobil, že techniky tzv. soft computing je možné dnes aplikovat v oblastech, kde jejich použití bylo nemyslitelné. Jednou z takových oblastí je např. kryptografie a konkrétně kryptoanalýza. Kryptografické algoritmy typicky procházejí rozsáhlým a časově náročným procesem testování, během kterého musí experti posoudit jejich bezpečnost. Ukazuje se však, že tuto činnost je možné, pokud ne zcela, tak alespoň částečně automatizovat a to zejména v počátečních fázích analýzy.Cílem disertační práce bude zkoumat možnosti automatického návrhu tzv. rozlišovačů, které hledají nechtěné statistické defekty (závislosti mezi bity a skupinami bitů) ve výstupní sekvenci produkované daným kryptografickým algoritmem. Doposud byly rozlišovače konstruovány pomocí tzv. brute-force přístupu. Tento přístup však není škálovatelný a vyžaduje problém výrazně zjednodušit. Prvotní experimenty s evoluční strategií ukázaly, že je možné v kratším čase dosáhnout výrazně kvalitnějších výsledků. Snahou bude proces zefektivnit zavedením pokročilejších algoritmů jako je např. genetické programování, neuronové sítě apod.
Řešení tohoto projektu je založeno na rostoucím významu inteligentních budov a potřebnosti komunikační infrastruktury pro jednotlivé komponenty inteligentních autonomních systémů v budovách. Při výzkumu tématu bude především kladena pozornost na bezdrátové sítě pro komunikaci. Odolnost a bezpečnost těchto sítí jak proti náhodných výpadkům, tak proti úmyslným útokům je nepřehlédnutelným požadavkem při využívání inteligentních budov. Řešení by se mělo soustředit jak na studium a návrh odolných sítí, tak i kvantifikaci odolnosti a analýzu možných následků různých nehod, nebo útoků.Alternativně se téma může zabývat bezpečnosti komunikační infrastruktury pro inteligentní vozidla.
Zvyšující se náklady na výrobu čipů a tlak na technologický vývoj spočívající zejména v neustálém zmenšování prvků vedou ve stále větší míře a u většího počtu producentů k přesunu výroby do levnějších lokalit, zpravidla k externím subjektům. Jen málokterý výrobce si může dovolit mít vlastní výrobu polovodičů. Odvrácenou stranou úspor prostřednictvím outsourcingu jsou zvýšená rizika modifikací návrhu s cílem zajistit přístup (k datům, k řízení), vypnutí či možnosti ovlivnění funkce cizích vyrobených čipů nasazených do aplikací, aniž by to zákazník poznal. Již jsou známy případy úspěšného využití takových technik. V této souvislosti se mluví o tzv. hardwarových trojských koních. Vyvíjí se proto techniky detekce takových modifikací, případně obrany proti nim. Jednou z možností detekce hardwarových trojských koní je například tzv. IP watermarking.
Tzv. polymorfní či multifunkční elektronika je výzkumnou oblastí, zkoumající možnosti realizace více funkcí jedním číslicovým obvodem, aniž by docházelo ke strukturální změně tohoto obvodu (rekonfiguraci). Ukazuje se, že tato koncepce může být užitečná zejména tam, kde další funkce obvodu bude využívána jen příležitostně a cena za její implementaci by proto měla být minimální. Takovými aplikacemi může být například vestavěná diagnostika, zvýšená odolnost proti poruchám nebo právě watermarking.
Cílem práce bude
Téma je zaměřeno na algoritmy zpracování obrazu, videa a/nebo signálu. Hlavním cílem je zkoumat a do hloubky analyzovat příslušné algoritmy a hledat nové tak, aby měly nové potřebné vlastnosti, a bylo možné je efektivně implementovat. Taková efektivní implementace může , ale nemusí být součástí práce, ale důležité je algoritmy připravit tak, aby šly efektivně zpracovávat například v CPU, v CPU s akcelerací SSE instrukcemi, v embedded systémech, v embedded systémech s FPGA, v Intel Xeon PHI, v systémech s extrémně nízkým příkonem, případně v jiném prostředí. Předpokládá se práce v jazyce C, C++, C#, assembleru, CUDA, OpenCl, případně VHDL či dalších jazycích. Důležité jsou též aplikační možnosti algoritmů s tím, že samotná aplikace může, ale nemusí být součástí řešení. Možné algoritmy/aplikace zahrnují:
Po dohodě je možné zpracovávat i individuálně vybrané téma, které ve výše uvedeném seznamu není, ale patří do dané tématiky.
Je možnost spolupráce i na grantových projektech, zejména na nově podávaných projektech bezpečnostního výzkumu, H2020, SCSEL (potenciálně možnost stipendia či pracovního poměru).