Přístupnostní navigace
E-application
Search Search Close
study programme
Original title in Czech: Informační technologieFaculty: FITAbbreviation: DITAcad. year: 2021/2022
Type of study programme: Doctoral
Study programme code: P0613D140028
Degree awarded: Ph.D.
Language of instruction: Czech
Accreditation: 8.12.2020 - 8.12.2030
Profile of the programme
Academically oriented
Mode of study
Combined study
Standard study length
4 years
Programme supervisor
prof. Ing. Lukáš Sekanina, Ph.D.
Doctoral Board
Chairman :prof. Ing. Lukáš Sekanina, Ph.D.Councillor internal :prof. Ing. Pavel Václavek, Ph.D.prof. Ing. Tomáš Vojnar, Ph.D.prof. Ing. Jan M. Honzík, CSc.prof. Dr. Ing. Pavel Zemčík, dr. h. c.prof. Dr. Ing. Zbyněk Raidaprof. RNDr. Josef Šlapal, CSc.prof. RNDr. Milan Češka, CSc.prof. Ing. Tomáš Hruška, CSc.prof. Ing. Martin Drahanský, Ph.D.prof. Dr. Ing. Jan Černockýprof. RNDr. Alexandr Meduna, CSc.prof. Ing. Adam Herout, Ph.D.doc. Ing. Jan Kořenek, Ph.D.Councillor external :prof.,RNDr. Jiří Barnat, Ph.D. (FI MUNI)prof. Ing. Jiří Sochor, CSc. (FI MUNI)
Fields of education
Study aims
The goal of the doctoral degree programme is to provide outstanding graduates from the master degree programme with a specialised university education of the highest level in certain fields of computer science and information technology, including especially the areas of information systems, computer-based systems and computer networks, computer graphics and multimedia, and intelligent systems. The education obtained within this degree programme also comprises a training and attestation for scientific work.
Graduate profile
Profession characteristics
FIT graduates in general and FIT doctoral graduates in particular do not have a problem finding employment at scientific, pedagogical or management positions both in Czech Republic and abroad.
Fulfilment criteria
The requirements that the doctoral students have to fulfil are given by their individual study plans, which specify the courses that they have to complete, their presupposed study visits and active participation at scientific conferences, and their minimum pedagogical activities within the bachelor and master degree programmes of the faculty. A successful completion of the doctoral studies is conditional on the following:
Study plan creation
The rules are determined by the directions of the dean for preparing the individual study plan of a doctoral student. The plan is to be based on the theme of his/her future dissertation thesis and it is to be approved by the board of the branch.
https://www.fit.vut.cz/fit/info/smernice/sm2018-13-en.pdf
Availability for the disabled
Brno university of technology provides studies for persons with health disabilities according to section 21 par. 1 e) of the Act no. 111/1998, about universities and about the change and supplementing other laws (Higher Education Act) as amended, and according to the requirements in this field arising from Government Regulation No. 274/2016 Coll., on standards for accreditation in higher education, provides services for study applicants and students with specific needs within the scope and in form corresponding with the specification stated in Annex III to Rules for allocation of a financial contribution and funding for public universities by the Ministry of Education, Youth and Sports, specifying financing additional costs of studies for students with specific needs.Services for students with specific needs at BUT are carried out through the activities of specialized workplace - Alfons counselling center, which is a part of BUT Lifelong Learning Institute - Student counselling section.Counselling center activities and rules for making studies accessible are guaranteed by the university through a valid Rector's directive 11/2017 concerning the status of study applicants and students with specific needs at BUT. This internal standard guarantees minimal stadards of provided services.Services of the counselling center are offered to all study applicants and students with any and all types of health disabilities stated in the Methodological standard of the Ministry of Education, Youth and Sports.
What degree programme types may have preceded
The study programme builds on both the ongoing follow-up Master's programme in Information Technology and the new follow-up Master's programme in Information Technology and Artificial Intelligence.Students can also, according to their needs and outside their formalized studies, take courses and trainings related to the methodology of scientific work, publishing and citation skills, ethics, pedagogy and soft skills organized by BUT or other institutions.
Issued topics of Doctoral Study Program
Téma disertační práce spadá do oblasti monitorování a bezpečnosti počítačových sítí. Je primárně zaměřeno na detekci bezpečnostních událostí s využitím technologií GPU a FPGA. Při řešení tématu disertační práce se předpokládá využití charakteristických vlastností síťového provozu a možnosti paralelního zpracování síťového provozu pomocí uvedených technologií. Předpokládá se návrh vhodných metod pre-filtrace síťového provozu tak, aby bylo na jedné straně možné využívat velke množiny detekčních pravidel a na druhé straně byly redukovány hardwarové zdroje dostupné na akceleračních kartách. Pro pre-filtrace síťového provozu a extrakci klíčových vlastností provozu se předpokládá využití technologie FPGA a technik approximate computing. Využití GPU se předpokládá primárně pro akceleraci klasifikátorů vyvinutých pomocí technik strojového učení.
Tutor: Kořenek Jan, doc. Ing., Ph.D.
Cílem této disertační práce je tvorba řešiče Maxewllových rovnic pro aplikace v medicínských zobrazovacích technikách (MR). Numerické řešení Maxwellových rovnic bude založeno na technice k-Wave (korigovaná pseudospektrální metoda). Vzhledem k rozsahu řešený domén a akceptovatelnému času výpočtu je jedinou možností využití rozsáhlých superpočítačových systémů.Výzkum bude zahájen tvorbou prototypu řešiče v jazyce MATLAB. Po ověření funkčnosti algoritmu dojde k jeho převodu na heterogenní masivně paralelní systémy. Zde očekáváme především multi-GPU systémy jako je Summit a Siera v USA a následně velký klastr v IT4Innovations, který jde do produkce v roce 2020.Základní výzkumnou otázku je zde dosažení maximální rychlosti při zachování akceptovatelné přesnosti.
Tutor: Jaroš Jiří, doc. Ing., Ph.D.
Všadeprítomnosť počítania dnes generuje množstvo dát potenciálne využiteľných v trénovaní modelov v strojovom učení. Problémom však je, že tieto dáta spravidla nebývajú anotované, teda bez značiek potrebných pre konvenčné učenie s učiteľom (napr. klasifikáciu). Získavanie značiek pomocou ľudskej práce je pritom veľmi nákladný proces. Výsledkom je teda stav, v ktorom je potrebných značiek málo, sú zlej kvality, alebo vôbec nie sú k dispozícii.
Na obídenie tohto problému sú v súčasnosti skúmané viaceré prístupy: meta-učenie, učenie s prenosom (transfer learning), učenie so slabými signálmi spätnej väzby (weak supervision learning), učenie s jedným príkladom (one-shot learning), učenie bez priameho príkladu (zero-shot learning). Každá z týchto techník (alebo ich kombinácia) predstavuje príležitosť pre nové objavy. Ortogonálne k týmto technikám tiež stojí vysvetliteľnosť a interpretovateľnosť modelov, ktorá je dôležitým faktorom a prínos v tomto smere je vítaný (v rámci uvádzaných techník aj všeobecne v umelej inteligencii).
Existuje veľa aplikačných domén, kde sa metódy a modely riešenia malého množstva označkovaných dát dajú uplatniť. Nachádzajú sa medzi nimi aj veľmi aktuálne oblasti detekcie nepravdivých informácií či podpora overovania informácií (fact-checking).
Súvisiace publikácie:
B. Pecher, I. Srba, and M. Bielikova. Learning to Detect Misinformation Using Meta-Learning. Presented in PhD Forum by B. Pechcer at the European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases - ECML-PKDD 2020.
M. Pikuliak, M. Simko, M. Bielikova. Cross-Lingual Learning for Text Processing: A Survey Expert Systems With Applications or its open access mirror. Expert Systems with Applications. Vol. 165, 2021. https://doi.org/10.1016/j.eswa.2020.113765
Výskum bude doktorand vykonávať v rámci Kempelenovho inštitútu inteligentných technológií (KInIT, https://kinit.sk) v Bratislave v spolupráci s priemyselnými partnermi alebo výskumníkmi zo svetovo uznávaných výskumných skupín. Predpokladá sa kombinovaná (externá) forma štúdia a pracovný pomer na plný úväzok v KInIT.
Tutor: Bieliková Mária, prof. Ing., Ph.D.
The topic concerns algorithms of image, video, and/or signal processing. Its main goal is to research and in-depth analyze existing algorithms and discover new ones so that they have desirable features and so that they are possible to efficiently implement. Such efficient implementation can be but does not necessarily have to be part of the work but it is important to prepare the algorithms so that they can be efficiently implemented e.g. in CPU, in CPU with acceleration through SSE instructions, in embeded systems, even in combination with FPGA, in Intel Xeon PHI, in extremely low power systems, or in other environments. It is possible to exploit algorithms of artificial intelligence, such as neural networks, especially CNNs The application possibilities of the algorithms are also important and the application can be but does not have to be part of the work. The algorithms/applications of interest include:
After mutual agreement, individually selected algorithms can be considered as well as soon as they do belong to the general topic.
Collaboration on grant projects, such as TACR, MPO, H2020, ECSEL (possible employment or scholarship).
Tutor: Zemčík Pavel, prof. Dr. Ing., dr. h. c.
Evoluční návrh je často prováděn pomocí genetického programování a jeho moderních technik, jakými jsou např. sebemodifikace kódu, sémantikou řízené genetické operátory, koevoluce a pokročilé metody reprezentace a evaluace kandidátních řešení. Cílem projektu je navrhnout a implementovat systém genetického programování, který bude využívat několik takových technik současně. Na úlohách zejména z oblasti návrhu obvodů, hlubokých neuronových sítí, aproximativního počítání a symbolické regrese bude experimentálně vyhodnocována účinnost jednotlivých technik a jejich kombinací. Výzkum spadá to témat řešených výzkumnou skupinou Evolvable Hardware.
Tutor: Sekanina Lukáš, prof. Ing., Ph.D.
Today's increasing requirements on data processing and visualization emphasize the importance of developing high-quality, quick, and user-friendly tools used for this purpose. Common types of visualization media (charts) are usually not sufficient to visualize complex multidimensional data. An example of such data is the geospatial data representing the relation of data with a geographical location (such as occurrences of some effects on the Earth's surface). The need to visualize such data goes beyond the academic areas of interest. We can meet with the geospatial visualization in the industry (distribution of bureaus, network topologies), public sector (public transport schemes), media (spread of disease, economic and demographic indicators), but also among ordinary users (private routes tracking). Those visualizations are usually arranged in advanced screens (e. g., dashboards).
Users can choose between two types of tools for geospatial visualization:
Both approaches have advantages and disadvantages. A prototype of a compromise solution-Geovisto library-was developed during the TACR project (19/20) in cooperation with the Brno University of Technology, Masaryk University, and the Flowmon company. The library is based on the Leaflet library. However, it tries to provide a higher level of abstraction by offering a set of thematic maps (e. g., cartogram, connection map). Those thematic maps can be configured either programmatically or by using controls known from popular authoring systems. The library targets programmers who want to use a ready solution, and they do not want to be limited by the need to deeply study the framework and the requirements of proprietary authoring systems.
The doctoral thesis's goal will be to study existing approaches to geospatial data visualization and look for new ones. Particularly:
Tutor: Hruška Tomáš, prof. Ing., CSc.
The project is concerned with advanced methods of computational photography. The aim is to research new computational photography methods, which comprises software solutions potentially supported by new optics and/or hardware. Our interest is on HDR image and video processing, color-to-grayscale conversions, spectral imaging, and others.
Tutor: Čadík Martin, doc. Ing., Ph.D.
Vývoj systémů založený na modelech (MBD) je v současnosti do jisté míry méně akcentovanou oblastí IT, jelikož je svým rigorózním přístupem pravým opakem dnes prosazovaného agilního vývoje software. Ovšem bez této metodologie by nebylo možné vyvíjet bezpečnostně-kritické systémy, u kterých musí být zajištěna jejich správná funkcionalita ve všech možných situacích. Díky rigoróznímu postupu je ale vývoj těchto systémů značně pomalý a náročný na prostředky. Snahy, jak celý proces urychlit, jsou vidět ve všech fázích vývoje - od specifikace a validace požadavků, přes návrh architektury, generování kódu, jeho testování a verifikaci, až po certifikaci výsledného produktu.
Velkým problémem a zároveň výzvou je, že jednotlivé fáze vývoje jsou úzce provázané, např. pro automatizaci testování a verifikace je potřeba mít strojově zpracovatelné požadavky a architekturu systému, jinak nebude možné odvodit, co vlastně testovat a verifikovat. Tato provázanost vyžaduje znalosti z různých oblastí vývoje a analýzy zároveň, zatímco jak výzkum, tak existující řešení obvykle cílí pouze na jednu konkrétní fázi a vybrané problémy v rámci této fáze. S ohledem na to bude cílem výzkumu vyvinout nové přístupy pro návrh a analýzu systémů využívající data z různých fázi vývoje, případně rozšířit existující přístupy o využití dat z jiných fází. Práce by se měla zaměřit na problémy, které se aktuálně řeší v průmyslu a které zahrnují: nové přístupy pro specifikaci požadavků a systémů usnadňující analýzu a verifikaci, nové metody analýzy a verifikace modelů, metody pokročilého testování založené na modelech, metody pro ověřování ekvivalence modelu a z něj vygenerovaného kódu či pro odvozování modelů na různých úrovních abstrakce.
Řada velkých technologických společností v oblasti avioniky a automobilového průmyslu (např. Honeywell, AIRBUS, Boeing, Thales, Volvo Cars, ANSYS, MathWorks, ObeoSoft, Dassault, DRisQ) vynakládá nemalé prostředky na výzkum a vývoj v této oblasti.
Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT automatizovanou analýzou a verifikací s využitím statických i dynamických metod analýzy a verifikace, jak v podobě formální verifikace, tak i zaměřených na vyhledávání chyb. Předpokládá se zejména úzká spolupráce s dr. J. Fiedorem, u něhož se předpokládá role školitele specialisty, a dále dr. A. Smrčkou, doc. A. Rogalewiczem, dr. O. Lengálem, dr. L. Holíkem či dr. M. Češkou jr. Předpokládá se rovněž úzká spolupráce s firmou Honeywell, kterou zprostředkují zejména dr. J. Fiedor a dále B. Hall (Engineering Fellow, Advanced Technology, Honeywell). Dalším potenciálním průmyslovým partnerem je firma ANSYS z Francie. Podle zaměření práce je pak také pravděpodobná spolupráce s výzkumnými partnery firmy Honeywell, např. prof. Dov Dovi z MIT/Technion v oblasti aplikace formalismu OPM (prof. Dori je autor tohoto formalismu, jenž je nyní také ISO standard) nebo prof. Gopal Gupta z University of Texas v Dallasu, jenž vede špičkovou výzkumnou skupinu v oblasti využití logik pro analýzu systémů (logical reasoning).
V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do grantových projektů (např. TAČR Aufover řešený ve spolupráci s Honeywell a Red Hat, nový český projekt GAČR Snappy, evropský projekt ECSEL Arrowhead Tools či evropský projekt ECSEL Valu3S, bude-li přijat).
Vybrané publikace mimo databázi FIT VUT:
Tutor: Vojnar Tomáš, prof. Ing., Ph.D.
Praktické rozhodování u BDI systému je založeno na průběžném budování modelu záměrů agenta a následném provádění tohoto modelu. Původní výpočetní systém BDI agentů, systém AgentSpeak(L) nechával prostor pro další specifikaci některých výpočetních kroků, jakými jsou volba z více možných prostředků k dosažení cílů, volba záměrů k vykonání či volba substitucí při provádění formálních odvozování. Právě na hledání preferencí při výběru prostředků a záměrů se bude soustředit práce v rámci tohoto zadání. Výsledkem má být systém, jehož praktické rozhodování bude vykazovat vyšší míru racionality než vykazují v současnosti existující řešení BDI systémů.
Tutor: Zbořil František, doc. Ing., Ph.D.
Internet of Things is a communication platform that interconnects different types of devices in smart homes, smart buildings, or smart hospitals. IoT end nodes (things) are usually connected via L2 technology like Zigbee, Z-Wave, WiFi, or Bluetooth to the IoT controller (gateway, hub) that transmit data from IoT end devices the cloud for processing and visualization. This proprietary solution does not support integration with standardized systems for network management (SIEM, SOC). IoT devices can be integrated into the central monitoring system using SNMP proxy agents that analyze IoT traffic and creates special MIB objects for specific IoT endpoints. These MIB objects can be managed using SNMP network monitoring and management system. A large amount of monitoring data from IoT devices requires advanced processing and control. The research aims to propose and implement methods for the integration of IoT devices into the centralized network monitoring and management system. Having the data, it is necessary to apply advanced methods for their analysis and processing to be used for network management as defined by the FCAPS model. The topic is a part of the research project IGA Application of AI methods to cybersecurity and control systems and national center of competence for cybersecurity. Co-supervisor: Matoušek Petr, Ing., Ph.D., M.A.
Tutor: Ryšavý Ondřej, doc. Ing., Ph.D.
The project is concerned with advanced rendering and global illumination methods. The aim is to research new photorealistic (physically accurate) as well as non-photorealistic (NPR) simulations of interaction of light with the 3D scene. Cooperation and research visits with leading research labs are possible (Adobe, USA, MPII Saarbrücken, Německo, Disney Curych, Švýcarsko, INRIA Bordeaux, Francie).
Strojové učenie je v centre výskumu v oblasti umelej inteligencie. Témam spojeným so strojovým učením sa venuje množstvo výskumníkov v akademickom svete a aj v biznise v prestížnych vedeckých pracoviskách. Riešenia vedeckých výziev sa veľmi rýchlo dostávajú do praxe. Oblasť je veľmi dynamická.
Témy v tejto doméne definujú významné vedecké konferencie, na ktorých sa stretávajú výskumníci z celého sveta (rank A*) ako napríklad ICML (International Conference on Machine Learning), Advances in Neural Information Processing Systems (NeurIPS), International Joint Conference on AI (IJCAI), Conference on Learning Theory (COLT). Témy a ich špecializáciu budú viesť externí mentori.
Zaujímavé výskumné výzvy zahŕňajú témy (ale sa neobmedzujú takto):
General Machine Learning (e.g., active learning, clustering, online learning, ranking, reinforcement learning, semi-supervised learning, time series analysis, unsupervised learning)
Deep Learning (e.g., architectures, generative models, deep reinforcement learning)
Learning Theory (e.g., bandits, game theory, statistical learning theory)
Optimization (e.g., convex and non-convex optimization, matrix/tensor methods, sparsity)
Trustworthy Machine Learning (e.g., accountability, causality, fairness, privacy, robustness)
Existuje veľa aplikačných domén, kde sa pokročilé metódy strojového učenia dajú využiť.
Výskum bude doktorand vykonávať v rámci Kempelenovho inštitútu inteligentných technológií (KInIT, https://kinit.sk) v Bratislave pod vedením výskumníkov zo svetovo uznávaných výskumných skupín. Predpokladá sa kombinovaná (externá) forma štúdia a pracovný pomer na plný úväzok v KInIT.
Cílem práce je navázat na aktuální výsledky výzkumu metod obklopující inteligence (Ambient Intelligence) a inteligentního řízení budov (Smart Buildings, Smart Home) a přinést nové metody, které využijí analýzu chování uživatelů k predikci jejich aktivit a následně k ovládání budovy s ohledem na maximalizaci očekávané míry jejich spokojenosti. Součástí je výzkum možností interakce člověka s budovou s využitím různých typů senzorů a aktuátorů a metod umělé inteligence. Předpokládá se vhodná kombinace reálných a simulovaných součástí systému při realizaci případových studií.
Tutor: Janoušek Vladimír, doc. Ing., Ph.D.
Tutor: Herout Adam, prof. Ing., Ph.D.
Dissertation focuses on the security of wireless local area networks. As part of the solution, student should become familiar with selected wireless networks and their security. The goals of this work: studying the theory of wireless networks, their properties and possibilities of attacks, testing the basic types of attacks, designing a new method of protection, experiments, evaluating the results and proposing the direction of further research.Co-supervised by dr. Kamil Malinka.
Tutor: Hanáček Petr, doc. Dr. Ing.
Při kvalitní publikační činnosti lze získat jak jednorázové tak pravidelné mimořádné stipendium. Získání grantové podpory z širších zdrojů není ničím limitováno.
Tutor: Kolář Dušan, doc. Dr. Ing.
Téma vychází z propojení několika směrů, které se staly v současnosti aktuálními. Prvním z nich je téma Big Data. Pokud se podíváme na obrázek shrnující vývoj této tématiky (viz Témata Big Data ), jde o rozsáhlý soubor různých cílů. Pro nás jsou zajímavé ty na modré linii úspěšných a to:
Se širším tématem prediktivní analýzy souvisí druhý aktuální směr Průmysl 4.0 a zde vysoce požadované téma predikce poruch.
S tématem zpracování v datových skladištích v Big Datech souvisí OLAP a agregace dat a jejich zpracování v paralelních multiprocesorových systémech.
Téma rovněž vychází z dlouholetého výzkumu procesních modelů, řešeného v minulých letech několika doktorandy ve skupině prof. Hrušky. Základem výzkumu byla analýza procesů s cílem jejich optimalizace.
Protože procesní systémy jsou ve firemní oblasti využívané a pro některé podniky představují klíčový nástroj, je výstupem studia dobré praktické uplatnění doktoranda a to i během studia.
Cílem práce může být nalezení vhodných metod pro analýzu pro zvolených problémů, které se v praxi vyskytují, následně jejich zobecnění a ucelení.
Cílem této práce je prozkoumat techniky umělé inteligence pro akceleraci ultrazvukových simulací a tvorbu operačních plánů. Výzkumný problém je postaven následovně. Abychom zjistili, jak ultrazvuk interaguje s lidskou tkání, je nutné vytvořit model tkáně, do něj umístit vysílač a provést výpočetně velice náročnou fyzikální simulaci. Výsledkem takové simulace je rozložení akustického tlaku a uložení tepelné energie v dané oblasti. Pokud s výsledkem nejsme spokojeni, např. nezasáhneme cíl, je nutné posunou vysílač, nebo změnit parametry vysílané vlny a simulaci spustit znovu. Zde by mohla pomoci umělá inteligence, který by se naučila fyzikální model a umožnila predikovat výsledek simulace, případně vylepšila obraz simulace provedené na výrazně nižším rozlišení. V této práci se předpokládá masivní využití superpočítačových technologií, především multi-GPU systémů.
Aproximativní počítání (approximate computing) je nová a bouřlivě se rozvíjející výzkumná oblast v rámci které jsou hledány alternativní (typicky nízkopříkonové) implementace nejen základních stavebních komponent jako jsou např. sčítačky a násobičky, ale také komplexních obvodových celků. Významný vývoj můžeme sledovat také v oblasti strojového učení. Dříve jednoduché architektury dnes nahrazují tzv. hluboké neuronové sítě, které jsou schopny dosahovat výrazně lepších výsledků zejména v oblasti klasifikace a detekce objektů v obraze. Daní za vyšší přesnost je však vyšší komplexita vedoucí na velké množství operací a tudíž i vyšší energetickou náročnost. Současně se však ukazuje, že tyto sítě vykazují vysokou úroveň rezistence vůči chybám ve výpočtu. Jako výhodné se proto jeví nasazení aproximovaných obvodů v této oblasti s cílem dosáhnout značné úspory energie.
Tutor: Vašíček Zdeněk, doc. Ing., Ph.D.
Photoacoustic Tomography (PAT) is an emerging 3D biomedical imaging modality for both clinical and pre-clinical imaging that has gained increasing attention in the last decade. In principle, PAT can achieve as high spatial and temporal resolution as ultrasound images, but, because it depends on optical absorption for contrast, it also has the potential to provide functional, molecular and genetic imaging capabilities. However, realising these advantages requires high quality image reconstruction algorithms.
Several approaches to PAT image reconstruction are currently used, including time reversal, series constructions, and filtered backprojection algorithms. However, there are several aspects that cannot be taken into account in these classical approaches and therefore result in image artefacts, including (1) patient movement, (2) incomplete coverage of the object with ultrasound sensors, (3) angle and frequency variability of the sensor's sensitivity, (4) unstable environment, e.g., variations in temperature, (5) sound speed variations with the object eg. breast, and (6) measurement noise. In addition, large-scale 3D images take time to reconstruct, limiting the imaging frame rate; increasing the frame rate would open up many more potential applications.
Currently, the reconstruction of photoacoustic images takes several hours on high-end servers and subsequently artefacts are detected and removed. The goal of this thesis is to overcome some of these limitations, by improving reconstruction speed and quality of photoacoustic images using artificial intelligence.
We can identify three essential approaches for this task. First, use AI to correct or complement the measured data to form a complete and clean data set then use a classical reconstruction algorithm. Second, use AI to complement the image reconstruction task, by intertwining learnable components with classical reconstruction approaches. Third, use a classical reconstruction algorithm to form an image and then use AI to remove the artefacts.
These topic cover several areas, from the experimental acquisition of photoacoustic data, techniques for image reconstruction and high performance computing, to deep learning and artificial intelligence.
The rising trend in artificial intelligence usage brings novel cybersecurity approaches on both sides - attacker and defender. The most prominent examples are deepfake usage to counterfeit biometric systems or security analytics, using deep learning for cyber-attacks detection. The goal of this work is to analyze all existing approaches, their properties, and potential applications. The work should then propose novel applications of AI for the problems that were not resolved before while also implementing the most interesting application.
Co-supervised by dr. Kamil Malinka.
The goal of the work is to research and create algorithms that will allow for running augmented reality on mobile (ultramobile) devices. It mainly concerns algorithms of pose estimation in the space by the means of computer vision and by using sensors embedded in the device. Furthermore, the work will elaborate on algorithms of rendering of virtual elements into the real-world scene and on applications of augmented reality on mobile devices.
U softwarových systémů očekáváme, že jednak nikdy nenastane žádná závažná chyba (deadlock, neoprávněný přístup do paměti, ...), ale také každá akce systému vždy úspěšně skončí v rozumném časovém intervalu. Problémem ověření ukončení v rozumném čase se zabývá analýza mezí (bound analysis). Problémem analýzy mezí je pro zadaný program (nebo funkci) nalézt (horní) odhad složitosti. Přes pokrok v posledních letech ale stále nejsou současné techniky dostatečné. Problémem jsou hlavně složité datové struktury a tzv. otevřený kód, kde analyzujeme pouze části kódu bez znalosti kontextu.Cílem této práce je navázat na současné techniky pro analýzu mezí s cílem analýzy mezí otevřeného kódu a/nebo kódu se složitými datovými strukturami. Práce bude navazovat na práci členů skupiny VeriFIT a práci dr. F. Zullegera z TU Wien a dr. M. Sinna z Fachhochschule St. Pölten.Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT technikami pro verifikace programů se složitými datovými strukturami (zejména dr. L. Holík, prof. T. Vojnar, ing. M. Hruška, ing V. Šoková). V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do grantových projektů (včetně mezinárodních). Je zde rovněž možnost úzké spolupráce s různými zahraničními partnery VeriFIT: TU Wien, Rakousko (dr. F. Zulleger); Uppsala University, Švédsko (prof. P.A. Abdulla, prof. B. Jonsson, dr. Rummer); Verimag, Grenoble, Francie (dr. R. Iosif); IRIF, Paříž, Francie (prof. A. Bouajjani, dr. M. Sighireanu, dr. C. Enea); Academia Sinica, Tchaj-wan (prof. Y.-F. Chen).V rámci tématu se student může také aktivně zapojit do různých grantových projektů, jako je např. projekt GA ČR 20-07487S "SNAPPY - Scalable Techniques for Analysis of Complex Properties of Computer Systems", nebo evropský projekt ECSEL JU "VALU3S - Verification and Validation of Automated Systems' Safety and Security".
Tutor: Rogalewicz Adam, doc. Mgr., Ph.D.
V současné době neustále roste důraz na kvalitu, spolehlivost a bezpečnost software. V souladu s tím jsou nemalé prostředky investovány do výzkumu moderních technik analýzy a verifikace programů pomocí nejrůznějších automatizovaných metod, jako jsou systematické testování, dynamická analýza, statická analýza, model checking apod. Tyto techniky jsou přitom rozvíjeny nejen na univerzitách, ale do jejich výzkumu a vývoje investuje řada významných mezinárodních společností (Google, Microsoft, IBM, Red Hat, Honeywell, Facebook apod.). Mezi uvedenými metodami patří testování a dynamická analýza k tradičním, již dlouho nejvíce používaným, ale přesto intenzivně dále rozvíjeným přístupům (o čemž svědčí velký počet článků z dané oblasti prezentovaných na mezinárodních konferencích věnovaných obecně programovacím jazykům a/nebo softwarovému inženýrství i velký počet špičkových mezinárodních konferencí specializujících se na danou oblast).
Náplní tématu je rozvoj stávajících a návrh nových metod dynamické analýzy a inteligentního testování, případně kombinovaných s použitím vhodných statických analýz. Tyto analýzy by přitom měly směřovat nejen k co nejefektivnějšímu vyhledávání chyb, ale také k automatické podpoře procesu řízení software (identifikace problematických komponent, problematických změn, podpora rozhodování o tom, které změny začlenit či nezačlenit do nové verze softwarového produktu apod.).
Předmětem výzkumu bude vývoj nových heuristik pro testování a analýzu, které umožní co nejefektivnější odhalení i vzácně se projevujících chyb (jako jsou např. extrapolující dynamické analýzy, vkládání šumu, či fuzz testování) a které umožní automatické získávání zkušeností z dosud provedených testů či analýz a jejich následné využití pro zdokonalení procesu testování či obecně řízení kvality software. Do této oblasti spadá vhodné využití statistických analýz, strojového učení či technik dolování z dat. Předmětem výzkumu je přitom nejen návrh nových technik z dané oblasti, ale také jejich prototypová implementace a experimentální ověření na vhodných případových studiích.
Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT testováním a dynamickou analýzou software, zejména dr. A. Smrčkou, u něhož se předpokládá role školitele specialisty, a dále dr. B. Křenou, dr. J. Fiedorem či T. Fiedorem. Práce naváže na zkušenosti skupiny VeriFIT s nástroji jako ANaConDA či Perun.
V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do grantových projektů (např. projekt TAČR Aufover řešený ve spolupráci s Honeywell a Red Hat, projekt GAČR Snappy či evropské projekty H2020 ECSEL Arrowhead Tools a Valu3S). Je zde rovněž možnost úzké spolupráce jednak s různými průmyslovými partnery FIT, např. Honeywell či Red Hat, tak také zahraničními partnery VeriFIT: např. dr. Joao Lourenco (Universidade Nova de Lisboa, Portugalsko) či řada partnerů zapojených do projektů Arrowhead Tools či Valu3S.
The aim of the work is the detection and recognition of pathologies in retinal images (retina of the eye). The work will consist of:
Tutor: Drahanský Martin, prof. Ing., Ph.D.
Trendem poslední doby při stavbě superpočítačových systémů je využití heterogenních architektur pro dosažení vysoké výkonnosti a současně nízkého příkonu. Typickým představitelem takového systému je Tsubane-II nebo Salomon, jenž obsahují mimo běžných vícejádrových procesorů i akcelerátory Intel Xeon Phi, nebo systémy jako je Titan jenž sází na grafické karty firmy NVIDIA.
Pokud chceme opravdu využít plný potenciál výpočetního systému je nutné úlohu rozdělit nejen na akcelerační karty, ale rovněž na procesorová jádra. Pokud bychom uvažovali systém Salomon umístěný v Ostravě, procesorová část představuje 1/3 výkonu, zatímco akcelerační karty 2/3.
Cílem práce je navrhnout novou metodiku automatizované rozdělení výpočtu (dekompozice) a vyvážení pracovní zátěže tak, aby byly využity všechny dostupné prostředky a minimalizována komunikace.
Tématem práce je propojení prostředí pro modelování inteligentních systémů s nástroji pro vytváření a provádění simulačních modelů. Doktorand by se měl orientovat zejména na otevřené otázky robotiky, jako jsou například společné plánování, řešení konfliktů a koordinace, a zkoumat jejich řešení právě s využitím simulačních nástrojů jako jsou PNtalk nebo TMass. Výsledkem by měla být analýza problematiky, řešení některých problémů a demonstrace přínosu modelování pro jejich řešení.
Školitel specialista: Ing. Radek Kočí, Ph.D.
Použití neuronových sítí pro hluboké učení (deep learning) přispělo v posledních letech k výraznému posunu mnoha oblastí, které se opírají o strojové učení - rozpoznávání obrazu, analýza textu atd.Cílem disertační práce je rozvinout existující přístupy využívající obrovské kolekce neanotovaných dat pro naučení neuronových sítí tak, aby výstupy poslední mezilehlé vrstvy bylo možné použít jako vektor příznaků. Součástí práce bude i aplikace zkoumaných metod v rámci evropských projektů, na jejichž řešení se školitel podílí.
Tutor: Smrž Pavel, doc. RNDr., Ph.D.
Motivace:
S rozšířením kryptoměn došlo ruku v ruce i k rozmachu kyberkriminality, která je využívá jako integrální součást. Ať už se jedná o prodej nelegálního zboží na dark marketplace, financování terorismu, sextortion, útoky pokoutně těžícím malwarem či napadení ransomware, tak ve všech výše zmíněných (ale i dalších) případech [3] jsou kryptoměny využívány k zajištění transferu hodnoty. Na tomto poli jsou kryptoměny populární zejména kvůli své pseudonymitě, rychlosti zpracování transakce, absenci centrální regulační entity a vestavěným mechanismům bránícím podvodům. A přesně tyto vlastnosti vytvořily zcela nové výzvy v oblasti forenzní analýzy při řešení takovýchto případů kyberkriminality.
I přes velké úsilí v procesu návrhu (jako použití nejmodernější kryptografie a pokročilých komunikačních technik v peer-to-peer sítích) stejně nejsou i ty největší krypotměnové sítě (jako Bitcoin, Ethereum, Litecoin) odolné vůči technikám zkoumání zahrnující clusterizaci adres [6], korelace [2], statistické zpracování [4, 5], či rovnou odposlech provozu [1].
Cíl:
Záměrem této práce je vyvinou a ověřit nové metody forenzní analýzy kryptoměnových sítí cílící na deanonymizaci uživatele, odhalení jeho IP adresy či jiného identifikátoru.
Předpokládané fáze řešení:
Projekt:
Práce bude navazovat na některé výsledky projektů BAZAR a TARZAN.
Reference: [1] KOSHY, Philip. CoinSeer: A telescope into bitcoin. 2013.[2] GERVAIS, Arthur, et al. On the privacy provisions of bloom filters in lightweight bitcoin clients. In: Proceedings of the 30th Annual Computer Security Applications Conference. 2014. p. 326-335.[3] FOLEY, Sean; KARLSEN, Jonathan R.; PUTNIŠ, Tlis J. Sex, drugs, and bitcoin: How much illegal activity is financed through cryptocurrencies?. The Review of Financial Studies, 2019, 32.5: 1798-1853.[4] NEUDECKER, Till. Characterization of the bitcoin peer-to-peer network (2015-2018). Karlsruhe, Tech. Rep., 2019, 1.[5] KOSHY, Philip; KOSHY, Diana; MCDANIEL, Patrick. An analysis of anonymity in bitcoin using p2p network traffic. In: International Conference on Financial Cryptography and Data Security. Springer, Berlin, Heidelberg, 2014. p. 469-485.[6] MEIKLEJOHN, Sarah, et al. A fistful of bitcoins: characterizing payments among men with no names. In: Proceedings of the 2013 conference on Internet measurement conference. 2013. p. 127-140.
Tutor: Veselý Vladimír, Ing., Ph.D.
Počítačem podporovaná syntéza je nový přístup k návrhu systémů, který automaticky transformuje formální specifikaci systému na jeho korektní implementaci. Tento přístup odstraňuje časovou náročnost klasického vývojového procesu, kdy je fáze implementace následována verifikační fází. V posledních letech se v oblasti návrhu systémů objevují nové výzvy související s aplikacemi, které vyžadují kvantitativní usuzování. Jedná se například o syntézu pravděpodobnostních programů či modelů, aproximované výpočty, nebo konstrukce biochemických modelů. Současné techniky syntézy však kvantitativní usuzování dostatečně nepodporují. Výzkumu efektivních metod syntézy je v současnosti věnována značná pozornost v oblastech formální verifikace, návrhu a implementace programovacích jazyků, umělé inteligence a systémové biologie, o čemž svědčí zaměření řady špičkových konferencí (např. CAV, POPL, PLDI či CMSB). Syntézou programů a modelů se rovněž zabývá řada velkých projektů na špičkových universitách a výzkumných institucích (např. Berkeley University či Microsoft Research).
Předmětem disertační práce bude zejména vývoj teoretických základů pro nové škálovatelné metody kvantitativní syntézy. Zaměříme se na využití syntézy řízené syntaxí a na dosud neprozkoumanou oblast spojení pokročilých metod formální kvantitativní analýzy s přístupy založenými na SAT/SMT, prohledávání stavového prostoru a technikami induktivní syntézy. Práce se rovněž zaměří na využití těchto metod v procesu návrhu prakticky relevantních pravděpodobnostních, aproximativních a biochemických systémů, a na důkladné vyhodnocení aplikovatelnosti těchto metod. Výsledky této práce přispějí k pokroku v oblasti automatizace návrhu systémů.
Práce bude řešena ve spolupráci s týmem VeriFIT, zejména s dr. M. Češkou jr., u něhož se předpokládá role školitele-specialisty a který se po dokončení jeho aktuálně rozběhnutého habilitačního řízení stane u tématu hlavním školitelem (s T. Vojnarem následně jako možným školitelem-specialistou). Dále se počítá s úzkou spoluprací se skupinou prof. J.P. Katoena z RWTH Aachen University, jež patří mezi nejlepší vědecké týmy v dané oblasti, se skupinou doc. J. Křetínského z TU Mnichov a také současným doktorandem R. Andriushchenkem.
V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do grantových projektů (např. české projekty GAČR Caqtus a Snappy či evropské projekty H2020 ECSEL Arrowhead Tools a Valu3s).
The goal of the research is to design a new method for threat detection using contextual network traffic analysis. This analysis is based on revealing the relationships between individual network traffic records as stored in the context to improve the threat detection capabilities.Using the context, it may be possible to identify threats that are currently hard to detect, e.g, due to using encryption, multistage characteristics, or using zero-day vulnerabilities. Also, the context build by the system can provide network administrators additional information to see an overall picture of the state of the network, services, or applications used.
Konverzační agenti se pomalu stávají běžnou součástí rozhraní pro (prvotní) komunikaci se zákazníkem a odpovídání na jeho otázky. Výzkum v oblasti počítačového zpracování přirozeného jazyka se zaměřuje na vytvoření automatické klasifikace prvotní komunikace a, zejména, otázky uživatele, do předem daných tříd, k nimž existují konkrétní texty. Není však uspokojivě vyřešeno rozšiřování "znalostí" komunikačních agentů při aktualizaci strukturovaných dat, případně při přidání dalších textových materiálů.Cílem disertační práce je rozvinout existující přístupy využívající obrovské kolekce neanotovaných textových dat a způsoby kombinování strukturované a nestrukturované znalosti a optimalizace procesů při rozšiřování funkcionality stávajících i nových konverzačních agentů. Součástí práce bude i aplikace zkoumaných metod v rámci evropských projektů, na jejichž řešení se školitel podílí.
The aim of the thesis is to create 3D face model from 2D photos of diverse origins, namely:
Deep convolution networks have been a clear trend of machine learning for image analysis in recent years. However, in tasks with a very small and specific data set, where it is not enough to use data augmentation or GAN concepts, their usage is still problematic.The goal of the dissertation thesis is to explore, analyze and design new architectures of deep convolutional networks and approaches to their learning for image analysis tasks in which the size of the annotated data set is extremely small or is gradually growing. For learning neural networks it is possible to use unannotated data or partially annotated data in the form of a limited user input.Proposed methods will be applied in the projects on which the supervisor participates.
Tutor: Španěl Michal, doc. Ing., Ph.D.
Current internet traffic is mostly encrypted. This is also true for mobile apps that communicate over TLS or DTLS. Detection of mobile apps communicating over the local network is important for network monitoring and cybersecurity. There are several approaches to how mobile apps can be detected in the network traffic. One approach is based on mobile apps fingerprinting using the JA3/JA3S method. Another approach includes statistical analysis of encrypted traffic or the application of machine learning. This topic is research and evaluation of current methods for detecting applications in encrypted traffic, their extension, and proposal of advanced methods. The research is focused on mobile apps and automated detection. The topic is a part of the research project IGA Application of AI methods to cybersecurity and control systems.Co-supervisor: Matoušek Petr, Ing., Ph.D., M.A.
Konečné automaty patří k jedněm z nejdéle studovaných formalismů. Pro operace nad konečnými automaty existuje řada dobře známých algoritmů. Mnoho z těchto algoritmů, které se běžně vyučují, ale selhává, pokud jsou aplikovány na velmi rozsáhlé automaty (se stovkami tisíc, miliony či více stavy, komplikovanými přechodovými relacemi či rozsáhlými abecedami). Ukazuje se ovšem, že takové automaty dnes reálně vznikají v řadě aplikací, např. v oblasti vyhledávání dle regulárních výrazů (s mnoha zahrnutými alternativami, rozsáhlou abecedou, repetičními omezeními atd.), v oblasti hardwarově akcelerovaného vyhledávání dle regulárních výrazů, v abstraktní interpretaci či dalších metodách formální verifikace, rozhodovacích procedurách apod. K úspěšnému zvládnutí práce s takovými automaty je, zdá se, vhodné nahradit klasické algoritmy více heuristickými přístupy, které by mohly posunout efektivitu práce s automaty výrazně dále podobně, jak se stalo v oblasti řešení SAT či SMT problémů. Řada takových algoritmů se v poslední době již v literatuře objevila, přičemž výzkumníci ze skupiny VeriFIT z FIT VUT se na mnoha z nich aktivně podíleli. V dané oblasti ovšem nadále zůstává řada otevřených otázek a mnoho prostoru ke zdokonalování současných řešení tak, aby byly použitelné na opravdu rozsáhlé problémy.
S ohledem na výše uvedené je cílem práce významně posunout současný stav poznání ve světě v oblasti efektivních algoritmů pro práci s rozsáhlými konečnými automaty a jejich různými rozšířeními (stromové automaty, automaty s omezenými čítači, alternující konečné automaty apod.) nebo i dalšími formalismy, jako jsou Petriho sítě. Studované algoritmy budou inspirovány potřebami různých aplikačních oblastí, které konečné automaty používají, zejména pak potřebami rozhodovacích procedur různých logik (např. logik nad řetězci), vyhledáváním podle regulárních výrazů (ať již implementovaného v software či hardwarově akcelerovaného) či abstraktní interpretace používající automaty k reprezentaci množin dosažitelných konfigurací (např. programů pracujících nad řetězci). Budou studovány algoritmy potřebné např. pro redukci nedeterministických automatů, ověřování inkluze nad nimi, aproximující redukci (vedoucí na automaty s nad-aproximovaným jazykem), algoritmy pro tzv. regulární model checking a jeho aplikace, algoritmy pro učení se automatů ze vzorků apod.
Vyvinuté algoritmy mohou být reálně aplikovány ve spolupráci s různými partnery skupiny VeriFIT, kteří o takové algoritmy mají zájem a s VeriFIT již v dané oblasti aktivně spolupracují. Jedná se např. o Microsoft Research, Honeywell či skupiny ANT@FIT a NES@FIT.
Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT rozvojem technik pro práci s automaty, logikami a jejich aplikacemi. Jedná se zejména o dr. L. Holíka, u něhož se předpokládá role školitele-specialisty a který se po dokončení jeho aktuálně rozběhnutého habilitačního řízení stane u tématu hlavním školitelem (s T. Vojnarem následně jako možným školitelem-specialistou). Další spolupráce se pak může rozvíjet mj. s dr. O. Lengálem, doc. A. Rogalewiczem či dr. M. Češkou jr. či současnými doktorandy V. Havlenou nebo J. Síčem.
V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do řady grantových projektů, jako jsou např. projekty GA ČR AutoDev a Snappy, ERC CZ Finiting, ale také TA ČR Aufover. Je zde rovněž možnost úzké spolupráce
The topic focuses embedded image, video and/or signal processing. Its main goal is to research capabilities of "smart" and "small" units that have such features that allow for their applications requiring smyll, hidden, distributed, low power, mechanically or climatically stressed systems suitable of processing of some signal input. Exploitation of such systems is perspective and wide and also client/server and/or cloud systems. The units themselves can be based on CPU/DSP/GPU, programmable hardware, or their combination. Smart cameras can be considered as well. Applications of interest include:
A possibility exists in collaboration on grant projects, especially the newly submitted TAČR, H2020, ECSEL ones (potentially employment or scholarship possible).
Vytváření prostředí pro procesně orientovaný přístup vývoje softwarových produktů.
Tutor: Kreslíková Jitka, doc. RNDr., CSc.
Ukazuje se, že metody syntézy číslicových obvodů využívající evolučních algoritmů, zejména kartézského genetického programování pracujícího přímo nad reprezentací na úrovni hradel, jsou schopny produkovat implementace, které jsou v řadě případů mnohem efektivnější (typicky kompaktnější) nežli implementace získané pomocí současných syntézních technik využívajících interní reprezentace (např. AIG) a iterativní aplikace deterministických přepisovacích pravidel. Typickým cílem optimalizace je redukovat počet hradel optimalizovaného obvodu. V praxi se však vyskytuje požadavek optimalizovat obvod z hlediska více kriterií (např. zpoždění, plocha na čipu). V případě využití systému pro účely resyntézy je multikriteriální optimalizace nutností z důvodu zachování zpoždění obvodu, jehož část je předmětem optimalizace. Cílem disertační práce je navázat na předchozí výzkum a zabývat se možnostmi multikriteriální optimalizace číslicových obvodů s ohledem na dobrou škálovatelnost. Dále se předpokládá využití alternativních reprezentací jako je např. majority uzel, které lépe odrážejí principy nových technologií.Výzkum spadá do témat řešených výzkumnou skupinou Evolvable Hardware.
Použití některých metod strojového učení, například v poslední době populárních hlubokých neuronových sítí, přináší problémy architektury tzv. černé skříňky, která sice může v některých případech správně rozhodovat, ale není možné snadno interpretovat způsob rozhodování, ověřovat, v jakém kontextu jsou závěry ještě věrohodné a nakolik mohou vést drobné změny vstupu ke zcela jiným závěrům.Cílem disertační práce je rozvinout existující přístupy k měření "dokazatelně správných" modelů umělých neuronových sítí a propojit je s technikami generování konfliktních (adversarial) příkladů, aby bylo možné kontrolovat a revidovat existující řešení, využívaná v praxi. Součástí práce bude i aplikace zkoumaných metod v rámci evropských projektů, na jejichž řešení se školitel podílí.
Náplní práce je návrh a praktické vyzkoušení nového typu digitálních agentů. Tito by měli být založeni na kombinaci aktorového přístupu s přístupy hlubokého strojového učení. Aktorový přístup je alternativou k objektovému přístupu. V tomto modelu je základní výpočetní jednotkou aktor, který realizuje čtyři základní operace: založ, pošli, přijmi a řiď; další operace jsou asynchroní, založené na posílání zpráv mezi aktory. Hluboké strojové učení je založeno na využití algoritmů (neuronových sítí) operujících s daty uspořádanými ve vrstvách. Předpokládáme, že agent nového typu bude složen z mnoha actorů a bude schopen se učit díky vytěžování toků zpráv, které si mezi sebou aktoři posílají. Výše uvedené hypotézy budou prakticky testovány v průmyslu v prostředí "agentové továrny" u partnera projektu.
Řešení tohoto projektu bude vycházet ze stávajících poznatků o formálních systémech distribuovaného výpočtu. Cílem je konstrukce a výzkum nových automatových a gramatických systémů, které adekvátním způsobem odrážejí potřeby moderních výpočetních metod založených na distribuci. Aplikace těchto systémů se budou soustředit na modelování a výzkum organismů v molekulární biologii a překladačích.
Tutor: Meduna Alexandr, prof. RNDr., CSc.
Řešení tohoto projektu bude vycházet ze stávajících poznatků o formálních systémech paralelního výpočtu. Cílem je konstrukce a výzkum nových automatových a gramatických systémů, které adekvátním způsobem odrážejí potřeby moderních výpočetních metod založených na distribuci. Aplikace těchto systémů se budou soustředit na modelování a výzkum organismů v molekulární biologii a překladačích.
Cílem disertační práce je výzkum nových metod odvozování znalostí o síťových zařízeních a jejich klasifikace z dat o síťovém provozu a z dalších zdrojů. Technologie automatického objevování a popisu zařízení v síti jsou v současnosti velmi žádané a výzkumná činnost v této oblasti je na vzestupu, zatím se však obvykle omezuje jen na využívání jednoho typu zdrojových dat (např. aktivní skenování nebo jen statistiky o množství provozu) či zjišťování jen velmi základních dat o zařízení. Disertační práce by měla navázat na stávající výsledky a kromě vylepšování existujících metod klasifikace zařízení, kde lze využít například moderní techniky strojového učení, by se měla zaměřit především na problematiku fúze dat z více zdrojů. Získání komplexního popisu zařízení vycházejícího z kombinace více dílčích metod je totiž kvůli jejich rozdílné spolehlivosti, míře detailu, možným konfliktům ve vstupních datech a také kvůli časové proměnlivosti, velmi náročné a stále nedostatečně vyřešené téma. Předpokládaným obsahem práce tedy bude vytvoření anotovaných datových sad, návrh vhodné taxonomie zařízení, využití technik strojového učení pro odvozování informací ze síťového provozu (vč. šifrovaného) a aplikace pokročilých metod fúze informací z různých zdrojů. Výsledkem by měla být sada metod pro objevování, identifikaci a klasifikaci zařízení ve vlastní síti podle jejich chování, které by byly aplikovatelné v systémech pro správu sítě.Při řešení práce se předpokládá úzká spolupráce s výzkumným týmem Liberouter (www.liberouter.org) a získávání zpětné vazby od správců výzkumné infrastruktury sdružení CESNET. V případě zodpovědného přístupu k řešení zadaného tématu může být student zapojen do řešení projektu CTI, který je současné době řešen v rámci bezpečnostního výzkumu MV ČR. Školitelem specialistou k tématu disertační práce je dr. Martin Žádník. Další odborné konzultace poskytne dr. Václav Bartoš, který se zabývá touto problematikou ve sdružení CESNET. Téma navazuje na publikace:
Moderní GPU nabízejí možnosti zásadního zrychlení výpočtů pomocí jejich paralelizace. Grafické karty Nvidia a architektura CUDA navíc přinášejí relativní nezávislost na použití v čistě grafických úlohách. Mluví se o tzv. GPGPU (General Purpose GPU).Cílem disertační práce je výzkum možností paralelizace výpočetně náročných úloh, které je možné převést na GPU. V rámci řešení by měla vzniknout obecná metodika, umožňující odhad možného zrychlení výpočtu, případně charakterizující rozsah omezení daných použitou architekturou GPU. Výsledky budou demonstrovány na vybraných problémech zahrnujících časově náročné výpočty.
The aim of this work is to generate various damages into synthetic fingerprints and analysis of their quality. The work will consist of:
Generative adversarial networks (GANs) introduced by Goodfellow et al. in 2014 found many interesting applications across various domains. GANs enable to improve the performance of neural network-based classifiers as well as to enrich sample set of hard-to-obtain datasets. Moreover, a combination of two GANs (a.k.a., dual-GANs) enables to perform the unsupervised mapping between two different dataset domains. Such an extension can be further applied as a filter of noise in the datasets.The goal of this thesis is to investigate existing application domains and suitable scenarios of GANs, while focusing on security aspects. For example, the application of GANs for extracting privacy-sensitive data might be analyzed. Next, the thesis should explore new approaches to attacks utilizing GANs and evaluate their success. Finally, the thesis should propose novel defense techniques and discuss their assumptions and limitations.Co-supervised by dr. Ivan Homoliak.
The goal of this thesis is to analyze side-channels and software vulnerabilities in hardware wallets, which are currently considered as a most secure way of storing private keys of users. These hardware wallets are connected to the client machine by a USB, Bluetooth, or other connection. Therefore, we assume two attacker models, one has the physical access to the wallet and another one tampers with the client interface and thus can influence the execution of the client protocol.Examples of wallets that we want to analyze are Trezor One/T, CoolBitX, Ellipal, Ledger Nano S, etc. Hardware skills (oscilloscope) are advantage for the PhD student.
Co-supervised by dr. Ivan Homoliak.
Zvyšující se náklady na výrobu čipů a tlak na technologický vývoj spočívající zejména v neustálém zmenšování prvků vedou ve stále větší míře a u většího počtu producentů k přesunu výroby do levnějších lokalit, zpravidla k externím subjektům. Jen málokterý výrobce si může dovolit mít vlastní výrobu polovodičů. Odvrácenou stranou úspor prostřednictvím outsourcingu jsou zvýšená rizika modifikací návrhu s cílem zajistit přístup (k datům, k řízení), vypnutí či možnosti ovlivnění funkce cizích vyrobených čipů nasazených do aplikací, aniž by to zákazník poznal. Již jsou známy případy úspěšného využití takových technik. V této souvislosti se mluví o tzv. hardwarových trojských koních. Vyvíjí se proto techniky detekce takových modifikací, případně obrany proti nim. Jednou z možností detekce hardwarových trojských koní je například tzv. IP watermarking.
Cílem práce bude
Tutor: Růžička Richard, doc. Ing., Ph.D., MBA
Využívání dronů v řadě specifických situacích je dnes důležitým trendem nejen v průmyslu, ale zejména v operacích bezpečnostních složek. Tento trend přináší nové problémy v efektivní komunikaci člověka s dronem, tj. jak zvýšit efektivitu pilota, snížit jeho kognitivní zátěž, zvýšit jeho orientaci ve složitém prostředí či při spolupráci s více drony apod. Cílem této práce je zkoumat nové možnosti v oblasti efektivního a intuitivního využití senzorických dat a jejich fúze s dalšími dostupnými datovými zdroji při interakci pilota s dronem. V rámci řešení je potřeba:
Tutor: Beran Vítězslav, doc. Ing., Ph.D.
The trend of the manufacturing industry is the introduction of collaborative robots into production, which allows for closer human-robot cooperation. The aim is to streamline production by using robots for repetitive activities and workers for complex activities, their robotization would be too expensive and not very scalable. This trend brings new problems in how to communicate effectively with robots: to have an idea of the state of the robot and its understanding of the situation, and to control and program the robot easily and naturally.The aim of this work is to explore new possibilities of human-robot communication using modern technologies and devices. The solution requires:
There are many ways to represent and store 3D data. The most commonly used is the polygonal surface mesh, due to its simplicity and versatility. Volumetric representation is often used for some specific tasks because it can significantly reduce complexity of their implementation when compared to polygonal meshes. The emerging trend is hybrid representations, which try to combine the advantages of both of these representations and possibly eliminate the need to change from one representation to another.The goal of the dissertation thesis is to explore methods of storing and representing 3D data and to design new algorithms for 3D data processing with regard to typical problems such as numerical stability, robustness, open and non-manifold 3D models.Proposed methods will be applied in the projects on which the supervisor participates.
Práce je zaměřena na problematiku modelování a syntézy hybridních výpočetních architektur. Jedná se o systémy, ve kterých jsou jednotlivé úlohy implementovány jako systémy na čipu (SoC, FPGA) pomocí univerzálních či specializovaných procesorů, IP jader a programovatelné logiky. Cílem je zvýšení produktivity při návrhu, optimalizace příkonu a spotřeby energie výsledného obvodu při zachování výkonnosti, případně zvýšení výsledné výkonnosti.
Hlavní cíl práce je hledání možností modelování hybridních architektur a jejich automatizované syntézy a dále pak vypracování metodiky jejich efektivní implementace.
Předpokládá se práce v jazycích C a VHDL, případně v jazycích vycházejících z notace jazyka C, které byly adaptovány pro popis HW (např. SystemC, SystemVerilog apod.). Výsledky práce budou demonstrovány na vhodné výpočetní platformě (např. ZYNQ firmy Xilinx) a aplikaci (např. analýza obrazu či číslicové zpracování signálů ze senzorických polí).
Existuje možnost zapojení se do práce na grantech s možností stipendia, případně i pracovního poměru.
Doktorand v prezenční formě studia bude zapojen do výuky podle potřeb ústavu a fakulty.
Tutor: Fučík Otto, doc. Dr. Ing.
The project deals with image and video quality assessment metrics (IQM). The aim is to explore new ways how to incorporate human visual system properties into IQM. In particular, we will consider perception of HDR images, and utilization of additional knowledge (in form of metadata, 3D information, etc.) about the tested scenes using machine learning (e.g. neural networks).
The project is concerned with advanced methods of image processing. The aim is to research new methods using machine learning, in particular deep convolutional neural networks.
This topic focuses on the process and techniques used for cyberthreat detection, obtaining and representation of threat data. The goal of this dissertation thesis is to study the current techniques and propose a solution that effectively improves the process and its results usable for malware detection and threat intelligence, e.g. a multicriterial clustering with focus on explainability.
The topic of identifying and extracting specific information from documents on the Web has been the subject of intensive research for quite a long time. The basic obstacles that make this problem difficult are the loose structure of HTML documents and absence of meta-information (annotations) useful for recognizing the content semantics. This missing information is therefore compensated by the analysis of various aspects of web documents that include especially the following:
A background knowledge about the target domain and the commonly used presentation patterns is also necessary for successful information extraction. This knowledge allows a more precise recognition of the individual information fields in the document body.
Current approaches to information extraction from web documents focus mainly modeling and analyzing the documents themselves; modeling the target information for more precise recognition has not yet been examined in detail in this context. The assumed goals of the dissertation are therefore the following:
Experimental implementation of the proposed methods using existing tools and experimental evaluation on real-world documents available on the WWW is also an integral part of the solution.
Tutor: Burget Radek, doc. Ing., Ph.D.
Cílem disertační práce je výzkum v oblasti extrakce informací z textu se zaměřením na metody strojového učení aplikovatelné v této oblasti. Součástí bude i realizace extrakčního systému, který bude možné využít pro zpracování rozsáhlých webových dat, získaných např. v projektu CommonCrawl.
Vďaka nasadeniu nových technológií v každodennom živote sa neustále generuje obrovské množstvo dát rôznych typov. Vytvorené datasety je potrebné efektívne spracovávať - informácie v nich obsiahnuté často podporujú správnosť a presnosť rozhodovacích procesov. Rozvoj metód analýzy údajov je preto dôležitou súčasťou výskumu v informatike. Z rôznych dôvodov nie sú tradičné spôsoby spracovania všeobecne použiteľné, preto je potrebné hľadať nové prístupy. Väčšinou sú založené na umelej inteligencii a strojovom učení.
Aktuálny výskum je zameraný na optimalizačné problémy v energetickej oblasti. Obnoviteľné zdroje energie, veľkokapacitné batérie a elektromobilita menia charakter elektrickej siete - z klasickej jednosmernej centralizovanej siete sa stáva obojsmerná distribuovaná sieť. Tento fakt vyvoláva množstvo výskumných otázok a problémov na riešenie. Jedným z nich je optimalizácia mikrogridu - tu je potrebné zabezpečiť efektívne využitie dostupnej energie (teda napríklad navrhnúť zmysluplné využitie úložiska energie alebo nové spôsoby zdieľania energie medzi zákazníkmi), ale možno tu riešiť aj ďalšie výskumné výzvy.
Predmetom záujmu však môže byť analýza dát v širšom zmysle - je možné zamerať sa na úlohy predikcie, klastrovania, klasifikácie alebo detekcie anomálií v rôznych doménach.
ROZINAJOVÁ, Viera - BOU EZZEDDINE, Anna - GRMANOVÁ, Gabriela - VRABLECOVÁ, Petra - POMFFYOVÁ, Miriama. Intelligent Analysis of Data Streams. In: Paralič, J. et al. (eds.) Towards Digital Intelligence Society: A Knowledge-based Approach. Springer, Cham, Switzerland (2021). https://doi.org/10.1007/978-3-030-63872-6_5
LAURINEC, Peter - LÓDERER, Marek - LUCKÁ, Mária - ROZINAJOVÁ, Viera. Density-based unsupervised ensemble learning methods for time series forecasting of aggregated or clustered electricity consumption. In Journal of Intelligent Information Systems. Vol. 53, iss. 2 (2019), 219-239. https://doi.org/10.1007/s10844-019-00550-3
Tutor: Rozinajová Věra, Doc., Ph.D.
Dissertation focuses on the security of IoT systems. The goals of this work: studying the theory of IoT systems, their properties and possibilities of attacks, testing the basic types of attacks, designing a new method of protection, experiments, evaluation of results and design of further research.Co-supervised by dr. Kamil Malinka.
Umělé neuronové sítě (ANN) a tzv. hluboké neuronové sítě se v poslední době hojně používají v komplexních úlohách klasifikace, predikce a rozpoznávání. Jejich hlavní nevýhodou je však vysoká výpočetní a energetická náročnost. V oblasti aproximativního počítání (approximate computing) jsou hledány alternativní nízkopříkonové obvodové implementace těchto sítí, které by byly použitelné i v systémech s omezenými energetickými zdroji, jako jsou např. uzly IoT. Cílem disertační práce bude zkoumat možnosti aproximace jednotlivých komponent ANN a docílit přijatelného kompromisu mezi kvalitou a energetickou náročnosti výpočtu. Bude se jednat zejména o aproximace aritmetických operací při násobení vstupu konstantou, aproximace aktivačních funkcí, konvolučních operací a přístupu do paměti. Výzkum spadá to témat řešených výzkumnou skupinou Evolvable Hardware.
Aktorový model je alternativou k objektovému přístupu na kterém jsou založeny stávající informační systémy. K jejich hlavním nedostatkům patří: neschopnost souběžnosti (concurrency), paralelizace a tím i masivního škálování informačního prostředí, potřebného pro koncept "Průmyslu 4.0". Dále současné systémy nejsou schopny absorbovat ve větším rozsahu prvky strojového učení, neboť jejich procesy jsou "natvrdo" zakódované (můžeme mluvit o "zombie procesech") a není možné je bez nákladných zásahů konzultantů měnit. Požadavkem zákazníků jsou "chytré" firemní procesy - schopné rekonfigurace na základě aktuálních potřeb a učení se z minulých průběhů. Cílem práce je návrh a otestování firemního kyberfyzického prostředí radikálně zvyšujícího firemní efektivitu.
Neustále vytváranie a zhromažďovanie veľkého množstva dát prináša zo sebou aj bezpečnostné problémy. Množstvo problémov týkajúcich sa bezpečnosti je potrebné riešiť prostredníctvom metód založených na umelej inteligencii a s pomocou strojového učenia.
Medzi aktuálne výskumné problémy v oblasti informačnej bezpečnosti patrí analýza údajov veľkých bezpečnostných logov, detekcia širokej škály anomálií pri sieťovej komunikácii, detekcia škodlivého správania. Tieto problémy súvisia s úlohami redukcie dimenzionality, zhlukovania a klasifikácie. Výzvou je interpretovateľnosť strojového učenia pri riešeniach bezpečnosti a dôvery.
CHUDÁ, Daniela - KRÁTKY , Peter - BURDA, Kamil. Biometric Properties of Mouse Interaction Features on the Web. In Interacting with Computers : The Interdisciplinary Journal of Human-Computer Interaction. Vol. 30, iss. 5 (2018), s. 359-377. https://doi.org/10.1093/iwc/iwy015
KRÁTKY , Peter - CHUDÁ, Daniela. Recognition of web users with the aid of biometric user model. In Journal of Intelligent Information Systems. Vol. 51, iss. 3 (2018), s. 621-646. https://doi.org/10.1007/s10844-018-0500-0
Tutor: Chudá Daniela, doc. Mgr., Ph.D.
Modely vytvárané strojovým učením môžu byť len tak dobré, aké dobré sú dáta, ktoré použijeme na ich trénovanie. Aj preto sa výskumníci a inžinieri snažia získavať čo najlepšie trénovacie dáta. Nie je pritom zriedkavé vynakladať značné ľudské úsilie (pri čistení či anotovaní) s cieľom dosiahnuť potrebnú všeobecnú kvalitu. Niekedy je však ťažké, prípadne nemožné dostatočne pripraviť vzorku dát.
V takýchto prípadoch môžu pomôcť riešenia založené princípe "človek v procese" (angl. human in the loop), ktorý využíva ľudské úsilie na vylepšovanie strojovo naučených modelov prostredníctvom ľudských zásahov priamo počas trénovania a/alebo počas nasadenia modelov (napr. spätná väzba pri automatickom preklade). Tieto riešenia sú špeciálne užitočné pri cielených zlepšeniach trénovacích dát prostredníctvom identifikácie a riešenia sporných prípadov. Toto je taktiež priamo spojené s vysvetliteľnosťou a interpretovateľnosťou modelov.
Prístupy s človekom procese zahŕňajú pestrú paletu techník z oblastí ako aktívne a interaktívne učenie, ľudské počítanie, čerpanie z davu či kolektívna inteligencia (spolu s motivačnými schémami ako gamifikácia a hry s účelom). Každá z týchto oblastí (či ich kombinácia) predstavuje príležitosti pre nové objavy. Taktiež hraničia s ďalšími disciplínami informatiky ako vizualizácia dát, použiteľnosť a používateľský zážitok a softvérové inžinierstvo.
Aplikačné domény strojového učenia s človekom v procese sú predovšetkým tie s veľkou mierou heterogenity a nestálosti. Takéto domény zahŕňajú napríklad aj detekciu falošných informácií, šírenie informácií online (vrátane šírenia naratívov a mémov), podpora manuálneho/automatického overovania informácií (fact-checking) a ďalšie.
J. Simko, M. Hanakova, P. Racsko, M. Tomlein, R. Moro and M. Bielikova. Fake News Reading on Social Media: an Eye-tracking Study. In Proc. of the 30th ACM Conference on Hypertext and Social Media - HT 2019, ACM, pp. 221-230. https://doi.org/10.1145/3342220.3343642
J. Šimko and M. Bieliková. Semantic Acquisition Games: Harnessing Manpower for Creating Semantics. 1st Edition. Springer Int. Publ. Switzerland. 150 p. https://link.springer.com/book/10.1007/978-3-319-06115-3
Tutor: Šimko Jakub, doc. Ing., PhD.
Inteligentné meta-heuristické algoritmy poskytujú pohodlné a praktické riešenie komplexných optimalizačných problémov. V rámci meta-heuristických algoritmov sa do popredia postupne dostávajú prírodou inšpirované algoritmy, pretože sú inteligentné, dokážu sa učiť a prispôsobovať prostrediu podobne ako biologické organizmy. Tieto algoritmy sú pre vedeckú komunitu zaujímavé najmä pre narastajúcu zložitosť pri riešení problémov. Pri rozhodovaní umožňujú spracovávať úlohy s neúplnými pravdepodobnostnými informáciami. Zohľadnenie neurčitosti v procese modelovania, odrážajúce neurčitosť problémov reálneho sveta, môže mať vplyv na výstupy modelu, a teda aj na optimálnu hodnotu účelovej funkcie. Neurčitosť teda pridáva do globálneho optimalizačného procesu ďalšiu vlastnosť.
Väčšina úloh optimalizácie v reálnom svete je vysoko nelineárna, viacúčelová, s rôznymi zložitými obmedzeniami. Nájsť optimálne, alebo suboptimálne riešenie nie je vo všeobecnosti ľahká úloha. Existuje viacero aplikačných domén, kde sú výskumné problémy optimalizácie riešené. Jednou z týchto domén je energetika. Optimálne dynamické predikcie výroby a spotreby energie umožnia optimálne plánovanie a riadenie mikrogridu v reálnom čase.
VRABLECOVÁ, Petra - BOU EZZEDDINE, Anna - ROZINAJOVÁ, Viera - ŠÁRIK, Slavomír - SANGAIAH, Arun Kumar. Smart grid load forecasting using online support vector regression. In Computers and electrical engineering. Vol. 65, iss. January (2018), s. 102-117. https://doi.org/10.1016/j.compeleceng.2017.07.006
ROZINAJOVÁ, Viera - BOU EZZEDDINE, Anna - LÓDERER, Marek - LOEBL, Jaroslav - MAGYAR, Róbert - VRABLECOVÁ, Petra. Computational Intelligence in Smart Grid Environment. In Computational Intelligence for Multimedia Big Data on the Cloud with Engineering Applications. Elsevier, 2018, 23-59. https://doi.org/10.1016/B978-0-12-813314-9.00002-5
Tutor: Bou Ezzeddine Anna, Doc., Ph.D.
SCADA (Supervisory Control And Data Acquisition) and Industrial Control Systems (ICS) communication is intended to control and monitor industrial processes in smart factories, smart grids, etc. Disruption of communication may interrupt important industrial processes or cause a blackout of critical supplies like water or energy. To protect SCADA/ICS communication, we can apply advanced SCADA/ICS monitoring that creates normal behavior profiles and detects deviations (anomalies). Communication profiles can be described using statistical methods. We can model communication using automata or create models using machine learning. The research aims to describe the behavior of industrial communication and propose a suitable representation using multidimensional profiles. It is then necessary to verify what types of anomalies are covered by these profiles and how the accuracy of detection can be increased. The topic is a part of the research project Security monitoring of ICS communication in the smart grid (Bonnet). Co-supervisor: Matoušek Petr, Ing., Ph.D., M.A.
Cílem disertační práce je výzkum nových metod pro mitigaci útoků směřujících k odepření služby. Obsahem práce je výzkum využití technik strojového učení za účelem vývoje nových způsobů identifikace nelegitimního provozu, nových mitigačních postupů a automatizace řízení mitigace. Předpokládá se optimalizace a přizpůsobení metod strojového učení pro potřeby detekce samotného útoku, jeho typu, odvozování vzorů pro blokování nelegitimní části provozu, odvozování parametrů mitigačních metod a výběr vhodné mitigační metody dle typu útoku. Současný výpočetní výkon umožňuje trénovat komplexní modely strojového učení, které jsou schopny odvodit znalosti a souvislosti skryté v síťovém provozu, přímo na živém provozu v síti. Tato oblast nebyla doposud důsledně zkoumána a představuje tak vhodné téma pro disertační práci. Výsledky disertační práce lze aplikovat při podpoře a automatizaci činností členů Security Operation Centre, Network Operation Centre, CSIRT či CERT týmů či administrátora sítě.Při řešení práce se předpokládá úzká spolupráce s výzkumným týmem Liberouter (www.liberouter.org) a získávání zpětné vazby od správců výzkumné infrastruktury sdružení CESNET. V případě zodpovědného přístupu k řešení zadaného tématu může být student zapojen do řešení projektu AdaptDDoS, který je současné době řešen v rámci bezpečnostního výzkumu MV ČR. Školitelem specialistou k tématu disertační práce je dr. Martin Žádník. Relevantní publikace pro toto téma jsou:
The goal of the research is to design a new method for analysis, development and implementation of software systems for Big data processing. The method should support an easy transformation of domain and platform independent models into various platform specific models of the Big data processing systems in accordance with the principle of Model Driven Architecture (MDA), as well as their subsequent implementation using different technologies, and consequently also easier development, deployment and evaluation of such systems.
Individual objectives are to explore, evaluate and categorize various big data processing technologies; to create their platform specific and general meta-models; to find and design a common platform independent meta-model of such systems; to integrate the support for these models into existing or new modeling tools; to design and implement source code generators from the models including tools to generate the models from the source code (round-trip engineering); to create automatic validation and performance tests; to support agile development of such systems including their deployment (CI/CD); etc.
Supervisor-specialist: RNDr. Marek Rychlý, Ph.D.
Cílem práce je navázat na soudobé techniky návrhu a realizace distribuovaných řidicích systémů v rámci IoT a CPS a přinést nové metody, které lépe zohlední potřebu analyzovatelnosti a verifikovatelnosti při zachování uživatelské přívětivosti a intuitivní pochopitelnosti modelovacího formalismu a přitom umožní dynamickou rekonfigurovatelnost a adaptabilitu na měnící se podmínky provozu systému.Specifickým cílem je využití a rozvoj moderních metod modelování, simulace, analýzy, verifikace, monitorování a dohledu v řídicích systémech, v souladu s průmyslovými standardy pro IoT, CPS a Průmysl 4.0.
Modelování látek na bázi mechaniky kontinua je převážně doménou pevných materiálu. V této oblasti existuje nepřeberné množství softwarových balíků a značné množství modelů materiálů různých vlastnostech od elastických přes viskoelastické až po plastickou deformaci v nejnovějších verzích. Deformace pevných látek je modelována pomocí kaučukové chování (Ogden), hyperelastických modelů (Mooney Rivlin) až po lineární elasticitu. Všechny tyto modely jsou standardně implementovány v softwarech pro mechaniku kontinua. K dispozici model deformace na mezi kluzu to je práh deformace kdy materiály zejména plastové ale také kovy zač začínají mít trvalou deformaci, což je výhodné při tažení kovů za studena, nebo zvlákňování materiálu.
Naproti tomu, v oblasti kapalin je podobných softwarových modulů výrazně méně. Objevují se ve speciálních programech. Většinou výsledkem je animace chování kapaliny, což je výhodné pro účely grafické vizualizace ve virtuální realitě například počítačových hrách. Nicméně tyto programy poskytují velmi málo analytických nástrojů pro zkoumání a kontrolu procesů. Možnost analytického popisu kapalné soustavy je více méně teoretická. Analytickým popisem je míněno silové působení látky na okolí pomocí tenzoru napětí a deformace, vznik a lokalizace mechanického napětí v systému. Dalším parametrem je pole intenzity napětí, které má vliv na to, jak kapalina působí na okolí. Tyto faktory zatím neexistují v žádném dostupném programu, a pokud by byly vyřešeny, dosáhly by širokého využití, při konstrukci lodí, popisu sedimentace. Další možností je například proces centrifugace, který se používá v biologických systémech na separaci jednotlivých buněčných komponent.
Cílem této disertační práce je akcelerovat nové modely chování pevných látek na superpočítačich vybavených desítkami multi-GPU uzlů. Práce se bude zaměřovat na techniky implementace GPGPU kódů pomocí vysokoúrovňových knihoven a akceleraci komunikace pomocí unifikované paměti a RMA přístupů do paměti jiných uzlů
The topic concerns algorithms of computer graphics and image synthesis. Its main goal is to research new algorithms so that their features and application possibilities are better understood so that they are improved or newly created. If suitable, it is possible to work on various platforms, includeing parallel CPUs, such as x86/64, ARM, Xeon PHI, GPU, etc. or other cores in CUDA, OpenCl, VHDL, etc. Algorithms of interest include:
Collaboration on grant projects, such as TACR, H2020, ECSEL possible (employment or scholarship).
Řešení tohoto projektu bude vycházet ze stávajících poznatků o metodách překladu jazyků a poznatků o systémech formálních modelů, zejména překladových gramatik a automatů. Cílem je konstrukce a výzkum metod překladů založených na takovýchto systémech a to tak, aby nové metody adekvátním způsobem odrážejí potřeby moderních kompilátorů. Aplikace těchto systémů se budou soustředit na překladače.
The topic deals with joint training of signal processing and speech data mining architectures, by end-to-end approaches. The topic requires interest in mathematics, statistics, machine learning and signal processing, skills in Python and its machine learning libraries are a plus.
BUT Speech@FIT is a top international research group dealing with speech data mining. It advocates equal opportunities, currently includes 10 nationalities and (within IT) significant share of women.
More information: https://speech.fit.vutbr.cz
Tutor: Černocký Jan, prof. Dr. Ing.
Cílem práce je navázat na soudobé techniky návrhu a realizace distribuovaných řidicích systémů v rámci IoT a CPS a přinést nové metody, které akcentují provoz v dynamickém prostředí (ve smyslu dostupnosti senzorů, aktuátorů a služeb, přítomnosti uživatelů apod.) a zohlední i bezpečnostní aspekty systému.Specifickým cílem je využití konceptu multiagentních systémů pro plánování akcí s ohledem na dostupné zdroje a pro inteligentní dohled a komunikaci s uživateli systému. Možnou aplikační oblastí může být řízení inteligentní budovy, resp. Smart Home. Předpokládá se vhodná kombinace reálných a simulovaných součástí systému při realizaci případových studií.
Neustály nárast množstva dostupných dát zdôrazňuje potrebu ich automatického spracovania a porozumenia. Špeciálnu výzvu predstavuje heterogénny neštruktúrovaný textový obsah v prirodzenom jazyku. Spracovanie prirodzeného jazyka (natural language processing, NLP) sa radí medzi najperspektívnejšie podoblasti umelej inteligencie s obrovským potenciálom inovatívnych aplikácií ovplyvňujúcich každodenný život.
Nedávne pokroky v oblastiach neurónových sietí a strojového učenia posunuli úspešnosť a záber porozumenia a generovania prirodzeného jazyka významne dopredu. Napriek tomu stále zostávajú výskumné výzvy týkajúce sa jednotlivých úloh spracovania prirodzeného jazyka, aplikačných domén a jazykov. Je potrebný ďalší výskum a prieskum súvisiacich javov, špeciálnu pozornosť v poslednej dobe púta problém interpretovateľnosti a vysvetliteľnosti modelov pre NLP alebo rôzne inovatívne paradigmy učenia adresujúce problém nízkej dostupnosti zdrojov potrebných pre učenie.
Zaujímavé výskumné výzvy zahŕňajú (najmä, ale nielen):
Učenie s prenosom / multilingválne učenie
Interpretovateľnosť a vysvetliteľnosť pre NLP
Doménovo-špecifická extrakcia informácií a klasifikácia textu
Spracovanie jazykov s malým množstvom zdrojov
Pikuliak, M., Šimko, M., Bieliková, M. Cross-lingual learning for text processing: A survey. Expert Systems with Applications, 2020. https://doi.org/10.1016/j.eswa.2020.113765
Korenek, P., Šimko, M. Sentiment analysis on microblog utilizing appraisal theory. World Wide Web, 2014. https://doi.org/10.1007/s11280-013-0247-z
Tutor: Šimko Marián, doc. Ing., Ph.D.
Umělé neuronové sítě (ANN) a tzv. hluboké neuronové sítě se v poslední době hojně používají v komplexních úlohách klasifikace, predikce a rozpoznávání. Cílem disertační práce bude zkoumat možnosti automatizovaného návrhu ANN pomocí evolučních výpočetních technik a optimalizace těchto ANN pro konkrétní platformu (CPU, GPU, ...), kde budou nasazeny. Hlavní pozornost bude zaměřena na optimalizaci velikosti ANN, redukci přístupu do paměti (např. pomocí komprese vah) a generativní přístup ke konstrukci ANN. Výzkum spadá to témat řešených výzkumnou skupinou Evolvable Hardware.
Řešení tohoto projektu bude vycházet ze stávajících poznatků teorie formálních jazyků o modelech definující jazyky. Projekt se zaměří na automaty a gramatiky. Cílem je konstrukce a výzkum nových verzí těchto modelů a to tak, aby adekvátním způsobem odrážely potřeby moderní informatiky. Řešení projektu bude rovněž zahrnovat diskuzi aplikací těchto systémů např. v oblasti bezpečnosti.
The topic of the work includes algorithms of comptuer graphics, image, and video, i.e. "Visual Computing", such as HDR (High Dynamic Range) image, multispectral image, stereoimage, possibly also image augmented with material features, temperature, etc. The goal is to understand the features and possibilites but also applications, to analyze the algorithms in-depth, prepare new and improve them. The possible algorithms include:
Collaboration on grant projects, such as TACR, MPO, H2020, ECSEL possible (employment or scholarship).
Cílem této disertační práce je návrh nových metod pro vysoce efektivní vstup a výstup paralelních simulačních algoritmů. Práce klade důraz na distribuci zátěže přes vícenásobné RAID pole, překrývání vstupu a výstupu s výpočtem, offloadování vstupu a výstupu na dedikované uzly, bufferování dat, apt.Výstupem práce bude technika, která na základně aktuálního vytížení výpočetního clusteru a požadavků simulace automaticky navrhne nejvhodnější strategii. Tohoto výsledku bude dosaženo pomocí online sběru a vyhodnocení výkonnostních metrik a technik umělé inteligence a strojového učení.
Předmětem práce je návrh shluků (clusters) obchodních modelů a/nebo jejich parametrů, které budou zachovávat předepsané požadavky na minimalizaci kumulativních rizik, vznikajících při alokaci portfolia s využitím těchto systémů na paralelních časových řadách finančního trhu. Cílem práce je splnění kritérií na linearitu křivky ekvity a minimalizace kumulativního rizika. Očekává se účast na relevantních mezinárodních konferencích a publikování v odborných či vědeckých časopisech.
Obecným cílem výzkumu v rámci zadání je výrazně posunout vpřed současný stav poznání ve světě v oblasti statické analýzy programů, a to jak v oblasti principů, tak i nástrojů alespoň potenciálně využitelných v praxi.
Statická analýza postavená na formálních základech je moderním a rychle se rozvíjejícím přístupem k ověřování korektnosti počítačových systémů, resp. pro vyhledávání chyb v nich. Existuje a dále se rozvíjí mnoho přístupů k takové analýze či verifikaci: analýza toku dat, pokročilé typové analýzy, abstraktní interpretace, model checking apod. Značná pozornost je těmto přístupům věnována nejen v akademické oblasti, ale také řadou špičkových velkých průmyslových společností (např. Facebook, Google, Amazon, Apple, Microsoft, Oracle, Red Hat apod.) i neustále vznikajících specializovaných firem (např. Coverity, GrammaTech, AbsInt, DiffBlue apod.), často následně zakoupených velkými technologickými leadery. Přes tento zájem univerzit i průmyslových společností je však v oblasti statické analýzy stále zapotřebí vyřešit celou řadu teoretických i praktických problémů. Jedním z těchto problémů, na který by se měla práce zaměřit, je škálovatelnost, a to i pro hlubší analýzy, které se zaměřují na komplexní datové či řídicí struktury. Na oltář škálovatelnosti by ale neměla být obětována přesnost analýzy, jak se tomu v průmyslové praxi často děje -- jde tedy o nalezení vhodné rovnováhy mezi přesností (tj. procentem falešných hlášení) a efektivností.
Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT automatizovanou analýzou a verifikací, zejména pak doc. A. Rogalewiczem, dr. L. Holíkem, dr. O. Lengálem, dr. P. Peringerem, Ing. T. Fiedorem, Ing. M. Hruškou, Ing. V. Šokovou či Ing. V. Malíkem. Je zde rovněž možnost úzké spolupráce s různými zahraničními partnery VeriFIT: TU Vienna, Rakousko (dr. F. Zuleger), Uppsala University, Švédsko (prof. P.A. Abdulla, prof. B. Jonsson, doc. P. Rümmer); Verimag, Grenoble, Francie (doc. R. Iosif), IRIF, Paříž, Francie (prof. A. Bouajjani, doc. C. Enea, doc. P. Habermehl), LSV, ENS Paris-Saclay, Francie (prof. M. Sighireanu), Academia Sinica, Tchaj-wan (prof. Y.-F. Chen), TU Kaiserslautern, Německo (prof. A.W. Lin) či TU Braunschweig, Německo (prof. R. Meyer). Téma je zajímavé také z pohledu spolupráce s průmyslovými společnostmi, zejména pak DiffBlue z Velké Británie (dr. P. Schrammel), která vyvíjí mj. statický analyzátor 2LS, do jehož vývoje se již tým VeriFIT zapojil v několika oblastech. Dalšími možnými průmyslovými partnery jsou např. Red Hat, Honeywell či Facebook.
V oblasti statické analýzy programů dosáhla skupina VeriFIT mnoha originálních výsledků publikovaných na špičkových konferencích (např. v oblasti analýzy programů s dynamickými datovými strukturami, parametrickými datovými strukturami, neomezenými poli, řetězci či parametrickým počtem procesů). Řada z dosažených výsledků byla implementována v nástrojích (např. Predator, Forester či 2LS), které získaly řadu ocenění např. na mezinárodní soutěži ve verifikaci software SV-COMP. V nedávné době začali členové skupiny vyvíjet také analyzátory do generických prostředí, jako jsou Facebook Infer či Frama-C.
Konkrétní výzkum v
Cílem práce bude navrhnout a ověřit platformu pro akceleraci algoritmů vestavěné inteligence. Důraz bude kladen na optimalizaci výpočtů pro práci v reálném čase a nízký příkon. V práci budou zkoumány možnosti efektivní implementace klasifikátorů a hlubokých neuronových sítí a jejich vhodného kombinování.
Např. použití obrazových klasifikátorů pro výběr vhodných kandidátních snímků pořízených kamerou a jejich následné zpracování v neuronové síti či kaskádě sítí (např. jednoduchá a rychlá síť v FPGA, pomalejší, ale přesnější v CPU a konečně velmi hluboká a přesná neuronová síť běžící na cloudu či clusteru), může přinést výrazné omezení datových toků. Důsledkem pak může být nejen urychlení výpočtů (čím přesnější je síť, tím je výpočetně a energeticky náročnější a není tedy vhodné ji spouštět na každý snímek pořízený kamerou), ale také výrazné snížení příkonu (přenosy dat mají často větší energetické nároky než výpočty samé).
Kvalita a efektivita navržených algoritmů a výpočetních struktur bude ověřována na reálných datech. Pro implementaci navržených algoritmů se zvažuje využití hybridních výpočetních platforem kombinující výhody technologií FPGA, CPU a GPU.
Předpokládá se spolupráce na výzkumných grantových projektech. Možné aplikace zahrnují tzv. chytré kamery, které rozpoznávají zájmové objekty v reálném čase, senzory s vestavěnou inteligencí pro robotiku či IoT atd.
Pro moderní aplikace se ukazuje, že univerzální procesory pro specializované přístroje s často jednoúčelovými aplikacemi nejsou vhodné. V rámci těchto vestavěných (embedded) systémů se jeví velmi důležitým umět navrhnout optimální specializovaný procesor pro danou aplikaci. Tento vývoj se většinou dělá ručně a tudíž pomalu. V rámci výzkumu skupiny Lissom vznikl rekonfigurovatelný překladač jazyka C, který je nyní součástí Codasip Studia firmy Codasip (FIT má univerzitní licenci). Jsou k dispozici zkušenosti s tímto výzkumem. Je jisté, že jde o výzkum na světové úrovni, který je prakticky žádán a není definitivně dořešen. Jsou k dispozici definiční jazyky, mezijazyk i rekonfigurovatelný překladač jayzka C. Schopnost generovat překladač jazyka C z popisu procesoru otevírá další možnosti návrhu procesorů pro moderní aplikace, jako je např. autotuning. Jde o automatické vytvoření optimálního procesoru i překladače pro danou aplikaci. Vyjdeme z parametrizovatelného modelu procesoru a dané aplikace. Vzhledem ke schopnosti automatického generování překladače můžeme vytvořit a přeložit aplikaci pro různé konfigurace překladače i procesoru a simulací vyhodnocovat vlastnosti řešení (rychlost, velikost, spotřebu, plochu, instrukční repertoár apod.). Proto některou z vhodných metod prohledávání stavového prostoru můžeme nalézt optimální variantu. Vzhledem k unikátní možnosti automatického generování překladače je tento přístup značným rozšířením dosavadního postupu popsaného v literatuře, kdy se experimentuje s pevnými překladači jediného procesoru paramerizovatelnými pouze stupněm optimalizace.Automatické nalezení optimálního procesoru s překladačem je vysoce žádáno a má rozhodně aplikační využití.V současnosti je vhodným zaměřením optimalizace rodiny procesorů RISC V (risc five). Existují základní varianty se základním instrukčním repertoárem a množství verifikovaných rozšíření do různých oblastí. Velmi zajímavý by byl postup, která by na základě vložené aplikace (aplikací) vybral z nabízené množiny rozšíření vhodnou variantu. Velikost prohledávaného stavového prostoru může být značná, proto se nabízí např. některý z genetických algoritmů. Více informací po osobní schůzce.Kontakty a informace Prof. Ing. Tomáš Hruška, CSc. - hruska@fit.vutbr.cz
Téma je vypisováno jako volné, není přímo navázané na projekt. Nicméně při kvalitní publikační činnosti lze získat jak mimořádné, tak pravidelné příjmy navíc jak z interní grantové agentury, tak z dalších zdrojů.Téma se dotýká dnes běžných záležitostí, kdy pokročilé vývojové prostředí "radí" programátorovi, jak udělat nějaký kód lépe (např. kratším zápisem, bezpečnější, eliminovat "zbytečnosti", apod.). Jedná se typicky o analýzu známých konstrukcí a obratů, analýzu mrtvého kódu, podobnosti (kdy dva různé zápisy vedou na stejný cílový kód), apod.Cílem je zdokonalit dané techniky prostřednictvím souběžného použití několika technik tak, aby ve zvoleném směru (např. bezpečnost kódu, přehlednost kódu, vhodnost pro ladění, apod.) bylo možné kód upravit/vylepšit.Bude nutná znalost z oblasti překladačů a to i reverzních, klasifikace, získávání znalostí z dat, umělé inteligence apod.
Předmětem doktorského studia bude výzkum v oblasti zlepšování kvality a redukci variability se zaměřením na statistické metody, které by bylo možné využít zejména v oblasti vývoje informačních systémů. Model systému kvality bude akceptovat moderní přístupy v této oblasti jakou je např. metodologie Six Sigma, použití grafických modelovacích nástrojů a bude akceptovat principy řízení kvality dané mezinárodními normami ISO. Dalším cílem výzkumné práce je nalezení teoretických konceptů, metod a nástrojů, jež by umožnily zdokonalování procesů řízení kvality vývoje produktů. Očekává se účast na relevantních mezinárodních konferencích a publikování v odborných či vědeckých časopisech.
Cílem této disertační práce je pomoci lékaři s aplikací ultrazvuku při stimulaci mozku. Lékař má v ruce vysílač, kterým pohybuje podél hlavy. Pozice vysílače je snímána kamerou a předávána do počítače, který zná nastavení vysílače a anatomii daného člověka. V reálném se čase pak počítá predikce ohniska v mozku. V současné době, trvá výpočet jednoho snímku asi dvě minuty. Cílem disertační práce je, dostat se pod 1 sekundu. Práce se tedy zaměří na průzkum různých fyzikálních modelů a jejich párování, aproximaci složitých matematických výpočtů (např. řídká FFT, odhady pomocí ANN, atd), efektivní implementaci na grafické kartě a a další.Disertační práce bude řešena v nově podaném projektu ve spolupráci s University College London, Harward University a Virginia University
Odporúčacie systémy sú integrálnou súčasťou prakticky každej modernej webovej aplikácie. Personalizované, resp. adaptívne služby, sa stali štandardom, ktorý je používateľmi aplikácií vyžadovaný skoro vo všetkých doménach (napr. spravodajstvo, četoví agenti, sociálne médiá alebo vyhľadávanie).
Personalizácia má očividne obrovský vplyv na každodenný život miliónov používateľov naprieč mnohými doménami a aplikáciami. To je zdrojom zásadnej výzvy - návrh metód, ktoré sú nielen presné, ale aj dôveryhodné a spravodlivé. Táto výzva ponúka mnohé výskumné príležitosti vo viacerých smeroch:
Diverzita, novosť a rôznorodosť odporúčaní
Vysvetľovanie odporúčaní
Férovosť a spravodlivosť v odporúčaní
Skreslenia v odporúčaní
Nové metódy strojového učenia pre adaptívne a odporúčacie systémy
Jednotlivé smery a výzvy môžu byť adresované vo viacerých doménach ako napríklad vyhľadávanie, elektronický obchod, spravodajstvo, sociálne médiá a iné.
M. Svrcek, M. Kompan, M. Bielikova. Towards Understandable Personalized Recommendations: Hybrid Explanations. In Computer Science and Information Systems. Vol. 16, No. 1, 2019. https://doi.org/10.2298/CSIS171217012S
O. Kassak, M. Kompan, M. Bielikova. Personalized hybrid recommendation for group of users: Top-N multimedia recommender. In Information Processing and management. Vol. 52, Iss. 3., 2016. https://doi.org/10.1016/j.ipm.2015.10.001
Tutor: Kompan Michal, doc. Ing., PhD.
Cílem práce je navázat na soudobé techniky návrhu a realizace distribuovaných řidicích systémů v rámci IoT a CPS a přinést nové metody, zohledňující rekonfigurovatelnost a adaptaci v dynamickém prostředí, a to jak automatickou, tak interaktivní. Specifický důraz je kladen na zajištění konzistence systému a jeho modelu během rekonfigurace, učení a optimalizace. Možnou aplikační oblastí může být řízení inteligentní budovy, resp. Smart Home.Předpokládá se vhodná kombinace reálných a simulovaných součástí systému při realizaci případových studií.
The aim of the thesis is reconstruction of damaged CD/DVD/BR/HDD surfaces, consisting of:
The aim of this work is to create a reliable matching of 2D face with 3D face projection, namely:
The goal of the thesis is to propose a scalable decentralized e-voting system based on smart contracts, with maximum voter privacy, fault tolerance, and coercion resistance. Such an approach should be convenient and robust enough for national elections. The first challenge is to optimize costs the for running expensive zero-knowledge proof verification at smart contract by off-chain constructs. The second challenge is the scalability w.r.t. to the number of participants and vote choices, which depends on the convenient type of the blockchain and its consensus mechanism, such as permissioned blockchains (Proof-of/Stake) and permissioned blockchains (Proof-of-Authority).Co-supervised by dr. Ivan Homoliak.
Dissertation focuses on the security of various systems that are intended to ensure the anonymity or pseudonymity of Internet users (for example, TOR networks). The goals of this work: studying the theory of anonymization systems, their properties and possibilities of attacks, testing the basic types of attacks, designing a new method of protection. Experiments, evaluation of results and proposal of further research direction.Co-supervised by dr. Kamil Malinka.
Zavedením sémantických operátorů do genetického programování umožnilo významně zefektivnit jeden ze základní stavebních pilířů evolučních výpočetních technik a zredukovat množství generací potřebných k nalezení řešení. Cílem disertační práce je navázat na předchozí výzkum a zabývat se možnostmi zavedení sémantických operátorů do kartézského genetického programování a to v úloze návrhu a optimalizace číslicových obvodů a symbolické regrese. Výzkum spadá do témat řešených výzkumnou skupinou Evolvable Hardware.
Semantic web technology allows the representation of information and knowledge for the purpose of its further sharing, for example, in computer applications. Available knowledge databases, such as DBPedia, contain a great amount of useful information and facts. On the current web, however, most of the new information is published in the form of documents most often in HTML, whose further processing is problematic mainly due to their free structure and the absence of explicit information about the meaning of individual parts of the content. There exist two ways to overcome this gap between the classical and the semantic web:
To achieve both these goals, it is necessary to analyze the capabilities of existing ontological models regarding the modelling of the target domains and mapping these descriptions on the content of real-world web pages and documents. Possible applications include, but are not limited to:
Experimental implementation of the proposed methods using the existing tools and experimental evaluation on real-world data and documents is also an integral part of the solution.
The topic of the work is focused on speech recognition and data processing for ATC-pilot communication in aviation. It will cover all components of automatic speech recognition (ASR), i.e. data processing, acoustic model, vocabulary (including special aviation terminology) and language model.The topic is related to the European project Horizon 2020 ATCO2, and will be elaborated in cooperation with project partners. The assignment requires an interest in mathematics, statistics, machine learning and speech processing, the advantage is proficiency in Python and its libraries for machine learning.
Řešení tohoto projektu bude vycházet ze stávajících poznatků o formálních modelech, zejména automatů a gramatik. Cílem je konstrukce a výzkum nových systemů automatů a gramatik, které adekvátním způsobem odrážejí potřeby moderních výpočetních metod založených na distribuci, kooperaci a regulaci. Kanonické a redukované verze těchto system budou centrem tohoto studia. Aplikace těchto systémů se budou soustředit na modelování a výzkum organismů v molekulární biologii a genetice.
A high fidelity simulation of human tactical behavior requires the availability of human decision making process models. The subject of the thesis will be the research on scalable behavior model architectures combining machine learning approaches and domain expert knowledge to suite a range of behavior demands under various tactical scenarios. An important aspect of the design process will be the tuning and validation of the tactical decision model.
Tutor: Chudý Peter, doc. Ing., Ph.D., MBA
Současná věda stále více spoléhá na vysoce výkonné počítače provádějící náročné simulace. Náročnost těchto simulací nespoléhá pouze v množství dat a operací které je nutné vykonat, ale i v možnostech jednotlivých simulačních frameworků zahrnující různé fyzikální a numerické modely, ohraničující podmínky, typy prostředí atd. Tato variabilita vede ke stovkám různých simulačních scénářů skládajících se z tisíců dílčích úloh. V tomto momentě naráží klasické datově paralelní implementace na své meze, neboť rozhodovací logika daleko převyšuje logiku výpočtu.Druhým úskalím je architektura současných superpočítačových systémů. Již více než dekádu se nejedná o uniformní systémy složený z homogenních prvků s homogenním propojením. Současný trend jsou silně heterogenní architektury složené s vícejádrových procesorů a různých akcelerátorů, např. GPU, FPGA, Xeon Phi. Optimalizace komplexních frameworků pro tyto architektury a následné vyvažování zátěže se stává limitujícím prvkem. Cílem této disertační práce je prozkoumat techniky funkčního paralelismu a návrh automatizovaných simulačních platforem umožnující distribuci výpočtu na vhodné hardwarové komponenty.
Řešení tohoto projektu bude vycházet ze stávajících poznatků o moderních formálních systémech, které se používají v teorii jazyků. Teoretický výzkum těchto modelů bude diskutovat užitečné transformace těchto systémů, jako např. eliminace vymazávajících pravidel či redukce velikosti jejich komponent. Výzkum aplikací takto transformovaných systémů se bude soustředit na oblasti informatiky související s překladači, matematickou lingvistikou a molekulární biologií.
Řešení tohoto projektu bude vycházet ze stávajících poznatků o moderních formálních modelech, které se používají v teorii jazyků. Teoretický výzkum těchto modelů bude diskutovat užitečné transformace těchto modelů, jako např. eliminace vymazávajících pravidel či redukce velikosti jejich komponent. Výzkum aplikací takto transformovaných modelů se bude soustředit na oblasti informatiky související s překladači, matematickou lingvistikou a molekulární biologií.
Cílem práce je navázat na soudobé techniky návrhu a realizace distribuovaných řidicích systémů v rámci IoT a CPS a přinést nové metody, které zohlední potřebu analyzovatelnosti a verifikovatelnosti a přitom umožní adaptabilitu a dynamickou rekonfigurovatelnost systému. Specifickým cílem je aplikace metod analýzy a verifikace v návaznosti na modelem řízený návrh (Model Based Design, MBD) a na simulaci založený vývoj (Simulation Based Develeopment, SBD) v kontextu moderních řídicích systémů a CPS.
The project deals with geo-localization of mobile devices in unknown environments using computer vision and computer graphics methods. The aim is to investigate and develop new image registration techniques (with geo-localized image database or 3D terrain model). The goal is an efficient implementation of proposed methods on mobile devices as well as search for additional applications in the area of image processing, computational photography, and augmented reality.