Přístupnostní navigace
E-application
Search Search Close
study programme
Original title in Czech: Informační technologieFaculty: FITAbbreviation: DITAcad. year: 2022/2023
Type of study programme: Doctoral
Study programme code: P0613D140028
Degree awarded: Ph.D.
Language of instruction: Czech
Accreditation: 8.12.2020 - 8.12.2030
Profile of the programme
Academically oriented
Mode of study
Full-time study
Standard study length
4 years
Programme supervisor
prof. Ing. Lukáš Sekanina, Ph.D.
Doctoral Board
Chairman :prof. Ing. Lukáš Sekanina, Ph.D.Councillor internal :prof. Ing. Pavel Václavek, Ph.D.doc. Ing. Jan Kořenek, Ph.D.prof. Ing. Jan M. Honzík, CSc.prof. Dr. Ing. Pavel Zemčík, dr. h. c.prof. Dr. Ing. Zbyněk Raidaprof. RNDr. Josef Šlapal, CSc.prof. RNDr. Milan Češka, CSc.prof. Ing. Tomáš Hruška, CSc.prof. Ing. Tomáš Vojnar, Ph.D.prof. Dr. Ing. Jan Černockýprof. RNDr. Alexandr Meduna, CSc.prof. Ing. Adam Herout, Ph.D.Councillor external :prof.,RNDr. Jiří Barnat, Ph.D. (FI MUNI)prof. Ing. Jiří Sochor, CSc. (FI MUNI)
Fields of education
Study aims
The goal of the doctoral degree programme is to provide outstanding graduates from the master degree programme with a specialised university education of the highest level in certain fields of computer science and information technology, including especially the areas of information systems, computer-based systems and computer networks, computer graphics and multimedia, and intelligent systems. The education obtained within this degree programme also comprises a training and attestation for scientific work.
Graduate profile
Profession characteristics
FIT graduates in general and FIT doctoral graduates in particular do not have a problem finding employment at scientific, pedagogical or management positions both in Czech Republic and abroad.
Fulfilment criteria
The requirements that the doctoral students have to fulfil are given by their individual study plans, which specify the courses that they have to complete, their presupposed study visits and active participation at scientific conferences, and their minimum pedagogical activities within the bachelor and master degree programmes of the faculty. A successful completion of the doctoral studies is conditional on the following:
Study plan creation
The rules are determined by the directions of the dean for preparing the individual study plan of a doctoral student. The plan is to be based on the theme of his/her future dissertation thesis and it is to be approved by the board of the branch.
https://www.fit.vut.cz/fit/info/smernice/sm2018-13-en.pdf
Availability for the disabled
Brno university of technology provides studies for persons with health disabilities according to section 21 par. 1 e) of the Act no. 111/1998, about universities and about the change and supplementing other laws (Higher Education Act) as amended, and according to the requirements in this field arising from Government Regulation No. 274/2016 Coll., on standards for accreditation in higher education, provides services for study applicants and students with specific needs within the scope and in form corresponding with the specification stated in Annex III to Rules for allocation of a financial contribution and funding for public universities by the Ministry of Education, Youth and Sports, specifying financing additional costs of studies for students with specific needs.Services for students with specific needs at BUT are carried out through the activities of specialized workplace - Alfons counselling center, which is a part of BUT Lifelong Learning Institute - Student counselling section.Counselling center activities and rules for making studies accessible are guaranteed by the university through a valid Rector's directive 11/2017 concerning the status of study applicants and students with specific needs at BUT. This internal standard guarantees minimal stadards of provided services.Services of the counselling center are offered to all study applicants and students with any and all types of health disabilities stated in the Methodological standard of the Ministry of Education, Youth and Sports.
What degree programme types may have preceded
The study programme builds on both the ongoing follow-up Master's programme in Information Technology and the new follow-up Master's programme in Information Technology and Artificial Intelligence.Students can also, according to their needs and outside their formalized studies, take courses and trainings related to the methodology of scientific work, publishing and citation skills, ethics, pedagogy and soft skills organized by BUT or other institutions.
Issued topics of Doctoral Study Program
Cílem této disertační práce je tvorba řešiče Maxewllových rovnic pro aplikace v medicínských zobrazovacích technikách (MR). Numerické řešení Maxwellových rovnic bude založeno na technice k-Wave (korigovaná pseudospektrální metoda). Vzhledem k rozsahu řešený domén a akceptovatelnému času výpočtu je jedinou možností využití rozsáhlých superpočítačových systémů.Výzkum bude zahájen tvorbou prototypu řešiče v jazyce MATLAB. Po ověření funkčnosti algoritmu dojde k jeho převodu na heterogenní masivně paralelní systémy. Zde očekáváme především multi-GPU systémy Karolina v IT4Innovations a LUMI ve Finsku.Základní výzkumnou otázku je zde dosažení maximální rychlosti při zachování akceptovatelné přesnosti.
Tutor: Jaroš Jiří, doc. Ing., Ph.D.
The topic concerns algorithms of image, video, and/or signal processing. Its main goal is to research and in-depth analyze existing algorithms and discover new ones so that they have desirable features and so that they are possible to efficiently implement. Such efficient implementation can be but does not necessarily have to be part of the work but it is important to prepare the algorithms so that they can be efficiently implemented e.g. in CPU, in CPU with acceleration through SSE instructions, in embeded systems, even in combination with FPGA, in Intel Xeon PHI, in extremely low power systems, or in other environments. It is possible to exploit algorithms of artificial intelligence, such as neural networks, especially CNNs The application possibilities of the algorithms are also important and the application can be but does not have to be part of the work. The algorithms/applications of interest include:
After mutual agreement, individually selected algorithms can be considered as well as soon as they do belong to the general topic.
Collaboration on grant projects, such as TACR, MPO, H2020, ECSEL (possible employment or scholarship).
Tutor: Zemčík Pavel, prof. Dr. Ing., dr. h. c.
The project is concerned with advanced methods of computational photography. The aim is to research new computational photography methods, which comprises software solutions potentially supported by new optics and/or hardware. Our interest is on HDR image and video processing, color-to-grayscale conversions, spectral imaging, and others.
Tutor: Čadík Martin, doc. Ing., Ph.D.
Practical decision making in a BDI system is based on the continuous building of a model of the agent's intentions and the subsequent execution of this model. The original computational system for BDI agents, the AgentSpeak(L) system, left room for further specification of some computational steps, such as choosing among multiple possible means to achieve goals, choosing intentions to execute, or choosing substitutions when performing formal inferences. It is the search for preferences in the choice of means and intentions that will be the focus of the work in this assignment. We anticipate using our original approach, which introduces late variable binding in the interpretation of AgentSpeak(L), which we hypothesize offers the possibility of outperforming current systems that address a similar problem. The result should be a system whose practical decision making exhibits a higher degree of rationality than that exhibited by currently existing BDI system solutions.
Tutor: Zbořil František, doc. Ing., Ph.D.
Předmětem studia budou algoritmy zobrazování scén v reálném čase s využitím moderních grafických procesorů. Práce se má zaměřit na složité a rozsáhlé scény s různými materiály a množstvím světelných zdrojů. Výsledkem práce by měly být algoritmy umožňující maximálně využít moderní grafické procesory - a to algoritmy použitelné v programovatelných částech zobrazovacího řetězce i algoritmy využívající GPU jako obecný vysoce paralelní stroj (architektury CUDA a OpenCL).
Tutor: Herout Adam, prof. Ing., Ph.D.
The project is concerned with advanced rendering and global illumination methods. The aim is to research new photorealistic (physically accurate) as well as non-photorealistic (NPR) simulations of interaction of light with the 3D scene. Cooperation and research visits with leading research labs are possible (Adobe, USA, MPII Saarbrücken, Německo, Disney Curych, Švýcarsko, INRIA Bordeaux, Francie).
Aktuálně se rozbíhá projekt, v rámci kterého je možné získat příspěvek. Krom toho je při kvalitní publikační činnosti možné získat další příspěvek. V rámci projektu bude probíhat spolupráce s Policií ČR.V rámci studia taky bude možné pobýt na zahraniční stáži, což je doporučeno a podporováno.Obsahově bude třeba se vypořádat s tím, že na neznámém médiu mohou někde být uloženy skrytě obrázky, nebo videosekvence. Přitom je třeba je odhalit - tedy něco jako důkladná forenzní analýza. Výsledkem by měla být "krabička", do které zasunu prázdné (a čisté) úložiště a potom neznámé úložiště. Na to prázdné se nahrají včetně protokolu všechny potřebné údaje. Krom skrývání dat je třeba čekat i útočný hardware, případně další nástrahy, které bude třeba zmapovat. Je třeba vytipovat a např. s využitím FITcrack se snažit rozluštit hesla u šifrovaných dat.Součástí studia je práce na vědeckých článcích publikovaných v časopisech a konferencích.
Tutor: Kolář Dušan, doc. Dr. Ing.
Machine learning is in the centre of research of artificial intelligence. Many researchers worldwide are dealing with the topics related to machine learning, both in academia and industry. This very dynamic field is characterized with fast transfer of solutions into practical use.
The topics in this domain are defined by premier scientific conferences, where top-class researchers meet, for example ICML (International Conference on Machine Learning), NeurIPS (Advances in Neural Information Processing Systems), IJCAI (International Joint Conference on AI), COLT (Conference on Learning Theory).
This thesis will be advised by an external mentor, who will also define its particular topic.
Interesting research challenges are contained within (but are not limited to) these topics:
General Machine Learning (e.g., active learning, clustering, online learning, ranking, reinforcement learning, semi-supervised learning, time series analysis, unsupervised learning)
Deep Learning (e.g., architectures, generative models, deep reinforcement learning)
Learning Theory (e.g., bandits, game theory, statistical learning theory)
Optimization (e.g., convex and non-convex optimization, matrix/tensor methods, sparsity)
Trustworthy Machine Learning (e.g., accountability, causality, fairness, privacy, robustness)
There are many application domains, where advanced machine learning methods can be deployed.
The research will be performed at the Kempelen Institute of Intelligent Technologies (KInIT, https://kinit.sk) in Bratislava in cooperation with researchers from highly respected research units. A combined (external) form of study and full employment at KInIT is expected.
Tutor: Bieliková Mária, prof. Ing., Ph.D.
Dissertation focuses on the security of wireless local area networks. As part of the solution, student should become familiar with selected wireless networks and their security. The goals of this work: studying the theory of wireless networks, their properties and possibilities of attacks, testing the basic types of attacks, designing a new method of protection, experiments, evaluating the results and proposing the direction of further research.Co-supervised by dr. Kamil Malinka.
Tutor: Hanáček Petr, doc. Dr. Ing.
Cílem disertační práce je výzkum nových metod pro analýzu kyberbezpečnostních dat s cílem odvodit dodatečné znalosti o útočníkovi, o způsobu útoku nebo cíli útoku. Obsahem práce je výzkum využití technik strojového učení za účelem vývoje nových způsobů identifikace útoků např. v šifrovaném provozu, nových postupů pro odvozování kontextové informace o útočnících a jejich cílech a v neposlední řadě odvozování informace podporující automatizaci reakce na detekovaný útok či hrozbu. Předpokládá se optimalizace a přizpůsobení metod strojového učení pro potřeby detekce samotného útoku, jeho typu, odvozování identifikačních vzorů. Současný výpočetní výkon umožňuje trénovat komplexní modely strojového učení, které jsou schopny odvodit znalosti a souvislosti skryté v síťovém provozu. Tato oblast nebyla doposud důsledně zkoumána a představuje tak vhodné téma pro disertační práci. Výsledky disertační práce lze aplikovat při podpoře a automatizaci činností členů Security Operation Centre, Network Operation Centre, CSIRT či CERT týmů či administrátora sítě.Při řešení práce se předpokládá úzká spolupráce s výzkumným týmem Liberouter (www.liberouter.org) a získávání zpětné vazby od správců výzkumné infrastruktury sdružení CESNET. V případě zodpovědného přístupu k řešení zadaného tématu může být student zapojen do řešení projektů bezpečnostního výzkumu MV ČR nebo MO ČR. Školitelem specialistou k tématu disertační práce je dr. Martin Žádník. Relevantní publikace pro toto téma jsou:
Tutor: Kořenek Jan, doc. Ing., Ph.D.
Podíl šifrovaného síťového provozu na celkovém objemu neustále roste. Šifrování dovoluje skrýt obsah síťové komunikace před odposlechem, nicméně zároveň znemožňuje jeho analýzu z pohledu bezpečnosti doposud používanými nástroji a technikami. Cílem práce je definovat nové postupy analýzy síťového provozu, které dovolí odhalovat i v šifrovaném provozu útoky a další kyberbezpečnostní informace ke komunikujícím entitám. Předpokládá se využití technik strojového učení, které dovolí z velkého množství dat odvodit klasifikátory bezpečnostních událostí a odvodit podobnosti mezi entitami. Strojové učení dovoluje optimalizace výše uvedených úloh s ohledem na různé parametry.Předpokládá se návrh takových klasifikátorů síťového provozu, které budou snadno mapovatelné do technologie FPGA. Cílem je dosáhnout dostatečně rychlého zpracování síťového provozu tak, aby mohly běžet klasifikátory v reálném čase v rámci síťových monitorovacích sond.V rámci řešení disertační práce se předpokládá velmi úzka spolupráce se sdružením CESNET, které spravuje akademickou síť a může poskytnout data pro strojové učení. Školitelem specialistou zadání je Ing. Lukáš Kekely, Ph.D.
SCADA (Supervisory Control And Data Acquisition) and Industrial Control Systems (ICS) communication is intended to control and monitor industrial processes in smart factories, smart grids, etc. Disruption of communication may interrupt important industrial processes or cause a blackout of critical supplies like water or energy. To protect SCADA/ICS communication, we can apply advanced SCADA/ICS monitoring that creates normal behavior profiles and detects deviations (anomalies). Communication profiles can be described using statistical methods. We can model communication using automata or create models using machine learning. The research aims to describe the behavior of industrial communication and propose a suitable representation using multidimensional profiles. It is then necessary to verify what types of anomalies are covered by these profiles and how the accuracy of detection can be increased. The topic is a part of the research project Security monitoring of ICS communication in the smart grid (Bonnet). Co-supervisor: Matoušek Petr, Ing., Ph.D., M.A.
Tutor: Ryšavý Ondřej, doc. Ing., Ph.D.
Current internet traffic is mostly encrypted using TLS or DTLS. Detection of network applications communicating over the local network is important for network monitoring and cyber security. There are several approaches how to detect an application with the encrypted network traffic. One approach is based on TLS fingerprinting using the JA3/JA3S method. Another approaches include statistical analysis of encrypted traffic or the application of machine learning. A student is expected to research and evaluate current methods for detecting applications in encrypted traffic and to propose a new approach for fast and reliable application detection using advanced methods.Co-supervisor: Matoušek Petr, Ing., Ph.D., M.A.
Cílem této práce je prozkoumat techniky umělé inteligence pro akceleraci ultrazvukových simulací a tvorbu operačních plánů. Výzkumný problém je postaven následovně. Abychom zjistili, jak ultrazvuk interaguje s lidskou tkání, je nutné vytvořit model tkáně, do něj umístit vysílač a provést výpočetně velice náročnou fyzikální simulaci. Výsledkem takové simulace je rozložení akustického tlaku a uložení tepelné energie v dané oblasti. Pokud s výsledkem nejsme spokojeni, např. nezasáhneme cíl, je nutné posunou vysílač, nebo změnit parametry vysílané vlny a simulaci spustit znovu. Zde by mohla pomoci umělá inteligence, který by se naučila fyzikální model a umožnila predikovat výsledek simulace, případně vylepšila obraz simulace provedené na výrazně nižším rozlišení. V této práci se předpokládá masivní využití superpočítačových technologií, především multi-GPU systémů.
Motivace: Většina kryptoměn je postavena na decentralizované hybridní peer-to-peer sítí, ve které si vzájemně propojené uzly synchronizují stav blockchainu (což zahrnuje jak propagaci transakcí uživateli, tak nových bloků těžaři). Komunikace mezi jednotlivými uzly na protokolové úrovni může přinést řadu informací, které na úrovni aplikace již nejsou k dispozici (např. od jakého uzlu jsem obdržel nějakou transakci jako první).Existující vědecké publikace [4], ale i čistě komerční řešení se zabývají primárně sítí Bitcoin [1] a Ethereum [2]. Nicméně jsou tu i další kryptoměny populární na dark webu (např. Zcash, Monero, Dash), které však díky své kapitalizaci a specifické skupině uživatelů jsou spíše opomíjeny. Cílem práce by bylo prostudovat protokoly kryptoměnových sítí, identifikovat v nich části vhodné pro síťovou forenzní analýzu, vytvořit prototypy sbírající vhodné artefakty a nad výslednými daty pak realizovat ztotožňování identit (např. přiřazení IP adresy originálnímu zadavateli transakce, geolokace kryptoměnových zařízení, či detekci těžařů v síťovém provozu [3]).Protože jsou kryptoměny stále více zneužívány jako prostředek pro přenos hodnoty u různých kyberzločinů (např. ransomware, sextortion), můžou mít výstupy práce nemalý přínos do operační praxe zainteresovaných bezpečnostních složek.
Cíl:
Záměrem této práce je vyvinou a ověřit nové metody forenzní analýzy kryptoměnových sítí s ohledem na (meta)data dostupná ze síťového provozu tak, aby došlo k deanonymizaci uživatele a s ním souvisejících identifikátoru.
Předpokládané fáze řešení:
Projekt:
Práce bude navazovat na některé výsledky projektů BAZAR a MARTA.
Reference: [1] NERURKAR, Pranav, et al. Dissecting bitcoin blockchain: Empirical analysis of bitcoin network (2009-2020). Journal of Network and Computer Applications, 2021, 177: 102940.
[2] SERENA, Luca; FERRETTI, Stefano; D'ANGELO, Gabriele. Cryptocurrencies activity as a complex network: Analysis of transactions graphs. Peer-to-Peer Networking and Applications, 2021, 1-15.
[3] VESELÝ, Vladimír; ŽÁDNÍK, Martin. How to detect cryptocurrency miners? By traffic forensics!. Digital Investigation, 2019, 31: 100884.
[4] Srivasthav, Dinesh P., Lakshmi Padmaja Maddali, and R. Vigneswaran. "Study of Blockchain Forensics and Analytics tools." 2021 3rd Conference on Blockchain Research & Applications for Innovative Networks and Services (BRAINS). IEEE, 2021.
Tutor: Veselý Vladimír, Ing., Ph.D.
Aproximativní počítání (approximate computing) je nová a bouřlivě se rozvíjející výzkumná oblast v rámci které jsou hledány alternativní (typicky nízkopříkonové) implementace nejen základních stavebních komponent jako jsou např. sčítačky a násobičky, ale také komplexních obvodových celků. Významný vývoj můžeme sledovat také v oblasti strojového učení. Dříve jednoduché architektury dnes nahrazují tzv. hluboké neuronové sítě, které jsou schopny dosahovat výrazně lepších výsledků zejména v oblasti klasifikace a detekce objektů v obraze. Daní za vyšší přesnost je však vyšší komplexita vedoucí na velké množství operací a tudíž i vyšší energetickou náročnost. Současně se však ukazuje, že tyto sítě vykazují vysokou úroveň rezistence vůči chybám ve výpočtu. Jako výhodné se proto jeví nasazení aproximovaných obvodů v této oblasti s cílem dosáhnout značné úspory energie.
Tutor: Vašíček Zdeněk, doc. Ing., Ph.D.
The topic aims an the reseach of advanced architectures of neural networks for the tasks of speech and speaker recognition. Although empirically, the results of such NNs are often excellent, our knowledge and understanding of such representations is insufficient. This PhD topic has an ambition to fill this gap and to study neural representations for speech and text units of different scopes (from phonemes and letters to whole spoken and written documents) and representations acquired both for isolated tasks and multi-task setups.The topic is related to the GACR project of excellence in fundamental research "Neural Representations in multi-modal and multi-lingual modeling", on which we cooperate with colleagues from UFAL MFF Charles University in Prague. The assignment requires an interest in mathematics, statistics, machine learning and speech processing; experience with Python and its libraries for machine learning is an advantage.
Tutor: Burget Lukáš, doc. Ing., Ph.D.
The rising trend in artificial intelligence usage brings novel cybersecurity approaches on both sides - attacker and defender. The most prominent examples are deepfake usage to counterfeit biometric systems or security analytics, using deep learning for cyber-attacks detection. The goal of this work is to analyze all existing approaches, their properties, and potential applications. The work should then propose novel applications of AI for the problems that were not resolved before while also implementing the most interesting application.
Co-supervised by dr. Kamil Malinka.
Problem Statement: Mental stress and anxiety are two of the mental health conditions that often occur together. In such a case, the person is stressed and is not able to control the worry, and it correspondingly affects his/her social and occupational activities. Hence, proper assessment and diagnosis for mental stress and anxiety is required in order for a person to effectively keep taking part in his/her normal daily tasks and activities.
Issues with Current Solutions: Unfortunately, conventional assessment and diagnostic measures are subjective in nature and are used only when the symptoms are already evident due to advanced stages of mental stress and anxiety. However, mental stress and anxiety do not occur overnight, rather it is a long process. Hence, detection of symptoms is required at early stages of mental stress and anxiety because that may result in a cure or at least it will delay the onset of serious mental health issues associated with them, for example, depression, Generalized Anxiety Disorder etc.
Challenges: Unlike other diseases where the symptoms like fever and cough allow people to seek help, symptoms at early stages of mental stress and anxiety are not easily identifiable. Hence, the brain needs to be continuously monitored for any sign of change or deterioration in order to detect the symptoms at early stage.
Solution: The solution lies in the development of an objective and quantitative method that can detect mental stress and anxiety at an early stage. Perception of mental stress and anxiety originates in the brain; therefore, this research investigates the neurophysiological features extracted from brain electroencephalogram (EEG) signal to measure mental stress and anxiety at early stage. This will require development of method for extraction of features as well as pattern recognition approach to provide a solution. The EEG dataset is already available for this project.
Few Words About Supervision: I have recently moved to FIT at Brno University of Technology. I have decade long experience of working in the field of neuro-signal and neuroimage processing and I am currently in the process of setting up a research group in this area. This is a multidisciplinary project and it will involve working with clinicians. However, the core of the project is related to IT in terms of development of a new method. Please feel free to contact me at malik@fit.vutbr.cz
Tutor: Malik Aamir Saeed, prof., Ph.D.
Evoluční návrh je často prováděn pomocí genetického programování a jeho moderních technik, jakými jsou např. sebemodifikace kódu, sémantikou řízené genetické operátory, koevoluce a pokročilé metody reprezentace a evaluace kandidátních řešení. Cílem projektu je navrhnout a implementovat systém genetického programování, který bude využívat několik takových technik současně. Na úlohách zejména z oblasti návrhu obvodů, hlubokých neuronových sítí, aproximativního počítání a symbolické regrese bude experimentálně vyhodnocována účinnost jednotlivých technik a jejich kombinací. Výzkum spadá to témat řešených výzkumnou skupinou Evolvable Hardware.
Tutor: Sekanina Lukáš, prof. Ing., Ph.D.
V současné době neustále roste důraz na kvalitu, spolehlivost a bezpečnost software. V souladu s tím jsou nemalé prostředky investovány do výzkumu moderních technik analýzy a verifikace programů pomocí nejrůznějších automatizovaných metod, jako jsou systematické testování, dynamická analýza, statická analýza, model checking apod. Tyto techniky jsou přitom rozvíjeny nejen na univerzitách, ale do jejich výzkumu a vývoje investuje řada významných mezinárodních společností (Google, Microsoft, IBM, Red Hat, Honeywell, Facebook apod.). Mezi uvedenými metodami patří testování a dynamická analýza k tradičním, již dlouho nejvíce používaným, ale přesto intenzivně dále rozvíjeným přístupům (o čemž svědčí velký počet článků z dané oblasti prezentovaných na mezinárodních konferencích věnovaných obecně programovacím jazykům a/nebo softwarovému inženýrství i velký počet špičkových mezinárodních konferencí specializujících se na danou oblast).
Náplní tématu je rozvoj stávajících a návrh nových metod dynamické analýzy a inteligentního testování, případně kombinovaných s použitím vhodných statických analýz. Tyto analýzy by přitom měly směřovat nejen k co nejefektivnějšímu vyhledávání chyb, ale také k automatické podpoře procesu řízení software (identifikace problematických komponent, problematických změn, podpora rozhodování o tom, které změny začlenit či nezačlenit do nové verze softwarového produktu apod.).
Předmětem výzkumu bude vývoj nových heuristik pro testování a analýzu, které umožní co nejefektivnější odhalení i vzácně se projevujících chyb (jako jsou např. extrapolující dynamické analýzy, vkládání šumu, či fuzz testování) a které umožní automatické získávání zkušeností z dosud provedených testů či analýz a jejich následné využití pro zdokonalení procesu testování či obecně řízení kvality software. Do této oblasti spadá vhodné využití statistických analýz, strojového učení či technik dolování z dat. Předmětem výzkumu je přitom nejen návrh nových technik z dané oblasti, ale také jejich prototypová implementace a experimentální ověření na vhodných případových studiích.
Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT testováním a dynamickou analýzou software, zejména dr. A. Smrčkou, u něhož se předpokládá role školitele specialisty, a dále dr. B. Křenou, dr. J. Fiedorem či T. Fiedorem. Práce naváže na zkušenosti skupiny VeriFIT s nástroji jako ANaConDA či Perun.
V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do grantových projektů (např. projekt TAČR Aufover řešený ve spolupráci s Honeywell a Red Hat, projekt GAČR Snappy či evropské projekty H2020 ECSEL Arrowhead Tools a Valu3S). Je zde rovněž možnost úzké spolupráce jednak s různými průmyslovými partnery FIT, např. Honeywell či Red Hat, tak také zahraničními partnery VeriFIT: např. dr. Joao Lourenco (Universidade Nova de Lisboa, Portugalsko) či řada partnerů zapojených do projektů Arrowhead Tools či Valu3S.
Tutor: Vojnar Tomáš, prof. Ing., Ph.D.
Automatic speech recognition (ASR) is among popular machine learning tasks already well exhibited by industry in various applications. Recent advances in deep learning enabled for the use of speech technologiesin areas where very also low error-rates are expected, such as in recognition of air-traffic communication (i.e. an intensive use of spoken language between controllers and pilots). The objective of this thesis is to focus on unsupervised training of ASR components by exploiting auxiliary information provided by other resources, such as radar data or ADS-B communication (surveillance technology in which an aircraft determines its position via satellite navigation or other sensors and periodically broadcasts it). Possible application of ASR can be expected to (i) support real-time voice communication, or (ii) to automatically process and transcribe large data audio archives.
Tutor: Motlíček Petr, doc. Ing., Ph.D.
Tématem práce je propojení prostředí pro modelování inteligentních systémů s nástroji pro vytváření a provádění simulačních modelů. Doktorand by se měl orientovat zejména na otevřené otázky robotiky, jako jsou například společné plánování, řešení konfliktů a koordinace, a zkoumat jejich řešení právě s využitím simulačních nástrojů jako jsou PNtalk nebo TMass. Výsledkem by měla být analýza problematiky, řešení některých problémů a demonstrace přínosu modelování pro jejich řešení.
Školitel specialista: Ing. Radek Kočí, Ph.D.
Použití neuronových sítí pro hluboké učení (deep learning) přispělo v posledních letech k výraznému posunu mnoha oblastí, které se opírají o strojové učení - rozpoznávání obrazu, analýza textu atd.Cílem disertační práce je rozvinout existující přístupy využívající obrovské kolekce neanotovaných dat pro naučení neuronových sítí tak, aby výstupy poslední mezilehlé vrstvy bylo možné použít jako vektor příznaků. Součástí práce bude i aplikace zkoumaných metod v rámci evropských projektů, na jejichž řešení se školitel podílí.
Tutor: Smrž Pavel, doc. RNDr., Ph.D.
Motivace:
Jednou z možných definic blockchainu je replikované decentralizované úložiště pro (meta)data. Bitcoin zpropagoval využití blockchainu jakožto distribuované účetní knihy; Ethereum pak na této myšlence vybudovalo platformu pro distribuované aplikace realizované smart kontrakty nahrátými v main- či side-chainech.
Blockchain je u majority kryptoměn (včetně Bitcoinu a Etherea) využíván k ukládání transakcí reprezentujících přenos hodnoty mezi dvěma či více stranami identifikovanými adresami. Jednotlivé adresy či transakce lze seskupovat na základě různých kritérií, kdy nejčastější je common-spent clusterovací heuristika [1], která je schopná objevit na základě vstupní adresy i další jiné adresy náležející do stejné "peněženky". Existují však i jiné přístupy využívající OSINT [3], behaviorální [2], [4] či jiné heuristiky (např. rounded-value), pomocí kterých by se dalo data v blockchainu podrobit dalším analýzám deanonymizujícím uživatele/zařízení, která jsou majiteli adres/transakcí. Cílem práce by bylo ověřit či upravit stávající metody clusterizace, vyvinout nové a prakticky je aplikovat na vybrané blockchainu, čehož důsledkem by měla být větší míra ztotožení adres/transakcí ke konkrétním uživatelům/zařízením.
Protože jsou kryptoměny stále více zneužívány jako prostředek pro přenos hodnoty u různých kyberzločinů (např. ransomware, sextortion), můžou mít výstupy práce nemalý přínos do operační praxe zainteresovaných bezpečnostních složek.
Záměrem této práce je vyvinou a ověřit nové metody clusterizace a obarvování transakcí/adres v blockchainech vybraných kryptoměn tak, aby došlo k deanonymizaci uživatele a s ním souvisejících identifikátoru.
Reference: [1] MEIKLEJOHN, Sarah, et al. A fistful of bitcoins: characterizing payments among men with no names. In: Proceedings of the 2013 conference on Internet measurement conference. 2013. p. 127-140.
[2] STEINMETZ, Fred. Behavioural clusters of cryptocurrency users: Frequencies of non-speculative application domains. BRL Working Paper Series, 2021.
[3] MAHDAVI-DAMGHANI, Babak, et al. Cryptocurrency Sectorization through Clustering and Web-Scraping: Application to Systematic Trading. The Journal of Financial Data Science, 2021.
[4] WANG, Mengjiao; ICHIJO, Hikaru; XIAO, Bob. Cryptocurrency Address Clustering and Labeling. arXiv preprint arXiv:2003.13399, 2020.
Problem Statement: Biometrics technology enables recognition of a person based on certain unique characteristic of human body. It is the primary tool for identification of a person and it has various applications including banking, security, immigration etc. Hence, it is critical to have a foolproof biometrics method.
Issues with Current Solutions: Fingerprints and face identification are commonly used in today's world for verifying a person's identity. Some other biometrics technologies include voice recognition, gait recognition, iris recognition and retina-based pattern recognition. However, issues like ageing affects the recognition of a person based on these technologies. In addition, some of them are easy to replicate and hence a person's identity can be hacked.
Challenges: Ageing is one of the main challenges for any biometric method. In addition, physical damage to the body as well as replication of the biometric identifier are the main challenges.
Solution: This research will investigate the brain biometrics using the human electroencephalogram (EEG) brain signals. It will involve identifying a person's unique brain activity patterns and it has the advantage that it is invisible from outside and hence cannot be replicated or cloned. Development of a brain biometric method will involve identification of a unique pattern from the brain signals that can be used as an identifier for the person.
Konverzační agenti se pomalu stávají běžnou součástí rozhraní pro (prvotní) komunikaci se zákazníkem a odpovídání na jeho otázky. Výzkum v oblasti počítačového zpracování přirozeného jazyka se zaměřuje na vytvoření automatické klasifikace prvotní komunikace a, zejména, otázky uživatele, do předem daných tříd, k nimž existují konkrétní texty. Není však uspokojivě vyřešeno rozšiřování "znalostí" komunikačních agentů při aktualizaci strukturovaných dat, případně při přidání dalších textových materiálů.Cílem disertační práce je rozvinout existující přístupy využívající obrovské kolekce neanotovaných textových dat a způsoby kombinování strukturované a nestrukturované znalosti a optimalizace procesů při rozšiřování funkcionality stávajících i nových konverzačních agentů. Součástí práce bude i aplikace zkoumaných metod v rámci evropských projektů, na jejichž řešení se školitel podílí.
The aim of the thesis is to create 3D face model from 2D photos of diverse origins, namely:
Tutor: Drahanský Martin, prof. Ing., Ph.D.
Majority of network communication today is encrypted. One of the remaing plain-text communication is the DNS that is essential for most network operations. In the past years the attackers misuse DNS communication to redirect internet connections or for DDoS attacks. DNS communication is also misused by malware for transporting stealed data over a hidden channel. Domains generated by DGA algorithms are also misused by botnets for C&C communication. In this project, a student is expected to study typical classes of DNS cyber attacks based on MITRE ATT&CK classification and to propose a method for DNS cyber threats detection using machine learning and artificial intelligence techniques. Co-Supervisor: Ing. Petr Matoušek, Ph.D., M.A.References:[1] Daihes Y., Tzaban H., Nadler A., Shabtai A. (2021) MORTON: Detection of Malicious Routines in Large-Scale DNS Traffic. In: Bertino E., Shulman H., Waidner M. (eds) Computer Security - ESORICS 2021. ESORICS 2021. Lecture Notes in Computer Science, vol 12972. Springer, Cham. https://doi.org/10.1007/978-3-030-88418-5_35[2] M. Grill, I. Nikolaev, V. Valeros and M. Rehak, "Detecting DGA malware using NetFlow," 2015 IFIP/IEEE International Symposium on Integrated Network Management (IM), 2015, pp. 1304-1309, doi: 10.1109/INM.2015.7140486.[3] S. Torabi, A. Boukhtouta, C. Assi and M. Debbabi, "Detecting Internet Abuse by Analyzing Passive DNS Traffic: A Survey of Implemented Systems," in IEEE Communications Surveys & Tutorials, vol. 20, no. 4, pp. 3389-3415, Fourthquarter 2018, doi: 10.1109/COMST.2018.2849614.
Deep convolution networks have been a clear trend of machine learning for image analysis in recent years. However, in tasks with a very small and specific data set, where it is not enough to use data augmentation or GAN concepts, their usage is still problematic.The goal of the dissertation thesis is to explore, analyze and design new architectures of deep convolutional networks and approaches to their learning for image analysis tasks in which the size of the annotated data set is extremely small or is gradually growing. For learning neural networks it is possible to use unannotated data or partially annotated data in the form of a limited user input.Proposed methods will be applied in the projects on which the supervisor participates.
Tutor: Španěl Michal, doc. Ing., Ph.D.
The aim of the work is to create a detection mechanism of moving objects (lasers, drones) with revealing their position or broadcast sources, namely:
Proteiny jsou základní stavební i funkční biomolekuly účastnící se téměř všech procesů v živých organismech. Jejich stadium je tedy důležité jak pro jejich pochopení v rámci základního výzkumu, tak i stále frekventovaněji v biotechnologických či medicínských aplikacích. Přirozeně vyskytující se proteiny často nemají vhodné vlastnosti (stabilita, aktivita, vazba, specifita...) pro použití v tvrdých podmínkách při technologických aplikacích, a proto musí být optimalizovány metodami proteinového inženýrství.
Cílem této práce je vývoj bioinformatického nástroje, pro analýzu proteinů či návrh mutací při optimalizaci biologické funkce. Student se tedy bude zabývat analýzou existujících výpočetních nástrojů, a pokud stávající nástroje nebudou dostačující, i vývojem nových algoritmů. Student bude také kombinovat nástroje a algoritmy do komplexnějšího "workflow", které pomůže biochemikům při orientaci ve struktuře proteinu, její analýze a potažmo v návrhu vylepšujících mutací.
Tutor: Martínek Tomáš, doc. Ing., Ph.D.
Problem Statement: Learning and memory are two fundamental inter-related cognitive processes. Learning is the change in behavior because of an experience; while memory is the ability to store and recall learned experience (which deals with Long Term Memory). Therefore, it is vital to assess the capabilities of long-term memory of an individual and provide relevant classification (ability to remember, speed of recall).
Issues with Current Solutions: Currently, the existing studies focus on short term memory. However, the corresponding studies related to long-term memory are much smaller in number. The main reason is that an experiment involving short term memory can be completed very quickly but an experiment involving long-term memory requires considerable time and effort.
Challenges: Over the last few decades, researchers and educationalists have put in considerable efforts in developing content that can provide effective learning. Both 2D and 3D audio-visual content and now virtual reality content is being developed. The challenge lies in relating such content with the long-term human memory that could lead to effective learning.
Solution: This research plans to utilize 2D and 3D educational content and develop a corresponding long-term memory classification and grading method. The method will be based on learning and measuring human memory performance by analyzing the neurophysiological effects (from brain EEG data) using 3D and virtual reality contents during learning and memorization process. The EEG dataset is already available for this project.
Problem Statement: This research deals with depression or to be more specific - unipolar depression or Major depressive disorder (MDD). MDD is a common mental illness that may impede daily life functioning, hence creating problems during individual social and personal activities. Hence, it is critical to have the right diagnosis as well as treatment selection for MDD patients.
Issues with Current Solutions: Currently, subjective questionnaires are used by clinicians to diagnose MDD. However, there are chances of misdiagnosis because of similar symptoms of bipolar disorder and schizophrenia. In addition, the treatment selection is done based on the experience of a clinician who prescribes an anti-depressant and then checks its efficacy for 4 to 6 weeks before deciding to either continue with same medicine or change to a new medicine. This is a repetitive process till the right medicine is found for the patient.
Challenges: Treatment management for major depressive disorder (MDD) has been a challenge including diagnosis and treatment selection because of similarities in symptoms of various diseases. Further, MDD is gender specific with different brain patterns for males and females.
Solution: This research deals with the development of diagnostic and treatment selection method for MDD (Unipolar Depression). It will be based on objective measures of brain activities from EEG signal that can detect unipolar depression. The solution will be based on a machine learning approach inherently based on feature extraction from the recorded EEG data of the patients. This method will complement and assist psychiatrists in diagnosis of unipolar depression. The EEG dataset is already available for this project.
Budeme vyvíjet techniky pro práci s konečnými automaty s aplikacemi v automatickém usuzování, ve verifikaci a rozhodování logik.Obecně, přestože jsou automaty základním a konceptem informatiky s obrovským množstvím aplikací, velmi dobře pochopeným v základní teoretické rovině, techniky jejich použití v praxi a související rozšíření konečných automatů jsou velmi bohatým a živým polem výzkumu.Oblast má velmi silnou praktickou motivaci v oblastech jako verifikace a testování, vyhledávání regulárních vzorů, umělá inteligence a automatické usuzování, rozhodování logik a SMT-solving, návrh a analýza systémů, automatická syntéza systémů.Například, nejefektivnější algoritmy pro vyhledávání regulárních vzorů jsou založeny na automatech, ale stále není jasné, jak tyto algoritmy zobecnit na zpětné reference, čítače opakování, nebo takzvané look-arounds. Rozhodování logik o řetězcích, string-solving, má aplikace ve verifikaci programů s řetězci, zejména v analýze bezpečnosti webových aplikací (náchylnost na útoky typu SQL-injection, cross-site-scripting). Otevřeným problémem je efektivní implementace automatových rozhodovacích procedur pro celočíselnou aritmetiku a další logiky. Regulární model-checking je automatová metoda použitelná pro verifikaci široké škály systémů s nekonečným stavovým prostorem, jako jsou programy s dynamickými datovými strukturami nebo komunikační protokoly. Automatovými technikami je možno automaticky syntetizovat programy, například komunikační rozhraní a drivery.V těchto a dalších oblastech existuje řada hlubokých teoretických otázek o rozhodnutelnosti a složitosti problémů.Například, jak modelovat zpětné-reference pomocí konečných automatů? Co vše je rozhodnutelné o programech manipulujících řetězce, jako jsou webové aplikace, nebo o programech s dynamickými datovými strukturami? Za jakou cenu?Praktické otázky se týkají efektivní implementace existujících automatových algoritmů a teoretických poznatků.Jak zabránit stavové explozi při komplexních manipulacích automatů? Jak je kompaktně reprezentovat, pomocí technik minimalizace, syntaktických rozšíření, abstrakce, aproximace?Jak efektivně pracovat s kompaktními reprezentacemi automatů, jako jsou alternující automaty, symbolické automaty, automaty s čítači a registry? Jaké jsou teoretické vlastnosti těchto rozšíření? Jak vyvíjené techniky efektivně implementovat, aby opravdu fungovaly na konkrétních praktických problémech?Tímto a souvisejícím výzkumem se kromě L. Holíka zabývá část skupiny VeriFIT, prof. Vojnar, dr. Lengál, doc. Rogalewicz, doc. Češka. Skupina dosahuje špičkové mezinárodní úrovně, se stovkami publikací na nejprestižňějších fórech, desítkami softwarových nástrojů, řadou meznárodních ocenění, a intenzivní mezinárodní spoluprací s prestižními výzkumnými institucemi (Microsofr research, Redmond; Academia Sinica, Taipei, Uppsala Univerisy, Univerity of Braunschweig, University of Edinburgh, Univeristy of Kaserslautern, University of Paris, Univerité Grenoble Alpes, Chinese Academy of Sciences).Spolupracujeme s průmyslem (Red Hat, Honeywell). Naši absolventi doktorského studia tak mají příležitosti získat zajímavé a specializované pozice v průmyslu nebo smysluplně pokračovat v akademické sféře. Skupina je úspěšná v získávání grantů, doktorští studenti tak mohou být nadstandardně finančně ohodnoceni.
Tutor: Holík Lukáš, doc. Mgr., Ph.D.
S ohledem na složitost současného software a rostoucí požadavky na jeho spolehlivost jsou k dosažení jeho patřičné kvality vysoce zapotřebí automatizované metody analýzy a verifikace, klasické testování již nepostačuje. Ovšem přes značný pokrok v dané oblasti, současné metody analýzy a verifikace mají stále nedostatečnou škálovatelnost, přesnost, a/nebo nepokrývají složité vlastnosti pokročilých programových konstrukcí. Cílem výzkumu v rámci tohoto tématu bude přispět k řešení těchto problémů, a to v oblasti technik statické analýzy s formálními kořeny. Konkrétněji by se výzkum měl zaměřit zejména na oblast analýzy programů s dynamickými datovými strukturami, a to zejména na ty její aspekty, které jsou dosud méně rozřešené. Mezi ně patří analýza programů používajících nízko-úrovňové ukazatelové operace, analýza neúplných fragmentů programů (s využitím tzv. biabdukce nebo i symbolického provádění s opožděnou instanciací objektů), analýza tzv. proložených ("overlaid") datových struktur (kdy je jeden uzel v paměti součástí více dynamických zřetězených struktur), analýza programů nad předem neznámými datovými strukturami (včetně např. různých typů stromů), analýza paralelních programů nad dynamickými datovými strukturami apod. Významnou oblastí je pak také analýza programů s poli, zejména dynamickými a případně kombinovanými s dynamickými zřetězenými strukturami. Další významné oblasti výzkumu, které lze případně kombinovat s uvedenými, je výzkum v oblasti výkonnosti programů (včetně výkonnosti programů nad složitými dynamickými datovými strukturami), dobře škálující analýza paralelních programů apod. Pro potřeby analýzy výše uvedených typů programů budou studovány zejména metody založené na abstraktní intepretaci, symbolické exekuci či (bi)abduktivní analýze nad vhodnými formalismy. Zde přichází do úvahy zejména vhodné typy logik, např. tzv. separační logika, silně separační logika, vhodné typy automatů, ale i jiné typy reprezentací (např. symbolické paměťové grafy či abstraktní domény specificky vyvinuté pro danou analýzu). Významnou součástí tématu pak může být také rozvoj efektivních technik pro práci s daným typem formalismů, například v podobě efektivních rozhodovacích procedur pro daný typ logiky. Práce zahrne jak teoretický výzkum, tak také prototypovou implementaci navržených technik a jejich experimentální vyhodnocení. Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT automatizovanou analýzou a verifikací, zejména pak doc. A. Rogalewiczem, dr. O. Lengálem a doc. Holíkem. Je zde rovněž možnost úzké spolupráce s různými zahraničními partnery VeriFIT: TU Vienna, Rakousko (doc. F. Zuleger); DiffBlue, Oxford, Velká Británie (dr. P. Schrammel); Academia Sinica, Tchaj-wan (prof. Y.-F. Chen); LSV, ENS Paris-Saclay (prof. M. Sighireanu); IRIF, Paříž, Francie (prof. A. Bouajjani, doc. P. Habermehl, doc. C. Enea), Verimag, Grenoble, Francie (doc. R. Iosif); Uppsala University, Švédsko (prof. P.A. Abdulla, prof. B. Jonsson) či TU Braunschweig, Německo (prof. R. Meyer). V rámci tématu je možná také výzkumná spolupráce s průmyslovými partnery skupiny VeriFIT, jako jsou např. Red Hat, Honeywell či Oracle. V rámci tématu se student může také aktivně zapojit do různých grantových projektů, jako je např. projekt GA ČR 20-07487S "SNAPPY -- Scalable Techniques for Analysis of Complex Properties of Computer Systems", H2020 ECSEL "VALU3S -- Verification and Validation of Automated Systems' Safety and Security" či některý z nově podávaných projektů v dané oblasti.
Různé typy logik a automatů patří mezi nejzákladnější objekty studované a aplikované v oblasti informatiky již desítky let. Přesto v této oblasti existuje řada dosud neuspokojivě vyřešených problémů a neustále se objevují nové, vzrušující problémy související se stále novými aplikacemi logik a automatů (např. při formální verifikaci konečně i nekonečně stavových systémů s různými pokročilými řídicími či datovými strukturami, v rozhodovacích procedurách, při syntéze programů či hardware nebo i v metodách efektivního vyhledávání v různých typech dat či v síťovém provozu). Předmětem disertační práce bude primárně rozvoj současného stavu v oblasti efektivní práce s různými logikami (např. nad ukazatelovými strukturami, řetězci, různými aritmetikami, temporálními logikami apod.). Za tím účelem budou zkoumány přístupy založené na různých typech rozhodovacích diagramů, automatů, ale také např. přístupy založené na existenci modelu omezené velikosti či na efektivních redukcích mezi různými typy logických teorií. V souvislosti s tím pak budou rozvíjeny i metody efektivní práce s rozhodovacími diagramy a různými typy automatů (automaty nad slovy, stromy, nekonečnými slovy, automaty s čítači apod.). Práce zahrne jak teoretický výzkum, tak také prototypovou implementaci navržených technik a jejich experimentální vyhodnocení. Práce bude řešena ve spolupráci s týmem VeriFIT zabývajícím se na FIT VUT rozvojem technik pro práci s logikami a automaty a jejich aplikacemi. Jedná se zejména o dr. O. Lengála, jež bude působit v roli školitele specialisty, nebo také doc. L. Holíka či doc. A. Rogalewicze. V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do grantových projektů (včetně mezinárodních). Je zde rovněž možnost úzké spolupráce s různými zahraničními partnery VeriFIT: Academia Sinica, Tchaj-wan (prof. Y.-F. Chen); TU Vienna, Rakousko (doc. F. Zuleger); LSV, ENS Paris-Saclay (prof. M. Sighireanu); IRIF, Paříž, Francie (prof. A. Bouajjani, doc. P. Habermehl, doc. C. Enea), Verimag, Grenoble, Francie (doc. R. Iosif); Uppsala University, Švédsko (prof. P.A. Abdulla, prof. B. Jonsson); či School of Informatics, University of Edinburgh, Velká Británie (prof. R. Mayr). V rámci tématu se student může také aktivně zapojit do různých grantových projektů, jako je např. projekt GA ČR 20-07487S "SNAPPY -- Scalable Techniques for Analysis of Complex Properties of Computer Systems", H2020 ECSEL "VALU3S -- Verification and Validation of Automated Systems' Safety and Security" či některý z nově podávaných projektů v dané oblasti.
The topic focuses embedded image, video and/or signal processing. Its main goal is to research capabilities of "smart" and "small" units that have such features that allow for their applications requiring smyll, hidden, distributed, low power, mechanically or climatically stressed systems suitable of processing of some signal input. Exploitation of such systems is perspective and wide and also client/server and/or cloud systems. The units themselves can be based on CPU/DSP/GPU, programmable hardware, or their combination. Smart cameras can be considered as well. Applications of interest include:
A possibility exists in collaboration on grant projects, especially the newly submitted TAČR, H2020, ECSEL ones (potentially employment or scholarship possible).
Elektroencefalografie (EEG) je metoda používána k záznamu elektrické aktivity mozku. Nejčastěji se využívá v neurologii a psychiatrii, ale i např. k ovládání různých zařízení. EEG signály je třeba rozpoznávat a klasifikovat, k čemuž se v poslední době používají metody strojového učení. Cílem projektu je zakomponovat do těchto metod pokročilé optimalizační techniky (např. vícekriteriální evoluční optimalizaci) s cílem vylepšit kvalitu klasifikace a současně zjednodušit implementaci klasifikátoru. Dále bude předmětem výzkumu automatizovaný návrh klasifikátorů EEG signálů využívající principy genetického programování. Evolučně optimalizovaná a navržená řešení budou porovnána se stávajícími přístupy.
Ukazuje se, že metody syntézy číslicových obvodů využívající evolučních algoritmů, zejména kartézského genetického programování pracujícího přímo nad reprezentací na úrovni hradel, jsou schopny produkovat implementace, které jsou v řadě případů mnohem efektivnější (typicky kompaktnější) nežli implementace získané pomocí současných syntézních technik využívajících interní reprezentace (např. AIG) a iterativní aplikace deterministických přepisovacích pravidel. Typickým cílem optimalizace je redukovat počet hradel optimalizovaného obvodu. V praxi se však vyskytuje požadavek optimalizovat obvod z hlediska více kriterií (např. zpoždění, plocha na čipu). V případě využití systému pro účely resyntézy je multikriteriální optimalizace nutností z důvodu zachování zpoždění obvodu, jehož část je předmětem optimalizace. Cílem disertační práce je navázat na předchozí výzkum a zabývat se možnostmi multikriteriální optimalizace číslicových obvodů s ohledem na dobrou škálovatelnost. Dále se předpokládá využití alternativních reprezentací jako je např. majority uzel, které lépe odrážejí principy nových technologií.Výzkum spadá do témat řešených výzkumnou skupinou Evolvable Hardware.
Návrh leteckých přístrojů představuje netriviální výzvu, ve které nedostatky způsobené chybějícími informacemi, případně nevhodnou interpretací prezentovaných údajů, můžou v konečném důsledku způsobit katastrofu. Úplné odstranění chyby pilota je pravděpodobně nedosažitelné, ale co možné je, je zabránění vzniku určitých nehod využitím pokročilejších palubních systémů. Interakce pilota s palubními přístroji představuje výzkumně rozsáhlou tematickou základnu a její lepší porozumění povede k zefektivnění návrhu palubních přístrojů a očekávanému nárůstu bezpečnosti letového provozu. Cílem práce je vytvořit analytické techniky a nástroje pro identifikaci interakce pilot - kokpit letadla a jejich aplikace při vývoji moderních leteckých přístrojů.
Tutor: Chudý Peter, doc. Ing., Ph.D., MBA
Použití některých metod strojového učení, například v poslední době populárních hlubokých neuronových sítí, přináší problémy architektury tzv. černé skříňky, která sice může v některých případech správně rozhodovat, ale není možné snadno interpretovat způsob rozhodování, ověřovat, v jakém kontextu jsou závěry ještě věrohodné a nakolik mohou vést drobné změny vstupu ke zcela jiným závěrům.Cílem disertační práce je rozvinout existující přístupy k měření "dokazatelně správných" modelů umělých neuronových sítí a propojit je s technikami generování konfliktních (adversarial) příkladů, aby bylo možné kontrolovat a revidovat existující řešení, využívaná v praxi. Součástí práce bude i aplikace zkoumaných metod v rámci evropských projektů, na jejichž řešení se školitel podílí.
Náplní práce je návrh a praktické vyzkoušení nového typu digitálních agentů. Tito by měli být založeni na kombinaci aktorového přístupu s přístupy hlubokého strojového učení. Aktorový přístup je alternativou k objektovému přístupu. V tomto modelu je základní výpočetní jednotkou aktor, který realizuje čtyři základní operace: založ, pošli, přijmi a řiď; další operace jsou asynchroní, založené na posílání zpráv mezi aktory. Hluboké strojové učení je založeno na využití algoritmů (neuronových sítí) operujících s daty uspořádanými ve vrstvách. Předpokládáme, že agent nového typu bude složen z mnoha actorů a bude schopen se učit díky vytěžování toků zpráv, které si mezi sebou aktoři posílají. Výše uvedené hypotézy budou prakticky testovány v průmyslu v prostředí "agentové továrny" u partnera projektu.
Řešení tohoto projektu bude vycházet ze stávajících poznatků o formálních systémech distribuovaného výpočtu. Cílem je konstrukce a výzkum nových automatových a gramatických systémů, které adekvátním způsobem odrážejí potřeby moderních výpočetních metod založených na distribuci. Aplikace těchto systémů se budou soustředit na modelování a výzkum organismů v molekulární biologii a překladačích.Výsledky prvního roku řešení problému budou publikovány v Acta Informatica v 2023.
Tutor: Meduna Alexandr, prof. RNDr., CSc.
Řešení tohoto projektu bude vycházet ze stávajících poznatků o formálních systémech paralelního výpočtu. Cílem je konstrukce a výzkum nových automatových a gramatických systémů, které adekvátním způsobem odrážejí potřeby moderních výpočetních metod založených na distribuci. Aplikace těchto systémů se budou soustředit na modelování a výzkum organismů v molekulární biologii a překladačích.Výsledky prvního roku řešení tohoto problému budou publikovány v Acta Informatica v 2023.
Moderní GPU nabízejí možnosti zásadního zrychlení výpočtů pomocí jejich paralelizace. Grafické karty Nvidia a architektura CUDA navíc přinášejí relativní nezávislost na použití v čistě grafických úlohách. Mluví se o tzv. GPGPU (General Purpose GPU).Cílem disertační práce je výzkum možností paralelizace výpočetně náročných úloh, které je možné převést na GPU. V rámci řešení by měla vzniknout obecná metodika, umožňující odhad možného zrychlení výpočtu, případně charakterizující rozsah omezení daných použitou architekturou GPU. Výsledky budou demonstrovány na vybraných problémech zahrnujících časově náročné výpočty.
The aim of this work is to generate various damages into synthetic fingerprints and analysis of their quality. The work will consist of:
Deep convolution networks have been a clear trend of machine learning for image analysis in recent years. Neural networks can also be used for 3D image analysis, where the network works with 3D convolutions. However, this approach is problematic because of its huge memory and computational requirements.The aim of the dissertation thesis is to explore, analyze and design new architectures of Graph Neural Networks and approaches to their learning for 3D object shape recognition tasks, where the data set consists of various 3D data representations - e.g. 3D meshes, voxel representation, etc.Proposed methods will be applied in the projects on which the supervisor participates.
Zvyšující se náklady na výrobu čipů a tlak na technologický vývoj spočívající zejména v neustálém zmenšování prvků vedou ve stále větší míře a u většího počtu producentů k přesunu výroby do levnějších lokalit, zpravidla k externím subjektům. Jen málokterý výrobce si může dovolit mít vlastní výrobu polovodičů. Odvrácenou stranou úspor prostřednictvím outsourcingu jsou zvýšená rizika modifikací návrhu s cílem zajistit přístup (k datům, k řízení), vypnutí či možnosti ovlivnění funkce cizích vyrobených čipů nasazených do aplikací, aniž by to zákazník poznal. Již jsou známy případy úspěšného využití takových technik. V této souvislosti se mluví o tzv. hardwarových trojských koních. Vyvíjí se proto techniky detekce takových modifikací, případně obrany proti nim. Jednou z možností detekce hardwarových trojských koní je například tzv. IP watermarking.
Cílem práce bude
Tutor: Růžička Richard, doc. Ing., Ph.D., MBA
Umělé neuronové sítě (ANN) a tzv. hluboké neuronové sítě se v poslední době hojně používají ve výpočetně náročných úlohách klasifikace, predikce a rozpoznávání. Cílem disertační práce bude navrhnout škálovatelné metody automatizovaného návrhu ANN, které současně optimalizují konfiguraci platformy (GPU, FPGA, ASIC), kde bude výsledná síť nasazena. Výzkum spadá to témat řešených výzkumnou skupinou Evolvable Hardware.
The use of drones in a number of specific situations is an important trend today not only in industry, but especially in security operations. This trend brings new problems in the effective communication of man with the drone, ie how to increase the pilot's efficiency, reduce his cognitive load, increase his orientation in a complex environment or when cooperating with multiple drones, etc.The aim of this work is to explore new possibilities in the field of effective and intuitive use of sensory data and their fusion with other available data sources in the interaction of the pilot with the drone. The solution requires:
Tutor: Beran Vítězslav, doc. Ing., Ph.D.
The trend of the manufacturing industry is the introduction of collaborative robots into production, which allows for closer human-robot cooperation. The aim is to streamline production by using robots for repetitive activities and workers for complex activities, their robotization would be too expensive and not very scalable. This trend brings new problems in how to communicate effectively with robots: to have an idea of the state of the robot and its understanding of the situation, and to control and program the robot easily and naturally.The aim of this work is to explore new possibilities of human-robot communication using modern technologies and devices. The solution requires:
The project deals with image and video quality assessment metrics (IQM). The aim is to explore new ways how to incorporate human visual system properties into IQM. In particular, we will consider perception of HDR images, and utilization of additional knowledge (in form of metadata, 3D information, etc.) about the tested scenes using machine learning (e.g. neural networks).
The project is concerned with advanced methods of image processing. The aim is to research new methods using machine learning, in particular deep convolutional neural networks.
This topic focuses on the process and techniques used for cyberthreat detection, obtaining and representation of threat data. The goal of this dissertation thesis is to study the current techniques and propose a solution that effectively improves the process and its results usable for malware detection and threat intelligence.
The topic of identifying and extracting specific information from documents on the Web has been the subject of intensive research for quite a long time. The basic obstacles that make this problem difficult are the loose structure of HTML documents and absence of meta-information (annotations) useful for recognizing the content semantics. This missing information is therefore compensated by the analysis of various aspects of web documents that include especially the following:
A background knowledge about the target domain and the commonly used presentation patterns is also necessary for successful information extraction. This knowledge allows a more precise recognition of the individual information fields in the document body.
Current approaches to information extraction from web documents focus mainly modeling and analyzing the documents themselves; modeling the target information for more precise recognition has not yet been examined in detail in this context. The assumed goals of the dissertation are therefore the following:
Experimental implementation of the proposed methods using existing tools and experimental evaluation on real-world documents available on the WWW is also an integral part of the solution.
Tutor: Burget Radek, doc. Ing., Ph.D.
Cílem disertační práce je výzkum v oblasti extrakce informací z textu se zaměřením na metody strojového učení aplikovatelné v této oblasti. Součástí bude i realizace extrakčního systému, který bude možné využít pro zpracování rozsáhlých webových dat, získaných např. v projektu CommonCrawl.
Thanks to the deployment of new technologies in our daily lives, a huge amount of data of various types is constantly being generated. The created datasets need to be processed efficiently - the information contained in them often supports the correctness and accuracy of decision-making processes. The development of data analysis methods is therefore an important part of IT research. For various reasons, traditional processing methods are not generally applicable, so new approaches need to be sought. They are mostly based on artificial intelligence and machine learning.
Intelligent data analysis has great potential for solving current research tasks in many areas, including the energy domain. This field is undergoing great changes - renewable energy sources, batteries and electromobility convert the nature of the electricity grid and the classic one-way centralized network is becoming a two-way distributed network. This fact raises a number of research questions and problems to solve. Research topics include:
- optimal management of microgrids (small energy networks with renewable energy sources) enabling energy sharing between customers,
- predicting customer consumption and renewable production needed for efficient microgrid management,
- disaggregation of energy consumption into consumption of individual appliances, which will allow a better understanding of the nature of consumer consumption,
- investigation of anomalies and / or extreme values in the consumption or production of energy from renewable sources.
However, data analysis in a broader sense can be of interest - it is possible to focus on the tasks of prediction, clustering, classification or detection of anomalies in different domains.
Relevant publications:
Rozinajova, V., Bou Ezzeddine, A., Grmanova, G., Vrablecova, P., Pomffyova, M.(2020): Intelligent Analysis of Data Streams, Published in: Towards Digital Intelligence Society: A Knowledge-based Approach, Publish date 22 December 2020
Kloska M., Rozinajova V. (2021): Towards Symbolic Time Series Representation Improved by Kernel Density Estimators. In: Hameurlain A., Tjoa A.M. (eds) Transactions on Large-Scale Data- and Knowledge-Centered Systems L. Lecture Notes in Computer Science, vol 12930. Springer, Berlin, Heidelberg.
Tutor: Rozinajová Věra, Doc., Ph.D.
Dissertation focuses on the security of IoT systems. The goals of this work: studying the theory of IoT systems, their properties and possibilities of attacks, testing the basic types of attacks, designing a new method of protection, experiments, evaluation of results and design of further research.Co-supervised by dr. Kamil Malinka.
Použití evolučních algoritmů v automatizovaném návrhu obvodů, programů a dalších struktur vedlo nejen k nalezení mnoha zajímavých implementací obvodů, programů, neuronových sítí a dalších struktur, ale i ke shromáždění velkého množství záznamů, které popisují vyevolvované struktury a jejich vlastnosti (viz např. https://ehw.fit.vutbr.cz/evoapproxlib/). Cílem projektu je vytvořit metody umožňující automatizovaně extrahovat znalost z těchto záznamů, s cílem pochopit principy evoluční konstrukce těchto struktur a případně vylepšit samotné evoluční návrhové metody. Nedílnou součástí práce bude vytváření nástrojů pro vizuální prezentaci výsledků evoluce a evolučních záznamů.Výzkum spadá to témat řešených výzkumnou skupinou Evolvable Hardware.
Proteins form the basis of any living organism, performing a wide range of functions, from catalyzing metabolic reactions to building structures in cells and tissues. Protein engineering plays a central role in developing efficient biocatalysts for biotechnology, biomedicine, and life sciences, as well as in gaining insights into fundamental principles of life and mechanisms behind many human diseases. Apart from classical rational design and directed evolution approaches, machine learning (ML) methods have been increasingly applied to find patterns in data that help predict protein structures, improve enzyme stability, solubility, and function, predict substrate specificity and guide rational protein design.
Although there are technologies that allow publishing data on the WWW in machine-readable form (such as JSON-LD, RDFa, etc.), a large amount of structured data is still published on the web in the form of plain HTML/CSS code, which greatly limits the possibilities of their further use.Recently, new machine learning methods (especially deep learning methods) are gaining importance, which show interesting results, e.g., in recognizing important entities in weakly structured or unstructured data (e.g., text or images). However, the area of web document processing has not received much attention from this perspective. Existing works deal with the identification of simple data items and neglect structured data and more complex usage scenarios.The goal of this topic is to analyze and develop web content models suitable as input for machine learning and, at the same time, machine learning methods suitable for recognizing structured data in web documents.
Množstvo problémov týkajúcich sa bezpečnosti je potrebné riešiť prostredníctvom metód založených na umelej inteligencii a s pomocou strojového učenia. Medzi aktuálne výskumné problémy v oblasti informačnej bezpečnosti patrí analýza údajov veľkých bezpečnostných logov, detekcia širokej škály anomálií pri sieťovej komunikácii, detekcia škodlivého správania.
Jednou z aktuálnych výziev umelej inteligencie, je učenie bez potreby označenej dátovej sady. Dnešné modely väčšinou dosahujú vynikajúce výsledky, ale veľa krát ich dosahujú vďaka veľkým množstvám označených trénovacích vzorov. Existujú ale problémy, pri ktorých by vytvorenie takejto dátovej sady bolo veľmi nákladné, alebo sa vytvoriť vôbec nedá. Prístupy učenia posilňovaním (reinforcement learning) umožňujú učiť agenta vykonávať akcie tak, aby dosiahol svoj cieľ, pričom sa snaží maximalizovať svoje odmeny. Takýto agent nepotrebuje označenú dátovú sadu, postačí mu len vonkajšie ohodnotenie jeho správania (odmena za dobré rozhodnutia, trest za zlé).
Výzvou je interpretovateľnosť strojového učenia pri riešeniach bezpečnosti a dôvery.
Súvisiace publikácie:
CHUDÁ, Daniela - KRÁTKY , Peter - BURDA, Kamil. Biometric Properties of Mouse Interaction Features on the Web. In Interacting with Computers : The Interdisciplinary Journal of Human-Computer Interaction. Vol. 30, iss. 5 (2018), s. 359-377. https://doi.org/10.1093/iwc/iwy015
P. Lacko, V. Kvasnička. Mixture of Expert Used to Learn Game Play. In: Kůrková V., Neruda R., Koutník J. (eds) Artificial Neural Networks - ICANN 2008, Lecture Notes in Computer Science, vol 5163. Springer. https://doi.org/10.1007/978-3-540-87536-9_24
Výskum bude doktorand vykonávať v rámci Kempelenovho inštitútu inteligentných technológií (KInIT, https://kinit.sk) v Bratislave v spolupráci s priemyselnými partnermi alebo výskumníkmi zo svetovo uznávaných výskumných skupín. Predpokladá sa kombinovaná (externá) forma štúdia a pracovný pomer na plný úväzok v KInIT.
Tutor: Chudá Daniela, doc. Mgr., Ph.D.
The models created in machine learning can only be as good as the data on which they are trained. Researchers and practitioners thus strive to provide their training processes with the best data possible. It is not uncommon to spend much human effort in achieving upfront good general data quality (e.g. through annotation). Yet sometimes, upfront dataset preparation cannot be done properly, sufficiently or at all.
In such cases the solutions, colloquially denoted as human-in-the-loop solutions, employ the human effort in improving the machine learned models through actions taken during the training process and/or during the deployment of the modes (e.g. user feedback on automated translations). They are particularly useful for surgical improvements of training data through identification and resolving of border cases. This is also directly related to explainability and interpretability of models.
Human-in-the-loop approaches draw from a wide palette of techniques, including active and interactive learning, human computation, crowdsourcing (also with motivation schemes of gamification and serious games), and collective intelligence. Each of these fields (or combination thereof) presents opportunities for new discoveries. They border on computer science disciplines such as data visualization, user experience (usability in particular) and software engineering.
The domains of application of machine learning with human-in-the-loop are predominantly those with a lot of heterogeneity and volatility of data. Such domains include online false information detection, online information spreading (including spreading of narratives or memes), auditing of social media algorithms and their tendencies for disinformation spreading, support of manual/automated fact-checking and more.
M. Tomlein, B. Pecher, J. Simko, I. Srba, R. Moro, E. Stefancova, M. Kompan, A. Hrckova, J. Podrouzek, and M. Bielikova. An Audit of Misinformation Filter Bubbles on YouTube: Bubble Bursting and Recent Behavior Changes. In Fifteenth ACM Conference on Recommender Systems (pp. 1-11). 2021, September. https://dl.acm.org/doi/10.1145/3460231.3474241
J. Šimko and M. Bieliková. Semantic Acquisition Games: Harnessing Manpower for Creating Semantics. 1st Edition. Springer Int. Publ. Switzerland. 150 p. https://link.springer.com/book/10.1007/978-3-319-06115-3
The research will be performed at the Kempelen Institute of Intelligent Technologies (KInIT, https://kinit.sk) in Bratislava in cooperation with industrial partners or researchers from highly respected research units. A combined (external) form of study and full employment at KInIT is expected.
Tutor: Šimko Jakub, doc. Ing., PhD.
Ubiquity of computing is nowadays generating vast datasets potentially usable for training machine learned models. Yet, these data mostly come not annotated, i.e. without labels necessary for their use for supervised (most conventional) training methods (e.g. classification). Conventional acquisition of proper labels using human force is a costly endeavour. The result is that proper labels are either unavailable, few or of poor quality.
To circumvent the issue, many approaches are emerging and are presently researched by many researchers: meta-learning, transfer-learning, weakly supervised learning, zero/one-shot learning, semi-supervised learning. Each of these fields (or combination thereof) presents opportunities for new discoveries. Orthogonal to this, explainability and interpretability of models is an important factor to consider and advances in this regard are welcome (generally in AI and particularly in the mentioned approaches).
There are several domains of applications, where research of methods and models for addressing small labelled data can be applied. These include (but are not limited to) false information detection, auditing of social media algorithms and their tendencies for disinformation spreading, and support of manual/automated fact-checking.
B. Pecher, I. Srba, and M. Bielikova. Learning to Detect Misinformation Using Meta-Learning. Presented in PhD Forum by B. Pechcer at the European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases - ECML-PKDD 2020.
M. Pikuliak, M. Simko, M. Bielikova. Cross-Lingual Learning for Text Processing: A Survey Expert Systems With Applications or its open access mirror. Expert Systems with Applications. Vol. 165, 2021. https://doi.org/10.1016/j.eswa.2020.113765
Cílem disertační práce je výzkum nových metod pro mitigaci útoků směřujících k odepření služby. Obsahem práce je výzkum využití technik strojového učení za účelem vývoje nových způsobů identifikace nelegitimního provozu, nových mitigačních postupů a automatizace řízení mitigace. Předpokládá se optimalizace a přizpůsobení metod strojového učení pro potřeby detekce samotného útoku, jeho typu, odvozování vzorů pro blokování nelegitimní části provozu, odvozování parametrů mitigačních metod a výběr vhodné mitigační metody dle typu útoku. Současný výpočetní výkon umožňuje trénovat komplexní modely strojového učení, které jsou schopny odvodit znalosti a souvislosti skryté v síťovém provozu, přímo na živém provozu v síti. Tato oblast nebyla doposud důsledně zkoumána a představuje tak vhodné téma pro disertační práci. Výsledky disertační práce lze aplikovat při podpoře a automatizaci činností členů Security Operation Centre, Network Operation Centre, CSIRT či CERT týmů či administrátora sítě.Při řešení práce se předpokládá úzká spolupráce s výzkumným týmem Liberouter (www.liberouter.org) a získávání zpětné vazby od správců výzkumné infrastruktury sdružení CESNET. V případě zodpovědného přístupu k řešení zadaného tématu může být student zapojen do řešení projektu AdaptDDoS a DOSIX, který je a bude řešen v rámci bezpečnostního výzkumu MV ČR. Školitelem specialistou k tématu disertační práce je dr. Martin Žádník. Relevantní publikace pro toto téma jsou:
Cílem práce je navázat na soudobé techniky návrhu a realizace distribuovaných řidicích systémů, IoT a CPS a přinést nové metody, které lépe zohlední potřebu analyzovatelnosti a verifikovatelnosti při zachování intuitivní pochopitelnosti modelovacího formalismu a přitom umožní dynamickou rekonfigurovatelnost a adaptabilitu na měnící se podmínky provozu systému.Specifickým cílem je využití a rozvoj moderních metod modelování, simulace, analýzy, verifikace, monitorování a dohledu v řídicích systémech, v souladu s průmyslovými standardy pro IoT, CPS a Průmysl 4.0.
Tutor: Janoušek Vladimír, doc. Ing., Ph.D.
The topic concerns algorithms of computer graphics and image synthesis. Its main goal is to research new algorithms so that their features and application possibilities are better understood so that they are improved or newly created. If suitable, it is possible to work on various platforms, includeing parallel CPUs, such as x86/64, ARM, Xeon PHI, GPU, etc. or other cores in CUDA, OpenCl, VHDL, etc. Algorithms of interest include:
Collaboration on grant projects, such as TACR, H2020, ECSEL possible (employment or scholarship).
Řešení tohoto projektu bude vycházet ze stávajících poznatků o metodách překladu jazyků a poznatků o systémech formálních modelů, zejména překladových gramatik a automatů. Cílem je konstrukce a výzkum metod překladů založených na takovýchto systémech a to tak, aby nové metody adekvátním způsobem odrážejí potřeby moderních kompilátorů. Aplikace těchto systémů se budou soustředit na překladače.Výsledky prvního roku řešení tohoto problému budou publikovány v Acta Informatica v 2023.
Modular robotics is an area in robotics where larger numbers of relatively simple robots are considered that are able to organize, coordinate and even physically connect to achieve their goals. The software implementation of such systems has focused on algorithms related to swarm intelligence over the past decade. Some attention has also been paid to algorithms for multi-agent systems. However, we see the potential here to better relate these algorithms and insights from multiagent systems specifically to modular robots. The experience we have at the institute in recent years shows that a more reactive principle together with proactive planning at a higher level of agent decision making and at the group planning level yields good results with classical multiagent systems, and we want to transfer this also to multi-robot systems and modular robotics. We now define the intended goals of the work as follows: For modular robotics, we will apply recent research results from multiagent systems and our experience with these systems at MAPC competitions. We hypothesize that hybrid (reactive and proactive) agent architectures can yield better results than the current state of the art in modular robotics specifically when the robots are in dynamic and non-deterministic environments. The achieved results will be progressively published in conferences of the worst category B according to the Core conference ranking. In higher years, we will try to publish results in an agent or robotics journal in the Q2 quartile.Specialist supervisor. Jaroslav Rozman, Ph.D.
Problem Statement: The importance of mental health has increased significantly over the past decade. However, the methods for the assessment of mental health issues at early stages are still in their infancy compared to the availability of corresponding methods for early assessment of physical health issues. Hence, it is required that due research is done to develop methods for early assessment of abnormalities leading to mental health problems.
Issues with Current Solutions: Unlike physical health parameters, the mental health is assessed through a number of subjective parameters. Hence, there is lack of objective and quantitative methods for mental health assessments. In addition, the patients seek help when their mental health problem is at advanced stage. So, there is lack of continuous monitoring for mental health issues.
Challenges: Many of the abnormalities related to mental health issues are subtle in nature and are related to behavior and other changes in facial expressions, speech and handwriting. In addition, there are changes in cortisol levels, skin conductance, heart rate variability and breathing rate. Hence, there are multiple modalities that should be included for measuring and quantifying any abnormalities related to mental health.
Solution: Every modality has its pros and cons. For example, in neuroimaging, functional magnetic resonance imaging has high spatial resolution (in mm) and low temporal resolution (in seconds) while electroencephalogram has low spatial resolution (in cm) and high temporal resolution (in milliseconds). Combining both of them will result in high spatial as well as high temporal resolution. This research deals with the assessment of abnormalities leading to mental health problems by utilizing multimodal approach. The various modalities may include, but not limited to, electroencephalogram (EEG) brain signals, facial videos, speech audios, handwriting and text from social media. The physiological parameters from various modalities include, but not limited to, the heart rate, breathing rate, dominant emotion, fatigue and stress. Dominant emotion can be classified as positive or negative and then sub-classified as sad, happy, angry etc. Data mining and data fusion techniques will be developed for this multimodal analysis. The corresponding multimodal data is available for this project.
Cílem práce je navázat na soudobé techniky návrhu a realizace distribuovaných řidicích systémů v rámci IoT a CPS a přinést nové metody, které akcentují provoz v dynamickém prostředí (ve smyslu dostupnosti senzorů, aktuátorů a služeb, přítomnosti uživatelů apod.) a zohlední i bezpečnostní aspekty systému.Specifickým cílem je využití konceptu multiagentních systémů pro plánování akcí s ohledem na dostupné zdroje a pro inteligentní dohled a komunikaci s uživateli systému. Možnou aplikační oblastí může být řízení inteligentní budovy, resp. Smart Home. Předpokládá se vhodná kombinace reálných a simulovaných součástí systému při realizaci případových studií.
Continuous increase of data available world-wide emphasizes the need of its automatic processing and understanding. Particular challenges are posed by the heterogeneous and unstructured nature of text content provided in natural language. Natural language processing (NLP) ranks among the most prospective subfields of artificial intelligence with great potential for innovative applications affecting everyday life.
Recent advances in neural networks and machine learning allowed to push efficiency and scope of natural language understanding and generation forward. Yet, there remain many research challenges related to particular subtasks, application domains and languages. Further research and various resulting phenomena exploration is necessary. Special attention is drawn by the issues of interpretability and transparency of NLP models or by novel paradigms of learning addressing the problem of low-resource languages.
Particularly interesting challenges include, but are not limited to:
Low-resource language processing
Transfer/multilingual learning
Fairness, interpretability, transparency, explainability and/or robustness for NLP
Domain-specific information extraction, text classification
Visual grounding of natural language, image captioning, multimodal data processing
Deep learning for NLP
M. Pikuliak, M. Šimko, M. Bieliková. Cross-lingual learning for text processing: A survey. Expert Systems with Applications, 2021. https://doi.org/10.1016/j.eswa.2020.113765
P. Korenek, M. Šimko. Sentiment analysis on microblog utilizing appraisal theory. World Wide Web, 2014. https://doi.org/10.1007/s11280-013-0247-z
The research will be performed at the Kempelen Institute of Intelligent Technologies (KInIT) in Bratislava in cooperation with industrial partners or researchers from highly respected research units from abroad. A combined (external) form of study and full employment at KInIT is expected.
Tutor: Šimko Marián, doc. Ing., Ph.D.
Řešení tohoto projektu bude vycházet ze stávajících poznatků teorie formálních jazyků o modelech definující jazyky. Projekt se zaměří na automaty a gramatiky. Cílem je konstrukce a výzkum nových verzí těchto modelů a to tak, aby adekvátním způsobem odrážely potřeby moderní informatiky. Řešení projektu bude rovněž zahrnovat diskuzi aplikací těchto systémů např. v oblasti bezpečnosti.Výsledky prvního roku řešení tohoto problému budou publikovány v Acta Informatica v 2023.
The topic of the work includes algorithms of comptuer graphics, image, and video, i.e. "Visual Computing", such as HDR (High Dynamic Range) image, multispectral image, stereoimage, possibly also image augmented with material features, temperature, etc. The goal is to understand the features and possibilites but also applications, to analyze the algorithms in-depth, prepare new and improve them. The possible algorithms include:
Collaboration on grant projects, such as TACR, MPO, H2020, ECSEL possible (employment or scholarship).
Cílem práce je navázat na soudobé architektury a metody vývoje distribuovaných řidicích systémů, IoT a CPS a přinést nové architektury a metody, které zohlední potřebu analyzovatelnosti a verifikovatelnosti a přitom umožní adaptabilitu a dynamickou rekonfigurovatelnost systému v návaznosti na dynamicky se měnící požadavky a dostupnost zdrojů. Téma zahrnuje využití metod strojového učení a umělé inteligence v návrhu a realizaci inteligentních a distribuovaných řídicích systémů v návaznosti na modelem řízený návrh (Model Based Design, MBD) a na simulaci založený vývoj (Simulation Based Develeopment, SBD).
Světoví výrobci dopravních prostředků věnují rozsáhlé úsilí vývoji technologií automatizované / autonomní mobility. Samotné automatizované / autonomní řešení ovšem spoléhá na adekvátní senzorické pokrytí okolí dopravního prostředku. Míra robustnosti detekce v provozu relevantních typů objektů je v uvedeném případě posílena implementací senzorů založených na různých fyzikálních principech (RADAR, LiDAR, kamera).Cílem práce je navrhnout algoritmy pro detekci a sledování v provozu relevantních typů objektů s využitím heterogenní senzorické sady.
Předmětem disertační práce bude zejména vývoj teoretických základů pro nové škálovatelné metodyřízenísystémů pracujících v pravděpodobnostním prostředí. Zaměříme se na syntézu konečně stavových kontrolérů pro stochastické procesy s částečným pozorováním s využitím pokročilých metod formální kvantitativní analýzy, prohledávání stavového prostoru a technikami induktivní syntézy. Práce se rovněž zaměří na využití těchto metod v oblasti řízeních prakticky relevantních pravděpodobnostních systémů, a na důkladné vyhodnocení aplikovatelnosti těchto metod. Výsledky této práce přispějí k pokroku v oblasti automatizace návrhu systémů.
Výzkumu efektivních metod pro syntézu kontrolérů je v současnosti věnována značná pozornost v oblastech formální verifikace, návrhu a implementace programovacích jazyků, umělé inteligence a systémové biologie, o čemž svědčí zaměření řady špičkových konferencí (např. CAV, TACAS, PLDI či CMSB). Syntézou programů a modelů se rovněž zabývá řada velkých projektů na špičkových universitách a výzkumných institucích (např. Berkeley University či Microsoft Research).
Práce bude řešena ve spolupráci s týmem VeriFIT pod vedením doc. M. Češky jr. Dále se počítá s úzkou spoluprací se skupinou prof. J.P. Katoena z RWTH Aachen University, jež patří mezi nejlepší vědecké týmy v dané oblasti, se skupinou doc. J. Křetínského z TU Mnichov a se skupinou N. Jansena z Radboud University Nijmegen
V případě zodpovědného přístupu a kvalitních výsledků je zde možnost zapojení do grantových projektů (např. české projekty GAČR Caqtus a Snappy či evropské projekty H2020 ECSEL Arrowhead Tools a Valu3s).
Tutor: Češka Milan, doc. RNDr., Ph.D.
The aim of the work is to create a reliable detection mechanism of the presentation attack on the technology of fingerprints, faces and handwriting, namely:
Téma je vypisováno jako volné, není přímo navázané na projekt. Nicméně při kvalitní publikační činnosti lze získat jak mimořádné, tak pravidelné příjmy navíc jak z interní grantové agentury, tak z dalších zdrojů.Téma se dotýká dnes běžných záležitostí, kdy pokročilé vývojové prostředí "radí" programátorovi, jak udělat nějaký kód lépe (např. kratším zápisem, bezpečnější, eliminovat "zbytečnosti", apod.). Jedná se typicky o analýzu známých konstrukcí a obratů, analýzu mrtvého kódu, podobnosti (kdy dva různé zápisy vedou na stejný cílový kód), apod.Cílem je zdokonalit dané techniky prostřednictvím souběžného použití několika technik tak, aby ve zvoleném směru (např. bezpečnost kódu, přehlednost kódu, vhodnost pro ladění, apod.) bylo možné kód upravit/vylepšit.Bude nutná znalost z oblasti překladačů a to i reverzních, klasifikace, získávání znalostí z dat, umělé inteligence apod.
The recommender systems are an integral part of almost every modern Web application. Personalized, or at least adaptive, services have become a standard that is expected by the users in almost every domain (e.g., news, chatbots, social media, or search).
Obviously, personalization has a great impact on the everyday life of hundreds of million users across many domains and applications. This results in a major challenge - to propose methods that are not only accurate but also trustworthy and fair. Such a goal offers plenty of research opportunities in many directions:
Novel machine learning approaches for adaptive and recommender systems
Off-policy learning
Explaining recommendations
Fairness and justice in recommendations
Biases in the recommendations
There are several application domains where these research problems can be addressed, e.g., search, e-commerce, news, and many others.
M. Kompan, P. Gaspar, J. Macina, M. Cimerman, M. Bielikova. Exploring Customer Price Preference and Product Profit Role in Recommender Systems. In IEEE Intelligent Systems int. Journal, 2021. https://doi.org/10.1109/MIS.2021.3092768
M. Svrcek, M. Kompan, M. Bielikova. Towards Understandable Personalized Recommendations: Hybrid Explanations. In Computer Science and Information Systems. Vol. 16, No. 1, 2019. https://doi.org/10.2298/CSIS171217012S
Tutor: Kompan Michal, doc. Ing., PhD.
Cílem práce je navázat na soudobé techniky návrhu a realizace distribuovaných řidicích systémů, IoT a CPS a přinést nové metody, zohledňující rekonfigurovatelnost a adaptaci v dynamickém prostředí, a to jak automatickou, tak interaktivní. Specifický důraz je kladen na zajištění konzistence systému a jeho modelu během rekonfigurace, učení a optimalizace. Možnou aplikační oblastí může být řízení inteligentní budov, resp. Smart Home.Předpokládá se vhodná kombinace reálných a simulovaných součástí systému při realizaci případových studií.
This thesis is actually not supported by any grant. Anyway, this thesis will be dealt with in cooperation with the Police of the Czech Republic. Thus, we can expect support to get financed by a granted project.Moreover, foreign internship is possible and strongly supported. The aim of the thesis is reconstruction of damaged CD/DVD/BR/HDD surfaces, consisting of:
The aim of this work is to create a reliable matching of 2D face with 3D face projection, namely:
Internet of Things is a communication platform that interconnects different types of devices in smart homes, smart buildings, smart hospitals, traffic control systems, etc. IoT devices produce a large amount of monitoring data that include both network status data and application data. By longitudinal monitoring we can create a profile of the IoT device and then observe deviation in its behavior which is important for failure detection or identification of cyber attacks. The topic focuses on security analysis of IoT communication. The goal of this project is to propose a automated method for creating IoT device profiles based on monitoring data and demonstrate how these profiles can be exploited for anomaly detection. Co-supervisor: Matoušek Petr, Ing., Ph.D., M.A.
The idea of developing a smart method supporting a network design, monitoring, and management is not new. However, recent advancements in the AI domain and the introduction of P4 for network device programmability creates a promising environment to achieve this goal.In this context, self-awareness means the ability of a network to observe its state and improve its behavior to meet the stated objectives [1]. Though the primary goal of each network is to deliver data packets, there are also other important non-functional requirements, notably, QoS, security, reducing energy consumption. Project GoalThis work aims to design a network system able to observe the situation and by applying an AI approach to decide about the next behavior to keep providing reliable function even when under cyberattack. The project assumes P4 as the technology enabler to achieve the expected goals.Research ApproachThe research consists of the following major steps:
Distribuované databáze se pojí s řadou problémů. Některé z nich nemají ani teoretické řešení, některé jsou jen obtížně řešitelné. V současné době však existuje řada technik, jak velké množství takových problémů řešit podle typu aplikace, nebo podle typu spojení. Málokdy se však setkáváme se SŘBD, která jsou schopna měnit algoritmus a způsob práce podle zátěže na síti, nebo dokonce předvídat tuto možnost na základě historie apod.Cílem je proto navrhnout a jak formálně tak na modelech ověřit chování takového ACID SŘBD, které bude schopné se dynamicky přizpůsobit a změnit způsob chování, ne jen upravit dle stavu.Očekává se kombinace několika přístupů, podobně třeba, jako to dělá Timsort.
Zavedením sémantických operátorů do genetického programování umožnilo významně zefektivnit jeden ze základní stavebních pilířů evolučních výpočetních technik a zredukovat množství generací potřebných k nalezení řešení. Cílem disertační práce je navázat na předchozí výzkum a zabývat se možnostmi zavedení sémantických operátorů do kartézského genetického programování a to v úloze návrhu a optimalizace číslicových obvodů a symbolické regrese. Výzkum spadá do témat řešených výzkumnou skupinou Evolvable Hardware.
Semantic web technology allows the representation of information and knowledge for the purpose of its further sharing, for example, in computer applications. Available knowledge databases, such as DBPedia or Wikidata, contain a great amount of useful information and facts. On the current web, however, most of the new information is published in the form of documents most often in HTML, whose further processing is problematic mainly due to their free structure and the absence of explicit information about the meaning of individual parts of the content. There exist two ways to overcome this gap between the classical and the semantic web:
To achieve both these goals, it is necessary to analyze the capabilities of existing ontological models regarding the modelling of the target domains and mapping these descriptions on the content of real-world web pages and documents. Possible applications include, but are not limited to:
Experimental implementation of the proposed methods using the existing tools and experimental evaluation on real-world data and documents is also an integral part of the solution.
The topic of the work is focused on speech recognition and data processing for ATC-pilot communication in aviation. It will cover all components of automatic speech recognition (ASR), i.e. data processing, acoustic model, vocabulary (including special aviation terminology) and language model.The topic is related to the European project Horizon 2020 ATCO2, and will be elaborated in cooperation with project partners. The assignment requires an interest in mathematics, statistics, machine learning and speech processing, the advantage is proficiency in Python and its libraries for machine learning.
Tutor: Černocký Jan, prof. Dr. Ing.
Předmětem disertační práce bude zejména vývoj teoretických základů pro nové škálovatelné metody syntézy pravděpodobnostních programů. Zaměříme se na využití syntézy řízené syntaxí a na dosud neprozkoumanou oblast spojení pokročilých metod formální kvantitativní analýzy s přístupy založenými na SAT/SMT, prohledávání stavového prostoru a technikami induktivní syntézy. Práce se rovněž zaměří na využití těchto metod v procesu návrhu prakticky relevantních pravděpodobnostních systémů, a na důkladné vyhodnocení aplikovatelnosti těchto metod. Výsledky této práce přispějí k pokroku v oblasti automatizace návrhu systémů.
Výzkumu efektivních metod syntézy je v současnosti věnována značná pozornost v oblastech formální verifikace, návrhu a implementace programovacích jazyků, umělé inteligence a systémové biologie, o čemž svědčí zaměření řady špičkových konferencí (např. CAV, TACAS, PLDI či CMSB). Syntézou programů a modelů se rovněž zabývá řada velkých projektů na špičkových universitách a výzkumných institucích (např. Berkeley University či Microsoft Research).
Řešení tohoto projektu bude vycházet ze stávajících poznatků o formálních modelech, zejména automatů a gramatik. Cílem je konstrukce a výzkum nových systemů automatů a gramatik, které adekvátním způsobem odrážejí potřeby moderních výpočetních metod založených na distribuci, kooperaci a regulaci. Kanonické a redukované verze těchto system budou centrem tohoto studia. Aplikace těchto systémů se budou soustředit na modelování a výzkum organismů v molekulární biologii a genetice.Výsledky prvního roku řešení tohoto problému budou publikovány v Acta Informatica v 2023.
Současná věda stále více spoléhá na vysoce výkonné počítače provádějící náročné simulace. Náročnost těchto simulací nespoléhá pouze v množství dat a operací které je nutné vykonat, ale i v možnostech jednotlivých simulačních frameworků zahrnující různé fyzikální a numerické modely, ohraničující podmínky, typy prostředí atd. Tato variabilita vede ke stovkám různých simulačních scénářů skládajících se z tisíců dílčích úloh. V tomto momentě naráží klasické datově paralelní implementace na své meze, neboť rozhodovací logika daleko převyšuje logiku výpočtu.Druhým úskalím je architektura současných superpočítačových systémů. Již více než dekádu se nejedná o uniformní systémy složený z homogenních prvků s homogenním propojením. Současný trend jsou silně heterogenní architektury složené s vícejádrových procesorů a různých akcelerátorů, např. GPU, FPGA, Xeon Phi. Optimalizace komplexních frameworků pro tyto architektury a následné vyvažování zátěže se stává limitujícím prvkem. Cílem této disertační práce je prozkoumat techniky funkčního paralelismu a návrh automatizovaných simulačních platforem umožnující distribuci výpočtu na vhodné hardwarové komponenty.
The project deals with geo-localization of mobile devices in unknown environments using computer vision and computer graphics methods. The aim is to investigate and develop new image registration techniques (with geo-localized image database or 3D terrain model). The goal is an efficient implementation of proposed methods on mobile devices as well as search for additional applications in the area of image processing, computational photography, and augmented reality.
The objective of this PhD thesis focuses on the voice biometry, i.e. advanced person identification from voice content. Recent advances in deep learning give a potential to significantly increase performance of person identification systems from various type of biological signals. This thesis primarily aims to advance speaker identification technologies for applicability in law enforcement, while taking into account apriori knowledge provided by end-users. Typical case is a combination of intercepted voice calls with call detail records (i.e. network built from telephone numbers). PhD thesis will also address known problems of machine learning algorithms such as "bias" provided by training data.
Recent advances in Deep Learning enabled for the automatic generation of hyper-realistic fake media content known as Deepfakes. While this technology has positive potential for entertainment applications, its malicious use has been already reported to harm citizens and the society at large by producing obscene content, broadcasting fake news to undermine elections or de-stabilise politics and improving social engineering to commit financial fraud. The severity of the problem calls for the urgent development of Deepfake detection technologies for media companies, multimedia news providers and Law Enforcement Agencies. Also as Deepfakes encompasses several categories of synthetically altered or generated media, a secondary objective is to identify the type of manipulation and the specific technology employed for that purpose, this is referred to as attribution. The objective of this PhD thesis focuses on the "voice" part of the media content and aims to develop "voice" Deepfake detection and attribution algorithms. Novel research directions in one class modeling, spatio-temporal learning (i.e. combination with semantic knowledge), few-shot learning, and adversrial training will be explored.