Přístupnostní navigace
E-application
Search Search Close
Project detail
Duration: 01.06.2018 — 28.02.2021
Funding resources
Ministerstvo školství, mládeže a tělovýchovy ČR - INTER-EXCELLENCE - Podprogram INTER-COST
- part funder (2018-06-01 - 2021-02-28)
On the project
Cílem projektu je přispět k aktivitám COST Akce CA 16105 - enetCollect - v oblastech souvisejících s rozsáhlou extrakcí informací z webových zdrojů a gamifikací přípravy a anotování multimediálního obsahu, vhodného pro učení jazyků. Budeme se zabývat pokročilými metodami efektivního stahování webových zdrojů a sémantického obohacování shromážděného materiálu, stejně jako moderními technologiemi interakce člověka s počítačem, vtahujícími uživatele do procesu osvojování jazyků formou hry.
Description in EnglishThe project aims at contributing to the activities of COST Action CA 16105 - enetCollect - in the areas related to large-scale information extraction from the web and gamification of the preparation and the annotation of multimedia content suitable for various language learning activities. We will explore advanced methods for web-scale crawling and semantic enrichment of the collected material as well as modern human-computer interaction technologies engaging users in the process of acquisition of languages in the form of a game.
KeywordsGamifikace; Učení jazyků; Extrakce informací; Crowdsourcing
Key words in EnglishGamification; Language learning; Extraction of information; Crowdsourcing
Mark
LTC18006
Default language
Czech
People responsible
Najman Pavel, Ing. - fellow researcherSmrž Pavel, doc. RNDr., Ph.D. - principal person responsible
Units
Department of Computer Graphics and Multimedia - beneficiary (2017-12-06 - 2021-02-28)
Results
FAJČÍK, M.; DOČEKAL, M.; JON, J.; SMRŽ, P. BUT-FIT at SemEval-2020 Task 5: Automatic detection of counterfactual statements with deep pre-trained language representation models. In Proceedings of the Fourteenth Workshop on Semantic Evaluation. Barcelona (online): Association for Computational Linguistics, 2020. p. 437-444. ISBN: 978-1-952148-31-6.Detail