Project detail

Large-Scale Information Extraction and Gamification for Crowdsourced Language Learning

Duration: 01.06.2018 — 28.02.2021

Funding resources

Ministerstvo školství, mládeže a tělovýchovy ČR - INTER-EXCELLENCE - Podprogram INTER-COST

- part funder (2018-06-01 - 2021-02-28)

On the project

Cílem projektu je přispět k aktivitám COST Akce CA 16105 - enetCollect - v oblastech souvisejících s rozsáhlou extrakcí informací z webových zdrojů a gamifikací přípravy a anotování multimediálního obsahu, vhodného pro učení jazyků. Budeme se zabývat pokročilými metodami efektivního stahování webových zdrojů a sémantického obohacování shromážděného materiálu, stejně jako moderními technologiemi interakce člověka s počítačem, vtahujícími uživatele do procesu osvojování jazyků formou hry.

Description in English
The project aims at contributing to the activities of COST Action CA 16105 - enetCollect - in the areas related to large-scale information extraction from the web and gamification of the preparation and the annotation of multimedia content suitable for various language learning activities. We will explore advanced methods for web-scale crawling and semantic enrichment of the collected material as well as modern human-computer interaction technologies engaging users in the process of acquisition of languages in the form of a game.

Keywords
Gamifikace; Učení jazyků; Extrakce informací; Crowdsourcing

Key words in English
Gamification; Language learning; Extraction of information; Crowdsourcing

Mark

LTC18006

Default language

Czech

People responsible

Najman Pavel, Ing. - fellow researcher
Smrž Pavel, doc. RNDr., Ph.D. - principal person responsible

Units

Department of Computer Graphics and Multimedia
- beneficiary (2017-12-06 - 2021-02-28)

Results

FAJČÍK, M.; DOČEKAL, M.; JON, J.; SMRŽ, P. BUT-FIT at SemEval-2020 Task 5: Automatic detection of counterfactual statements with deep pre-trained language representation models. In Proceedings of the Fourteenth Workshop on Semantic Evaluation. Barcelona (online): Association for Computational Linguistics, 2020. p. 437-444. ISBN: 978-1-952148-31-6.
Detail