Detail projektu

Augmented Multi-party Interaction

Období řešení: 1.1.2004 — 31.12.2006

Zdroje financování

Evropská unie - Sixth Framework programme

O projektu

Jointly managed by Prof. Herve Bourlard (IDIAP, http://www.idiap.ch) and Prof. Steve Renals (University of Edinburgh, http://www.iccs.informatics.ed.ac.uk), AMI targets computer enhanced multi-modal interaction in the context of meetings. The project aims at substantially advancing the state-of-the-art, within important underpinning technologies (such as human-human communication modeling, speech recognition, computer vision, multimedia indexing and retrieval). It will also produce tools for off-line and on-line browsing of multi-modal meeting data, including meeting structure analysis and summarizing functions. The project also makes recorded and annotated multimodal meeting data widely available for the European research community, thereby contributing to the research infrastructure in the field.

Popis česky
Evropský projekt AMI je společně řízen Prof. Herve Bourlardem (IDIAP, http://www.idiap.ch) a Prof. Stevem Renalsem (University of Edinburgh, http://www.iccs.informatics.ed.ac.uk). Je zaměřen na multimodální interakci během živých jednání (meetingů) s počítačovou podporou. Projekt si klade za cíl podstatný posun state-of-the-art tohoto oboru a jeho technologií (modelování komunikace člověka s člověkem, rozpoznávání řeči, počítačové vidění, multimediální indexace a vyhledávání). Jeho výstupem  bude mj. off-line a on-line software pro prohlížení (browsing)  multimodálních dat, včetně analýzy struktury jednání a jeho sumarizace. V rámci projektu jsou také pořizována a distribuována nahraná a anotovaná multimodální data z jednání. Projekt tímto přispívá výzkumné infrastruktuře v tomto oboru a evropské výzkumné komunitě.

Klíčová slova
multi-modal interaction, speech recognition, video processing, multi-modal recognition, meeting data collection, meeting data annotation

Klíčová slova česky
multimodální interakce, rozpoznávání řeči, zpracování videa, multimodální rozpoznávání, sběr dat z jednání, anotace dat z jednání

Označení

506811-AMI

Originální jazyk

angličtina

Řešitelé

Útvary

Ústav počítačové grafiky a multimédií
- odpovědné pracoviště (1.1.1989 - nezadáno)
Výzkumná skupina dolování dat z řeči BUT Speech@FIT
- interní (19.1.2004 - 31.12.2006)
Výzkumná skupina počítačové grafiky
- interní (19.1.2004 - 31.12.2006)
Ústav počítačové grafiky a multimédií
- příjemce (19.1.2004 - 31.12.2006)

Výsledky

KARAFIÁT, M. Study of linear transformations applied to training of cross-domain adapted large vocabulary continuous speech recognition systems. Brno: 2009. p. 0-0.
Detail

ZEMČÍK, P.; HEROUT, A.; BERAN, V.; SUMEC, S.; POTÚČEK, I. Real-Time Visual Processing Using "Views". Poster, MLMI Conference. Washington, DC: 2006. p. 1 (1 s.).
Detail

MATĚJKA, P.; BURGET, L.; SCHWARZ, P.; ČERNOCKÝ, J.: System for automatic language identification (LID). https://www.fit.vut.cz/research/product/23/. URL: https://www.fit.vut.cz/research/product/23/. (zavedená výroba)
Detail

SCHWARZ, P.; MATĚJKA, P.; BURGET, L.; GLEMBEK, O.: VUT-SW-Search; Phoneme recognizer based on long temporal context. http://speech.fit.vutbr.cz/en/software/phoneme-recognizer-based-long-temporal-context. URL: http://speech.fit.vutbr.cz/en/software/phoneme-recognizer-based-long-temporal-context. (software)
Detail

SZŐKE, I.; FAPŠO, M.: VUT-SW-Search; Lattice Spoken Term Detection toolkit (LatticeSTD). http://speech.fit.vutbr.cz/en/software/lattice-spoken-term-detection-toolkit-latticestd. URL: http://speech.fit.vutbr.cz/en/software/lattice-spoken-term-detection-toolkit-latticestd. (software)
Detail

BERAN, V.; POTÚČEK, I.; SUMEC, S.: TETA; TETA: Tracking Evaluation Tool. Produkt je umístěn ve webovém systému VUT FIT (http://www.fit.vutbr.cz/research/prod).. URL: https://www.fit.vut.cz/research/product/39/. (software)
Detail

POTÚČEK, I.; SUMEC, S.; CHALUPNÍČEK, K.; KADLEC, J.; ČERNOCKÝ, J.; ZEMČÍK, P.: Mobile meeting room. https://www.fit.vut.cz/research/product/28/. URL: https://www.fit.vut.cz/research/product/28/. (prototyp)
Detail

CHALUPNÍČEK, K.; ČERNOCKÝ, J.; KAŠPÁREK, T.: Web-based system for semi-automatic checks of speech annotations. https://www.fit.vut.cz/research/product/27/. URL: https://www.fit.vut.cz/research/product/27/. (software)
Detail

BURGET, L.; GLEMBEK, O.; KARAFIÁT, M.; KONTÁR, S.; SCHWARZ, P.; ČERNOCKÝ, J.: STK Toolkit. https://www.fit.vut.cz/research/product/26/. URL: https://www.fit.vut.cz/research/product/26/. (software)
Detail

HAIN, T.; BURGET, L.; KARAFIÁT, M.: AMI Large vocabulary continuous speech recognizer. https://www.fit.vut.cz/research/product/25/. URL: https://www.fit.vut.cz/research/product/25/. (software)
Detail

FAPŠO, M.; SZŐKE, I.; SCHWARZ, P.; ČERNOCKÝ, J.: Indexation and search engine for multimodal data. https://www.fit.vut.cz/research/product/24/. URL: https://www.fit.vut.cz/research/product/24/. (software)
Detail

ČERNOCKÝ, J.; POTÚČEK, I.; SUMEC, S.; ZEMČÍK, P. AMI Mobile Meeting Capture and Analysis System. Washington: 2006. p. 0-0.
Detail

BURGET, L. Complementarity of Speech Recognition Systems and System Combination. Brno: Faculty of Information Technology BUT, 2004. p. 0-0.
Detail

SCHWARZ, P., MATĚJKA, P., ČERNOCKÝ, J. Phoneme Recognition. AMI Workshop. 2004. p. 1 ( p.)
Detail

FAPŠO, M.; SCHWARZ, P.; SZŐKE, I.; ČERNOCKÝ, J.; SMRŽ, P.; BURGET, L.; KARAFIÁT, M. Search Engine for Information Retrieval from Multi-modal Records. Edinburgh: 2005. p. 0-0.
Detail

GRÉZL, F. Spectral plane investigation for probabilistic features for ASR. Edinburgh: 2005. p. 82-86.
Detail

KARAFIÁT, M.; GRÉZL, F.; BURGET, L. Combination of MFCC and TRAP features for LVCSR of meeting data. Martigny: 2004. p. 0-0.
Detail

MOTLÍČEK, P.; BURGET, L.; ČERNOCKÝ, J. Phoneme Recognition of Meetings using Audio-Visual Data. AMI Workshop. Martigny: 2004. p. 0-0.
Detail

MOTLÍČEK, P. Visual Feature Extreaction for Phoneme Recognition of Meetings. Brno: Department of Computer Graphics and Multimedia FIT BUT, 2004. p. 0-0.
Detail

MOTLÍČEK, P.; ČERNOCKÝ, J. Multimodal Phoneme Recognition of Meeting Data. Lecture Notes in Computer Science, 2004, vol. 2004, no. 3206, p. 379-384. ISSN: 0302-9743.
Detail

Odkaz