Project detail

Augmented Multi-party Interaction

Duration: 1.1.2004 — 31.12.2006

Funding resources

Evropská unie - Sixth Framework programme

On the project

Jointly managed by Prof. Herve Bourlard (IDIAP, http://www.idiap.ch) and Prof. Steve Renals (University of Edinburgh, http://www.iccs.informatics.ed.ac.uk), AMI targets computer enhanced multi-modal interaction in the context of meetings. The project aims at substantially advancing the state-of-the-art, within important underpinning technologies (such as human-human communication modeling, speech recognition, computer vision, multimedia indexing and retrieval). It will also produce tools for off-line and on-line browsing of multi-modal meeting data, including meeting structure analysis and summarizing functions. The project also makes recorded and annotated multimodal meeting data widely available for the European research community, thereby contributing to the research infrastructure in the field.

Description in Czech
Evropský projekt AMI je společně řízen Prof. Herve Bourlardem (IDIAP, http://www.idiap.ch) a Prof. Stevem Renalsem (University of Edinburgh, http://www.iccs.informatics.ed.ac.uk). Je zaměřen na multimodální interakci během živých jednání (meetingů) s počítačovou podporou. Projekt si klade za cíl podstatný posun state-of-the-art tohoto oboru a jeho technologií (modelování komunikace člověka s člověkem, rozpoznávání řeči, počítačové vidění, multimediální indexace a vyhledávání). Jeho výstupem  bude mj. off-line a on-line software pro prohlížení (browsing)  multimodálních dat, včetně analýzy struktury jednání a jeho sumarizace. V rámci projektu jsou také pořizována a distribuována nahraná a anotovaná multimodální data z jednání. Projekt tímto přispívá výzkumné infrastruktuře v tomto oboru a evropské výzkumné komunitě.

Keywords
multi-modal interaction, speech recognition, video processing, multi-modal recognition, meeting data collection, meeting data annotation

Key words in Czech
multimodální interakce, rozpoznávání řeči, zpracování videa, multimodální rozpoznávání, sběr dat z jednání, anotace dat z jednání

Mark

506811-AMI

Default language

English

People responsible

Heřmanský Hynek, prof. Ing., Dr. Eng. - principal person responsible

Units

Department of Computer Graphics and Multimedia
- responsible department (1.1.1989 - not assigned)
Computer Graphics Research Group
- internal (19.1.2004 - 31.12.2006)
Speech Data Mining Research Group BUT Speech@FIT
- internal (19.1.2004 - 31.12.2006)
Department of Computer Graphics and Multimedia
- beneficiary (19.1.2004 - 31.12.2006)

Results

KARAFIÁT, M. Study of linear transformations applied to training of cross-domain adapted large vocabulary continuous speech recognition systems. Brno: 2009. p. 0-0.
Detail

ZEMČÍK, P.; HEROUT, A.; BERAN, V.; SUMEC, S.; POTÚČEK, I. Real-Time Visual Processing Using "Views". Poster, MLMI Conference. Washington, DC: 2006. p. 1 (1 s.).
Detail

MATĚJKA, P.; BURGET, L.; SCHWARZ, P.; ČERNOCKÝ, J.: System for automatic language identification (LID). https://www.fit.vut.cz/research/product/23/. URL: https://www.fit.vut.cz/research/product/23/. (zavedená výroba)
Detail

SCHWARZ, P.; MATĚJKA, P.; BURGET, L.; GLEMBEK, O.: VUT-SW-Search; Phoneme recognizer based on long temporal context. http://speech.fit.vutbr.cz/en/software/phoneme-recognizer-based-long-temporal-context. URL: http://speech.fit.vutbr.cz/en/software/phoneme-recognizer-based-long-temporal-context. (software)
Detail

SZŐKE, I.; FAPŠO, M.: VUT-SW-Search; Lattice Spoken Term Detection toolkit (LatticeSTD). http://speech.fit.vutbr.cz/en/software/lattice-spoken-term-detection-toolkit-latticestd. URL: http://speech.fit.vutbr.cz/en/software/lattice-spoken-term-detection-toolkit-latticestd. (software)
Detail

BERAN, V.; POTÚČEK, I.; SUMEC, S.: TETA; TETA: Tracking Evaluation Tool. Produkt je umístěn ve webovém systému VUT FIT (http://www.fit.vutbr.cz/research/prod).. URL: https://www.fit.vut.cz/research/product/39/. (software)
Detail

POTÚČEK, I.; SUMEC, S.; CHALUPNÍČEK, K.; KADLEC, J.; ČERNOCKÝ, J.; ZEMČÍK, P.: Mobile meeting room. https://www.fit.vut.cz/research/product/28/. URL: https://www.fit.vut.cz/research/product/28/. (prototyp)
Detail

CHALUPNÍČEK, K.; ČERNOCKÝ, J.; KAŠPÁREK, T.: Web-based system for semi-automatic checks of speech annotations. https://www.fit.vut.cz/research/product/27/. URL: https://www.fit.vut.cz/research/product/27/. (software)
Detail

BURGET, L.; GLEMBEK, O.; KARAFIÁT, M.; KONTÁR, S.; SCHWARZ, P.; ČERNOCKÝ, J.: STK Toolkit. https://www.fit.vut.cz/research/product/26/. URL: https://www.fit.vut.cz/research/product/26/. (software)
Detail

HAIN, T.; BURGET, L.; KARAFIÁT, M.: AMI Large vocabulary continuous speech recognizer. https://www.fit.vut.cz/research/product/25/. URL: https://www.fit.vut.cz/research/product/25/. (software)
Detail

FAPŠO, M.; SZŐKE, I.; SCHWARZ, P.; ČERNOCKÝ, J.: Indexation and search engine for multimodal data. https://www.fit.vut.cz/research/product/24/. URL: https://www.fit.vut.cz/research/product/24/. (software)
Detail

ČERNOCKÝ, J.; POTÚČEK, I.; SUMEC, S.; ZEMČÍK, P. AMI Mobile Meeting Capture and Analysis System. Washington: 2006. p. 0-0.
Detail

BURGET, L. Complementarity of Speech Recognition Systems and System Combination. Brno: Faculty of Information Technology BUT, 2004. p. 0-0.
Detail

SCHWARZ, P., MATĚJKA, P., ČERNOCKÝ, J. Phoneme Recognition. AMI Workshop. 2004. p. 1 ( p.)
Detail

FAPŠO, M.; SCHWARZ, P.; SZŐKE, I.; ČERNOCKÝ, J.; SMRŽ, P.; BURGET, L.; KARAFIÁT, M. Search Engine for Information Retrieval from Multi-modal Records. Edinburgh: 2005. p. 0-0.
Detail

GRÉZL, F. Spectral plane investigation for probabilistic features for ASR. Edinburgh: 2005. p. 82-86.
Detail

KARAFIÁT, M.; GRÉZL, F.; BURGET, L. Combination of MFCC and TRAP features for LVCSR of meeting data. Martigny: 2004. p. 0-0.
Detail

MOTLÍČEK, P.; BURGET, L.; ČERNOCKÝ, J. Phoneme Recognition of Meetings using Audio-Visual Data. AMI Workshop. Martigny: 2004. p. 0-0.
Detail

MOTLÍČEK, P. Visual Feature Extreaction for Phoneme Recognition of Meetings. Brno: Department of Computer Graphics and Multimedia FIT BUT, 2004. p. 0-0.
Detail

MOTLÍČEK, P.; ČERNOCKÝ, J. Multimodal Phoneme Recognition of Meeting Data. Lecture Notes in Computer Science, 2004, vol. 2004, no. 3206, p. 379-384. ISSN: 0302-9743.
Detail

Link