Project detail
Augmented Multi-party Interaction
Duration: 1.1.2004 — 31.12.2006
Funding resources
Evropská unie - Sixth Framework programme
On the project
Jointly managed by Prof. Herve Bourlard (IDIAP, http://www.idiap.ch) and Prof. Steve Renals (University of Edinburgh, http://www.iccs.informatics.ed.ac.uk), AMI targets computer enhanced multi-modal interaction in the context of meetings. The project aims at substantially advancing the state-of-the-art, within important underpinning technologies (such as human-human communication modeling, speech recognition, computer vision, multimedia indexing and retrieval). It will also produce tools for off-line and on-line browsing of multi-modal meeting data, including meeting structure analysis and summarizing functions. The project also makes recorded and annotated multimodal meeting data widely available for the European research community, thereby contributing to the research infrastructure in the field.
Description in Czech
Evropský projekt AMI je společně řízen Prof. Herve Bourlardem (IDIAP,
http://www.idiap.ch) a Prof. Stevem Renalsem (University of Edinburgh,
http://www.iccs.informatics.ed.ac.uk). Je zaměřen na multimodální interakci během
živých jednání (meetingů) s počítačovou podporou. Projekt si klade za cíl
podstatný posun state-of-the-art tohoto oboru a jeho technologií (modelování
komunikace člověka s člověkem, rozpoznávání řeči, počítačové vidění,
multimediální indexace a vyhledávání). Jeho výstupem bude mj. off-line a on-line
software pro prohlížení (browsing) multimodálních dat, včetně analýzy struktury
jednání a jeho sumarizace. V rámci projektu jsou také pořizována a distribuována
nahraná a anotovaná multimodální data z jednání. Projekt tímto přispívá výzkumné
infrastruktuře v tomto oboru a evropské výzkumné komunitě.
Keywords
multi-modal interaction, speech recognition, video processing, multi-modal
recognition, meeting data collection, meeting data annotation
Key words in Czech
multimodální interakce, rozpoznávání řeči, zpracování videa, multimodální
rozpoznávání, sběr dat z jednání, anotace dat z jednání
Mark
506811-AMI
Default language
English
People responsible
Heřmanský Hynek, prof. Ing., Dr. Eng. - principal person responsible
Units
Department of Computer Graphics and Multimedia
- responsible department (1.1.1989 - not assigned)
Computer Graphics Research Group
- internal (19.1.2004 - 31.12.2006)
Speech Data Mining Research Group BUT Speech@FIT
- internal (19.1.2004 - 31.12.2006)
Department of Computer Graphics and Multimedia
- beneficiary (19.1.2004 - 31.12.2006)
Results
KARAFIÁT, M. Study of linear transformations applied to training of cross-domain adapted large vocabulary continuous speech recognition systems. Brno: 2009. p. 0-0.
Detail
ZEMČÍK, P.; HEROUT, A.; BERAN, V.; SUMEC, S.; POTÚČEK, I. Real-Time Visual Processing Using "Views". Poster, MLMI Conference. Washington, DC: 2006. p. 1 (1 s.).
Detail
MATĚJKA, P.; BURGET, L.; SCHWARZ, P.; ČERNOCKÝ, J.: System for automatic language identification (LID). https://www.fit.vut.cz/research/product/23/. URL: https://www.fit.vut.cz/research/product/23/. (zavedená výroba)
Detail
SCHWARZ, P.; MATĚJKA, P.; BURGET, L.; GLEMBEK, O.: VUT-SW-Search; Phoneme recognizer based on long temporal context. http://speech.fit.vutbr.cz/en/software/phoneme-recognizer-based-long-temporal-context. URL: http://speech.fit.vutbr.cz/en/software/phoneme-recognizer-based-long-temporal-context. (software)
Detail
SZŐKE, I.; FAPŠO, M.: VUT-SW-Search; Lattice Spoken Term Detection toolkit (LatticeSTD). http://speech.fit.vutbr.cz/en/software/lattice-spoken-term-detection-toolkit-latticestd. URL: http://speech.fit.vutbr.cz/en/software/lattice-spoken-term-detection-toolkit-latticestd. (software)
Detail
BERAN, V.; POTÚČEK, I.; SUMEC, S.: TETA; TETA: Tracking Evaluation Tool. Produkt je umístěn ve webovém systému VUT FIT (http://www.fit.vutbr.cz/research/prod).. URL: https://www.fit.vut.cz/research/product/39/. (software)
Detail
POTÚČEK, I.; SUMEC, S.; CHALUPNÍČEK, K.; KADLEC, J.; ČERNOCKÝ, J.; ZEMČÍK, P.: Mobile meeting room. https://www.fit.vut.cz/research/product/28/. URL: https://www.fit.vut.cz/research/product/28/. (prototyp)
Detail
CHALUPNÍČEK, K.; ČERNOCKÝ, J.; KAŠPÁREK, T.: Web-based system for semi-automatic checks of speech annotations. https://www.fit.vut.cz/research/product/27/. URL: https://www.fit.vut.cz/research/product/27/. (software)
Detail
BURGET, L.; GLEMBEK, O.; KARAFIÁT, M.; KONTÁR, S.; SCHWARZ, P.; ČERNOCKÝ, J.: STK Toolkit. https://www.fit.vut.cz/research/product/26/. URL: https://www.fit.vut.cz/research/product/26/. (software)
Detail
HAIN, T.; BURGET, L.; KARAFIÁT, M.: AMI Large vocabulary continuous speech recognizer. https://www.fit.vut.cz/research/product/25/. URL: https://www.fit.vut.cz/research/product/25/. (software)
Detail
FAPŠO, M.; SZŐKE, I.; SCHWARZ, P.; ČERNOCKÝ, J.: Indexation and search engine for multimodal data. https://www.fit.vut.cz/research/product/24/. URL: https://www.fit.vut.cz/research/product/24/. (software)
Detail
ČERNOCKÝ, J.; POTÚČEK, I.; SUMEC, S.; ZEMČÍK, P. AMI Mobile Meeting Capture and Analysis System. Washington: 2006. p. 0-0.
Detail
BURGET, L. Complementarity of Speech Recognition Systems and System Combination. Brno: Faculty of Information Technology BUT, 2004. p. 0-0.
Detail
SCHWARZ, P., MATĚJKA, P., ČERNOCKÝ, J. Phoneme Recognition. AMI Workshop. 2004. p. 1 ( p.)
Detail
FAPŠO, M.; SCHWARZ, P.; SZŐKE, I.; ČERNOCKÝ, J.; SMRŽ, P.; BURGET, L.; KARAFIÁT, M. Search Engine for Information Retrieval from Multi-modal Records. Edinburgh: 2005. p. 0-0.
Detail
GRÉZL, F. Spectral plane investigation for probabilistic features for ASR. Edinburgh: 2005. p. 82-86.
Detail
KARAFIÁT, M.; GRÉZL, F.; BURGET, L. Combination of MFCC and TRAP features for LVCSR of meeting data. Martigny: 2004. p. 0-0.
Detail
MOTLÍČEK, P.; BURGET, L.; ČERNOCKÝ, J. Phoneme Recognition of Meetings using Audio-Visual Data. AMI Workshop. Martigny: 2004. p. 0-0.
Detail
MOTLÍČEK, P. Visual Feature Extreaction for Phoneme Recognition of Meetings. Brno: Department of Computer Graphics and Multimedia FIT BUT, 2004. p. 0-0.
Detail
MOTLÍČEK, P.; ČERNOCKÝ, J. Multimodal Phoneme Recognition of Meeting Data. Lecture Notes in Computer Science, 2004, vol. 2004, no. 3206, p. 379-384. ISSN: 0302-9743.
Detail
Link
Responsibility: Heřmanský Hynek, prof. Ing., Dr. Eng.