W3C

W3C Multimodaler Standard bringt Web zu mehr Menschen, auf mehr Wegen

EMMA erleichtert Interaktion mittels Tastatur, Maus, Stimme, Sprache, Berührung, Gestik

Kontakt Amerika, Australien --
Ian Jacobs, <ij@w3.org>, +1.718.260.9447
Kontakt Europa, Afrika und Mittlerer Osten --
Marie-Claire Forgue, <mcf@w3.org>, +33.492.38.75.94
Kontakt Asien --
Kanako Iwasa, <keio-contact@w3.org>, +81.466.49.1170

(Auch verfügbar in Englisch, Französisch und Japanisch. Schauen Sie auch nach Übersetzungen in andere Sprachen)



http://www.w3.org/ -- 10. Februar 2009 -- Als Teil der Sicherstellung, daß das Web für alle Menschen auf allen Geräten verfügbar ist, hat W3C heute einen neuen Standard zur Ermöglichung von Interaktionen über die üblichen Eingabemöglichkeiten - Tastatur und Maus - hinaus veröffentlicht. EMMA, die Extensible MultiModal Annotation (Erweiterbare MultiModale Erläuterung)-Spezifikation, fördert die Entwicklung reichhaltiger Webanwendungen, die auf mehrere Eingabe- (wie beispielsweise Handschrift, natürliche Sprache und Gestik) und Ausgabemöglichkeiten (wie beispielsweise künstlich erzeugte Sprache) kostengünstig angepaßt werden kann.

Augen-aktiv, freihändig, und mehr

Da immer mehr Menschen anfangen, das Web in immer mehr Situationen zu nutzen, haben sich die Gelegenheiten für multimodale Interaktionen vervielfacht. Frühe Organizer-Geräte erlaubten die Eingabe über Griffel oder Sprache. Touchscreens und Geräte, die Bewegung und Ausrichtung erfassen, werden in bestimmten Märkten immer verbreiteter. EMMA erlaubt es Entwicklern, innerhalb einer Anwendung die "logische" Schicht von der "interaktiven" Schicht zu trennen und damit die Anpassung der Anwendung an neue Szenarien zu erleichtern.

Da einige Eingabemöglichkeiten für das "Rauschen" anfälliger sind als andere (zum Beispiel bedingt durch Variationen in der gesprochenen Sprache oder in der Handschrift, oder einfach durch Hintergrundgeräusche), hilft EMMA Entwicklern zusätzlich bei der Handhabung der verschiedenen Grade des Vertrauens, die ein Anwender in die Eingabe-Information haben kann. EMMA erlaubt es Entwicklern, der Mehrdeutigkeit von Benutzereingaben Rechnung zu tragen, so dass es in späteren Phasen der Verarbeitung möglich ist, aus konkurrierenden Hypothesen auszuwählen und Fehler zu beseitigen. EMMA stellt zudem Entwicklern ergänzende Informationen über Interaktionen (wie Interaktionsdatum) zur Verfügung.

Multimodal kommt mobilem Zugang und Barrierefreiheit zu Gute

Der EMMA-Standard wird insbesondere in der Mobilfunk-Industrie wichtig werden. Durch Beachtung des EMMA-Standards und multimodalen Designs werden Anwendungen anpassbarer an den mobilen Kontext. So sind beispielsweise die meisten Mobiltelefone geeignet, um sowohl Stimm- als auch Texteingabe zu empfangen. Mit EMMA wird es einfacher, Anwendungen zu erstellen, die die Vorteile von Text, Stimme oder beidem nutzen.

Multimodal ausgerichtete Anwendungen werden wahrscheinlich auch Menschen mit Behinderungen zu Gute kommen. Multimodale Eingabesysteme bieten alternative Methoden für Webinteraktionen und Zugang für Menschen mit Seh-, Hör-, physischer, kognitiver und neurologischer Behinderung. Jene, die keine Tastatur bedienen können, können sich auf die Spracherkennung verlassen; jene, die Berührungsbefehle ohne festen Druck benutzen, mögen sich auf die EMMA-Mechanismen zur Interpretation von Unsicherheit verlassen.

EMMA wurde durch die Multimodal Interaction Working Group (Multimodale Interaktions-Arbeitsgruppe) entwickelt, welche die folgenden W3C-Mitglieder einschließt: Aspect Communications, AT&T, Cisco Systems, Department of Information and Communication Technology - University of Trento, Deutsche Telekom AG, France Telecom, Genesys Telecommunications Laboratories, German Research Center for Artificial Intelligence (DFKI) Gmbh, Hewlett Packard Company, Institut National de Recherche en Informatique et en Automatique, International Webmasters Association / HTML Writers Guild (IWA-HWG), Korea Association of Information & Telecommunication, Korea Institute of Science & Technology (KIST), Kyoto Institute of Technology, Loquendo, S.p.A., Microsoft Corp., Nuance Communications, Inc., Openstream, Inc., Siemens AG, Universit√© catholique de Louvain, V-Enable, Inc., Voxeo, und Waterloo Maple.

Über das World Wide Web Konsortium (W3C)

Das World Wide Web Konsortium (W3C) ist ein internationales Konsortium, in dem  Mitgliederorganisationen, ein Vollzeit-Mitarbeiterstab und die Öffentlichkeit zusammenarbeiten, um Web-Standards und Richtlinien zu entwickeln, um das Langzeitwachstum des Webs sicherzustellen. Über 400 Organisationen sind Mitglieder des Konsortiums. W3C wird gemeinschaftlich vom MIT Computer Science and Artificial Intelligence Laboratory (MIT CSAIL) in den USA, dem Europäischen Forschungskonsortium für Informatik und Mathematik (ERCIM) mit Hauptsitz in Frankreich und der Keio Universität in Japan geführt und besitzt 17 zusätzliche Büros weltweit. Weitere Informationen finden Sie unter http://www.w3.org/.