{"title":"Sprachassistenten - Auf dem Weg zum neuen Standard f\u00fcr User Interfaces!","date":{"date":"2017-08-28 09:59:00.000000","timezone_type":1,"timezone":"+02:00"},"content":"

Die rasante Entwicklung der Voice-First-Devices (Devices die durch Sprache gesteuert werden) lockt immer weitere Wettbewerber in den Markt der smarte Sprachassistenten und gewinnt durch die Verbesserung der Nutzerfreundlichkeit zunehmend an Attraktivit\u00e4t f\u00fcr die Verbraucher.

Neben den in Deutschland bereits seit einigen Jahren etablierten und bekannten Sprachassistenten Siri (Apple) oder der Google Assistant, hat sich nun auch Amazon zu Beginn des Jahres in die deutschen Regale gewagt. In den USA konnte Amazon mit seinem smarten Lautsprecher Amazon Echo und dem darin verwendeten Sprachassistenten Alexa mit \u00fcber 8 Millionen verkauften Devices bereits gro\u00dfe Erfolge erzielen. Doch die Konkurrenz in diesem Gesch\u00e4ftsfeld schl\u00e4ft nicht und so wird Google mit seinem intelligenten Lautsprecher Google Home im August 2017 ebenfalls in Deutschland erh\u00e4ltlich sein. Auch Apple hat bereits einen ersten sprachgesteuerten Lautsprecher, den HomePod angek\u00fcndigt und Cortana (Microsoft) wird im Herbst 2017 in den Lautsprecher Invoke von Harman Kardon integriert.

Der zunehmende Wettbewerb im Markt der Sprachassistenten f\u00fchrt dazu, dass das Spektrum an Einsatzm\u00f6glichkeiten immer weiter ausgebaut wird und im Alltag von Verbrauchern immer h\u00e4ufiger Verwendung findet. Bereits heute werden sie neben der Wetterauskunft, einfachen Suchanfragen oder dem Bedienen von Smart Home Devices (z.B. zur Steuerung smarter Beleuchtung), auch im e-Commerce Bereich eingesetzt. Alexa beispielsweise bietet ihren Kunden an, Bestellungen \u00fcber Amazon per Spracheingabe auszuf\u00fchren. Aber auch in der Versicherungsbranche werden erste Anwendungen f\u00fcr deren Kunden angeboten. So hat die Deutsche Familienversicherung AG einen Skill* f\u00fcr Alexa entwickelt, wor\u00fcber Kunden sich per Sprachsteuerung \u00fcber unterschiedliche Tarife entsprechend der individuellen Anforderungen (Alter des Versicherungsnehmers, Kosten, Umfang der Versicherung, etc.) erkundigen und sich direkt die Vertragsunterlagen zuschicken lassen k\u00f6nnen.

Doch wie funktioniert die Technik hinter dem smarten Sprachassistenten? Zum besseren Verst\u00e4ndnis wird ein einfach dargestellter Einblick in die Verarbeitung von Sprachbefehlen gegeben:<\/p>

  1. Im ersten Schritt wird durch ein Mikrofon im Device (z.B. Amazon Echo oder iPhone) der Sprachbefehl als Audio erfasst.<\/li>
  2. Diese Audio Datei wird an das Conversational-User-Interface (CUI) Frontend weitergeleitet, indem sie mithilfe einer Natural-Language-Processing (NLP) Plattform in eine Text Datei umgewandelt und anschlie\u00dfend anhand definierter Keywords und Parametern analysiert und ausgewertet wird.<\/li>
  3. Durch einen im CUI Backend hinterlegten Skill, werden die Daten aufbereitet und in Textform an eine NLP Plattform zur\u00fcckgesendet.<\/li>
  4. Durch NLP wird der Text wieder in eine Audio Datei umgewandelt und schlie\u00dflich \u00fcber den Sprachassistenten an den Nutzer ausgegeben.<\/li><\/ol>

    Doch das Potential dieser Technologie ist noch lange nicht ausgesch\u00f6pft. Eine der gr\u00f6\u00dften H\u00fcrden hin zu einem neuen Standard f\u00fcr die Bedienung von technischen Devices ist die Verbesserung der Benutzerfreundlichkeit und der User Experience. Angefangen bei der Erweiterung der Sprachen, Dialekte und Akzente zum besseren Verst\u00e4ndnis der Nutzer, \u00fcber die Verbesserung von Funktionalit\u00e4ten f\u00fcr komplexe Suchanfragen, bis hin zum Erkennen von Stimmfarben und Betonungen, welche auf Ironie oder auf das Ausdr\u00fccken von Gef\u00fchlen schlie\u00dfen lassen und zur Identifikation des Sprechers dienen, gibt es noch enorme Potentiale. Dabei spielt auch die Entwicklung der k\u00fcnstlichen Intelligenz (kI) eine entscheidende Rolle. Denn erst sie erm\u00f6glicht es, dass sich Sprachassistenten schnell weiterentwickeln und sich auf die individuellen Bed\u00fcrfnisse des Nutzers anpassen. Wie kI im Detail aussehen kann wird im Blog Beitrag "Neural Networks" n\u00e4her beschrieben.

    Neben den technischen Herausforderungen gibt es aber auch rechtliche Fragen rund um das Thema Datenschutz zu kl\u00e4ren. Hier steht vor allem das kontinuierliche \u201emith\u00f6ren\u201c der Sprachassistenten im Vordergrund. Alexa beispielsweise zeichnet kontinuierlich Gespr\u00e4che \u00fcber einen Zeitraum von 60 sec auf, damit der Sprachassistent erkennen kann, wann der Nutzer das Schl\u00fcsselwort zum Aktivieren ausspricht. Aber auch die Bedienung mithilfe der Sprache wirft neue datenschutzrechtliche Aspekte auf, da die Nutzer hier ein biometrisches Merkmal von sich preisgeben. Wie damit in Zukunft umgegangen werden soll gilt es durch den Gesetzgeber noch zu kl\u00e4ren.

    Mit zunehmenden Wettbewerb im Markt der Sprachassistenten steigt die Wahrscheinlichkeit, dass sowohl die technologischen, als auch die datenschutzrechtlichen H\u00fcrden bereits in naher Zukunft gemeistert werden und dadurch der Weg zu einem neuen Standard f\u00fcr User Interfaces geebnet wird. Damit unsere Kunden sich bereits heute mit dem Thema auseinandersetzen, den Anschluss an den Wettbewerb nicht verlieren und ihre Handlungsm\u00f6glichkeiten im Bereich der Sprachassistenten im Blick haben, erarbeiten wir bei Project Partners bereits heute Use Cases f\u00fcr den Bedarf unserer Kunden, um die Technologie erfolgreich einsetzen zu k\u00f6nnen.

    *Skill = erweiterte Funktionen f\u00fcr die Software, die die Interaktion mit dem Nutzer zu definierten Themen erm\u00f6glicht, z.B. Verarbeiten von Fragen zum Wetter\r<\/p>\n

     <\/p>\n

     <\/p>\r\n","uid":70}