Menü

ITG Workshop Sprachassistenten

Anwendungen, Implikationen, Entwicklungen
Kostenfreier Workshop -- Anmeldung erbeten

Der Workshop

Am 3. März 2020 findet in Magdeburg ein ITG-Workshop zum Thema Sprachassistenten statt.
Dieser Termin ist am Vortag der Konferenz
Elektronische Sprachsignalverarbeitung (ESSV)

Die Verbreitung und Funktionalität digitaler Sprachassistenzsysteme, wie Apple's Siri, Amazon's Alexa oder der Google Assistant, nimmt immer weiter zu. Die Attraktivität dieser Geräte ist in ihrer einfachen Bedienung begründet, sie gestatten es uns Internetrecherchen, Online-Bestellungen, Raumüberwachungen und andere Smart-Home-Dienste nur durch Zuruf durchzuführen.

Der Nutzerin oder dem Nutzer sind die Implikationen der sprachbasierten Interaktion jedoch noch nicht immer klar, insbesondere, da heutige Sprachassistenten teilweise nur bessere Fernbedienungen sind und das Gerät nur über einen Teil der Funktionen sprachliches Feedback gibt. Zukünftig sollen diese jedoch nicht nur einfache Befehle verarbeiten, sondern auch eine natürliche und reibungslose Interaktion ermöglichen. Hierzu ist neben technischen Verbesserungen der Spracherkennung auch eine verbesserten Sprachverständnis sowie intelligentere Dialogführung nötig. Weiterhin gehören neben neuen technischen Lösungen aber auch rechtliche Aspekte, die sich durch die Verbreitung von Sprachassistenten und der strengeren Datenschutzregelungen ergeben. Wann und was mitgehört wird ist häufig nicht ersichtlich und auch was mit den Sprachdaten geschieht weiß der Nutzer zumeist nicht. Dies kann zu Akzeptanzproblemen führen.

Im ITG-Workshop sollen einige dieser Problembereiche diskutiert und durch wissenschaftliche Ergebnisse angereichert werden.

Themen

Wie zuverlässig arbeiten moderne Sprachassistenten?

Welche Aspekte der wahrgenommenen Qualität und des Nutzererlebens werden adressiert?

Wie können Sprachassistenten anzeigen, wann Spracheingaben getätigt werden, und was davon erkannt wird?

Wie kann die Dialogkomplexität für Sprachassistenten weiter gesteigert werden?

Wie können Sprachassistenten ihre Funktionalitäten aufzeigen, inklusive möglicher Implikationen?

Wie können Spracheingaben unterschiedlicher Nutzerinnen getrennt analysiert werden?

Welche weiteren Informationen lassen sich aus diesen Sprachdaten über die Nutzerin bzw. den Nutzer gewinnen? Mit welcher Zuverlässigkeit?

Wo werden diese Informationen in welcher Form gespeichert? Für wen sind sie zugänglich?

Wie können Sprachinteraktionen gestaltet werden, um besser die Privatsphäre ihrer Nutzer zu respektieren?

Welche Implikationen ergeben sich für die Akzeptanz von Sprachassistenten?

Wichtige Daten

Beitragseinreichung
18. November 2019

Beitragsanmeldungen für den Workshop (Titel des Beitrages, Name und Anschrift des Verfassers mit einer Zusammenfassung von max. 300 Worten und einer kurzen Biografie) werden bis 18. November 2019 an die Organisatoren des Workshops erbeten.

Beitragsannahme
9. Dezember

Eine Fachjury wird über die Annahme der Beiträge einscheiden und benachrichtigt die Anmelder bis zum 9. Dezember über die Annahme des Beitrages.

Workshop Anmeldung
31. Januar 2020

Die kostenfreie Registrierung zum Workshop ist bis zum 31. Januar 2020 möglich. Auch ohne eigenen Beitrag ist eine Anmeldung möglich.

Workshop Datum
3. März 2020

Der Workshop findet am Nachmittag des 3. März 2020 an der Otto-von-Guericke Universität Magdeburg statt. Der genaue Veranstaltungsort wird mit dem Programm zusammen bekanntgegeben.

Bestätigte Sprecher

  • Timo Baumann Uni Hamburg

    Inkrementelle Verarbeitung als Hebel für responsive Dialogführung

    Menschen im Dialog verarbeiten Sprache schritthaltend „just-in-time“ wobei die notwendigen Verstehens-, Verarbeitungs-, und Generierungsprozesse nebenläufig ablaufen und dennoch flexibel miteinander interagieren. Im Unterschied dazu nutzen typische Dialogsysteme eine einfache Verarbeitungspipeline, die nur eine Ping-Pong-artige Interaktion ermöglicht: entweder zuhören oder sprechen -- und zwischendurch muss der Nutzer warten während die Maschine denkt. Der Vortrag präsentiert eine Architektur welche konversationalen Agenten eine flexiblere Interaktion ermöglicht, sowie diverse Anwendungsfälle in denen auf der Architektur basierende Systeme bereits deutliche Mehrwerte zeigen konnten.

  • Felix Burkhardt Audeering GmbH

    Dialogsysteme mit Gefühlen: Wie, Warum und Wohin?

    Erklärungsversuche für emotionales Verhalten sind so alt wie die Menschheit und auch der Zusammenhang mit intelligentem Verhalten wird seit längerem untersucht. Seit es Maschinen gibt wird auch hier der Umgang mit emotionalem Verhalten betrachtet, allerdings sind moderne Dialogsystem wie z.B. Alexa oder Siri eher selten dazu in der Lage, Ironie zu erkennen oder auf Ungeduld zu reagieren. Der Vortrag gibt eine Übersicht über psychologische Modelle, technische Umsetzung, Anwendungen und ethische Aspekte von emotionaler Verarbeitung in der Mensch-Maschine Interaktion.

  • Reinhold Häb-Umbach Universität Paderborn

    Siri und Alexa: Verstehen wir uns?

    Nach Jahrzehnten der Forschung ist die automatische Spracherkennung schließlich in Alltagsprodukten angekommen, und fast jeder von uns hat schon Erfahrungen mit Siri, Alexa oder anderen Sprachassistenten gesammelt. Warum hat das eigentlich so lange gedauert und warum war es so schwierig, dem Computer das Hören und Verstehen beizubringen? Der Vortrag gibt einen Überblick über die aktuelle Technologie digitaler Sprachassistenten und diskutiert auch zukünftige Chancen und Risiken der Sprachtechnologie.

  • Stefan Hillmann TU Berlin

    Usability von Sprachassistenten im Smart-Home Bereich

    Die Akzeptanz eines Sprachassistenten/Conversational Agent (CA) durch den Nutzer hängt wesentlich von der Usability des CA ab. Die drei häufigsten Szenarien zur Nutzung von CA sind die Interaktionen mit einem Smart Phone/Tablet, einem Smart-Home und mit dem Auto. Der Vortrag gibt anhand des Smart-Home Szenarios eine Einführung in Faktoren welche die Usability von CA beeinflußen, als auch Methoden zur Usability-Evaluation von Sprachassistenten. Es werden die für eine Usability-Evaluation wesentlichen Interaktionsparameter erläutert, sowie passende Fragebögen und deren Einsatz in empirischen Untersuchungen vorgestellt. Da die Interaktion mit CAs heutzutage selten rein sprachbasiert ist, sondern gewöhnlich weitere Modalitäten unterstützend verwendet werden, wird auch auf multimodale Interaktionen eingegangen.

  • Jan Nehring DFKI Berlin

    Chatbots mit Persönlichkeit

    User Experience wird nicht allein von Effizienz bestimmt. Freude und Faszination sind ebenfalls wichtige Faktoren. Chatbots sollen darum mehr sein als nur nützliche Helfer. Präsentiert werden Erfahrungen aus der technischen Implementierung von Chatbots kombiniert mit Erfahrungen aus dem Seminar meta:dating an der Universität der Künste in Berlin. In diesem Seminar entwickeln Studierende der Gesellschaft- und Medienkommunikation Chatbots. Vorgestellt werden Methoden, um Chatbots mit Persönlichkeit zu entwickeln. Der Vortragende Jan Nehring arbeitet als wissenschaftlicher Mitarbeiter am Deutschen Forschungszentrum für künstliche Intelligenz und hat einen Lehrauftrag an der Universität der Künste.

  • Delphine Reinhardt Universität Göttingen

    Sprachassistenten: Unsichtbare und unerwartete Gäste am Tisch?

    Sprachassistenten haben unsere Welt bereits erobert. Alexa ist schon bei manchen eingezogen. Fast jedes Handy ist mit Siri oder dem Google Assistent ausgestattet. Durch ihre Sprachsteuerung bieten diese neuartigen Assistenten neue Möglichkeiten, um Informationen online zu finden oder Aufgaben zu erfüllen. Besonders für Personen, die eine Tastatur nicht benutzen können, bieten sie eine interessante Schnittschnelle, um mit der digitalen Welt zu interagieren. In unserer Tasche, an unserer Seite auf dem Tisch oder im Wohnzimmer begleiten sie uns in unserem Alltag. Sie bleiben meist unsichtbar, außer wenn sie sich unerwartet und ungefragt in einem Gespräch zu Wort melden. Nach dem ersten Überraschungsmoment können sich die Teilnehmer des Gesprächs ausgespäht fühlen. In meinem Vortrag werde ich deswegen mögliche Risiken für die Privatsphäre der Besitzer von Sprachassistenten sowie Dritten erläutern. Diese Analysis wird sich nicht nur auf der technischen Ebene bewegen sondern wird auch die Sicht der Nutzer widerspiegeln. Darüber hinaus werde ich mögliche Ansätze, um den Schutz der Privatsphäre dieser Personen zu gewährleisten, betrachten und Förderungen für die Zukunft vorstellen.

  • Benjamin Weiss Carmeq GmbH

    Unterwegs mit digitalen Sprachassistenzsystemen – ein Vergleich verschiedener Konzepte zur Mobilität

    Mit dem aktuellen wirtschaftlichen Erfolg digitaler Sprachassistenzsysteme haben sich bereits zwei unterschiedliche Ansätze etabliert, die sich insbesondere über ihre Produkttyp der Hardware differenzieren lassen: Stationäre SmartHome-Systeme („intelligente Lautsprecher“) stehen Smartphones („persönliche Assistenten“ gegenüber. Dabei können einzelne Smart Speakers keine mobilen Nutzer assistieren, sondern nur als Verbund versuchen, eine reibungslose User Experience zu ermöglichen. Für mobile Szenarien ergeben sich je nach Ansatz unterschiedliche Anforderungen und Potentiale, die ich für die Aspekte der Sprachinteraktion, Kommunikationstechnik und User Experience systematisiere.

  • Steffen Werner Daimler AG

    „Hey Mercedes!“ – Ein Einblick in die Entwicklung des MBUX Voice Assistenten.

    Mercedes-Benz ist bekannt als Erfinder des Automobils. Aber auch im Bereich der fahrzeugbasierten Sprachdialogsysteme wurde Pionierarbeit geleistet. Was vor 50 Jahren in der Forschung begann und 1996 das erste Mal in einem Serienfahrzeug verbaut wurde, mündete im MBUX Voice Assistenten, der 2018 das erste Mal dem Kunden zur Verfügung gestellt wurde. Der Vortrag gibt einen Einblick in die Entwicklung des MBUX Sprachassistenten, stellt die größten Herausforderungen und deren Lösungen vor und zeigt, wie die Kundenakzeptanz – als das wichtigste Gütemaß von Sprachassistenten – bereits im Entwicklungsprozess adressiert werden kann.

Programm

Das finale Programm wird Anfang 2020 bekannt gegeben.

Er ist als Halbtags-Workshop von ca. 12:00 Uhr bis 18:00 Uhr geplant.

Organisatoren

Sebastian Möller

Quality and Usability Lab
Institut für Softwaretechnik und Theoretische Informatik
TU Berlin und DFKI Berlin
zur Webseite




Ingo Siegert

Fachbereich Mobile Dialogsysteme
Institut für Informations- und Kommunikationstechnik
Otto-von-Guericke-Universität Magdeburg
zur Webseite




Kontakt

Bei Fragen und zur Anmeldungen wenden Sie sich an die Organisatoren

Wo findet der Workshop statt?

Otto-von-Guericke Universität Magdeburg
Universitätsplatz 2
39114 Magdeburg

Anmeldung und Fragen an:

ITG-Sprachassistenz-MD-2020@ovgu.de
Tel: 0391 / 67 50060