Account/Login

Sensibler Sprachassistent

PC-Programm soll Menschen mit Sprachbehinderung helfen Emotionen auszudrücken

Ein Augsburger Forscher will einem Programm Gefühle antrainieren. Das soll Menschen mit Sprachbehinderung ermöglichen, ihre Gefühle auszudrücken.  

Wir benötigen Ihre Zustimmung um BotTalk anzuzeigen

Unter Umständen sammelt BotTalk personenbezogene Daten für eigene Zwecke und verarbeitet diese in einem Land mit nach EU-Standards nicht ausreichenden Datenschutzniveau.

Durch Klick auf "Akzeptieren" geben Sie Ihre Einwilligung für die Datenübermittlung, die Sie jederzeit über Cookie-Einstellungen widerrufen können.

Akzeptieren
Mehr Informationen
Emotionen nicht nur als Emoticons auf ...ll ein Augsburger Forscher nun ändern.  | Foto: dpa
Emotionen nicht nur als Emoticons auf dem Handy, sondern auch bei Sprachassistenten: Das will ein Augsburger Forscher nun ändern. Foto: dpa

Ob Todesnachricht oder Geburtstagswunsch – bisher klingen die Stimmen digitaler Sprachhilfen immer gleich. Ein Augsburger Forscher will das ändern und den Computerprogrammen Gefühle antrainieren.

Es ist schwierig, sich diesen Satz in traurigem Ton vorzustellen: "Wir haben keine Hausaufgaben auf." Und doch kann Jan-Oliver Wülfing die Aussage in dieser Emotion abspielen. Oder verärgert. Oder – passender – glücklich. Glücklich, traurig, verärgert: Diese Gemütszustände hat Wülfing seinem Rechner bereits beigebracht. "Aber es sollen natürlich noch mehr werden", sagt der 41-jährige Doktorand des Lehrstuhls für Multimodale Mensch-Technik-Interaktion der Universität Augsburg. Er entwickelt eine Kommunikationshilfe für Menschen mit Sprechbehinderung, die nicht nur Schrift verbalisieren, sondern auch Gefühle zeigen kann.

"Ein solches Gerät gibt es bislang noch nicht", sagt Wülfing. "Bisher klingen die synthetischen Computerstimmen digitaler Kommunikationshilfen immer gleich – egal, ob sie etwas Fröhliches, Fieses oder Frustriertes ausdrücken. Es war wohl einfach niemand bereit, Geld für entsprechende Projekte lockerzumachen." Wülfing kann sich seine Forschung nur deshalb erlauben, weil er vom Bundesarbeitsministerium im Rahmen des "Promi"-Programms gefördert wird – "Promovieren mit Behinderung". Wülfing sitzt wegen einer infantilen Zerebralparese im Rollstuhl. "Ich bin das, was man landläufig einen Spastiker nennt", erklärt er. "Ich habe bei der Geburt zu wenig Sauerstoff bekommen." Die Folgen: Sprechfähigkeit und Feinmotorik sind eingeschränkt.

Dabei kann man sich mit Wülfing sehr wohl ganz normal unterhalten. Man muss nur manchmal nachfragen, wenn ihm ein ausgesprochenes Wort etwas zu undeutlich geraten ist. Wülfing zählt sich deshalb selbst nicht zur Zielgruppe seiner Computertechnik. Diese richtet sich vielmehr an Menschen, die sich verbal überhaupt nicht mitteilen können. Mithilfe seines Programms können sie das, was sie sagen wollen, stattdessen in den Rechner eintippen. "Auch eine Eingabe über eine augengesteuerte Tastatur ist denkbar", fügt Wülfing hinzu. "Diese Praxis wäre etwas für sogenannte Locked-in- oder auch andere Patienten, die von ihrem Körper nur noch die Augen bewegen können."

Das, was in den Computer eingegeben wird, kann dieser dann vorlesen – in der gewünschten Emotion. Die Handhabe ist ziemlich einfach – die Programmierung dahinter allerdings nicht. "Es gibt ja sehr viele verschiedene Gefühle, und die jeweilige Tonlage dazu hat immer einen gewissen Facettenreichtum, aber keine Regelhaftigkeit", erklärt Wülfing. Er baue eine große Datenbank an Beispielsätzen zu einzelnen Themenbereichen wie Schule, Essen oder Familie auf, um künftigen Nutzern den Umgang mit dem Programm zu erleichtern. Zu diesen vorgefertigten Phrasen gehört etwa der Satz mit den Hausaufgaben.

Rund 100 000 Menschen in Deutschland könnten von seiner Entwicklung profitieren, schätzt Wülfing, beispielsweise Schlaganfall-Patienten. Ihnen will der Doktorand mit seinem Projekt gleich zweifach zu mehr Teilhabe an der Gesellschaft verhelfen. "Erstens können sich nicht sprechende Leute dank meiner Entwicklung emotional äußern, also ,normal’, das heißt, wie jeder andere Mensch auch – denn jeder bringt beim Reden unwillkürlich Gefühle mit über die Lippen", sagt der Computerlinguist. "Zweitens können sie sich dadurch besser mit Nichtbehinderten unterhalten. Das zumindest ist die Hypothese meiner Doktorarbeit: Dass die Unterhaltungen dank der Emotionswiedergabe länger und lebhafter werden, als sie es aktuell bei Gesprächen mit monotonen Computerstimmen sind." Dies führe dann zu einem größeren Interesse am Gesagten und so zu einem Barriereabbau zwischen behinderten und nicht eingeschränkten Menschen.

Wie lange Wülfing für sein Forschungsprojekt noch braucht, kann er nicht sagen. Er ist optimistisch, dass seine Kommunikationshilfe in den nächsten ein, zwei Jahren auch außerhalb der Uni einsatzbereit sein wird. Zuversicht – auch so ein Gefühl, das Wülfing seinem Programm noch beibringen könnte.

Ressort: Panorama

  • Artikel im Layout der gedruckten BZ vom Do, 01. März 2018: PDF-Version herunterladen

Artikel verlinken

Wenn Sie auf diesen Artikel von badische-zeitung.de verlinken möchten, können Sie einfach und kostenlos folgenden HTML-Code in Ihre Internetseite einbinden:

© 2024 Badische Zeitung. Keine Gewähr für die Richtigkeit der Angaben.
Bitte beachten Sie auch folgende Nutzungshinweise, die Datenschutzerklärung und das Impressum.

Kommentare


Weitere Artikel