Ich entwickle UX/UI-Sound als Zugang, nicht als Zusatz. Damit wird Interaktion dort ermöglicht, wo Sehen oder manuelle Bedienung eingeschränkt oder nicht möglich ist – sei es durch Situation, Umgebung oder Beeinträchtigung. Accessibility in UX/UI-Sound bedeutet für mich: Information, Orientierung und Feedback über Klang zugänglich machen.
Viele Nutzungssituationen sind situativ eingeschränkt: Autofahren, Operieren, Kochen, Arbeiten mit Werkzeugen, Orientierung im öffentlichen Raum. In vielen Kontexten wird Audio zum primären Interface. UX/UI-Sounds übernehmen dann Kommunikation, die sonst visuell oder haptisch gelöst wird: Status- und Fortschrittsanzeigen, Bestätigungen und Warnungen, Navigations- und Richtungsinformationen, Kontextwechsel und Systemzustände.
Ich entwickle akustische Interaktionen, die klar, konsistent und lernbar sind, sodass Nutzer:innen auch ohne Blickkontakt sicher interagieren können. Dazu zählen gleichermaßen akustische Leitsysteme im öffentlichen Raum, Audio-Guidance bei chirurgischen Eingriffen, in Rettungsfahrzeugen oder in Alltagssituationen.
UX/UI
Sound
Kompetenzfelder, wie ich arbeite und Publikationen
Accessibility in UX/UI-Sound lässt sich nicht theoretisch entscheiden. In menschzentrierten Gestaltungsprozesse sind Interviews, Prototypen und Usability-Testings für den Entwicklungserfolg essentiell. Ziel ist immer: Verständlichkeit im realen Kontext, nicht im Labor. Seit vielen Jahren entwickle ich UX/UI-Sound Designs für verschiedene Bereiche. Dabei arbeite ich eng mit UX-Teams, Entwicklern und Produktmanagern zusammen – von der strategischen Beratung bis zur konkreten Umsetzung.