Im Cockpit des Airbus A380 spielen viele Bedienkonzepte nebeneinander in einem groĂźen Konzert der Bedienelemente.

Im Cockpit des Airbus A380 spielen viele Bedienkonzepte nebeneinander in einem groĂźen Konzert der Bedienelemente.

Direktmanipulativ und Dialog – was kommt danach?
Im ersten Teil unseres Vergleiches von grundlegenden Bedienkonzepten haben wir Ihnen Beispiele erläutert, wie ein System benutzerfreundlich gestaltet werden kann.

Im zweiten Teil unserer Betrachtung von Interaktionskonzepten zeigen wir innovative Methoden auf, die bekannten Konzepte „direktmanipulativ“ und „dialogbasiert“ weiterzuentwickeln.

Die entscheidende Frage für das Interaction Design der Zukunft wird es als nicht sein, jede Software als direktmanipulative Interaktion zu konzipieren, denn dann laufen wir Gefahr, wieder jede Funktion mit einer Taste, einem Regler oder ein Dropdown-Menü wiederzugeben. Welcher Benutzer möchte für jede Anwendung ein „Mischpult“? Die Komplexität steigt, der Benutzer wird überfordert. Wie können wir als Interaction Designer eine Antwort darauf finden, wie immer komplexer werdende Systeme von einer wachsenden Benutzergruppe ohne Erfahrung oder Qualifikation bedient werden können?

Methoden der Zukunft: Dialoge werden in Prozesse eingebunden
Wir brauchen Gesamtkonzepte, die grundlegend in Prozessen konzipiert sind und in denen lineare Dialoge wie ein Wizard dort eingebunden werden, wenn ein Prozess in einer klaren aufbauenden Struktur wiedergegeben werden kann. Das Einrichten einer Soundanlage folgt beispielsweise einer klaren Abfolge aller Toneingänge und deren Abmischung und eignet sich somit hervorragend als Interaktion in einem linearen Dialog.

Methoden der Zukunft: Manuelle Eingaben werden automatisiert
Zudem lassen sich die manuellen Eingaben in einer direktmanipulativen Interaktion automatisieren, indem das Verhalten eines Systems geändert wird. Beispiel: Eine Soundanlage ist eingerichtet, die Band beginnt zu spielen. Plötzlich schreit der Sänger in sein Mikrofon, der Eingangspegel wird übersteuert. Hastig muss der Toningenieur den Eingang nachkontrollieren. Hier kann auf den „Event“ des übersteuerten Eingangspegels die Software automatisch reagieren und den Pegel nachführen, ohne dass ein Eingriff notwendig ist. Grundvoraussetzung ist es, dass der Software ein „Verhalten“ mitgegeben wird, wie zu entscheiden ist. Das „Verhalten“ kann in Form eines Setup vor Beginn eines Prozesses eingerichtet werden.

Somit erhält die Software das Knowhow des Toningenieurs, um wesentlich schneller und präziser einzugreifen. In anderen Branchen ist das schon Alltag: Im elektronischen Aktiengeschäft wird quasi kein einziger Aktienkauf und -verkauf per Hand vorgenommen, sondern der Broker setzt Limits und Beziehungen zu anderen Kursen oder Indizes fest, sodass die Software entscheidet, wann eine Aktie gehandelt wird. Die negativen Auswirkungen dieser Form der höchstmöglichen Automatisierung kennen wir bereits.

Methoden der Zukunft: Direktmanipulationen in Beziehung setzen
Die zweite Methode der Automatisierung allein kann nicht alle unvorhergesehen Ereignisse abdecken, hier muss dem Benutzer ermöglicht werden, Abhängigkeiten zwischen direktmanipulativen Eingaben abzulesen. Werden also – um beim Beispiel der Soundanlage zu bleiben – die Bässe verstärkt, steigt auch der Gesamtpegel, Differenzierungen im unteren Ton-Spektrum sind weniger möglich. Diese Abhängigkeit kennt zwar der ausgebildete Toningenieur aus Erfahrung, ein Laie wird jedoch erst nach dem Prinzip Try-and-Error die richtige Einstellung finden. Wir benötigen also Interfaces, die diese Abhängigkeit darstellen und eine optimale Interaktion ermöglichen.

Fazit

Direktmanipulativ oder dialogbasiert – jedes Interaktionskonzept hat im Kontext seiner Anwendung seine Berechtigung. Diese Konzepte reichen jedoch noch nicht aus, um eine benutzerfreundliche Gestaltung eines Gesamtsystems zu ermöglichen. Als Gestalter müssen wir weiter über die bestehenden Konventionen hinaus denken.

Eine Antwort hinterlassen:

Einloggen um einen Kommentar zu machen.