Jenseits von Bildschirm und Lautsprecher

Die erste Ausgabemethode war natürlich grafisch. Die seinerzeit riesigen und gleichzeitig nicht besonders darstellungsstarken Bildschirme waren für das ausreichend, was die meisten Experten brauchten. Eine Shell, um Befehle einzugeben und die Ergebnisse abzulesen und ein Editor, um Programme zu schreiben und zu editieren. Computer waren Expertensysteme, grafischer und auditiver Schnickschnack waren weder nötig noch überhaupt sinnvoll, da Rechenleistung knapp und teuer war. Die Systeme waren in gewisser Weise auch elitär, weil praktisch nur Wissenschaftler und Studenten Zugang hatten. Wer schlechte Augen hatte oder keine Tastatur verwenden konnte hatte eben Pech gehabt.

Der Computer wird hörbar

Das änderte sich recht schnell spätestens mit dem Aufkommen der Flipperautomaten. Sie wären wohl nur halb so erfolgreich ohne die comic-mäßige Grafik und die schaurige Geräuschkulisse.
Aber auch die Computer wurden leistungsfähiger. Innovationstreiber war dabei nicht zuletzt die Spieleindustrie, die dafür sorgte, dass sich die Menschen bessere Grafikkarten und Bildschirme zulegen wollten.
Nach und nach wurde aber auch Sounddesign wichtig. Zunächst waren die Soundkarten eher unterentwickelt. Die Soundausgabe war oft ins Computergehäuse eingelassen, Viele erinnern sich wohl noch an die gewöhnungsbedürftigen Sounds der frühen 90er mit Wolfenstein 3 D, Doom oder Monkey Island. Diese Speaker gibt es nach wie vor und sie geben manchmal etwas von sich, wenn man mit der Eingabeaufforderung arbeitet. Wesentlich mehr als ein paar piepsige Laute kann man diesen Lautsprechern nicht entlocken.
Mit den grafischen Benutzeroberflächen kam auch das auditive Feedback auf. So ab Windows 95 gab es Sounds als Feedback, wenn man zum Beispiel den Ordner gewechselt hat oder versuchte eine Eingabe zu machen, obwohl ein Dialogfeld geöffnet war. Vor allem für Sehbehinderte ist das enorm hilfreich. Wegen der oft starken Vergrößerung können sie nicht erkennen, ob sie zum Beispiel keine Eingabe machen können, weil irgendwo ein Dialogfeld geöffnet ist.
Das Soundsystem ist vor allem als Feedback enorm wichtig und wird von den Entwicklern der grafischen Oberflächen vernachlässigt. Bedenkt man, wie viele Ressourcen in die grafische Entwicklung gesteckt werden bekommt man eine Vorstellung davon, wie cool ein Audiodesign werden könnte, wenn ähnlich viele Ressourcen dafür aufgewendet werden würden. Falls die Gestensteuerung einmal blindentauglich werden sollte wäre ein akustisches Feedback sehr hilfreich ähnlich wie es das bereits bei Gesten im iOS gibt. Auch für eine blinde Sprachsteuerung wäre ein Audiofeedback hilfreich, damit man zum Beispiel weiß, ob der Computer einen Sprachbefehl verstanden hat oder nicht. Das würde es übrigens auch Sehenden erleichtern, ihren Computer blind über Sprache zu steuern.
Heute gibt es bei fast allen Systemen per Default nur die grafische Schnittstelle für Benutzereingaben und –ausgaben. Selbst der Ein-Platinen-Rechner Raspberry Pi braucht zumindest ein Display für die Inbetriebnahme, aus meiner Sicht würde nichts dagegen sprechen, standardmäßig weitere in- und Output-Möglichkeiten zu schaffen. Die Google Brille zum Beispiel soll per Default nur per Touch und Sprache zu steuern sein.
Mit den Soundkarten wurden auch die Sprachausgaben möglich. An der prinzipiellen Funktionsweise von Sprachausgaben hat sich bis heute nicht viel verändert. Es werden Phoneme verwendet, die nach bestimmten Regeln und Wörterbüchern zusammen gesetzt werden. Ich verwende ungefähr seit 13 Jahren Jaws und kann mich nicht erinnern, dass die verwendete Sprachausgabe Eloquence seit den Anfangszeiten wesentlich anders geworden ist, zumindest hat sie zwischenzeitlich gelernt, so unwichtige Worte wie Microsoft oder Jaws korrekt auszusprechen.
Was sich gewandelt hat ist die Qualität kommerzieller Sprachausgaben, wie sie etwa von Nuance angeboten werden. Der Antreiber dürften hier vor allem die Anbieter von automatischen Dialogsystemen – sprich Telefonschleifen – oder die Hersteller von Navis gewesen sein, die eine weniger roboterartige Stimme als Eloquence bevorzugten. Mittlerweile können auch Jaws und NVDA diese Sprachen verwenden. Die Qualität ist erstaunlich gut, auch wenn der Unterschied zur natürlichen Sprache schnell auffällt.

Haptisches Feedback – der Output wird fühlbar

In den 90ern kamen die ersten Braillezeilen auf. Die Ausgabe von Inhalten als Blindenschrift war eine feine Sache und ist es bis heute oder vielmehr könnte sie es sein, wenn die Zeilen billiger wären. In die Kategorie des haptischen Feedbacks fällt auch der Vibrationsakku oder Vibrationsmotor, der Anrufe oder SMS fühlbar ankündigt. Der Vibrationsakku hat sich in den letzten Jahren meiner Erinnerung nach kaum weiter entwickelt.
Beim haptischen Output liegt meines Erachtens auch noch viel Potential. Verschiedene Entwickler arbeiten an haptischen, sich dynamisch ändernden Displays.
Ein Entwickler hat ein Navi für die Zunge erfunden, das Gerät gibt Impulse an die Zunge weiter, mit denen sich der Blinde orientieren kann.
Es ist aber noch mehr denkbar. Aktuell gibt es für taubblinde Menschen nur eine Möglichkeit, um Inhalte am Computer zu rezipieren: die Braillezeile. Wie wäre es mit einem Gerät, das Inhalte als Lorme als haptischen Output ausgibt? Aktuell wird zum Beispiel ein Lorme-Handschuh entwickelt.

Tragbarer Output

Google Glass ist natürlich noch so eine Geschichte, es ist im Prinzip die Weiterentwicklung von Cyberbrillen und Smartphone-Displays. Auch die angeblich von Apple geplante und von anderen Unternehmen bereits veröffentlichten Smartwatches schlagen eine ähnliche Richtung ein. Das Handy müsste nicht mehr aus der Tasche geholt werden, um wichtige Informationen abzurufen, was z.B. für die Navigations-Funktion hilfreich wäre. Auch hier wäre ein haptisches Feedback hilfreich, damit man sich nicht so blöd vorkommt, weil man die ganze Zeit den Arm vor das Gesicht hält.
Der nächste logische Schritt sind Wearables. Glass und Smartwatch gehen bereits in diese Richtung, aber man kann noch weiter gehen, indem man das Gerät zum Output in die Kleidung einbaut oder gleich in den Körper einsetzt.
Während die vorgestellten Konzepte bereits realisiert sind ist die eigentlich spannende Entwicklung das Verschmelzen von Input- und Output-Schnittstelle. Wie schon berichtet forschen Samsung – und sicher noch viele andere – daran, wie der Computer über das Gehirn direkt gesteuert werden kann. Das klingt komplizierter, als es ist. Die Quantified Self-Bewegung benutzt bereits ausgiebig Sensoren, die diverse Biosignale wie den Blutdruck, den Blutzuckerspiegel und so weiter messen. Diese Signale in irgendeiner Weise nutzbar zu machen, um den Computer darauf reagieren zu lassen sollte keine große Sache mehr sein. Wir bräuchten dann nur noch Output-Systeme, die uns zum Beispiel einen kleinen elektrischen Schlag geben, wenn etwa der Puls zu hoch oder zu niedrig ist. Das Ganze mit dem Gehirn zu koppeln ist dann nur noch eine Frage der Zeit – und der Ethik, aber das sollen andere diskutieren.

Was bringt uns das?

Wir als Behinderte können natürlich davon profitieren. Als Blinder träumt man davon, nicht permanent auf irgendwelche Audiosingale achten zu müssen, weil man sich dann nicht mehr auf andere wichtigere Geräuschquellen wie rückwärts ausparkende Autos konzentrieren kann. Ich bin sicher einige Dutzend Male fast angefahren worden, weil ich mich auf etwas anderes konzentriert und ein ausparkendes auto- nicht gehört habe – dass die Fahrer nicht geguckt haben steht auf einem anderen Blatt. Insofern ist ein haptisches Feedback für uns eine großartige Sache, die meines Erachtens bisher zu wenig weiter entwickelt wurde.
Auch für Menschen, die sich nicht so gut bewegen können sind möglichst viele Eingabemethoden hilfreich. Eine einzige Eingabemethode ist oft nicht ausreichend, um alle nötigen Aufgaben am Computer zu erledigen, auch wenn es prinzipiell machbar wäre. Maus oder Touch sind ideal für Drag and Drop, aber ziemlich schwierig für die Texteingabe. Die Tastatur ist ideal zum Schreiben von Text, aber ziemlich hakelig, wenn es etwa um das Markieren von Bildauschnitten geht. Eyetracking ist ein guter Mausersatz, aber für das Schreiben von Text ist die Spracheingabe komfortabler. Um eine bestimmte Stelle im Text zu korrigieren und den Cursor darauf zu positionieren ist Eyetracking besser als die Spracheingabe.
Hinzu kommt, dass eine Behinderung oft nicht alleine kommt. Motorisch Behinderte können auch seh- oder sprachbehindert sein, so dass sie einige der Eingabemethoden für motorisch Behinderte nicht verwenden können.
Das Interessante in der Mensch-Maschine-Interaktion ist, dass alle Menschen vom Multikanalprinzip profitieren können. Ein System wird wesentlich leicht bedienbar, wenn es zum Beispiel ein visuelles und ein auditives oder haptisches Feedback gibt. Touch hin, Touch her, ein physischer Schalter ist aus Sicht der Usability oft besser.
Am ende ist es wichtig, so viele Ein- und Ausgabe-Möglichkeiten wie möglich zu haben und sie nach Belieben kombinieren zu können. Und wiederum sind die Entwickler von Smartphones und Tablets die Innovationstreiber. Es kommt nicht darauf an, dass diese Schnittstellen speziell für Behinderte entwickelt werden. Wichtig ist, dass sie offen sind für Entwickler, die sie für Behinderte nutzbar machen können. Die Spracheingabe SVoice von Samsung ist ganz nett, solange man nur Samsung verwendet und nur kompatible Apps nutzt, aber wer möchte das eigentlich?