Jenseits von Maus und Tastatur

Auch wenn einige Hardcore-Nutzer heute noch auf die Eingabe-Shell schwören werden die klassischen Eingabegeräte bald nur noch eine von vielen Bedienungsmöglichkeiten sein.
Die heutigen Tastaturen sind ein Nachfahre der alten Schreibmaschinen. Das QWERTZ-Layout bzw. QWERTY-Layout geht darauf zurück, dass sich die Drucktypen beim schnellen Tippen nicht verhaken sollten. Da jede Generation aufs Neue das Zehn-Finger-System auf diesen Tastaturen lernt ist es uns bis heute erhalten geblieben, sogar auf den Bildschirm-Tastaturen, wo kaum jemand mit zehn Fingern schreiben dürfte.
Die Maus als Zeigegerät kam erst mit den grafischen Benutzeroberflächen in Mode. Sie wurde schon in den 60er Jahren entwickelt, allerdings gab es lange Zeit kaum grafische Bedienoberflächen, so dass sie erst in den 80ern weite Verbreitung fand.
Beide – Maus und Tastatur – sind in gewisser Weise Abstraktionen. Wir haben uns so sehr daran gewöhnt, dass es uns gar nicht auffällt, aber das Arbeiten mit einem externen Gerät, um ein Element auf einem Bildschirm zu steuern oder Eingaben zu machen ist durchaus gewöhnungsbedürftig. In Star Trek IV reist die Crew der Enterprise in unsere Gegenwart und der Chefingenieur Scotty sieht sich mit einem Computer alter art konfrontiert. Zunächst versucht er mit ihm zu sprechen, Als ihm jemand eine Maus hinstellt versucht er in die Maus zu sprechen. Wenn man noch nie mit einem Computer zu tun hat würde man spontan eher auf dem Bildschirm rumtatschen bevor man die Maus zur Hand nimmt.

Neue Bedienkonzepte

Die Touchscreens hatten mit dem Aufkommen der Smartphones ihren großen Durchbruch. Auch Navis und einige Organizer hatten Touch-Screens, die mit dem Finger oder mit einem Stift bedient werden konnten. Aber erst die Erkennung von mehreren Fingern und die Touch-Gesten haben das Ganze für den Massenmarkt attraktiv gemacht.
Auch die Spracheingabe ist schon betagt, die Software Dragon Naturally Speaking erlaubt schon seit langem das Diktieren und teilweise steuern des PCs. Den Massenmarkt hat sie kaum durchdrungen, immerhin muss sie eine Zeit lang durch das Vorlesen von Texten trainiert werden, um einigermaßen zuverlässig zu arbeiten. Ein wichtiger Grund für ihre geringe Verbreitung dürfte aber auch darin bestehen, dass es noch immer ungewöhnlich ist, den PC vollzuquatschen und bevor man flüssig arbeiten kann muss man die Steuerungsbefehle auswendig lernen.
Erst mit Siri und ähnlichen Systemen ist die Spracheingabe wirklich massentauglich geworden: es müssen keine festen Befehle mehr auswendig gelernt werden und auch das Training der Spracherkennung ist weggefallen.

Noch neuere Bedienkonzepte

Das nächste große Ding dürften aber Systeme mit Augen- oder Bewegungssteuerung werden. Bei letzterem haben Nintendo mit der WII und Microsofts Kinect den Weg in den Massenmarkt geebnet. Leider hat Microsoft es nicht so mit innovativen Neuerungen, ansonsten hätten sie die Gestensteuerung konsequent in ihre Betriebssysteme integriert. Das wollen sie offenbar anderen überlassen.
Auch günstige Augensteuerungssysteme sind im Anmarsch. Angeblich will Samsung in seinem neuen Flagschiff S 4 bereits eine Augensteuerung verbauen, schauen wir mal)

Behinderte als Vorreiter

Natürlich profitieren auch Behinderte von solchen Systemen. Menschen mit motorischen Störungen setzen schon seit langer Zeit Spracheingabe und Augensteuerung zur Steuerung des PCs ein, so dass sie als Vorreiter solcher Systeme gelten dürfen. Wir dachten immer, Braillezeilen wären teuer, aber so ein Eye-Tracking-System speziell für Behinderte ist wirklich, wirklich teuer, es kostet zwischen 20.000 und 30.000 Euro.
Insofern dürfen wir uns darüber freuen, dass diese Systeme für einen Spottpreis in den Massenmarkt einziehen. Apple hat es geschafft, Touchscreens für Blinde zugänglich zu machen, die Gestensteuerung dürfte also auch nutzbar sein. Natürlich brauchen das andere dringender als wir Blinde. Ansonsten ist es eine phantastische Idee, sein Smartphone mit dem Auge zu steuern, wenn man seine Hände nicht benutzen kann. Und jede Gestensteuerung dürfte intuitiver sein als die Bedienung mit der Maus. Stell dir vor, du müsstest nur den arm nach rechts oder unten ziehen, um eine Seite zu scrollen statt am Mausrad zu drehen oder gar einen Scrollbalken zu bewegen.
Zu hoffen bleibt, dass die Innovationen von mobil den Weg in den PC finden. Ich persönlich glaube nicht, dass wir ihn bald abschreiben müssen. Natürlich muss man nicht für jeden Tweet den PC hochfahren, aber für viele Bereiche bietet er nach wie vor Vorteile. Ich tippe darauf, dass der Desktop-PC vom Notebook verdrängt wird, das ebenso leistungsfähig, aber eben mobil ist. Hier kommt es darauf an, die Technik in das Gerät zu integrieren und es nicht wie früher mit anzuschließender Peripherie aufzuplustern. Es ist einfach unsinnig, wenn ein kleines Smartphone mehr technische Möglichkeiten hat als ein Notebook. Der Vorteil für uns Behinderte wäre die freie Wahl, wie wir unseren PC steuern und für jeden Zweck die passende Eingabemethode wählen zu können. Eine solche Entwicklung könnte auch Menschen an den Computer und an das Internet heranführen, für die Maus und Tastatur zu kompliziert und zu abstrakt sind. Wenn die Technik erst einmal in die Geräte integriert ist werden sich bald auch Läute finden, die behindertengerechte Einsatzmöglichkeiten entwickeln.

Neues Design wird erforderlich

Es wird sich nicht nur die Art verändern, wie wir mit Computern interagieren, auch das Design von Webseiten und Anwendungen wird sich ändern müssen. Die Ausklappmenüs zum Beispiel werden wesentlich besser werden müssen, damit sie auch mit weniger feinmotorischen Bewegungen bedient werden können. Formulare mit viel Tipparbeit lassen sich schon heute schlecht mit Touchscreen-Tastaturen vereinbaren. Winzige Schaltflächen werden hoffentlich der Vergangenheit angehören. Da die Leute auch weiter weg vom Bildschirm sitzen und eventuell nicht optimale Licht-Verhältnisse herrschen wird man stark an der Erkennbarkeit arbeiten müssen. Alles in allem dürfte das auch der allgemeinen Benutzerfreundlichkeit und Barrierefreiheit zugute kommen.

Was noch zu erwarten ist

Das Tempo der Entwicklungen hat sich enorm beschleunigt. Es hat noch einige Zeit gedauert, bis die Tastaturen von Maus und Joystick Gesellschaft bekamen. Touchscreens für den Konsumentenmarkt kamen erst in den 90ern auf. Eyetracking und Bewegungssteuerungen drangen erst vor wenigen Jahren auf die großen Märkte vor und warten noch auf den allgemeinen Durchbruch. Und schon wird in den Laboren an der Steuerung via Gehirnwellen und dem affective Computing gearbeitet.
Kurioserweise sieht es so aus, als ob die Consumer-Industrie den Behinderten das bringen wird, was die Hilfsmittelindustrie und die Wissenschaft uns lange Zeit versprochen haben: Günstige und einfache Hilfsmittel. Die Hilfsmittelhersteller stemmen sich gegen diesen Trend, sie wollen zum Beispiel keine Bluetooth-Schnittstellen in ihre Geräte einbauen, so dass sie mit Smartphohnes ausgelesen oder gesteuert werden können. Die meisten Braillezeilen-Entwickler wollen keine Treiber für NVDA anbieten, wäre ja noch schöner, wenn sich die Blinden selber aussuchen, mit welchen Programmen sie arbeiten. OpenSource scheint für diese Firmen eher eine ansteckende Krankheit als ein Geschäftsmodell zu sein.

Wenn Du es nicht machst, macht es keiner