Alle Beiträge von domingos

Tastatur – warum Blinde oft schneller am Computer sind

Ich beschäftige mich gerade aus beruflichen Gründen und aus privatem Interesse mit Usability-Tests. Dabei schauen sich Testpersonen eine Website an, während sie mit weitgehend standarditisierten Methoden wie Eyetracking, Mouse-Tracking, und Kameraaufzeichnung beobachtet werden. Dabei sollen sie ganz allgemein die Website erkunden, bestimmte Aufgaben erfüllen und so feststellen, wie usable die Webseiten sind. So kann man etwa herausfinden, ob sie auf ein bestimmtes Element zu klicken versuchen, welches gar keine Funktion hat, ob sie die Navigation verstehen oder sich an flackernden Filmchen erfreuen.

Wie in diesem Film teilen die Tester ihre Gedanken zur Website spontan mit. So ein Test könnte vielen Websites nicht schaden.
Kurioserweise können sich Blinde oft einen besseren und schnelleren Überblick über eine Website verschaffen als Sehende. Wie das geht, habe ich hier geschildert. Blinde können sich recht flott einen Überblick über Überschriften, Listen, Bilder, Formulare, Links und andere Elemente einer Website mit dem Screenreader verschaffen. Sollten sich HTML5 und/oder WAI ARIA allgemein durchsetzen, dürfte es noch ein wenig schneller gehen. Wenn man es etwa nur auf den Artikel einer Website abgesehen hat, muss man dann nicht einmal die komplette Website durchgehen, um zum Beginn des Artikels zu gelangen.
Ich hatte beruflich einige Websites mit einem Webtool zu testen und konnte mit dem Tool, das auf den normalen HTML-Formularen aufbaute sehr flott arbeiten. Ich war auf jeden Fall schneller als ein Sehbehinderter mit Bildschirm-Vergrößerung. Und ich vermute zumindest, dass ich schneller als die meisten Sehenden bin. Mit dem Mausgeschubse kann man doch recht viel Zeit verbringen. Bedenkt man noch, dass zum Ausfüllen eines Formulars zwischen Tastatur und Maus gewechselt werden muss, wird man diesen Gedanken wohl nachvollziehen können. Der versierte Nutzer eines Screenreaders kann verschiedene Elemente eines Formulars mit der Tastatur direkt anspringen, er drückt z.B. „E“, um zu Eingabefeldern zu gelangen oder „C“, um sich Auswahlfelder anzeigen zu lassen. Ein beherztes Return reicht meistens aus, um ein Formular abzusenden. Ich muss immer lachen, wenn ich mitbekomme, dass jemand zum Springen von einem Eingabefeld zum Nächsten zur Maus greift anstatt einfach die Tab-Taste zu benutzen.
Das setzt allerdings voraus, dass die Websites auf die Standards im HTML setzen. Obwohl die Websites (und die Screenreader) allgemein besser werden, was Webstandards angeht, bleiben doch erstaunlich viele Seiten auf einem Stand, wie er vor zehn Jahren üblich war. Ich stoße jeden Tag auf Websites, die keine fünf Jahre alt sind und auf Tabellendesign basieren, Spacer-Gifs einsetzen und von headern und Listen nie etwas gehört haben. Für einen Blinden ist es der reine Horror, auf einer tabellenbasierten Seite nach einer Datentabelle zu suchen. Liebe Webdesigner und Agenturen, Tabellendesigns zeugen bestenfalls von der Unfähigkeit des Erstellers und gehören ins Jahr 1999, wo sie auch bleiben sollten. Wenn ihr mit dem Begriff CSS nichts anfangen könnt, habt ihr offenbar doch den Beruf verfehlt.

Touchscreens – Vorteile für Blinde und Sehbehinderte

Dass Blinde Touchscreens auf Tablets und Smartphones benutzen, ist fast schon ein alter Hut. Ein Bereich, wo sie sich bisher nicht durchgesetzt haben sind Desktop-Computer und Notebooks. Touchscreens sind die letzte nennenswerte Innovation bei Notebooks. Serienmäßig werden sie allerdings nur für Windows angeboten. Win 8 war damit angetreten, das erste OS zu sein, dass sich gleichermaßen per Touch, Maus und Tastatur bedienen lässt.
So schnell, wie die ersten Touch-Notebooks auftauchten, sind sie auch wieder verschwunden. Bis auf die Convertibles gibt es vor allem im unteren Preissegment kaum noch Touchbooks. Das ist in gewisser Weise auch nachvollziehbar. Ein Tablet hat man in der Hand oder vor sich liegen, ein Notebook ist typischerweise eine Armlänge entfernt. Bevor einem der ausgestreckte Arm abfällt, greif man eher zur Maus.
Ein weiterer Nachteil von Touchbooks besteht darin, dass sie beim Bildschirm-Tipp leicht wackeln, Tablets machen das nicht. Dadurch ist die Erkennung der Gesten ungenauer.

Blinde

Für blinde haben Touchbooks allerdings doch einige Vorteile. So ist die Erkundung des Bildschirms per Touch immer einfacher als mit den typischen Screenreader-Funktionen. Der Jaws-Cursor scheint gar nicht mehr unterstützt zu werden und die Objekt-Navigation von NVDA ist nutzbar, aber nicht wirklich intuitiv.
Auf dem Touchscreens hingegen lassen sich Elemente gut erfassen. Damit wird auch die Ribbon-Leiste von MS Office leichter erschließbar, als per Tastatur.
Wenn man sich einmal gemerkt hat, wo sich bestimmte Elemente befinden, kann man auch wesentlich schneller Informationen auslesen. Die typischen Windows-Fenster besitzen zahlreiche nicht-relevante Elemente. Möchte man zum Beispiel eine Statusmeldung im Wartungs-Center abrufen, muss man sich entweder alles vorlesen lassen oder mit der Objekt-Navigation zu diesem Element „herabsteigen“. Bei Touch berührt man einfach die entsprechende Stelle auf dem Bildschirm irgendwo in der rechten Hälfte ca. in der Mitte
Bei Webseiten bietet sich der bekannte Vorteil, dass wir nicht nur die Struktur, sondern auch ihren viesuellen Aufbau erfassen können. Bei dynamischen Anwendungen mit zahlreichen Bedien-Elementen gibt es bislang das Problem, dass diese Elemente für Blinde oft nur hakelig zu erreichen sind – wenn überhaupt, es fehlen unsere geliebten tastaturbedienbaren Menüs und Shortcuts. Per Touch können wir zumindest die Buttons und Ausklappfelder recht gut erreichen. .
Mit Touch ist es auch einfacher, komplexe Dokumente wie Excel-Tabellen zu erkunden. So eine Tabelle ist schon was Feines, nur blöd, wenn der Cursor auf B3 steht und man wissen will, was in D24 steht. Ich bin sicher, dass man das auch mit Jaws oder NVDA erfahren kann, ohne den Hauptfokus von der B3 zu nehmen, allerdings fehlt mir ernsthaft die Lust, mir noch mehr Tastenkombinationen zu merken.

Keine einheitliche Bedien-Schnittstelle

Womit wir auch zur Krux der Sache kommen. Auch die Touchsteuerung ist für Blinde leider nicht einheitlich gelöst. iOS, Android, Windows, jeder hat seine eigenen Touchgesten. Während einige Dinge wie der Duble-Tap oder das Wischen sich intuitiv erlernen lassen, sieht es bei komplexen Gesten anders aus. Dazu kommt noch, dass natürlich jeder Windows-Screenreader seine eigenen Steuergesten mitbringt. Irgendwann werden uns diese Tastenkombinationen und Touchgesten noch zum Wahnsinn treiben.
Ärgerlich ist, dass Sehende diese einheitliche und intuitive Erfahrung haben. Auch für sie sind natürlich viele Touch-Gesten unterschiedlich, aber sie brauchen im Kern auch viel weniger als wir und die wesentlichen Gesten wie Tap und Wischen sind doch gleich. Ein Knackpunkt könnte auch sein, dass die Implementierung von Touch bei Windows bzw. bei den Windows-Screenreadern nicht so sauber ist wie bei Tablets oder Smartphones. Mein vielleicht subjektiver Eindruck ist, dass Windows die Gesten nicht immer sauber verarbeitet. Auch die Screenreader sind für die Steuerung via Tastatur ausgelegt und die Implementation von Touch ist ein eher subalternes Feature. Aber das mag sich noch ändern.
Ein Vorteil für uns ist, dass es uns egal sein kann, ob ein Button zu groß oder zu klein ist. Per Wischgeste erfassen wir ohnehin alle Elemente.

Echter Vorteil für Sehbehinderte

Eine Ausnahme gilt für stark Sehbehinderte, sie haben mit großen Touchscreens einen großen Vorteil: Ein kernproblem für Sehbehinderte besteht darin, zum Beispiel ein anklickbares Element zu finden, um anschließend den Mauscursor zu finden, um anschließend das anklickbare Element wieder zu finden und beide zusammenzuführen. Das Problem besteht darin, dass es extrem schwierig und anstrengend ist, bei starker vergrößerung zwei Elemente zusammenzuführen, von denen eines ständig bewegt werden muss. Bei großen Touchscreens reicht es, dass anklickbare Element anzutippen. Ein anderer Vorteil ist, dass sie gezielter bestimmte Bereiche vergrößern können. Möchte man z.B. im Browser einen Kartenausschnitt mit den Browserfunktionen vergrößern, verschiebt sich der Inhalt in der Regel nach rechts unten. Wenn sie Pech haben, müssen sie das Browser-Fenster solange horizontal und vertikal scrollen, bis sie den Abschnitt wieder im Blick haben. Beim Touchscreen können sie per Touchgeste genau den Bereich vergrößern, in dem sie auf diesem Bereich die Spreizgeste ausführen. Last not least sagt der Schnarchator, die in Windows eingebaute Vorlesefunktion, wenn sie eingeschaltet ist an, wie das Element heißt, welches man gerade berührt. Touchscreens bieten also eine recht einfache Möglichkeit, einfacher mit Sprachausgabe und Vergrößerung zu arbeiten – und zwar onboard. Für Menschen mit solchen Sehbehinderungen kann sich die Anschaffung eines Touchbooks also lohnen.

Vorläufiges Fazit: Muss man nicht haben

Windows 8.1 lässt sich recht gut per tastatur bedienen und auch für die meisten Anwendungen wie Office benötigt man kein Touch. Es ist ein nettes Goodie, was man aber in der Praxis wohl kaum benutzen wird. Für die Erkundung per Touch dürften die meisten Blinden auf das intuitivere iOS zurückgreifen.
Es fehlen noch für Blinden interessante Anwendungsgebiete. Komplexe Diagramme wie Ablaufschemata ließen sich per Touch zum Beispiel segment-weise erschließen, wobei wir per Touch nicht nur die lineare Anordnung, erkunden, sondern auch z.B. sehr leicht über- und untergeordnete Elemente und Knoten unterscheiden könnten. Mit Technologien wie SVG sollte das kein Problem sein. Allerdings werden die meisten Diagramme noch als Rastergrafik angeboten, was für uns nicht hilfreich ist. Es bleibt abzuwarten, ob Touch doch noch zu einem Innovationsschub bei blindengerechten Darstellungen führen wird.
Wer es dennoch und für kleines Geld ausprobieren möchte: Windows-Tablets sind bereits auf dem Preis-Niveau von Android. Das HP Stream mit Win 8.1 und ohne Junk-Ware gibt es aktuell für 80 Euro, ein Tablet von Dell für 90 Euro. Ansonsten warten wir mal ab, ob Windows 10 den erwarteten Durchbruch für die Touchbedienung bringt.

Warum Hilfsmittel alltäglich werden müssen

Die Wenigsten von euch wissen, dass ich eine massive Schwerhörigkeit auf dem rechten Ohr habe, eine Behinderung kommt selten allein. Deshalb war ich jetzt gezwungen, mich mit dem Thema Hörgeräte zu beschäftigen.
Diese unscheinbaren Geräte kosten eine Stange Geld. Die Hörgeräte-Akkustiker verdienen aber nicht nur ordentlich Geld mit den Standard-Geräten. Sie verdienen vor allem Geld mit den eitelkeiten und Ängsten der Leute.
Schaut einmal in einen beliebigen Hörgeräte-Katalog. Dort wird weniger mit der Langlebigkeit oder den Hör-Eigenschaften der Geräte geworben als damit, dass die Geräte fast unsichtbar sind. Natürlich kostet so ein fast unsichtbares Gerät gleich mal das Dreifache, die Preisaufschläge beginnen so bei 600 Euro und sind nach oben hin offen. Es muss wohl nicht betont werden, dass die Krankenkassen diese Aufschläge nicht übernehmen.
Nun ist meine Behinderung ohnehin nicht zu übersehen und es schert mich nicht, noch ein paar Prothesen mehr zu tragen. Mich interessiert eher, was das über die Gesellschaft sagt. Wir sind noch lange nicht so weit, Behinderung zu akzeptieren, wenn sich die Leute davor scheuen, eine Prothese oder ein Hörgerät zu benutzen.
Die Eitelkeiten und Ängste der Leute schaden den Betroffenen selbst am meisten. Eine unbehandelte Körperschädigung kann dazu führen, dass sich der Schaden verschlimmert, dass ist sogar eher die Regel als die Ausnahme. Wer schlechter sieht, strengt seine Augen mehr an und erhöht dadurch die Schädigung. Wer schlechter hört, vermeidet soziale Anlässe, durch die mangelnde Stimulation des Ohrs verlernt es allmählich das korrekte hören. Bei körperlichen Behinderungen dürfte es ähnlich aussehen.

Es geht auch anders

Das muss aber nicht sein. Nehmen wir das Beispiel Brille. Die Brille hat sich von einer Streber-Symbol zu einem Mainstream-Objekt gewandelt. Früher waren eher unauffällige Brillen angesagt, heute sind sie eine modisches Assesvoire. Da kann sicher noch mehr passieren, es sollte zum Beispiel mehr Models mit Brille geben. Aber das ist ein anderes Thema, Werbung und Film leben nach wie vor vom Perfektionswahn und entfernen sich eher von der Alltags-Wirklichkeit, als dass sie sich ihr annähern.
Auch Rollatoren und Rollstühle sind heute stärker in der Öffentlichkeit zu sehen als es früher der Fall war. Auch hier kann sicher noch mehr passieren, aber wir sind auf einem guten Weg.

Zeigt her eure Prothesen

Nun ist es Zeit, den Umgang mit Prothesen zu verändern. Die modische Gestaltung von Hilfsmitteln wäre ein wichtiger Aspekt. Aus dem Brillen-Beispiel lernen wir, dass ein ansprechendes Design von Prothesen vielen Betroffenen die Akzeptanz erleichtert.
Die Sensibilität in der Gesellschaft muss erhöht werden. Ich persönlich glaube, dass das weniger eine Aufgabe der Gesellschaft ist, sondern dass die Behinderten stärker in der Pflicht sind. Wer freundlich darauf hinweist, dass er schwerhörig/blind/gehbehindert ist und dem Gegenüber klar, aber freundlich mitteilt, was er von ihm erwartet, wird er meistens auch diese Hilfe bekommen. Ich bin ja recht viel unterwegs und meine, dass sich Vieles schon gewandelt hat. Auch, wenn noch viel zu tun ist. Wir werden diese Probleme aber nicht lösen, indem wir uns zurückziehen oder menschliche Interaktion durch Technik ersetzen.
Ich sehe vor allem die Geburts-Behinderten in der Pflicht, dabei mit positivem Beispiel voranzugehen. Es ist verständlich, dass frisch Behinderte größere Schwierigkeiten damit haben und wir können ihnen das erleichtern, in dem wir mit gutem Beispiel vorangehen.
Zu wünschen wäre auch ein Outing. Wahrscheinlich tragen viele unserer geliebten Stars und Lieblingssportler ein Hörgerät und es wäre zu wünschen, dass sie sich dazu bekennen. Der Homosexuellen-Bewegung hat es sicher geholfen, dass viele Politiker öffentlich erklärt haben, homosexuell zu sein. Bei Behinderung hat das bisher nicht stattgefunden. Manche würden wahrscheinlich sogar eine Behinderung verschweigen, die für jeden sichtbar ist.
Ich möchte niemanden zwingen, sich zu seiner Behinderung zu bekennen, wenn er das nicht möchte. Ich möchte nur zeigen, dass wir uns zumeist selbst am meisten schaden, wenn wir die Behinderung verstecken.

Was sehen Blinde eigentlich?

Nichts, wird die volksmündliche Antwort lauten. Leider ist die Situation aber ein wenig komplizierter. In diesem Beitrag werden wir uns anschauen, was Blinde visuell wahrnehmen können.

Eine kleine Begriffskunde

Wie immer ist es sinnvoll, die Begriffe zu kennen:

  • Wir sprechen von vollblind, wenn jemand nichts oder so gut wie nichts sehen kann.
  • Gesetzlich blind sind Menschen, die einen bestimmten Sehrest unterschreiten. Das betrifft entweder die Sehschärfe, die im Visus angegeben wird. Oder die Größe des Gesichtsfeldes. Diese Gruppe wird als Sehrestler bezeichnet.

Beide genannten Gruppen sind im gesetzlichen Sinne blind. Davon abgrenzen können wir die hochgradig Sehbehinderten, die Sehbehinderten und natürlich die Sehenden. Letztere haben entweder keine oder zumindest nicht solche Sehprobleme, die sich nicht mit Brillen oder Kontaktlinsen ausgleichen lassen. Die Grenzen zwischen hochgradig sehbehindert und Sehrest-Blinden ist fließend. In der Regel arbeiten
hochgradig Sehbehinderte noch visuell am Computer und benutzen keinen Blindenstock. Die Sehrestler arbeiten in der Regel mit Screenreader und Braille und verwenden einen Blindenstock im Alltag. Doch gibt es hier keine absolute Regel.

Ich sehe was, was Du nicht siehst

Sehen ist die Verarbeitung von Licht. Entweder wird Licht ausgestrahlt, zum Beispiel von einem Bildschirm oder es wird reflektiert. Das war es schon, alles, was wir sehen, ist die Reflektion von Licht. Manchmal lohnt es sich, sich an diese einfache Tatsache zu erinnern.
Das Spektrum des Sehens unter Sehrestlern ist relativ groß. Was der Eine sieht, sieht der Andere nicht und umgekehrt. Wenn ein Sehender einem anderen Sehenden etwas zeigt, z.B. auf der Straße, kann er ziemlich sicher sein, dass der Andere es auch sehen wird. Unter Sehrestlern ist die Wahrscheinlichkeit, dass zwei Personen das Gleiche erkenne, relativ gering. In meiner Schulzeit konnte einer meiner Freunde Personen am Gesicht erkennen, aber keine Schwarzschrift lesen. Schwarzschrift nennen wir Blindgänger die gedruckte Schrift. Ich kann bis heute ein wenig Schwarzschrift lesen, wenn sie so groß wie eine Zeitungsüberschrift ist. Aber ich konnte in meinem ganzen Leben niemanden am Gesicht, der Kleidung oder am Gang erkennen.
Die Mess-Instrumente, die Augenärzte verwenden sind natürlich nicht auf Unsereins ausgelegt, sondern auf Normal-Sichtige. Ich weiß leider nicht, ob es spezielle Messmethoden für sehschwache Personen gibt oder ob solche Mess-Instrumente überhaupt sinnvoll wären.

Sehen mit dem ganzen Körper

Wer lediglich auf das Sehen achtet, verkennt viele andere Faktoren. Im Computerbereich würde man das integrierte Informationsverarbeitung nennen. Da ist natürlich das Gehör. Aber auch der haptische Kontakt zum Boden, der Geruchsinn. Der Geschmacksinn als fünfter Sinn ist an der Stelle nicht so wichtig. Sehende benutzen solche Faktoren oft unbewusst. Der Geruchssinn zum Beispiel funktioniert sehr stark intuitiv. Aber auch das Gehör spielt eine Rolle: Wem ist es noch nicht passiert, dass er das Auto hinter sich zuerst gehört hat und dann zur Seite sprang, ohne sich umzudrehen und zu gucken, ob es einen tatsächlich gleich überfährt?
Als weiterer Faktor kommen Gedächtnis und Erfahrung hinzu. Als kleines Kind bereits mussten wir lernen, visuelle und auditive Reize zu unterscheiden. In unserem Gedächtnis gibt es tausende Geräusche. Jeder erkennt zum Beispiel das charakteristische Geräusch eines entriegelnden Kofferraums, eines bremsenden Fahrrads oder eines tappenden Hundes, auch wenn wir kein Auto, kein Fahrrad und keinen Hund haben.
Als weiteren Faktor haben wir die Situationsabhängigkeit: An einer Straße dürfen wir mit anderen Gegenständen rechnen als im Park oder im Wald.
Und das Gedächtnis verrät uns, dass das Gelbe da vorne, wo wir jeden Tag vorbei gehen ein Briefkasten und keine gelbe Tonne ist. Grob geschätzt nutzen wir 90 Prozent unseres Lebens immer die gleichen Wege. Wenn jemand in unsere Wohnung spazieren und unsere Bücher umstellen würde, würden wir das sofort merken. Und zwar nicht, weil wir ein so ausgefeiltes Ordnungssystem haben, sondern weil uns das Muster der Aufstellung vertraut ist. Wenn aber etwas jeden Tag anders ist, wie die Autos, die an der Straße parken, achten wir in der Regel nicht darauf. Wenn wir wissen, was etwas ist, reichen auch sehr unscharfe Seheindrücke, um es zu erkennen bzw. Veränderungen zu bemerken.

Im Gegensatz zum Menschen, wir schauen mal von der künstlichen Intelligenz und Fuzzy Logic ab, versteht ein Computer nur ja oder nein. Er wird sich zwangsläufig entscheiden, ist es ein Mensch oder ein Laternenpfahl? Ein Mensch hingegen könnte schlussfolgern, das Objekt könnte ein Mensch sein, aber Menschen stehen normalerweise nicht stocksteif in der Gegend rum. Es wird also doch ein Pfahl sein. Befindet es sich hingegen mitten auf einem Bürgersteig, wird es wohl eher ein Mensch sein.

Fazit

Es ist also schlicht gesagt unmöglich, einem anderen Menschen exakt zu beschreiben, was man als Sehrestler wahrnimmt. Wir behelfen uns immer an Beispielen, die aber oft unzureichend sind. Deswegen dürft ihr auf die Frage: „Was siehst du eigentlich?“ nie eine klare Antwort von uns erwarten.
Das scheint die Frage zu sein, die Sehende am meisten verwirrt, wenn sie mit Sehrestlern zu tun haben. Leider ist das eine Frage, auf die es keine eindeutige Antwort gibt oder jemals geben wird.