{"id":707,"date":"2018-03-22T18:12:37","date_gmt":"2018-03-22T16:12:37","guid":{"rendered":"http:\/\/www.netz-barrierefrei.de\/wordpress\/?page_id=707"},"modified":"2019-03-22T14:03:26","modified_gmt":"2019-03-22T12:03:26","slug":"jenseits-von-bildschirm-und-lautsprecher","status":"publish","type":"page","link":"https:\/\/www.netz-barrierefrei.de\/wordpress\/hilfstechnik-und-mensch-maschine-interaktion\/jenseits-von-bildschirm-und-lautsprecher\/","title":{"rendered":"Jenseits von Bildschirm und Lautsprecher"},"content":{"rendered":"<p>Die erste Ausgabemethode war nat\u00fcrlich grafisch. Die seinerzeit riesigen und gleichzeitig nicht besonders darstellungsstarken Bildschirme waren f\u00fcr das ausreichend, was die meisten Experten brauchten. Eine Shell, um Befehle einzugeben und die Ergebnisse abzulesen und ein Editor, um Programme zu schreiben und zu editieren. Computer waren Expertensysteme, grafischer und auditiver Schnickschnack waren weder n\u00f6tig noch \u00fcberhaupt sinnvoll, da Rechenleistung knapp und teuer war. Die Systeme waren in gewisser Weise auch elit\u00e4r, weil praktisch nur Wissenschaftler und Studenten Zugang hatten. Wer schlechte Augen hatte oder keine Tastatur verwenden konnte hatte eben Pech gehabt. <\/p>\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_2 counter-hierarchy ez-toc-counter ez-toc-white ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Inhalt<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Toggle Table of Content\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewBox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewBox=\"0 0 24 24\" version=\"1.2\" baseProfile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1 ' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/www.netz-barrierefrei.de\/wordpress\/hilfstechnik-und-mensch-maschine-interaktion\/jenseits-von-bildschirm-und-lautsprecher\/#Der_Computer_wird_hoerbar\" >Der Computer wird h\u00f6rbar<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/www.netz-barrierefrei.de\/wordpress\/hilfstechnik-und-mensch-maschine-interaktion\/jenseits-von-bildschirm-und-lautsprecher\/#Haptisches_Feedback_%E2%80%93_der_Output_wird_fuehlbar\" >Haptisches Feedback \u2013 der Output wird f\u00fchlbar<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/www.netz-barrierefrei.de\/wordpress\/hilfstechnik-und-mensch-maschine-interaktion\/jenseits-von-bildschirm-und-lautsprecher\/#Tragbarer_Output\" >Tragbarer Output<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/www.netz-barrierefrei.de\/wordpress\/hilfstechnik-und-mensch-maschine-interaktion\/jenseits-von-bildschirm-und-lautsprecher\/#Was_bringt_uns_das\" >Was bringt uns das?<\/a><\/li><\/ul><\/nav><\/div>\n<h2><span class=\"ez-toc-section\" id=\"Der_Computer_wird_hoerbar\"><\/span>Der Computer wird h\u00f6rbar<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Das \u00e4nderte sich recht schnell sp\u00e4testens mit dem Aufkommen der Flipperautomaten. Sie w\u00e4ren wohl nur halb so erfolgreich ohne die comic-m\u00e4\u00dfige Grafik und die schaurige Ger\u00e4uschkulisse.<br \/>\nAber auch die Computer wurden leistungsf\u00e4higer. Innovationstreiber war dabei nicht zuletzt die Spieleindustrie, die daf\u00fcr sorgte, dass sich die Menschen bessere Grafikkarten und Bildschirme zulegen wollten.<br \/>\nNach und nach wurde aber auch Sounddesign wichtig. Zun\u00e4chst waren die Soundkarten eher unterentwickelt. Die Soundausgabe war oft ins Computergeh\u00e4use eingelassen, Viele erinnern sich wohl noch an die gew\u00f6hnungsbed\u00fcrftigen Sounds der fr\u00fchen 90er mit Wolfenstein 3 D, Doom oder Monkey Island. Diese Speaker gibt es nach wie vor und sie geben manchmal etwas von sich, wenn man mit der Eingabeaufforderung arbeitet. Wesentlich mehr als ein paar piepsige Laute kann man diesen Lautsprechern nicht entlocken.<br \/>\nMit den grafischen Benutzeroberfl\u00e4chen kam auch das auditive Feedback auf. So ab Windows 95 gab es Sounds als Feedback, wenn man zum Beispiel den Ordner gewechselt hat oder versuchte eine Eingabe zu machen, obwohl ein Dialogfeld ge\u00f6ffnet war. Vor allem f\u00fcr Sehbehinderte ist das enorm hilfreich. Wegen der oft starken Vergr\u00f6\u00dferung k\u00f6nnen sie nicht erkennen, ob sie zum Beispiel keine Eingabe machen k\u00f6nnen, weil irgendwo ein Dialogfeld ge\u00f6ffnet ist.<br \/>\nDas Soundsystem ist vor allem als Feedback enorm wichtig und wird von den Entwicklern der grafischen Oberfl\u00e4chen vernachl\u00e4ssigt. Bedenkt man, wie viele Ressourcen in die grafische Entwicklung gesteckt werden bekommt man eine Vorstellung davon, wie cool ein Audiodesign werden k\u00f6nnte, wenn \u00e4hnlich viele Ressourcen daf\u00fcr aufgewendet werden w\u00fcrden. Falls die Gestensteuerung einmal blindentauglich werden sollte w\u00e4re ein akustisches Feedback sehr hilfreich \u00e4hnlich wie es das bereits bei Gesten im iOS gibt. Auch f\u00fcr eine blinde Sprachsteuerung w\u00e4re ein Audiofeedback hilfreich, damit man zum Beispiel wei\u00df, ob der Computer einen Sprachbefehl verstanden hat oder nicht. Das w\u00fcrde es \u00fcbrigens auch Sehenden erleichtern, ihren Computer blind \u00fcber Sprache zu steuern.<br \/>\nHeute gibt es bei fast allen Systemen per Default nur die grafische Schnittstelle f\u00fcr Benutzereingaben und \u2013ausgaben. Selbst der Ein-Platinen-Rechner Raspberry Pi braucht zumindest ein Display f\u00fcr die Inbetriebnahme, aus meiner Sicht w\u00fcrde nichts dagegen sprechen, standardm\u00e4\u00dfig weitere in- und Output-M\u00f6glichkeiten zu schaffen. Die Google Brille zum Beispiel soll per Default nur per Touch und Sprache zu steuern sein.<br \/>\n Mit den Soundkarten wurden auch die Sprachausgaben m\u00f6glich. An der prinzipiellen Funktionsweise von Sprachausgaben hat sich bis heute nicht viel ver\u00e4ndert. Es werden Phoneme verwendet, die nach bestimmten Regeln und W\u00f6rterb\u00fcchern zusammen gesetzt werden. Ich verwende ungef\u00e4hr seit 13 Jahren Jaws und kann mich nicht erinnern, dass die verwendete Sprachausgabe Eloquence seit den Anfangszeiten wesentlich anders geworden ist, zumindest hat sie zwischenzeitlich gelernt, so unwichtige Worte wie Microsoft oder Jaws korrekt auszusprechen.<br \/>\nWas sich gewandelt hat ist die Qualit\u00e4t kommerzieller Sprachausgaben, wie sie etwa von Nuance angeboten werden. Der Antreiber d\u00fcrften hier vor allem die Anbieter von automatischen Dialogsystemen \u2013 sprich Telefonschleifen \u2013 oder die Hersteller von Navis gewesen sein, die eine weniger roboterartige Stimme als Eloquence bevorzugten. Mittlerweile k\u00f6nnen auch Jaws und NVDA diese Sprachen verwenden. Die Qualit\u00e4t ist erstaunlich gut, auch wenn der Unterschied zur nat\u00fcrlichen Sprache schnell auff\u00e4llt. <\/p>\n<h2><span class=\"ez-toc-section\" id=\"Haptisches_Feedback_%E2%80%93_der_Output_wird_fuehlbar\"><\/span>Haptisches Feedback \u2013 der Output wird f\u00fchlbar<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>In den 90ern kamen die ersten Braillezeilen auf. Die Ausgabe von Inhalten als Blindenschrift war eine feine Sache und ist es bis heute oder vielmehr k\u00f6nnte sie es sein, wenn die Zeilen billiger w\u00e4ren. In die Kategorie des haptischen Feedbacks f\u00e4llt auch der Vibrationsakku oder Vibrationsmotor, der Anrufe oder SMS f\u00fchlbar ank\u00fcndigt. Der Vibrationsakku hat sich in den letzten Jahren meiner Erinnerung nach kaum weiter entwickelt.<br \/>\nBeim haptischen Output liegt meines Erachtens auch noch viel Potential. Verschiedene Entwickler arbeiten an haptischen, sich dynamisch \u00e4ndernden Displays.<br \/>\nEin Entwickler hat ein Navi f\u00fcr die Zunge erfunden, das Ger\u00e4t gibt Impulse an die Zunge weiter, mit denen sich der Blinde orientieren kann.<br \/>\nEs ist aber noch mehr denkbar. Aktuell gibt es f\u00fcr taubblinde Menschen nur eine M\u00f6glichkeit, um Inhalte am Computer zu rezipieren: die Braillezeile. Wie w\u00e4re es mit einem Ger\u00e4t, das Inhalte als Lorme als haptischen Output ausgibt? Aktuell wird zum Beispiel ein Lorme-Handschuh entwickelt. <\/p>\n<h2><span class=\"ez-toc-section\" id=\"Tragbarer_Output\"><\/span>Tragbarer Output<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Google Glass ist nat\u00fcrlich noch so eine Geschichte, es ist im Prinzip die Weiterentwicklung von Cyberbrillen und Smartphone-Displays. Auch die angeblich von Apple geplante und von anderen Unternehmen bereits ver\u00f6ffentlichten Smartwatches schlagen eine \u00e4hnliche Richtung ein. Das Handy m\u00fcsste nicht mehr aus der Tasche geholt werden, um wichtige Informationen abzurufen, was z.B. f\u00fcr die Navigations-Funktion hilfreich w\u00e4re. Auch hier w\u00e4re ein haptisches Feedback hilfreich, damit man sich nicht so bl\u00f6d vorkommt, weil man die ganze Zeit den Arm vor das Gesicht h\u00e4lt.<br \/>\nDer n\u00e4chste logische Schritt sind Wearables. Glass und Smartwatch gehen bereits in diese Richtung, aber man kann noch weiter gehen, indem man das Ger\u00e4t zum Output in die Kleidung einbaut oder gleich in den K\u00f6rper einsetzt.<br \/>\nW\u00e4hrend die vorgestellten Konzepte bereits realisiert sind ist die eigentlich spannende Entwicklung das Verschmelzen von Input- und Output-Schnittstelle. Wie schon berichtet forschen Samsung \u2013 und sicher noch viele andere \u2013 daran, wie der Computer \u00fcber das Gehirn direkt gesteuert werden kann. Das klingt komplizierter, als es ist. Die Quantified Self-Bewegung  benutzt bereits ausgiebig Sensoren, die diverse Biosignale wie den Blutdruck, den Blutzuckerspiegel und so weiter messen. Diese Signale in irgendeiner Weise nutzbar zu machen, um den Computer darauf reagieren zu lassen sollte keine gro\u00dfe Sache mehr sein. Wir br\u00e4uchten dann nur noch Output-Systeme, die uns zum Beispiel einen kleinen elektrischen Schlag geben, wenn etwa der Puls zu hoch oder zu niedrig ist. Das Ganze mit dem Gehirn zu koppeln ist dann nur noch eine Frage der Zeit \u2013 und der Ethik, aber das sollen andere diskutieren. <\/p>\n<h2><span class=\"ez-toc-section\" id=\"Was_bringt_uns_das\"><\/span>Was bringt uns das?<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Wir als Behinderte k\u00f6nnen nat\u00fcrlich davon profitieren. Als Blinder tr\u00e4umt man davon, nicht permanent auf irgendwelche Audiosingale achten zu m\u00fcssen, weil man sich dann nicht mehr auf andere wichtigere Ger\u00e4uschquellen wie r\u00fcckw\u00e4rts ausparkende Autos konzentrieren kann. Ich bin sicher einige Dutzend Male fast angefahren worden, weil ich mich auf etwas anderes konzentriert und ein ausparkendes auto- nicht geh\u00f6rt habe \u2013 dass die Fahrer nicht geguckt haben steht auf einem anderen Blatt. Insofern ist ein haptisches Feedback f\u00fcr uns eine gro\u00dfartige Sache, die meines Erachtens bisher zu wenig weiter entwickelt wurde.<br \/>\nAuch f\u00fcr Menschen, die sich nicht so gut bewegen k\u00f6nnen sind m\u00f6glichst viele Eingabemethoden hilfreich. Eine einzige Eingabemethode ist oft nicht ausreichend, um alle n\u00f6tigen Aufgaben am Computer zu erledigen, auch wenn es prinzipiell machbar w\u00e4re. Maus oder Touch sind ideal f\u00fcr Drag and Drop, aber ziemlich schwierig f\u00fcr die Texteingabe. Die Tastatur ist ideal zum Schreiben von Text, aber ziemlich hakelig, wenn es etwa um das Markieren von Bildauschnitten geht. Eyetracking ist ein guter Mausersatz, aber f\u00fcr das Schreiben von Text ist die Spracheingabe komfortabler. Um eine bestimmte Stelle im Text zu korrigieren und den Cursor darauf zu positionieren ist Eyetracking besser als die Spracheingabe.<br \/>\nHinzu kommt, dass eine Behinderung oft nicht alleine kommt. Motorisch Behinderte k\u00f6nnen auch seh- oder sprachbehindert sein, so dass sie einige der Eingabemethoden f\u00fcr motorisch Behinderte nicht verwenden k\u00f6nnen.<br \/>\nDas Interessante in der Mensch-Maschine-Interaktion ist, dass alle Menschen vom Multikanalprinzip profitieren k\u00f6nnen. Ein System wird wesentlich leicht bedienbar, wenn es zum Beispiel ein visuelles und ein auditives oder haptisches Feedback gibt. Touch hin, Touch her, ein physischer Schalter ist aus Sicht der Usability oft besser.<br \/>\nAm ende ist es wichtig, so viele Ein- und Ausgabe-M\u00f6glichkeiten  wie m\u00f6glich zu haben und sie nach Belieben kombinieren zu k\u00f6nnen. Und wiederum sind die Entwickler von Smartphones und Tablets die Innovationstreiber. Es kommt nicht darauf an, dass diese Schnittstellen speziell f\u00fcr Behinderte entwickelt werden. Wichtig ist, dass sie offen sind f\u00fcr Entwickler, die sie f\u00fcr Behinderte nutzbar machen k\u00f6nnen. Die Spracheingabe SVoice von Samsung ist ganz nett, solange man nur Samsung verwendet und nur kompatible Apps nutzt, aber wer m\u00f6chte das eigentlich? <\/p>\n","protected":false},"excerpt":{"rendered":"<p>Die erste Ausgabemethode war nat\u00fcrlich grafisch. Die seinerzeit riesigen und gleichzeitig nicht besonders darstellungsstarken Bildschirme waren f\u00fcr das ausreichend, was die meisten Experten brauchten. Eine&#8230;<\/p>\n<div class=\"more-link-wrapper\"><a class=\"more-link\" href=\"https:\/\/www.netz-barrierefrei.de\/wordpress\/hilfstechnik-und-mensch-maschine-interaktion\/jenseits-von-bildschirm-und-lautsprecher\/\">Weiterlesen<span class=\"screen-reader-text\">Jenseits von Bildschirm und Lautsprecher<\/span><\/a><\/div>\n","protected":false},"author":1,"featured_media":0,"parent":700,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"footnotes":""},"class_list":["post-707","page","type-page","status-publish","hentry","entry"],"_links":{"self":[{"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/pages\/707","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/comments?post=707"}],"version-history":[{"count":4,"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/pages\/707\/revisions"}],"predecessor-version":[{"id":1717,"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/pages\/707\/revisions\/1717"}],"up":[{"embeddable":true,"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/pages\/700"}],"wp:attachment":[{"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/media?parent=707"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}