In diesem Beitrag geht es um das ThemaKünstliche Intelligenz als Chance für Technik-unaffine Personen zum Zugang zur digitalen Technologien. Es geht um Technologien, die entweder schon verfügbar wären oder es in absehbarer Zeit verfügbar sein könnten, das ist also keine Technik-Utopie.
Zusammenfassung – TLDR
Viele Menschen – etwa ältere oder sehbehinderte Personen – sind mit grafischen Benutzeroberflächen überfordert. Selbst scheinbar einfache Apps oder Webseiten sind oft zu komplex.
Assistive Technologien wie Screenreader könnten helfen, sind aber selbst schwierig zu erlernen, oft nicht robust oder teuer in der Anschaffung. Dadurch entsteht eine große Gruppe, die von der Digitalisierung weitgehend ausgeschlossen bleibt – genau jene, die sie eigentlich am dringendsten bräuchten.
Die bisherigen Ansätze zur Barrierefreiheit, etwa nach den WCAG-Richtlinien oder im Bereich Usability, erreichen diese Gruppe kaum.
Daher richtet sich der Blick auf neue KI-basierte Lösungen.
Ein Ansatz sind adaptive Benutzeroberflächen, die sich automatisch an die Bedürfnisse der Nutzenden anpassen. Besonders realistisch erscheint dabei ein Assistenz-Tool, mit dem individuelle Anforderungen – etwa Schriftgrößen, Farben, Kontraste oder das Abschalten von Animationen – einmalig festgelegt und systemübergreifend übernommen werden können.
Darüber hinaus könnten multimodale Eingabesysteme, insbesondere Sprachsteuerung, Barrieren abbauen.
Wenn eine KI mit Sprache reagiert und gesteuert wird, entfällt die Notwendigkeit, komplexe grafische Interfaces zu bedienen.
Auch die automatische sprachliche Vereinfachung von Texten bietet großes Potenzial – vor allem, wenn KI Inhalte in einfacher Sprache verständlich aufbereitet.
Ein weiterer wichtiger Punkt ist die emotionale Unterstützung durch KI-Systeme.
Gerade für Menschen mit psychischen Belastungen kann eine empathisch reagierende KI, die Frustration erkennt und mit Zuspruch oder Hilfestellung reagiert, eine große Hilfe sein.
Damit solche Technologien wirklich inklusiv sind, müssen sie jedoch bestimmte Voraussetzungen erfüllen:
• Korrektheit und Zuverlässigkeit der Informationen
• Datenschutzkonforme Verarbeitung, idealerweise durch lokal laufende Modelle
• Verfügbarkeit und Zugänglichkeit für jene, die es benötigen
Trotz offener Fragen, etwa beim Datenschutz oder bei der technischen Umsetzung, zeigt sich ein klarer Trend:
Mit der fortschreitenden Integration von KI in Betriebssysteme – etwa durch Microsoft, Google oder Apple – wächst die Chance, dass digitale Technologien künftig deutlich zugänglicher werden.
Das Problem
Wir wissen: Viele Menschen nutzen digitale Geräte und grafische Benutzeroberflächen ganz selbstverständlich – sie schreiben E-Mails, surfen im Internet oder bedienen komplexe Apps.
Aber es gibt auch eine große Gruppe, für die das alles kaum möglich ist. Nicht, weil sie kein Interesse hätten, sondern weil die Technik einfach zu kompliziert ist. Viele von ihnen – nicht alle, aber ein großer Teil – leben mit einer Behinderung.
Ich kenne das besonders aus dem Bereich der Blindheit und Sehbehinderung. Vor allem ältere blinde Menschen nutzen Computer oder Smartphones oft gar nicht, weil ihnen die grundlegenden Techniken der Computernutzung oder der Arbeit mit Screenreadern fehlen.
Andere wiederum nutzen ihre Geräte nur sehr eingeschränkt – sie verschicken vielleicht Sprachnachrichten über WhatsApp, öffnen gelegentlich eine App wie die Wetter-App, und das war’s dann auch. Sobald es aber darum geht, im Internet zu surfen, Formulare auszufüllen oder komplexere Anwendungen wie YouTube zu bedienen, stoßen viele schnell an ihre Grenzen.
Das Problem ist: Mit den bisherigen Ansätzen der digitalen Barrierefreiheit, etwa den WCAG-Richtlinien oder klassischen Konzepten aus dem Bereich User Experience, erreichen wir genau diese Gruppe kaum.
Natürlich leisten die Fachleute in diesen Bereichen großartige Arbeit – sie verbessern die Usability und vereinfachen die Nutzung. Davon profitieren vor allem Menschen, die ohnehin schon relativ gut mit Technik umgehen können, oder der „mittlere Bereich“: also diejenigen, die zwar manchmal hadern, aber grundsätzlich zurechtkommen.
Doch diejenigen, die schon heute mit grafischen Benutzeroberflächen überfordert sind, profitieren am wenigsten. Und genau hier sehe ich ein zentrales Problem: Mit den bisherigen Methoden der digitalen Barrierefreiheit erreichen wir diese Menschen schlicht nicht.
Das heißt im Klartext: Gerade diejenigen, die digitale Unterstützung am dringendsten bräuchten – also Menschen, die ihre Wohnung nicht verlassen können oder auf andere Weise auf Hilfe angewiesen sind – haben oft die geringsten Chancen, mit digitalen Interfaces zurechtzukommen.
Sie können dann keine Online-Bestellungen aufgeben, keine Termine bei Behörden vereinbaren, keine Medikamente ordern oder sich Einkäufe nach Hause liefern lassen. Alles Dinge, die für viele von uns selbstverständlich geworden sind.
Das liegt vor allem daran, dass viele dieser Anwendungen einfach zu komplex sind. Heute läuft ja fast alles digital – sogar die Paketverfolgung. Man kann in Echtzeit sehen, wo das Paket gerade ist, oder eine Umleitung verhindern, wenn es in die Filiale gebracht werden soll. Aber um das zu nutzen, braucht man technische Kenntnisse, die viele Menschen schlicht nicht haben.
Die beiden entscheidenden Faktoren habe ich oben schon genannt:
Zum einen sind grafische Benutzeroberflächen für viele zu komplex – selbst eine vermeintlich einfache App kann überfordern.
Und zum anderen sind auch die assistiven Technologien, also Hilfsmittel wie Screenreader, nicht leicht zu bedienen. Für Menschen, die damit groß geworden sind oder sie regelmäßig nutzen, ist das natürlich Routine. Aber für diejenigen, die wenig oder keine Erfahrung damit haben, ist das eine fast unüberwindbare Hürde.
Was den ersten Punkt angeht: Da gibt es sicher noch Optimierungspotenzial, das noch nicht ausgeschöpft wurde. Beim letzteren Punkt hat sich tatsächlich seit der Einführung der mobilen Screenreader kaum etwas getan: Screenreader sind bei der Nutzung und dem Erlernen komplex, daran hat sich bisher nichts geändert und bislang habe ich auch keine Anästze gesehen, die das ändern würden.
Wenn man also weder mit grafischen Benutzeroberflächen noch mit assistiven Technologien umgehen kann, sehe ich aktuell ehrlich gesagt keinen Weg, wie man das mit heutiger Technik überwinden könnte. Eines von beidem muss man beherrschen – sonst ist der Zugang zur digitalen Welt praktisch versperrt.
Schauen wir nun auf einige Ansätze, die bereits diskutiert werden.
Adaptive Benutzeroberflächen
Ein Beispiel ist das Konzept der KI-basierten adaptiven Benutzeroberflächen, das Jakob Nielsen vor ein paar Jahren vorgeschlagen hat. Dabei sollen sich grafische Interfaces automatisch an die Bedürfnisse der Nutzenden anpassen.
Das klingt heute noch nach Zukunftsmusik – und es ist auch nicht absehbar, dass so etwas schon im nächsten oder übernächsten Jahr flächendeckend verfügbar sein wird. Aber die Prognose kommt von jemandem, der in der UX- und Usability-Forschung sehr anerkannt ist. Die Nielsen Norman Group gehört zu den führenden Unternehmen in diesem Bereich, sie forschen intensiv und veröffentlichen regelmäßig Studien dazu. Wenn also Nielsen sagt, dass adaptive Interfaces kommen werden, ist das durchaus ernst zu nehmen.
Die Idee dahinter: Benutzeroberflächen könnten sich entweder automatisch an die individuellen Bedarfe anpassen – etwa durch KI, die das Nutzungsverhalten analysiert – oder man wird mithilfe eines Assistenten durch eine Einrichtung geführt, bei der man seine Bedürfnisse einmal definiert, und diese Einstellungen werden dann auf alle Geräte und Anwendungen übertragen. Das wäre ein Ansatz, den ich mir sehr gut vorstellen kann.
Ich halte allerdings das Szenario der manuellen Anpassung der Interfaces über ein Assistenz-Tool, für deutlich relevanter – zumindest, wenn wir über Menschen mit Behinderungen sprechen.
Denn Behinderungen wie Neurodiversität oder Sehbehinderung unterscheiden sich so stark voneinander, dass eine KI kaum einfach aus dem Nutzungsverhalten lernen könnte, was individuell gebraucht wird. Da braucht es eine Möglichkeit, einmal gezielt festzulegen, welche Anpassungen sinnvoll sind – und diese sollten dann idealerweise auf alle grafischen Benutzeroberflächen angewendet werden. Die Bedarfe sind einfach zu unterschiedlich, um sie mit einem einheitlichen System abzubilden.
Hinzu kommt: Wir sprechen hier über Menschen, die meist nicht digital affin sind, also digitale Technologien weitgehend vermeiden. Das bedeutet: Es gäbe gar keine ausreichenden Nutzungsdaten, aus denen eine KI etwas lernen könnte. Insofern wäre ein Assistent, mit dem man einmalig die eigenen Bedürfnisse einstellen kann, wahrscheinlich die praktikablere Lösung.
Und was könnte man dort festlegen? Zum Beispiel:
• Keine Animationen oder blinkenden Effekte – weder automatisch noch bei Interaktionen.
• Keine selbststartenden Videos.
• Ausschluss bestimmter Farben, etwa Grün oder Rot, wenn sie Trigger auslösen.
Bei Sehbehinderten könnten die Einstellungen etwa betreffen:
• eine bestimmte gut lesbare Schriftart,• angepasste Kontrastwerte,
• oder eine definierte Farbpalette, die individuell am besten funktioniert.
Das, was heute teilweise umständlich über Bildschirmlupe oder Hochkontrastmodus läuft – und dort oft unzuverlässig funktioniert – könnte so automatisiert und systemübergreifend umgesetzt werden.
Die Anwendung würde sich also anpassen, ohne dass die Funktionalität eingeschränkt wird.
Vereinfachung der Oberflächen
Ein weiterer wichtiger Punkt ist die Vereinfachung der Benutzeroberflächen.
Ich stelle mir da eine Art „Reduktion auf das Wesentliche“ vor. Wenn man zum Beispiel ein Formular ausfüllt, sollte nur noch das Formular sichtbar sein – ohne die ganze Navigation und Ablenkung drumherum.
Vielleicht blendet die KI sogar kurze Erklärungen ein, wenn ein Feld oder Begriff unverständlich ist. Wunsch-Szenario wäre, dass die KI das Formular weitgehend selbständig ausfüllt.
Eine weitere Idee, die mir in dem Zusammenhang wichtig ist, betrifft die Struktur von Websites und Webanwendungen. Ich fände es sinnvoll, sich künftig stärker an Aufgaben (Tasks) statt an klassischen Webseiten zu orientieren.
Wenn ich zum Beispiel Online-Banking nutze, sehe ich dort Hunderte von Funktionen – Kredite, Portfolios, Versicherungen –, obwohl ich eigentlich nur mein Konto verwalten oder eine Überweisung tätigen will. Diese Überfülle überfordert viele Menschen. Menschen wollen in der Regel kein Webportal oder App nutzen, sie wollen eine Aufgabe erledigen. Niemand würde wohl ernsthaft behaupten, dass es so, wie wir es heute machen effizient ist.
Ich könnte mir deshalb gut vorstellen, dass Benutzeroberflächen künftig taskbasiert aufgebaut sind. Das heißt: Ich sage einfach, was ich tun möchte – zum Beispiel „Ich will eine Überweisung machen“ oder „Ich möchte meine Kontoauszüge sehen“ – und das Interface führt mich Schritt für Schritt durch diese Aufgabe.
Ohne dass ich mich vorher durch zig Menüs und Seiten klicken muss.
Das wäre eine elegantere und inklusivere Art der Interaktion – und natürlich müsste auch dieses System zuverlässig funktionieren, selbst dann, wenn es individuell an die Nutzungsgewohnheiten oder Präferenzen angepasst wird.
Multimodale Eingaben
Und schließlich spielt auch die Art der Eingabe eine große Rolle.
Heute nutzen wir im Wesentlichen Tastatur, Maus und Touch. Sprachsteuerung hätte eigentlich längst eine größere Bedeutung erlangen sollen – insbesondere durch Systeme wie Alexa.
Aber Amazon hat die Weiterentwicklung in dem Bereich kaum vorangetrieben – erst mit dem Aufkommen der generativen KI erlebt Sprachinteraktion wieder einen neuen Schub.
Der nächste Schritt könnte tatsächlich die multimodale Eingabe sein – also eine Kombination aus Sprache, Gestik und anderen Interaktionsformen.
Das bedeutet: Die KI antwortet mit Sprache, und ich steuere sie ebenfalls sprachlich.
Sie könnte dann Rückfragen stellen wie: „Möchtest du wirklich diesen Betrag an Person X überweisen?“ – also mit eingebauten Sicherheitsabfragen, um Fehler oder Manipulationen zu vermeiden.
Gerade für ältere Menschen könnte ich mir diese Form der Steuerung sehr gut vorstellen. Natürlich muss man sich erst daran gewöhnen, mit einem Computer zu sprechen, aber das halte ich für ein lösbares Problem.
Und wenn die KI sprachlich reagiert, entfällt ja das eigentliche Hindernis – nämlich die komplizierten grafischen Benutzeroberflächen.
Sprachliche Vereinfachung
Ein weiterer spannender Bereich ist die sprachliche Vereinfachung.
Das ist heute technisch schon möglich.
Ich weiß, dass es in der Community der „Leichten Sprache“ und „Einfachen Sprache“ auch kritische Stimmen gibt – aus guten Gründen.
Aber aus meiner Sicht funktioniert die automatische Vereinfachung erstaunlich gut, zumindest dann, wenn vorhandene Texte lediglich zusammengefasst oder sprachlich vereinfacht werden.
Natürlich gibt es bei KI-Systemen das bekannte Problem der „Halluzinationen“, also falscher oder erfundener Inhalte.
Aber bei der reinen Textvereinfachung ist das Risiko deutlich geringer. Und hier sehe ich ein enormes Potenzial:
Denn selbstverständlich wäre es ideal, wenn alle Inhalte in einfacher oder leichter Sprache verfügbar wären – aber das ist in der Praxis kaum zu leisten.
Es fehlen schlicht die Ressourcen, das alles manuell zu erstellen.
Wenn also KI-gestützte Systeme hier unterstützen können, wäre das ein echter Fortschritt in Sachen digitale Inklusion. Bisher hat sich diese Funktion noch nicht wirklich durchgesetzt, aber ich bin sicher, das wird kommen – wahrscheinlich direkt in Browser oder Betriebssysteme integriert. Ich weiß, dass Apple bereits an solchen Lösungen arbeitet.
Ob Google bei ChromeOS oder Android schon so weit ist, weiß ich nicht genau, aber ich denke, auch dort wird das Thema bald relevant.
Sobald die Modelle lokal auf den Geräten laufen können, also ohne ständige Cloud-Verbindung, wird das Ganze ohnehin viel praktikabler – schneller, energieeffizienter und datenschutzfreundlicher.
Hilfe bei psychischen Herausforderungen
Ein weiteres interessantes Feld ist die Unterstützung von Menschen mit psychischen Beeinträchtigungen.
Wir wissen, dass hier die Frustrationstoleranz im Umgang mit Technik oft etwas niedriger ist – völlig verständlich, denn digitale Systeme können frustrierend sein.
Wenn eine KI künftig in der Lage wäre, Frustration zu erkennen – etwa anhand der Stimme oder des Sprachtons – könnte sie empathisch reagieren, beruhigend einwirken oder Hilfestellung geben.
Das wäre ein enormer Schritt hin zu wirklich empathischer Technologie, die sich nicht nur an die kognitiven, sondern auch an die emotionalen Bedürfnisse der Nutzenden anpasst.
Das passiert ja zum Teil schon heute. Z. B. bei vielen KI-Systemen – nehmen wir mal ChatGPT –, da lautet die Standardfloskel auf eine Frage ja oft: „Das ist eine hervorragende Frage!“
Man wird also permanent gelobt, als hätte man gerade etwas ganz Besonderes geleistet.
Das wirkt zwar manchmal etwas übertrieben – fast so, als wäre man ein kleines Kind –, aber es zeigt Wirkung.
Und genau darin steckt ja auch Potenzial: Für manche Menschen kann diese Art der positiven Rückmeldung tatsächlich eine Erleichterung und Motivation darstellen.
Voraussetzungen
Um das Ganze abzuschließen, möchte ich ein paar Voraussetzungen nennen, die aus meiner Sicht entscheidend sind, damit solche Systeme wirklich erfolgreich und barrierefrei funktionieren können.
Der Aspekt der Korrektheit ist zentral.
Wenn grafische Benutzeroberflächen automatisch angepasst werden, muss sichergestellt sein, dass keine Informationen verloren gehen oder verfälscht dargestellt werden.
Sonst besteht die Gefahr, dass Nutzerinnen und Nutzer falsche Entscheidungen treffen, weil die KI Inhalte fehlerhaft umsetzt.
Wie genau diese Anpassungen in Zukunft funktionieren sollen, ist noch offen – selbst Jakob Nielsen scheint sich da nicht ganz sicher zu sein.
Er geht offenbar davon aus, dass Interfaces künftig aus modularen Design-Komponenten bestehen, die sich automatisch anpassen lassen.
Wenn das so wäre, bräuchte man für diese reine Anpassungslogik vermutlich gar keine KI mehr – aber das bleibt abzuwarten.
Unabhängig davon gilt: Was auch immer die Technik am Ende umsetzt – es muss zuverlässig und korrekt funktionieren.
Das Gleiche gilt für sprachliche Zusammenfassungen oder Vereinfachungen: Sie müssen korrekt sein.
Und alle automatisierten Funktionen, die eine KI anbietet, müssen stabil und nachvollziehbar bleiben.
Natürlich muss das Ganze auch datenschutzkonform sein – und genau da sehe ich im Moment die größte Baustelle.
Viele der aktuellen KI-Modelle kommen ja aus den USA oder aus China.
Und ganz ehrlich: Auch wenn man über Datenschutz viel diskutieren kann – niemand möchte, dass persönliche Daten einfach in diese Länder abfließen.
Deshalb hoffe ich sehr, dass künftige Systeme lokal laufen werden – also direkt im Browser oder im Betriebssystem, ohne dass Daten ständig an externe Server geschickt werden müssen. Das ist auch für die Latenzen wichtig.
Und da sind wir, glaube ich, auf einem guten Weg. Die Modelle werden kleiner und effizienter, sodass sie bald direkt auf dem Gerät ausgeführt werden können.
Apple arbeitet daran bereits intensiv – und es wäre natürlich wünschenswert, wenn auch andere Hersteller wie Google oder Microsoft diesen Weg gehen.
Wichtig ist dabei vor allem: Diese Technologien müssen für alle zugänglich sein.
Aber ich bin da ziemlich optimistisch.
Im Moment sehen wir ja einen regelrechten Wettlauf: Microsoft mit Copilot, Google mit Gemini – beide integrieren KI-Funktionen tief ins Betriebssystem.
Apple ist da traditionell etwas zurückhaltender, aber ich glaube, sie werden sich auf Dauer nicht leisten können, außen vor zu bleiben.
Spätestens im nächsten Jahr werden wir sicher auch von ihnen neue Lösungen sehen.
Und das wiederum wird den Druck auf die anderen erhöhen, ihre Systeme noch stärker auf Datenschutz auszurichten.
Wir dürfen dabei nicht vergessen: Die heutigen Computer sind unglaublich leistungsfähig – um ein Vielfaches stärker als noch vor 10 oder 20 Jahren. Ein entsprechend optimiertes Modell sollte auch auf lokal betrieben werden können, ohne dass der Nutzende dies selbst einrichten muss.