
Heute widmen wir uns dem Thema Künstliche Intelligenz – allerdings nicht unter dem Gesichtspunkt ihrer Potenziale, sondern mit Blick auf die Risiken, die sich bereits abzeichnen oder schon konkret manifestiert haben, insbesondere im Kontext der digitalen Barrierefreiheit. In früheren Beiträgen habe ich ausführlich über die Chancen von KI gesprochen. Umso wichtiger erscheint es mir, nun auch die problematischen Aspekte zu beleuchten. Zunächst werde ich die zentralen Herausforderungen skizzieren und anschließend mögliche Lösungsansätze diskutieren.
Zusammenfassung
Der Beitrag beleuchtet die Risiken von KI im Bereich der digitalen Barrierefreiheit. Automatische Code-Generierung bietet zwar demokratisches Potenzial (z. B. durch Tools wie GitHub Copilot), ist aber derzeit nicht in der Lage, zuverlässig vollständig barrierefreie Anwendungen zu erstellen. KI kann Entwicklerinnen sinnvoll unterstützen, ersetzt jedoch keine fachliche Prüfung.
Zentrale Probleme sind:
– fehleranfälliger oder nicht normkonformer Code (z. B. bezüglich WCAG),
– Trainingsdaten, die überwiegend nicht barrierefreie Inhalte enthalten und Defizite reproduzieren,
– Halluzinationen bei Zusammenfassungen und Vereinfachungen,
– Bias gegenüber Menschen mit Behinderung,
– unzureichend barrierefreie KI-Tools selbst,
– qualitativ mangelhafte automatische Bildbeschreibungen, Untertitel oder Gebärdensprach-Avatare.
Besonders kritisch ist, dass betroffene Zielgruppen Inhalte oft nicht selbst überprüfen können und daher stark auf korrekte KI-Ausgaben angewiesen sind.
Als Lösungsansätze werden genannt:
– KI als Assistenz mit mehrstufiger Qualitätssicherung statt Vollautomatisierung,
– kuratierte und qualitätsgesicherte Trainingsdaten,
– klar definierte barrierefreie Code-Patterns,
– regulatorische Rahmen wie der EU AI Act,
– vor allem aber die systematische, frühzeitige und vergütete Einbindung von Menschen mit Behinderung in Entwicklung und Qualitätssicherung.
Kernaussage: KI kann Inklusion fördern, erzeugt aber ohne gezielte Qualitätssicherung und echte Partizipation neue Exklusionsrisiken. Barrierefreiheit ist kein Zusatzfeature, sondern Grundvoraussetzung.
Automatische Code-Erzeugung durch KI
Ein derzeit besonders intensiv diskutiertes Thema ist die automatisierte Code-Generierung durch KI-Systeme. Dieses Feld ist gleichermaßen faszinierend wie kontrovers. Während einige bereits das Ende klassischer Softwareentwicklung prognostizieren, warnen andere vor gravierenden Qualitäts- und Sicherheitsproblemen, wenn Programmcode massenhaft automatisiert erzeugt wird. Wie so oft liegt die Wahrheit in einer differenzierten Betrachtung.
Tatsächlich wird heute deutlich mehr Code automatisiert generiert – nicht selten von Personen ohne formale Programmierausbildung, die sich mithilfe von KI einfache Lösungen erstellen lassen. Das gilt auch im Kreis blinder und sehbehinderter Menschen. Hier eröffnet sich eine reale Chance zur Demokratisierung von Softwareentwicklung: Selbst für kleinere Anpassungen oder einfache Makros fallen bislang schnell mehrere hundert bis tausend Euro an, da professionelle Entwicklerinnen ihre Arbeitszeit entsprechend vergütet bekommen müssen. Durch sogenanntes „Vibe Coding“ – also das dialogbasierte Erzeugen von Code über KI-Tools – können nun auch Laien eigene Lösungen entwickeln, ohne auf externe Dienstleister angewiesen zu sein. In diesem Sinne besitzt die Technologie ein erhebliches emanzipatorisches Potenzial.
Gleichzeitig sind die Risiken nicht zu unterschätzen. Automatisch generierter Code kann Sicherheitslücken enthalten, ineffizient oder fehleranfällig sein und ist häufig unzureichend dokumentiert. Für professionelle Softwareentwicklung sind dies gravierende Mängel.
Im Kontext der digitalen Barrierefreiheit kommt ein weiterer Aspekt hinzu: Es gibt bereits heute zu wenige Entwicklerinnen mit fundierter Expertise in barrierefreier Umsetzung. Dieser Engpass führt dazu, dass viele digitale Produkte die Anforderungen an Zugänglichkeit nicht oder nur unzureichend erfüllen. Die Hoffnung besteht nun darin, dass KI-gestützte Code-Generierung hier zumindest teilweise Abhilfe schaffen könnte. Allerdings ist dabei eine wichtige Differenzierung erforderlich. Man muss zwischen zwei Szenarien unterscheiden:
1. Komplettgenerierung ganzer Anwendungen mit dem Anspruch auf Barrierefreiheit
Wenn ein Tool angewiesen wird, eine vollständige, barrierefreie App zu erstellen, funktioniert das in der Praxis derzeit nicht Die Anforderungen an semantisch korrektes HTML, ARIA-Implementierungen, Tastaturnavigation, Screenreader-Kompatibilität und Kontrastverhältnisse sind komplex und kontextabhängig. KI-Systeme erzeugen zwar formal plausiblen Code, garantieren jedoch keine normkonforme Umsetzung beispielsweise nach WCAG oder EN 301 549.
2. Gezielte Unterstützung erfahrener Entwicklerinnen
Deutlich sinnvoller erscheint der Einsatz als Assistenzsystem: KI kann Boilerplate-Code generieren, repetitive Aufgaben übernehmen oder Hinweise auf potenzielle Barrieren geben. Voraussetzung bleibt jedoch, dass die verantwortliche Person die Qualität und Barrierefreiheit fachlich prüfen kann.
Eine Chance sind Coding-Assistenten wie beispielsweise GitHub Copilot, die sich in Entwicklungsumgebungen wie Visual Studio Code integrieren lassen und während des Programmierens kontextbezogene Codevorschläge unterbreiten. Hier sehe ich deutlich mehr Potenzial als bei der vollständigen, automatisierten Generierung ganzer Anwendungen. Eine erfahrene Entwicklerin kann die Vorschläge eines solchen Assistenten fachlich bewerten, ohne knietief in der barrierefreien Entwicklung zu sein.
Im Idealfall entsteht ein mehrstufiges Qualitätssicherungssystem:
1. Ein KI-Tool generiert oder ergänzt Code.
2. Ein weiteres Tool – idealerweise von einem anderen Anbieter – prüft diesen Code automatisiert auf semantische und logische Korrektheit.
3. Zusätzlich kommen klassische Prüfwerkzeuge zum Einsatz, etwa statische Analysen oder Accessibility-Checker.
4. Abschließend erfolgt eine manuelle Validierung durch eine fachkundige Person.
Ein solches Setup kann die Entwicklungsarbeit erheblich beschleunigen. Denkbar ist sogar, dass nicht zwingend eine hochspezialisierte Expertin für barrierefreie Entwicklung erforderlich ist, sondern eine solide programmiererische Kompetenz ausreicht, wenn KI-gestützte Assistenzsysteme die barrierefreien Aspekte strukturiert unterstützen. Heute ist das Problem weniger, eine Entwicklerin in barrierefreiheit zu schulen. Allerdings geht das Wissen nicht verloren, wenn die Person nur gelegentlich barrierefrei programmiert. Sie kann nicht dauerhaft Erfahrung afbauen und es lohnt sich für sie nicht, ständig auf dem Laufenden zu sein.
Ein zentrales Problem liegt im Generierungsprozess selbst. Viele KI-gestützte Code-Tools arbeiten nicht inkrementell im klassischen Sinne, sondern regenerieren bei Änderungen große Teile der Anwendung. Jeder neue Prompt kann dazu führen, dass bestehende Strukturen überschrieben oder ungewollt verändert werden. Verbesserungen in einem Bereich gehen dann nicht selten mit Verschlechterungen in einem anderen einher.
Barrierefreiheit ist jedoch kein Add-on, sondern eine systemische Eigenschaft einer Anwendung. Sie erfordert konsistente Architekturentscheidungen, durchgängige semantische Strukturierung und eine stabile Interaktionslogik. Ein destruktiver Generierungsansatz untergräbt genau diese Voraussetzungen.
Ein weiteres grundlegendes Risiko liegt in den Trainingsdaten der Modelle. Für Webanwendungen ist der zugrunde liegende HTML-, CSS- und JavaScript-Code öffentlich zugänglich und damit leicht als Trainingsmaterial nutzbar. Allerdings sind die meisten existierenden Websites nicht barrierefrei umgesetzt. Wenn ein Modell überwiegend mit fehlerhaftem oder nicht normkonformem Code trainiert wird, reproduziert es diese Defizite statistisch. Selbst explizite Anweisungen wie „Erzeuge barrierefreien Code gemäß WCAG“ führen in der Praxis häufig nicht zu einer konsistenten Umsetzung. Die semantische Tiefe und die normativen Anforderungen werden entweder unvollständig berücksichtigt oder falsch interpretiert.
Erfahrungsberichte aus der Praxis – etwa bei der Nutzung von KI-Funktionen in Design- oder Entwicklungswerkzeugen – zeigen, dass entsprechende Prompts keine Garantie für tatsächlich barrierefreie Ergebnisse darstellen. Die Intention wird sprachlich verstanden, aber technisch nicht normkonform umgesetzt.
Ein großes Risiko besteht in der unkritischen Anwendung von Code-Generierungs-Tools durch in Barrierefreiheit Unerfahrene. Hier schlägt der AI Automation Bias durch. Das heißt, die Einsetzenden wiegen sich in dem Glauben, die Anweisung, barrierefreien Code zu generieren reiche bereits aus, um ein barrierefreies Ergebnis zu erhalten. Ist eine formale Prüfungs-Routine im Tool integriert, kann die Anwendung automatische Tests bestehen, obwohl sie in der Praxis gar nicht barrierefrei ist. Leider behandeln viele Verantwortliche Barrierefreiheit als reines Compliance- und minor Feature, so dass die Gefahr schlechter KI-generierter Anwendungen zunimmt.
Vor diesem Hintergrund erscheint es auf absehbare Zeit unrealistisch, dass KI-Systeme eigenständig vollständige, normkonforme und robuste barrierefreie Anwendungen erzeugen.
Ein strukturelles Risiko entsteht insbesondere dann, wenn KI-Systeme beginnen, ihren eigenen Output als Trainingsgrundlage zu verwenden. Wir beobachten bereits, dass immer mehr Websites mithilfe von KI generiert werden – häufig ohne fundierte Berücksichtigung von Barrierefreiheit. Wenn genau dieser Code wiederum als Trainingsmaterial für neue Modelle dient, entsteht ein selbstreferenzieller Kreislauf:
1. Nicht barrierefreier Code wird generiert.
2. Dieser Code wird öffentlich zugänglich.
3. Er fließt in neue Trainingsdatensätze ein.
4. Das Modell reproduziert und verstärkt bestehende Defizite.
Dieses Phänomen ist nicht auf Code beschränkt. Auch bei textbasierten Modellen wird diskutiert, dass KI-generierte Inhalte zunehmend als Trainingsdaten dienen. Die Gefahr besteht darin, dass sich Fehler, Vereinfachungen oder inhaltliche Unschärfen kumulativ verstärken – bei gleichzeitig hoher sprachlicher Oberflächenqualität. Genau darin liegt die Stärke, aber auch das Risiko dieser Systeme: Sie produzieren plausibel wirkende Ergebnisse, selbst wenn die inhaltliche Substanz mangelhaft ist.
Im Kontext von Code bedeutet das: formal korrekt wirkende Strukturen, die jedoch semantisch falsch, unsicher oder nicht barrierefrei implementiert sind. Modelle besitzen kein intrinsisches Qualitätsbewusstsein; sie erkennen nicht, dass ein ARIA-Attribut logisch inkonsistent oder eine Interaktionsstruktur für Screenreader unzugänglich ist – sofern dies nicht explizit und valide im Trainingsmaterial verankert wurde.
Wie sich dieser Kreislauf technisch durchbrechen lässt, ist derzeit nicht trivial. Denkbare Ansätze wären:
– Kuratierte, qualitätsgesicherte Trainingsdatensätze
– Explizite Gewichtung normkonformer Implementierungen
– Modellinterne Validierungsmechanismen
– Kombination generativer Systeme mit formalen Regelprüfungen
Ob und in welchem Umfang daran gearbeitet wird, ist von außen schwer zu beurteilen. Klar ist jedoch: Das Problem ist real und strukturell.
Was ich allerdings für realistisch halte ist die automatisierte Prüfung von Anwendungen auf Barrierefreiheit. Bisher sind axe-core und ähnliche Systeme komplett regelbasiert und produzieren viele False-Positives. Allerdings arbeiten einige Anbieter daran, KI in den Prozess zu integrieren, etwa Accessibility Cloud. Die Fähigkeit, stärker auf der visuellen Oberfläche zu arbeiten reduziert häufige False-Positives wie etwa Kontraste oder Tastatur-Fokus.
Barrierefreiheit der KI-Tools
Ein weiterer, häufig unterschätzter Aspekt betrifft die Zugänglichkeit der KI-Werkzeuge selbst. Viele dieser Tools wirken in ihrer Basisoberfläche vergleichsweise niedrigschwellig. Doch sobald komplexere Funktionen genutzt werden – etwa erweiterte Konfigurationsoptionen, Debugging-Interfaces oder Integrationen in Entwicklungsumgebungen – treten Barrieren zutage:
Für Menschen mit Behinderungen kann dies faktisch zu einem Ausschluss führen – insbesondere dann, wenn der berufliche Alltag zunehmend den Einsatz solcher Werkzeuge voraussetzt. Hier entsteht ein Paradox: Technologien, die theoretisch Inklusion fördern könnten, erzeugen neue Exklusionsrisiken.
Diese Problematik wird häufig unterschätzt, weil die Tools auf den ersten Blick „einfach“ wirken. Die Komplexität zeigt sich jedoch in der Tiefe der Funktionalität.
Probleme bei Zusammenfassung und verständlichen Übersetzungen
Ein weiterer Punkt, der in der Praxis weiterhin relevant ist, betrifft sogenannte Halluzinationen – also sachlich falsche, aber plausibel präsentierte Ausgaben. Sie entstehen häufig bei KI-generierten Text-Optimierungen, Zusammenfassungen oder bei der Umwandlung in verständliche Formate durch KI.
Für meinen Newsletter habe ich einige Links zusammenfassen lassen. Darunter waren auch Texte von mir selbst. In den Zusammenfassungen stand teilweise viel Unsinn. Es wurden Inhalte genannt, die sinnvoll klangen, aber nicht im Originaltext standen.
Ähnliches ist mir auch bei Gemini passiert. Ich habe den vollständigen Beitrag in das Eingabefenster kopiert. Dann habe ich darum gebeten, genau diesen Text zusammenzufassen. Trotzdem enthielt die Zusammenfassung Aussagen, die nicht im Originaltext vorkamen. Diese Inhalte waren eindeutig falsch.
Das ist problematisch. Viele Menschen nutzen solche Tools, um Texte zu vereinfachen. Zum Beispiel lesen sie einen Beitrag einer Behörde und bitten um eine verständlichere Zusammenfassung. Wenn das Tool dann falsche Informationen ergänzt, entsteht ein ernstes Problem.
Solche Werkzeuge sollen eigentlich Menschen helfen, die Schwierigkeiten beim Lesen oder Verstehen komplexer Texte haben. empfehlen. Gerade diese Zielgruppe kann die Informationen oft nicht selbst überprüfen. Wenn sie den Originaltext lesen und verstehen könnte, bräuchte sie keine Zusammenfassung. Deshalb ist es besonders kritisch, wenn die Zusammenfassung Fehler enthält.
Ich habe dieses Verhalten bei mehreren Tools beobachtet, sowohl bei Gemini als auch bei ChatGPT. Bei ChatGPT war es weniger ausgeprägt, aber ich habe es auch nicht intensiv getestet.
Diese Erfahrungen haben mein Vertrauen in solche Systeme erschüttert. Seit vielen Jahren wird über sogenannte Halluzinationen gesprochen. Wenn dieses Problem bis heute nicht gelöst ist, stellt sich die Frage, ob es sich überhaupt lösen lässt. Ich kann das technisch nicht abschließend beurteilen. Dafür kenne ich die Architektur solcher Systeme nicht gut genug. Nach meinem Eindruck funktioniert es jedoch weiterhin nicht zuverlässig.
Bias in Daten
Ein großes Problem ist die Datenbasis von KI-Systemen. Das Thema Behinderung ist dort nur unzureichend abgebildet.
Behinderung ist ein komplexes Thema. Schon bei körperlichen Behinderungen gibt es sehr viele unterschiedliche Formen. Trotzdem kommen diese Unterschiede in Bilddatenbanken und Textsammlungen kaum vor. Die Lebensrealität behinderter Menschen wird oft nicht ausreichend berücksichtigt.
Das hat konkrete Folgen. In automatisierten Bewerbungsverfahren können behinderte Menschen benachteiligt werden. Ein System bewertet zum Beispiel Fotos oder Lebensläufe. Wenn jemand äußerlich oder im Lebenslauf nicht der erwarteten Norm entspricht, kann die Person automatisch aussortiert werden. Das geschieht, obwohl sie fachlich geeignet ist.
Auch im Straßenverkehr kann es Risiken geben. Autonome oder teilautonome Fahrzeuge müssen das Verhalten von Menschen richtig deuten. Wenn ein System das Verhalten einer blinden oder sehbehinderten Person nicht korrekt interpretiert, kann es zu gefährlichen Situationen kommen.
Das Fahrzeug könnte zum Beispiel annehmen, dass eine Person stehen bleibt, weil sie das Auto sieht oder hört. In Wirklichkeit nimmt die Person das Fahrzeug vielleicht nicht wahr und geht weiter. Dadurch kann es zu einem Unfall kommen.
Solche Szenarien sind vor allem in Ländern relevant, in denen autonome Fahrzeuge bereits im Einsatz sind, zum Beispiel in den USA oder in China. In Deutschland sind vollständig autonome Systeme im öffentlichen Straßenverkehr derzeit nur sehr eingeschränkt erlaubt.
Ein weiteres Problem betrifft die Informationsaufbereitung. Blinde Menschen benötigen bei Bild- oder Grafikbeschreibungen oft andere Informationen als sehende Personen.
Wenn eine KI eine wissenschaftliche Abbildung beschreibt, liefert sie möglicherweise eine Interpretation. Eine sehende Person kann diese Interpretation überprüfen, weil sie die Grafik selbst sieht. Eine blinde Person kann das nicht. Sie ist vollständig auf die Beschreibung angewiesen. Wenn die Beschreibung ungenau oder fehlerhaft ist, entsteht ein Informationsverlust.
Das Problem kann sich noch verschärfen, wenn KI-basierte Überwachungssysteme eingesetzt werden. Wenn solche Systeme bestimmte Gruppen nicht ausreichend berücksichtigen, können Fehlinterpretationen und Diskriminierungen zunehmen.
Insgesamt zeigt sich: Wenn die Datenbasis unvollständig ist, wirken sich die Lücken direkt auf die Ergebnisse der Systeme aus. Das betrifft besonders Gruppen, die ohnehin strukturell benachteiligt sind.
Unschärfe bei Beschreibungen und Umwandlungen
Ein interessantes Thema ist die Unschärfe bei der Produktion barrierefreier Inhalte. Damit meine ich ungenaue oder fehlerhafte Beschreibungen.
Ein Beispiel sind Alternativtexte für Bilder. Hier sehe ich grundsätzlich großes Potenzial. Viele Bilder und PDFs in sozialen Medien sind nicht beschrieben. Sie sind daher nicht barrierefrei. Automatische Bildbeschreibungen könnten dieses Problem lösen, wenn sie zuverlässig arbeiten.
Einige Plattformen haben solche Funktionen bereits integriert, zum Beispiel Facebook, Instagram oder Microsoft in seinen Office-Produkten. Die Qualität dieser automatischen Beschreibungen ist jedoch oft unzureichend. Teilweise sind die Texte verstümmelt oder sachlich falsch. Ein normaler Bus wird als Seilbahn beschrieben. Eine Person wird vage als „möglicherweise blond mit Brille“ bezeichnet. Solche Beschreibungen helfen kaum weiter. Diese Systeme sind seit vielen Jahren im Einsatz, wurden aber nur begrenzt weiterentwickelt. Sie sind ressourcenschonend, aber inhaltlich schwach.
Moderne große Sprach- und Bildmodelle sind deutlich leistungsfähiger. Sie können Bilder differenzierter beschreiben. Allerdings benötigen sie erheblich mehr Rechenleistung. Es ist daher derzeit kaum realistisch, jedes einzelne Bild auf großen Plattformen automatisch mit einem komplexen Modell analysieren zu lassen. Das verursacht hohe Kosten und hohen Energieverbrauch.
Vernünftige Bildbeschreibungen etwa in Beruf und Wissenschaft sind extrem wichtig, aber durch menschliche Arbeit kaum zu produzieren. Allerdings neigen KIs nach wie vor zu Halluzinationen, eine falsche Bildbeschreibung ist schlechter als gar keine Bildbeschreibung.
Hinzu kommt ein strukturelles Problem: Blinde Menschen stellen eine vergleichsweise kleine Nutzergruppe dar. Aus rein wirtschaftlicher Sicht haben ihre Bedürfnisse für große Plattformen oft keine Relevanz.
Das Problem ungenauer Inhalte betrifft auch Untertitel. Automatisch erzeugte Untertitel konzentrieren sich meist auf gesprochene Sprache. Geräusche, Stimmungen oder relevante Hintergrundinformationen werden häufig nicht ausreichend beschrieben. Für gehörlose oder schwerhörige Personen sind solche Informationen jedoch wichtig.
Ein weiteres sensibles Thema ist die Gebärdensprache. In der Gehörlosen-Community wird intensiv über sogenannte Gebärdensprach-Avatare diskutiert. Viele Betroffene berichten, dass diese Avatare unverständlich oder unnatürlich wirken. Zudem wird kritisiert, dass die Community nicht ausreichend in die Entwicklung einbezogen wird.
Wenn solche Systeme breit eingesetzt werden, ohne ihre Verständlichkeit und Praxistauglichkeit sorgfältig zu prüfen, entsteht ein ernstes Problem. Barrierefreiheit darf nicht nur formal umgesetzt werden. Sie muss in der tatsächlichen Nutzung funktionieren.
Mögliche Lösungsansätze
Ein Ansatz liegt im Bereich Coding-Unterstützung. KI-gestützte Coding-Assistenten können Entwickelnde begleiten. Sie können Vorschläge machen, wie Code barrierefrei gestaltet wird. Sie können auch automatisierte Korrekturen vorschlagen. Wichtig ist jedoch, dass diese Vorschläge überprüft werden – sowohl durch andere Tools als auch durch die verantwortliche Person.
Wenig sinnvoll erscheint es, große Mengen bestehender Websites oder Code ungefiltert in Modelle einzuspeisen und zu hoffen, dass daraus barrierefreier Code entsteht. Die bisherigen Erfahrungen sprechen dagegen. Quantität allein erzeugt keine Qualität.
Ein vielversprechenderer Ansatz ist die Arbeit mit klar definierten Mustern.
Beispiel:
– Ein Eingabefeld benötigt bestimmte Attribute, etwa korrekte Labels und ARIA-Zuweisungen.
– Ein Toggle-Button benötigt klar definierte Zustände und semantische Kennzeichnungen.
Solche barrierefreien Pattern können systematisch hinterlegt werden. KI-Systeme könnten dann gezielt prüfen, ob diese Anforderungen erfüllt sind, oder entsprechende Strukturen vorschlagen.
Im Bereich Analysewerkzeuge ist ebenfalls Fortschritt möglich. Visuelle Prüfungen, etwa zur Farbkontrastanalyse, können präziser werden. Falschmeldungen bei Kontrastprüfungen könnten reduziert werden.
Was derzeit nicht realistisch erscheint, ist die vollständig autonome Erstellung barrierefreier Anwendungen durch KI. Davon sind wir technisch noch weit entfernt, falls dieses Ziel überhaupt erreichbar ist.
Offen bleibt das Problem der Halluzinationen bei Zusammenfassungen oder Übersetzungen in verständliche Sprache. Intuitiv wäre zu erwarten, dass ein System ausschließlich mit dem eingegebenen Text arbeitet. In der Praxis greifen Modelle jedoch auf ihr trainiertes Wissen zurück und ergänzen Inhalte. Wie sich dieses Spannungsfeld zwischen Sprachmodellierung und faktischer Texttreue zuverlässig lösen lässt, ist derzeit nicht abschließend geklärt.
Beim Thema unzugängliche Interfaces ist die Lösung klar. Interfaces müssen von Anfang an barrierefrei gestaltet werden. Dann entsteht das Problem gar nicht erst.
Trotzdem wird diese Diskussion immer wieder neu geführt. Selbst Unternehmen, die sich als besonders verantwortungsvoll positionieren, berücksichtigen Barrierefreiheit nicht konsequent. Ein Beispiel ist Anthropic. Das Unternehmen betont ethische Prinzipien, aber Barrierefreiheit ist nicht durchgängig umgesetzt.
Auch große Mainstream-Tools funktionieren technisch oft gut. Doch „funktionieren“ ist nicht gleichbedeutend mit „barrierefrei“. Ein System kann stabil laufen und trotzdem für bestimmte Nutzergruppen unzugänglich sein.
Beim Thema Bias liegt die zentrale Maßnahme ebenfalls nahe: Menschen mit Behinderung müssen systematisch einbezogen werden. Viele Modelle leiden unter Datenmangel. Texte, Bilder und Videos, die unterschiedliche Behinderungsformen realistisch abbilden, sind unterrepräsentiert. Das betrifft auch spezialisierte Assistenz-Apps. Wenn Trainingsdaten fehlen, können Systeme bestimmte Bedürfnisse nicht zuverlässig erkennen oder abbilden.
Daten können jedoch gezielt erhoben werden. In Städten mit einem hohen Anteil blinder Menschen oder in Einrichtungen wie Schulen für körperbehinderte Menschen lassen sich reale Nutzungssituationen analysieren. Solche Daten könnten strukturiert in Trainingskorpora integriert werden. Voraussetzung ist selbstverständlich eine ethisch saubere und datenschutzkonforme Vorgehensweise.
Neben der Datenerweiterung sind algorithmische Anpassungen denkbar. Große Sprachmodelle sind sogenannte Foundation Models. Auf ihnen bauen spezialisierte Systeme auf. Es wäre möglich, zusätzliche Modelle oder Fine-Tuning-Prozesse zu entwickeln, die typische Verhaltensmuster behinderter Personen besser berücksichtigen, etwa im Straßenverkehr oder bei der Nutzung digitaler Oberflächen.
Ob und wie das technisch optimal umzusetzen ist, hängt stark von Architektur, Trainingsstrategie und Zielsystem ab. Klar ist jedoch: Ohne gezielte Optimierung bleiben diese Aspekte unterrepräsentiert.
Das zentrale Problem ist die fehlende Einbindung behinderter Expertinnen und Experten in Entwicklungsteams.
Viele KI-Systeme werden primär für junge, gesunde, westliche und zahlungskräftige Nutzergruppen entwickelt. Diese Gruppen bestimmen Anforderungen, Testumgebungen und Prioritäten. Das ist aus marktwirtschaftlicher Sicht nachvollziehbar. Es führt jedoch zu systematischen Ausschlüssen.
Wenn KI-Systeme gesellschaftlich breit eingesetzt werden sollen, müssen auch Minderheiten einbezogen werden. Demokratische Gesellschaften beruhen auf Teilhabe. Technologische Infrastruktur darf daher nicht nur auf Mehrheitsbedürfnisse ausgerichtet sein.
Barrierefreiheit ist kein Zusatzfeature. Sie ist eine Grundvoraussetzung für gleichberechtigte Nutzung.
Der europäische EU AI Act enthält Ansätze zur Regulierung von KI-Systemen. Dazu gehören auch Vorgaben zu Risikoanalyse und Grundrechten. Dennoch ist die Einbeziehung von Menschen mit Behinderung und anderen Minderheiten bislang nicht ausreichend konkret geregelt.
Dabei geht es nicht nur um offensichtliche Behinderungen. Auch ältere Menschen müssen berücksichtigt werden. Eine ältere Person überquert eine Straße oft langsamer. Sie kann über eine Straßenbahnschiene stolpern oder unerwartet stehen bleiben. Solche Verhaltensweisen gehören zum normalen gesellschaftlichen Alltag.
Wenn KI-Systeme sicherheitsrelevante Entscheidungen treffen, etwa im Verkehr oder in Überwachungssituationen, müssen diese Realitäten einbezogen werden. Eigentlich sollte das selbstverständlich sein. In der Praxis wird es jedoch häufig übersehen.
Beim Thema Unschärfe und Qualitätsmängel ist die Einbeziehung der Zielgruppen entscheidend. Das gilt besonders für Gebärdensprache, aber auch für Bildbeschreibungen und Untertitel. Wenn ein System zur Gebärdenspracherzeugung entwickelt wird, sollte es intensiv von Menschen mit hoher Gebärdensprachkompetenz geprüft werden. Idealerweise sind sie bereits in der Entwicklung beteiligt.
Das ist nicht nur ethisch sinnvoll. Es ist auch ein wirtschaftlicher Vorteil. Wenn ein Anbieter einer Kommune nachweisen kann, dass viele qualifizierte Personen aus der Community das System getestet und validiert haben, erhöht das die Glaubwürdigkeit. Qualitätssicherung wird so zu einem klaren Verkaufsargument.
Die systematische Einbeziehung betroffener Gruppen eröffnet zudem Beschäftigungsmöglichkeiten. Viele Menschen mit Behinderung sind erwerbslos. Oft liegt das nicht an fehlender Qualifikation, sondern an strukturellen Barrieren im Arbeitsmarkt.
Die KI-Branche verfügt über erhebliche finanzielle Mittel. Milliardenbeträge fließen durch private Investitionen und staatliche Förderprogramme. Vor diesem Hintergrund wäre es angemessen, Mittel gezielt für inklusive Entwicklungsprozesse einzusetzen. In einzelnen Projekten geschieht das bereits. Flächendeckend ist es jedoch nicht der Fall.
Ein zentrales Problem ist die Form der Beteiligung. Reine Symbolbeteiligung reicht nicht aus. Wenn betroffene Personen lediglich gelegentlich Feedback geben dürfen, ohne echte Entscheidungskompetenz oder strukturellen Einfluss, bleibt die Wirkung gering.
Zeitgemäße Partizipation bedeutet:
– frühzeitige Einbindung,
– angemessene Vergütung,
– reale Mitgestaltungsmöglichkeiten,
– transparente Berücksichtigung des Feedbacks.
Nur so entstehen Systeme, die gesellschaftliche Vielfalt tatsächlich abbilden.
Damit schließt sich der Kreis: Technische Qualität, ethische Verantwortung und wirtschaftliche Nachhaltigkeit hängen eng zusammen. Ohne ernsthafte Beteiligung der Zielgruppen bleiben KI-Systeme unvollständig – unabhängig davon, wie leistungsfähig sie technisch sind.