Fast jeden Monat gibt es eine größere Analyse von Websites auf Barrierefreiheit. WebAIM ist sicherlich die Bekannteste, aber nicht die Einzige. Meine Kritik an der WebAIM-Studie habe ich bereits anderswo zusammengefasst. Kurzgefasst geht es um die mangelhafte Aussagefähigkeit dieser automatischen Prüftools. Sie sind eine Erleichterung für Personen, die eine Website evaluieren oder das Qualitätsmanagement für zahlreiche Seiten verantworten. Als Analyse-Tool für große Datenmengen sind sie aufgrund ihrer strukturellen Schwächen und mangelnder Analyse-Tiefe unzureichend. Es ist wie beim Body Mass Index, hilfreich für einen Durchschnittswert, belanglos für den Einzelfall.
Simples Beispiel: Ich mache meine große MedienSeite barrierefrei, binde aber Inhalte über Dritte ein, die ich nicht beeinflussen kann. Werbung wird oft über Dritt-Services eingebunden und diese Networks werden mit Sicherheit nie erlauben, den Mindest-Kontrast oder die Blink-Frequenz zu steuern geschweige denn, dass man da Alternativtexte einsetzt. Heißt, der Kern der Website ist an sich nutzbar, aber wegen der nicht-steuerbaren Inhalte fällt man durch.
Richtig ist, dass diese Websites nicht konform im Sinne der WCAG sind, denn Konformität heißt, dass man einen gewissen Grad an Barrierefreiheit erfüllt. Allerdings wird hier mit den Begriffen unsauber gearbeitet. Als Beispiel nehme ich mal diese Studie“, man kann aber im Prinzip jede Studie nehmen, die auf rein quantitativen Methoden beruht.
Die Gleichungen:
Konformität mit einer Stufe der WCAG = barrierefrei – darüber kann man streiten. Es ist Konsens, dass Barrierefreiheit mehr ist als Konformität mit der WCAG, allerdings wird darüber gestritten, was dieses „mehr“ tatsächlich ist.
Aus dieser Gleichung folgt: Nicht-Konformität = Nicht-Barrierefreiheit. Das können wir einmal so hinnehmen.
Daraus wird gefolgert: Nicht-konform = Nicht-Benutzbarkeit für behinderte Menschen. Das ist leider falsch, wird aber häufig suggeriert.
Es mag sein, dass man gewisse Teile der Webseite nicht benutzen kann, wenn man eine bestimmte Behinderung hat. Ein simples Beispiel dafür ist der Mindest-Kontrast. Ich und andere Sehrestler kennen das Phänomen, dass der Kontrast einer dunklen Farbe auf einem hellen Grund schlechter wahrgenommen wird als der Kontrast bei umgedrehten Farben, also der Ton der Hintergrundfarbe als Schriftfarbe und die Schriftfarbe als Hintergrundfarbe. Der Kontrast wäre exakt gleich, aber das eine kann man noch lesen, das andere nimmt man nicht wahr. Oder wenn ich die in Windows integrierte Bedienungshilfen einsetze, kann ich ebenfalls Verbesserungen herbeiführen. Es wird aus gutem Grund gesagt, dass man als Web-Anbieter solche Dinge nicht einkalkulieren darf. Worauf ich hinauswill ist, dass schlechte Kontraste ein Problem sind, aber kein so schwerwiegendes. Ebensowenig interessiert mich, ob Insta oder Facebook überall Bildbeschreibungen bereit stellt. Das interessiert mich nur bei den Seiten bzw. Leuten, denen ich folge. Bei solchen Websites – insofern man sie überhaupt so nennen möchte – hängt es extrem vom geprüften Sample ab. Manche Betreiber werden extrem auf Bild-Beschreibungen und andere Faktoren achten und andere nicht. Wenn ich Letztere als Sample für meine automatische Analyse nehme, stellt sich die Frage, ob diese Daten repräsentativ für das gesamt Angebot sind. Hinzu kommt die Herausforderung von user-generiertem Content bei solch großen Portalen. Automatische Bildbeschreibungen werden nicht akzeptiert, aber die meisten Leute sind nicht bereit oder verfügen nicht über das Bewusstsein, Bild-Beschreibungen hinzuzufügen. Ist es der richtige Weg, das den Betreibern anzulasten? Wie viele Leute würden wohl Quatsch reinschreiben, wenn Bildbeschreibungen obligatorisch wären? Automatische Prüftools würden das aber honorieren, Hauptsache, es ist eine Beschreibung vorhanden.
Meines Erachtens, das habe ich oben zur Webbaim-Studie schon geschrieben, sind diese Analysen im Grunde gar nicht aussagekräftig. Sie werden weder den Anbietern noch den Nutzer:Innen gerecht. Ein Kuriosom am Rande, das Digital Journal, das auf besagte Studie verweist hat das Copyright in den Alternativtext geschrieben. So tappt man in die eigene Falle.
Die Gleichung nicht-konform = nicht-barrierefrei = nicht benutzbar für behinderte Menschen stimmt so einfach nicht. Dass wird mit diesen großen Zahlen aber impliziert, deshalb rezipiere ich diese Studien nur kritisch oder gar nicht.
Klar ist: Diese großen Samples lassen sich nicht mit vernünftigen Mitteln qualitativ analysieren, zumindest in absehbarer Zeit nicht. Meines Erachtens sind aber diese automatischen Prüftools, was die jetzige Qualität angeht, absolut unzureichend.
Was sie liefern können sind Vergleichswerte, ebenso wie der Body Mass Index hervorragend geeignet ist, Übergewicht im Schnitt zu ermitteln, aber wenig über das Übergewicht einzelner Personen aussagt. Wir können also ausgezeichnet Vergleiche sagen wir zwischen bestimmten Arten von Websites oder zwischen verschiedenen Ländern mit diesen Tools erstellen. Für qualitative Aussagen sind die Tools ungeeignet.
Die große Schwäche des Konzepts Konformität liegt darin, dass die Fehler nicht gewichtet werden. Ein fehlelnder Alternativtext, eine doppelt vergebene ID, fehlende Labels – aus der Sicht der Tools ist das alles das Gleiche.