{"id":10211,"date":"2025-09-03T13:49:34","date_gmt":"2025-09-03T11:49:34","guid":{"rendered":"https:\/\/www.netz-barrierefrei.de\/wordpress\/?p=10211"},"modified":"2025-10-14T07:03:46","modified_gmt":"2025-10-14T05:03:46","slug":"blinde-und-kuenstliche-intelligenz-chancen-und-risiken","status":"publish","type":"post","link":"https:\/\/www.netz-barrierefrei.de\/wordpress\/blinde-und-kuenstliche-intelligenz-chancen-und-risiken\/","title":{"rendered":"Blinde und K\u00fcnstliche Intelligenz &#8211; Chancen und Risiken"},"content":{"rendered":"<p><iframe loading=\"lazy\" width=\"560\" height=\"315\" src=\"https:\/\/www.youtube-nocookie.com\/embed\/8z0kHuZ5HU0?si=QVugh5kd-XubKCII\" title=\"YouTube video player\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><br \/>\nHerzlich willkommen zum Vortrag Linde und K\u00fcnstliche Intelligenz.<br \/>\nVielen Dank zun\u00e4chst einmal, dass ich hier die Gelegenheit habe, sprechen zu d\u00fcrfen. Mein Name ist Domingos de Oliveira. Ich bin von Geburt an blind und habe lediglich einen kleinen Sehrest. Seit einigen Jahren arbeite ich im Bereich digitale Barrierefreiheit \u2013 das hei\u00dft, ich berate, gebe Schulungen, teste Anwendungen und Systeme. Anfangs habe ich lange freiberuflich gearbeitet, mittlerweile bin ich bei der adesso fest angestellt. Dadurch habe ich \u00fcber die Jahre einen sehr guten Zugang zu Technologie gewonnen \u2013 sowohl aus der Perspektive eines Experten f\u00fcr digitale Barrierefreiheit als auch aus der pers\u00f6nlichen Sicht einer betroffenen Person.<br \/>\nNat\u00fcrlich sind die Fortschritte in diesem Bereich f\u00fcr mich besonders spannend. Zum einen, weil ich sie fachlich begleite, zum anderen, weil ich selbst t\u00e4glich auf Hilfsmittel angewiesen bin. Deshalb verfolge ich mit gro\u00dfer Neugier, welche Entwicklungen es gibt und welche Verbesserungen sie mir sowohl im Arbeits- als auch im Privatleben bringen k\u00f6nnen. Genau aus diesem Grund freue ich mich sehr, heute \u00fcber dieses Thema sprechen zu d\u00fcrfen.<br \/>\nIch habe drei Themenbl\u00f6cke mitgebracht:<br \/>\n1.  Was heute bereits m\u00f6glich ist.<br \/>\n2.  Welche Probleme und Herausforderungen es derzeit noch gibt \u2013 insbesondere mit Blick auf Entwicklungen im letzten Jahr.<br \/>\n3.  Was wir tun k\u00f6nnen, um die Situation weiter zu verbessern.<\/p>\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_82_2 counter-hierarchy ez-toc-counter ez-toc-white ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<p class=\"ez-toc-title\" style=\"cursor:inherit\">Inhalt<\/p>\n<span class=\"ez-toc-title-toggle\"><a href=\"#\" class=\"ez-toc-pull-right ez-toc-btn ez-toc-btn-xs ez-toc-btn-default ez-toc-toggle\" aria-label=\"Toggle Table of Content\"><span class=\"ez-toc-js-icon-con\"><span class=\"\"><span class=\"eztoc-hide\" style=\"display:none;\">Toggle<\/span><span class=\"ez-toc-icon-toggle-span\"><svg style=\"fill: #999;color:#999\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" class=\"list-377408\" width=\"20px\" height=\"20px\" viewBox=\"0 0 24 24\" fill=\"none\"><path d=\"M6 6H4v2h2V6zm14 0H8v2h12V6zM4 11h2v2H4v-2zm16 0H8v2h12v-2zM4 16h2v2H4v-2zm16 0H8v2h12v-2z\" fill=\"currentColor\"><\/path><\/svg><svg style=\"fill: #999;color:#999\" class=\"arrow-unsorted-368013\" xmlns=\"http:\/\/www.w3.org\/2000\/svg\" width=\"10px\" height=\"10px\" viewBox=\"0 0 24 24\" version=\"1.2\" baseProfile=\"tiny\"><path d=\"M18.2 9.3l-6.2-6.3-6.2 6.3c-.2.2-.3.4-.3.7s.1.5.3.7c.2.2.4.3.7.3h11c.3 0 .5-.1.7-.3.2-.2.3-.5.3-.7s-.1-.5-.3-.7zM5.8 14.7l6.2 6.3 6.2-6.3c.2-.2.3-.5.3-.7s-.1-.5-.3-.7c-.2-.2-.4-.3-.7-.3h-11c-.3 0-.5.1-.7.3-.2.2-.3.5-.3.7s.1.5.3.7z\"\/><\/svg><\/span><\/span><\/span><\/a><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1 ' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/www.netz-barrierefrei.de\/wordpress\/blinde-und-kuenstliche-intelligenz-chancen-und-risiken\/#Zusammenfassung_%E2%80%93_TLDR\" >Zusammenfassung &#8211; TLDR<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/www.netz-barrierefrei.de\/wordpress\/blinde-und-kuenstliche-intelligenz-chancen-und-risiken\/#Was_heute_funktioniert\" >Was heute funktioniert<\/a><ul class='ez-toc-list-level-3' ><li class='ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/www.netz-barrierefrei.de\/wordpress\/blinde-und-kuenstliche-intelligenz-chancen-und-risiken\/#Herausforderungen\" >Herausforderungen<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/www.netz-barrierefrei.de\/wordpress\/blinde-und-kuenstliche-intelligenz-chancen-und-risiken\/#Probleme_der_Technik\" >Probleme der Technik<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/www.netz-barrierefrei.de\/wordpress\/blinde-und-kuenstliche-intelligenz-chancen-und-risiken\/#Was_tun\" >Was tun?<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/www.netz-barrierefrei.de\/wordpress\/blinde-und-kuenstliche-intelligenz-chancen-und-risiken\/#Zum_Weiterlesen\" >Zum Weiterlesen<\/a><\/li><\/ul><\/nav><\/div>\n<h2><span class=\"ez-toc-section\" id=\"Zusammenfassung_%E2%80%93_TLDR\"><\/span>Zusammenfassung &#8211; TLDR<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Der Vortrag behandelt die Chancen und Risiken von KI f\u00fcr blinde Menschen. Oliveira ist selbst blind, Experte f\u00fcr digitale Barrierefreiheit und berichtet sowohl aus fachlicher als auch aus pers\u00f6nlicher Perspektive.<\/p>\n<p>### Was heute schon funktioniert<\/p>\n<p> Bildbeschreibungen: Deutlich verbessert, detaillierter und interaktiv (z. B. via ChatGPT).<br \/>\n Alltag und Beruf: KI hilft beim Verst\u00e4ndnis von Fotos, Diagrammen, Pr\u00e4sentationen oder Social-Media-Bildern.<br \/>\n Umgebungsbeschreibungen: Erste Echtzeit-L\u00f6sungen (z. B. Ray-Ban\/Meta-Brille). Potenziell hilfreich, aber noch unzuverl\u00e4ssig und mit Verz\u00f6gerungen.<br \/>\n Videobeschreibungen &#038; Audiodeskription: Erste Ans\u00e4tze, z. B. Seeing AI. Noch unpr\u00e4zise, aber n\u00fctzlich f\u00fcr private Inhalte.<br \/>\n Screenreader &#038; smarte Hilfsmittel: KI-gest\u00fctzte Erweiterungen entstehen; erste Experimente mit smarten Blindenst\u00f6cken.<br \/>\n Kreativit\u00e4t: KI erleichtert Zugang zu Musikproduktion oder k\u00fcnstlerischer Arbeit.<br \/>\n  \u2192 Fazit: Gr\u00f6\u00dfter Innovationsschub seit Smartphone &#038; Screenreader, aber noch am Anfang.<\/p>\n<p>### Herausforderungen &#038; Risiken<\/p>\n<p> Datenschutz: Unklar, was mit eingegebenen Daten geschieht (Texte, Fotos, sensible Inhalte).<br \/>\n Zuverl\u00e4ssigkeit: KI klingt oft sehr sicher, auch wenn sie falsch liegt \u2013 besonders riskant f\u00fcr blinde Menschen.<br \/>\n Bias &#038; fehlende Standards: Beschreibungen nicht immer auf Bed\u00fcrfnisse Blinder zugeschnitten. Beispiel: \u201ewei\u00dfer Sneaker mit roter Sohle\u201c vs. Grundinfo \u201eSchuh\u201c.<br \/>\n Technische Grenzen: Verz\u00f6gerungen, Abh\u00e4ngigkeit vom Internet, fehlerhafte Echtzeit-Beschreibungen k\u00f6nnen gef\u00e4hrlich sein.<br \/>\n Ungleichheit: Technisch versierte Blinde profitieren, andere bleiben zur\u00fcck.<br \/>\n \u00dcberzogene Erwartungen: Hilfsmittelbranche wirbt oft mit \u00fcberh\u00f6hten Versprechen.<\/p>\n<p>### Was getan werden sollte<\/p>\n<p> Gezielte KI-Modelle f\u00fcr Blinde entwickeln, statt nur bestehende Modelle anzupassen.<br \/>\n Lokale Verarbeitung (auf Smartphones\/PCs) statt Cloud, um Datenschutz zu st\u00e4rken und Latenzen zu reduzieren.<br \/>\n Unsicherheiten anzeigen (\u201e90 % gr\u00fcn, 10 % blau\u201c) \u2192 Nutzer k\u00f6nnen besser entscheiden.<br \/>\n Schulungen &#038; Trainings: Menschen bef\u00e4higen, KI sinnvoll und selbstbestimmt einzusetzen.<br \/>\n Transparenz &#038; Standards: Klare Kriterien f\u00fcr gute Bild-\/Videobeschreibungen.<\/p>\n<p>### Schlussgedanke<\/p>\n<p>KI bietet enormes Potenzial f\u00fcr Barrierefreiheit, doch es braucht gezielte Entwicklung, mehr Transparenz und Empowerment der Nutzer, damit Chancen nicht durch Risiken \u00fcberschattet werden.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Was_heute_funktioniert\"><\/span>Was heute funktioniert<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Beginnen m\u00f6chte ich mit einigen Beispielen daf\u00fcr, was heute schon recht gut funktioniert und von vielen blinden Menschen bereits regelm\u00e4\u00dfig genutzt wird.<br \/>\nEin gutes Beispiel ist die automatische Generierung von Bildbeschreibungen. Diese Technologie gibt es zwar schon l\u00e4nger \u2013 Facebook und Instagram haben das schon fr\u00fch eingef\u00fchrt, ebenso Microsoft Office oder Chrome. Lange Zeit waren die Ergebnisse jedoch eher mittelm\u00e4\u00dfig bis schlichtweg unbrauchbar. Man konnte sie niemandem ernsthaft empfehlen.<br \/>\nInzwischen hat sich das deutlich verbessert. Heute erm\u00f6glichen verschiedene Systeme \u2013 etwa ChatGPT oder andere Modelle \u2013 das Hochladen von Bildern. Diese k\u00f6nnen dann auf Wunsch ausf\u00fchrlich beschrieben werden, oft deutlich detaillierter als fr\u00fcher. Besonders attraktiv finde ich auch die M\u00f6glichkeit, R\u00fcckfragen zu stellen. \u00dcber die Chatfunktion lassen sich gezielt Informationen nachfragen, sodass man nicht mehr auf eine starre, vorgegebene Bildbeschreibung beschr\u00e4nkt ist.<br \/>\nAnwendungsbereiche daf\u00fcr gibt es viele:<br \/>\n\u2022  Im privaten Alltag, etwa \u00fcber Social Media oder Messenger-Dienste wie WhatsApp, wenn man Bilder zugeschickt bekommt und nicht wei\u00df, was darauf zu sehen ist.<br \/>\n\u2022  Im beruflichen Umfeld, wenn man Infografiken, Pr\u00e4sentationen oder Diagramme erh\u00e4lt. Zwar sind viele Kolleginnen und Kollegen bereit, Inhalte zu beschreiben \u2013 aber oft nicht in der Detailtiefe, die man selbst br\u00e4uchte, und R\u00fcckfragen sind nicht immer willkommen. Gerade hier er\u00f6ffnet die neue Technologie eine gro\u00dfe Chance, selbstst\u00e4ndig, unabh\u00e4ngig und flexibel an Informationen zu gelangen.<\/p>\n<h3><span class=\"ez-toc-section\" id=\"Herausforderungen\"><\/span>Herausforderungen<span class=\"ez-toc-section-end\"><\/span><\/h3>\n<p> Kommen wir zu einigen Problemen und Herausforderungen.<br \/>\nEin zentrales Thema ist der Umgang mit Daten. Bei vielen KI-Anwendungen wissen wir nicht genau, was mit den Informationen passiert, die wir eingeben. Wir wissen zum Beispiel, dass Chats zum Teil daf\u00fcr genutzt werden, Modelle weiter zu trainieren. Vielleicht werden auch Bilder hochgeladen und gespeichert \u2013 wo genau und wie lange, bleibt unklar. Werden diese Daten dauerhaft gesichert? Werden sie personalisiert ausgewertet? All das ist nicht transparent.<br \/>\nDas wird besonders heikel, wenn es um sensible Inhalte geht \u2013 etwa private Fotos, Bilder von Kindern oder sehr pers\u00f6nliche Informationen. Ein Beispiel: M\u00f6chte ich wirklich, dass ein KI-System erf\u00e4hrt, ob ich gerade einen positiven Corona-Test habe? Oder welche privaten Bilder ich anschaue? Diese Fragen zeigen, wie gro\u00df das Problem fehlender Datensouver\u00e4nit\u00e4t ist.<br \/>\nEin zweites Problem betrifft die Zuverl\u00e4ssigkeit der Antworten. KI-Systeme neigen dazu, Ergebnisse so zu formulieren, als w\u00e4ren sie zweifelsfrei korrekt \u2013 auch dann, wenn sie fehlerhaft sind. F\u00fcr sehende Nutzerinnen und Nutzer mag das leichter \u00fcberpr\u00fcfbar sein. F\u00fcr blinde Menschen ist das schwieriger: Ich kann nicht ohne weiteres feststellen, ob eine Information korrekt, komplett falsch oder irgendwo dazwischen liegt.<br \/>\nDas ist riskant. Wenn ich w\u00fcsste, dass Informationen nur zu 15 % zuverl\u00e4ssig sind, w\u00fcrde ich mich nicht darauf verlassen. Aber wenn Antworten nach 80\u201390 % Korrektheit klingen, neige ich eher dazu, sie zu glauben \u2013 und das kann zu falschen Schl\u00fcssen f\u00fchren.<br \/>\nEin eigenes Problem besteht darin, dass viele der Tools nicht barrierefrei entwickelt wurden. Oft kann man sich mit ausreichend Erfahrung behelfen, f\u00fcr technisch unversierte Blinde, das trifft auf die Mehrheit zu, sind viele Tools schlecht oder gar nicht nutzbar.<br \/>\nEin weiteres Beispiel, das mittlerweile technisch recht gut funktioniert, ist die Beschreibung von Umgebungen. Das gibt es schon seit einigen Jahren: Man macht ein Foto, und wenige Sekunden sp\u00e4ter erh\u00e4lt man eine Beschreibung. Nach dem, was ich beobachtet habe, war das bisher meist recht brauchbar.<br \/>\nNeu ist jedoch, dass solche Beschreibungen inzwischen fast in Echtzeit m\u00f6glich sind. Ein aktuelles Beispiel ist die Kooperation von Meta mit Ray-Ban: Gemeinsam haben sie eine XR-Brille entwickelt, die w\u00e4hrend des Tragens Informationen \u00fcber die Umgebung einblendet. Sie ist relativ erschwinglich und wird in den USA schon von vielen blinden Menschen genutzt \u2013 sei es beim Spazierengehen oder bei allt\u00e4glichen Aktivit\u00e4ten.<br \/>\nDas Potenzial ist gro\u00df: Gerade wer viel allein unterwegs ist, kann davon enorm profitieren. W\u00e4hrend sehende Freunde oder Begleiter Beschreibungen liefern k\u00f6nnen, fehlt diese Unterst\u00fctzung, wenn man alleine unterwegs ist. Eine Brille, die das \u00fcbernimmt, w\u00e4re daher eine wertvolle Hilfe.<br \/>\nAber auch hier bleibt die Frage: Stimmen die Informationen? Ich habe beispielsweise von einer Testerin gelesen, dass die Brille ihr sagte, sie befinde sich auf der Stra\u00dfe \u2013 obwohl sie tats\u00e4chlich auf dem B\u00fcrgersteig war. Solche Fehler k\u00f6nnen im Alltag nicht nur verwirren, sondern im schlimmsten Fall gef\u00e4hrlich sein.<br \/>\nNat\u00fcrlich wei\u00df man nicht genau, warum in solchen F\u00e4llen Fehler passieren. Vermutlich liegt es daran, dass die KI vor allem mit US-amerikanischen Bilddaten trainiert wurde \u2013 dort sehen B\u00fcrgersteige und Stra\u00dfen teilweise anders aus als bei uns. Das kann zu Missverst\u00e4ndnissen f\u00fchren, die im schlimmsten Fall sogar lebensgef\u00e4hrlich sein k\u00f6nnen, wenn man sich zu stark auf solche Informationen verl\u00e4sst.<br \/>\nEin weiteres Problem ist die Verz\u00f6gerung bei der Verarbeitung. Die Brille selbst hat nur begrenzte Rechenleistung, um leicht und tragbar zu bleiben. Deshalb werden die Bilddaten zun\u00e4chst zum Smartphone gesendet und dann ins Internet \u00fcbertragen, dort verarbeitet und anschlie\u00dfend zur\u00fcckgeschickt. Auch wenn das oft nur wenige Sekunden dauert, kann das im Alltag kritisch sein.<br \/>\nStellen wir uns vor: Ich gehe die Stra\u00dfe entlang, trete unbemerkt auf die Fahrbahn \u2013 und die Brille informiert mich erst drei Sekunden sp\u00e4ter dar\u00fcber. Dann kann es im Ernstfall schon zu sp\u00e4t sein. Gleiches gilt f\u00fcr Hindernisse: Wenn etwas pl\u00f6tzlich im Weg auftaucht, brauche ich die Information sofort, nicht erst mit Verz\u00f6gerung.<br \/>\nNat\u00fcrlich ist das immer noch besser als gar keine Unterst\u00fctzung. Mit \u00dcbung l\u00e4sst sich vielleicht auch ein Umgang mit solchen Ungenauigkeiten finden. Aber es zeigt, dass wir hier noch weit von einer wirklich verl\u00e4sslichen L\u00f6sung entfernt sind.<br \/>\nDazu kommt: Ohne Internetverbindung funktioniert die Brille gar nicht. Wenn ich in ein Funkloch komme oder die Verbindung f\u00fcr ein paar Sekunden weg ist, bleibt nur eine schicke Sonnenbrille zur\u00fcck \u2013 aber keine praktische Hilfe.<br \/>\nEin weiterer spannender Bereich sind automatische Videobeschreibungen. Schon l\u00e4nger gibt es automatische Transkriptionen, also Textfassungen von Audioinhalten oder automatisch erzeugte Untertitel. Mittlerweile wird jedoch auch daran gearbeitet, ganze Videos automatisch zu beschreiben \u2013 also Bildinhalte in Echtzeit zu erfassen und sprachlich wiederzugeben.<br \/>\nEin weiterer spannender Bereich ist die automatisierte Audiodeskription. Mit Tools wie Pixie Board oder Seeing AI ist es inzwischen m\u00f6glich, zumindest f\u00fcr kurze Clips automatisch Audiodeskriptionen zu erstellen. Meines Wissens arbeiten auch gro\u00dfe Anbieter und Distributoren daran, solche Funktionen auszubauen \u2013 nicht zuletzt, weil Audiodeskriptionen gesetzlich vorgeschrieben sind und gleichzeitig einen erheblichen Kostenfaktor darstellen.<br \/>\nNat\u00fcrlich sind die automatisch erzeugten Beschreibungen derzeit noch weit davon entfernt, wirklich pr\u00e4zise zu sein \u2013 oft stimmen sie vielleicht zu 50 Prozent. Aber gerade f\u00fcr private Videos, bei denen man wie bei Fotos sonst keine Ahnung hat, was eigentlich gezeigt wird, ist das eine wertvolle Unterst\u00fctzung.<br \/>\nAuch im Bereich Screenreader tut sich einiges. So haben einige Systeme bereits zus\u00e4tzliche KI-Funktionen integriert, bei NVDA geschieht das oft \u00fcber freiwillig entwickelte Erweiterungen. Hier steckt gro\u00dfes Potenzial: Man k\u00f6nnte sich vorstellen, dass KI in Echtzeit die grafische Benutzeroberfl\u00e4che beschreibt \u2013 also den Bildschirm \u201elive\u201c erkl\u00e4rt. Das w\u00e4re besonders spannend f\u00fcr Situationen, in denen Programme oder Websites noch nicht barrierefrei gestaltet sind. In Android gibt es bereits integrierte Funktionen f\u00fcr Bildbeschreibungen und Beschreibung des Screens.<br \/>\n\u00c4hnliche Entwicklungen gibt es auch bei Hilfsmitteln wie Blindenst\u00f6cken. In den USA wird bereits an smarten St\u00f6cken gearbeitet, die mit KI-Unterst\u00fctzung Hindernisse erkennen k\u00f6nnen. Wie gut das in der Praxis funktioniert, ist noch offen \u2013 die Erfahrungsberichte sind gemischt. Aber grunds\u00e4tzlich spricht nichts dagegen, dass solche Technologien k\u00fcnftig in den Alltag integriert werden k\u00f6nnen.<br \/>\nUnd man darf nicht vergessen: KI er\u00f6ffnet auch jenseits von Barrierefreiheit neue kreative M\u00f6glichkeiten. Viele blinde Menschen nutzen zum Beispiel Plattformen wie Suno AI, um Musik zu machen. Solche Interfaces erm\u00f6glichen eine kreative Arbeit, die fr\u00fcher kaum denkbar war \u2013 gerade weil Musiksoftware traditionell sehr komplex und oft unzug\u00e4nglich ist. Hier entstehen ganz neue Chancen, sich k\u00fcnstlerisch auszudr\u00fccken.<br \/>\nMein Zwischenfazit:<br \/>\nDie Early Adopter \u2013 wie so oft auch in der blinden Community \u2013 sind schon flei\u00dfig dabei, die neuen M\u00f6glichkeiten auszuprobieren, zu testen und die Grenzen der Technik auszuloten. Nach meiner Einsch\u00e4tzung erleben wir mit KI tats\u00e4chlich den gr\u00f6\u00dften Innovationsschub f\u00fcr assistive Technologien seit dem Aufkommen des Smartphones und der ersten Screenreader vor etwa 15 Jahren.<br \/>\nNat\u00fcrlich gab es seitdem viele Verbesserungen, aber das, was die generativen KI-Systeme gerade ansto\u00dfen, hat noch einmal eine ganz andere Dynamik. Wir stehen im Grunde erst am Anfang \u2013 das sind die ersten vorsichtigen Kinderschritte. Wie schnell und in welche Richtung sich die Entwicklung bewegen wird, ist derzeit \u00fcberhaupt nicht absehbar. Klar ist nur: Es wird besser, zuverl\u00e4ssiger und vielseitiger werden \u2013 die Frage ist lediglich, wie schnell.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Probleme_der_Technik\"><\/span>Probleme der Technik<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Schauen wir nun auf die Herausforderungen und die Frage, was wir tun k\u00f6nnen, um die Situation zu verbessern.<br \/>\nEin zentrales Problem ist der wachsende Unterschied zwischen technisch fitten und technisch weniger versierten blinden Menschen. Manche verweigern sich der Technik bewusst \u2013 und das ist v\u00f6llig in Ordnung. Wer sagt \u201eich brauche das nicht\u201c oder \u201eich will das nicht\u201c, trifft eine pers\u00f6nliche Entscheidung, die man respektieren sollte.<br \/>\nProblematisch wird es dort, wo Menschen die Technik eigentlich nutzen m\u00f6chten, sich aber nicht trauen \u2013 sei es aus Angst vor Datenschutzrisiken oder weil sie schlicht nicht wissen, wie sie anfangen sollen. Hier \u00f6ffnet sich eine L\u00fccke: W\u00e4hrend Early Adopters die M\u00f6glichkeiten von KI sehr aktiv erkunden und nutzen, bleiben andere zur\u00fcck. Das f\u00fchrt zu einem wachsenden Gap \u2013 sowohl im Berufsleben, wo digitale Kompetenzen immer wichtiger werden, als auch im privaten Alltag, wo KI zunehmend praktische Vorteile bietet.<br \/>\nEin zweiter Punkt ist der Datenschutz. Wie schon mehrfach erw\u00e4hnt, laufen die gro\u00dfen Basismodelle in der Cloud. Das bedeutet: Alle Daten, die ich eingebe \u2013 seien es Texte, Fotos oder sogar sensible Inhalte wie Krankendaten \u2013 werden an externe Server geschickt. Was genau dort mit diesen Daten geschieht, ist unklar. F\u00fcr manche mag das keine gro\u00dfe Rolle spielen, andere m\u00f6chten solche Informationen aber keinesfalls aus der Hand geben. Gerade f\u00fcr Menschen, die mit sensiblen Dokumenten oder sehr pers\u00f6nlichen Fotos arbeiten, ist das eine gro\u00dfe H\u00fcrde. Deshalb w\u00e4re es enorm wichtig, transparent zu machen, was mit den Daten passiert \u2013 und Alternativen zu entwickeln, die mehr Kontrolle und Datenschutz bieten.<br \/>\nEin drittes Thema ist der Bias in den Daten. Die gro\u00dfen Sprach- und Bildmodelle wurden nicht f\u00fcr die Bed\u00fcrfnisse blinder Menschen entwickelt. Sie wurden auf riesigen Datenmengen trainiert, die ganz andere Zwecke hatten. Dass dabei zuf\u00e4llig auch Funktionen entstehen, die f\u00fcr blinde Menschen n\u00fctzlich sind \u2013 etwa Bildbeschreibungen \u2013 ist eher ein Nebenprodukt.<br \/>\nDas Problem: Diese Beschreibungen entsprechen nicht unbedingt den Anforderungen blinder Nutzerinnen und Nutzer. Ein Beispiel: Ein Online-Shop braucht f\u00fcr sehende Kunden eine Bildbeschreibung wie \u201ewei\u00dfer Sneaker mit roter Sohle\u201c. Eine blinde Person hingegen braucht zuerst die Information, dass es sich um einen Schuh handelt. \u00c4hnlich verh\u00e4lt es sich mit Zuschreibungen bei Personen: Begriffe wie \u201ejung\u201c oder \u201ealt\u201c wirken zun\u00e4chst harmlos, sind aber subjektiv und potenziell fehleranf\u00e4llig.<br \/>\nDiese Unterschiede zeigen, dass wir \u00fcber Standards nachdenken m\u00fcssen: Wie sieht eigentlich eine gute, barrierefreie Bild- oder Videobeschreibung aus? Und wie k\u00f6nnen wir sicherstellen, dass KI-Systeme sich daran orientieren, statt zuf\u00e4llige, verzerrte Informationen auszugeben?<br \/>\n Ein weiterer schwieriger Aspekt ist die Frage: Wer entscheidet eigentlich, was zutrifft? Wenn eine KI zum Beispiel eine Person als \u201ejung\u201c oder \u201ealt\u201c beschreibt, ist das eine sehr subjektive Zuschreibung. \u00c4hnliche Kategorien oder Bewertungen m\u00f6chte man vielleicht gar nicht von einer Maschine bekommen \u2013 oder man m\u00f6chte zumindest selbst entscheiden, ob man diese Einsch\u00e4tzung teilt oder nicht.<br \/>\nDas Grundproblem bleibt: Blinde Menschen k\u00f6nnen die Korrektheit von Informationen nicht eigenst\u00e4ndig \u00fcberpr\u00fcfen. Man kann eine Beschreibung zwar auf Plausibilit\u00e4t hin anh\u00f6ren, aber nicht sicher feststellen, ob sie stimmt oder nicht. Damit fehlt eine wichtige Grundlage f\u00fcr das sogenannte Supervised Learning, bei dem Menschen die KI durch Feedback trainieren. Denn wenn ich gar nicht wei\u00df, ob eine Bildbeschreibung korrekt ist, kann ich der KI auch kein zuverl\u00e4ssiges Feedback geben.<br \/>\nDamit verbunden ist immer die Gefahr, dass man sich auf falsche oder halbrichtige Informationen verl\u00e4sst \u2013 und daraus Handlungen ableitet, die problematisch sein k\u00f6nnen.<br \/>\nEin weiteres Problem sehe ich in der Hilfsmittelbranche selbst. H\u00e4ufig ist das Marketing f\u00fcr neue Produkte \u00fcbertrieben oder schlicht nicht angemessen. Es wird viel versprochen, was in der Realit\u00e4t noch gar nicht funktioniert \u2013 oder nur sehr eingeschr\u00e4nkt. Das f\u00fchrt dazu, dass blinde Menschen falsche Erwartungen entwickeln und am Ende entt\u00e4uscht werden. Ich finde: Hier braucht es mehr Ehrlichkeit und Transparenz. Wenn Grenzen klar aufgezeigt werden, k\u00f6nnen Nutzerinnen und Nutzer selbstbestimmt entscheiden, ob sie ein Tool ausprobieren m\u00f6chten.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Was_tun\"><\/span>Was tun?<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<p>Damit komme ich zum letzten Punkt: Was k\u00f6nnen wir tun?<br \/>\nAus meiner Sicht ist es entscheidend, dass KI-Modelle auch spezifisch f\u00fcr die Bedarfe blinder Menschen trainiert werden. Es reicht nicht, gro\u00dfe allgemeine Modelle zu nehmen und dann ein paar Zusatzfunktionen \u201eaufzuflanschen\u201c. Die Bed\u00fcrfnisse sind zu speziell, als dass sie nebenbei miterledigt werden k\u00f6nnten.<br \/>\nNat\u00fcrlich ist das eine Herausforderung: Wahrscheinlich gibt es f\u00fcr diesen Bereich nicht so viele Daten wie in anderen Anwendungsfeldern. Aber wenn wir langfristig wirklich hilfreiche Systeme entwickeln wollen, f\u00fchrt kein Weg daran vorbei, diese Bedarfe ernst zu nehmen und gezielt in die Entwicklung einzubeziehen. Ein weiterer wichtiger Punkt ist die Frage, wo die Modelle laufen.<br \/>\nAus meiner Sicht sollten KI-Systeme so weit wie m\u00f6glich lokal auf dem Endger\u00e4t \u2013 also auf dem Smartphone oder Computer der Nutzerinnen und Nutzer \u2013 betrieben werden. Das h\u00e4tte zwei Vorteile: Zum einen verringern sich die Latenzen, weil keine Internet\u00fcbertragung n\u00f6tig ist. Zum anderen wird der Datenabfluss reduziert, da die Verarbeitung direkt auf dem Ger\u00e4t erfolgt und man damit deutlich mehr Kontrolle \u00fcber die eigenen Daten beh\u00e4lt.<br \/>\nEin Beispiel daf\u00fcr ist Apple: Mit \u201eApple Intelligence\u201c gehen sie genau diesen Weg und verlagern viele KI-Funktionen auf das iPhone selbst. Nat\u00fcrlich ist die Rechenkapazit\u00e4t dort begrenzt, aber kleinere Modelle lassen sich schon heute lokal betreiben \u2013 und diese Entwicklung sollte weiter gef\u00f6rdert werden.<br \/>\nDar\u00fcber hinaus w\u00e4re es sehr hilfreich, wenn KI-Systeme ihre eigene Sicherheit einsch\u00e4tzen und kommunizieren k\u00f6nnten.<br \/>\nWenn eine KI zum Beispiel sagt: \u201eMit 90 % Wahrscheinlichkeit ist das gr\u00fcn, mit 10 % k\u00f6nnte es auch blau sein\u201c, dann kann ich als blinde Person viel besser damit umgehen. Ich wei\u00df dann, wie hoch die Unsicherheit ist, und kann entscheiden, ob ich mich auf die Information verlasse, eine zweite Quelle befrage oder lieber eine sehende Person um Hilfe bitte. Diese Transparenz w\u00e4re ein gro\u00dfer Gewinn.<br \/>\nUnd schlie\u00dflich ist mir ein Punkt besonders wichtig: Schulungen und Trainings f\u00fcr Nutzerinnen und Nutzer.<br \/>\nKI ist kein Selbstl\u00e4ufer. Viele Menschen \u2013 auch blinde Menschen \u2013 haben Hemmungen, sich mit der Technik auseinanderzusetzen. Manchmal fehlt das Wissen, manchmal die Erfahrung, manchmal schlicht die Sicherheit im Umgang. Deshalb sollten gezielte Trainings angeboten werden, die zeigen, wie man KI sinnvoll und produktiv einsetzen kann. Das w\u00fcrde vielen helfen, herauszufinden, ob und wie diese Technologien f\u00fcr sie n\u00fctzlich sind.<\/p>\n<h2><span class=\"ez-toc-section\" id=\"Zum_Weiterlesen\"><\/span>Zum Weiterlesen<span class=\"ez-toc-section-end\"><\/span><\/h2>\n<ul>\n<li><a href=\"https:\/\/www.netz-barrierefrei.de\/wordpress\/die-zukunft-der-bild-beschreibung\/\">K\u00fcnstliche Intelligenz und Bild-Beschreibungen f\u00fcr Blinde<\/a><\/li>\n<li><a href=\"https:\/\/www.netz-barrierefrei.de\/wordpress\/koennen-daten-und-kuenstliche-intelligenz-diskriminierung-verringern\/\">Daten und K\u00fcnstliche Intelligenz gegen Diskriminierung<\/a><\/li>\n<li><a href=\"https:\/\/netz-barrierefrei.de\/en\/ai.html\">Artificial Intelligence and digital Accessibility<\/a><\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Herzlich willkommen zum Vortrag Linde und K\u00fcnstliche Intelligenz. Vielen Dank zun\u00e4chst einmal, dass ich hier die Gelegenheit habe, sprechen zu d\u00fcrfen. Mein Name ist Domingos&#8230;<\/p>\n<div class=\"more-link-wrapper\"><a class=\"more-link\" href=\"https:\/\/www.netz-barrierefrei.de\/wordpress\/blinde-und-kuenstliche-intelligenz-chancen-und-risiken\/\">Weiterlesen<span class=\"screen-reader-text\">Blinde und K\u00fcnstliche Intelligenz &#8211; Chancen und Risiken<\/span><\/a><\/div>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-10211","post","type-post","status-publish","format-standard","hentry","category-allgemein","entry"],"_links":{"self":[{"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/posts\/10211","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/comments?post=10211"}],"version-history":[{"count":5,"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/posts\/10211\/revisions"}],"predecessor-version":[{"id":10354,"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/posts\/10211\/revisions\/10354"}],"wp:attachment":[{"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/media?parent=10211"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/categories?post=10211"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.netz-barrierefrei.de\/wordpress\/wp-json\/wp\/v2\/tags?post=10211"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}