Wie Screenreader und Braillezeilen funktionieren

Letzte Aktualisierung am 15. April 2018

Viele fragen sich, wie blinde und sehbehinderte Menschen eigentlich mit einem Computer umgehen, das Internet nutzen und E-Mails schreiben können. Das ist kaum verwunderlich, denn nicht jeder kommt damit in der Praxis in Berührung. Tatsächlich ist dies schon seit den 80er Jahren möglich,zu Anfang mit sehr aufwendigen Hardware-Konstruktionen. Was damals viel Aufwand und technisches Wissen bedeutete, lässt sich heute relativ einfach mit Software realisieren. Und mehr noch, sämtliche Hersteller von Betriebssystemen haben die Barrierefreiheit auf dem Schirm und integrieren werkseitig umfangreiche Zugangslösungen.

Bildschirmleser, üblicherweise als Screenreader bezeichnet, sollen den Bildschirminhalt adaptieren und auch den Zugang zu Elementen von Anwendungen vereinfachen. Die aufbereiteten Informationen werden mit einer Sprachausgabe angesagt und können optional auf einer Braillezeile dargestellt werden. Diese stellt einen Teil der Informationen in Blindenschrift dar, wobei sich die taktile Darstellung häufig von der Sprachausgabe unterscheidet. Durch die Ergänzung dieser Ausgabeprozesse kann der optisch in einem Rutsch erkennbare Bildschirminhalt adaptiv und logisch vermittelt werden. Wichtig bei der Umwandlung ist, dass nicht nur der Text als Solcher vorgelesen wird, sondern durch eine gewisse Struktur auch Informationen über die Darstellung vermittelt werden. Als Beispiel wäre es bei einer Internetseite wichtig zu wissen, ob der Text eine Überschrift, ein Zitat oder Link ist bzw. die Beschriftung eines Eingabefeldes darstellt. In Anwendungen muss der Nutzer wissen, ob es sich um ein Menü handelt oder wie viele Einträge eine Liste möglicherweise hat. Hier sind blinde Anwender sogar im Vorteil, denn sie erfahren mitunter ohne Aufklappen eines Listenfeldes schon die Anzahl der möglichen Elemente. Bei den meisten Screenreadern wird mit Anpassungen für spezifische Anwendungen gearbeitet, was besonders dann hilfreich ist, wenn die Programmierer nicht strukturiert vorgegangen sind und Elemente nicht richtig beschriftet haben. Besonders im Unternehmensumfeld mit spezifischen Anwendungen sind solche nachträglichen Anpassungen notwendig. Einige Screenreader arbeiten bei Anwendungen, die nicht erfasst werden können, mit einer Texterkennung des Bildschirms, was eine zusätzliche Informationsquelle sein kann.

Die Anfänge

Früher arbeitete man generell anders als heute am Computer. Mäuse waren selten, grafische Benutzeroberflächen faktisch nicht vorhanden und der Bildschirm hatte eine feste Einteilung in 80 Zeichen pro Zeile und 25 Zeilen pro Bildschirmseite. Bei Heimcomputern, die an Fernsehgeräte angeschlossen wurden, waren es aus Auflösungsgründen nur 40 Zeichen. Zwar gab es auch höhere Auflösungen, beispielsweise im HGC-Modus, aber diese waren eher selten und nur für spezielle Aufgaben gedacht. Die übliche Darstellung war demnach klar definiert, so dass man in der Lage war, auf einer Punktschriftzeile mit 80 Zeichenmodulen die komplette Zeile darstellen zu können. 40 Zeichen stellte eine halbe Zeile dar. Dabei erfolgte die Ansteuerung hardwareseitig, also Mittels eines Grafik-Interfaces.

In den 80er Jahren waren Sprachausgaben noch nicht wirklich gut verständlich, so dass man sich hauptsächlich auf die Darstellung in Blindenschrift konzentrierte. Im Textmodus mit einer festen Struktur von üblicherweise 40 oder 80 Zeichen bei 25 Bildschirmzeilen war die analoge Darstellung auf einer an die Breite angepasste Braillezeile die logische Konsequenz. Dies war ein fester Wert, weshalb Braillezeilen auch heute noch über 20, 40 oder 80 Zellen verfügen. Das Punktmuster besteht aus 6 bis 8 Punkten, wobei mit 6 Punkten maximal 64 und mit 8 Punkten maximal 256 Zeichen dargestellt werden können. Dies war damals praktisch, weil die Zeichentabelle eines Computers im ASCII-Format ebenfalls 256 Zeichen umfasst, so dass jedem Zeichen ein Punktschriftzeichen zugeordnet werden kann. Historische Braillezeilen mit elektromagnetischer Technik konnten die Zeile nur am Stück aufbauen, wobei die Zeile währenddessen (ca. 3-5 Sekunden pro Zeilenaufbau) zur Vermeidung von Darstellungsfehlern nicht berührt werden sollte. Heutige Zeilen arbeiten mit Piezo-Elektroden, welche punktgenau auch während des Lesens den Inhalt ständig verändern können, wodurch auch blinkende Darstellungen eines Cursors oder Statuspunkte möglich sind. Während in den 80er und Anfang der 90er Jahre die Braillezeile über eine Ergänzungskarte direkt an die Grafikkarte gekoppelt wurden und sie sich im Textmodus auch selbst um die Darstellung kümmerte, ist dies heute bei grafischen Benutzeroberflächen nicht mehr möglich. Es gab in der Übergangszeit verschiedene Mischformen, so dass neben der Hardware-Anbindung eine Software sich um die Verfolgung der Schreibmarke kümmerte. Später war die Entwicklung von Hardwareanbindungen aufgrund neuer Bus-Systeme für Grafikkarten zu komplex, weshalb es ab dann nur softwaregestützte Braillezeilen gab und die Screenreader die ‘Darstellung übernahmen. Bei grafischen Benutzeroberflächen gibt es auch keine feste Zeichenanzahl pro Zeile mehr, weshalb später auch Modelle mit abweichenden Längen hergestellt wurden. Es gab verschiedene Experimente, beispielsweise Braillezeilen mit zusätzlich vertikalen Modulen, welche einen besonders guten Bildschirmüberblick versprachen. Neben Braillezeilen gibt es auch grafische Anzeigegeräte, welche Braillemodule in Form einer Fläche bieten, um eine grafische Darstellung zu ermöglichen. Allerdings haben sich diese Geräte aufgrund hoher Preise und komplexer Herstellung bislang nicht durchgesetzt. Auch gibt es immer wieder Forschungsprojekte, welche zukünftig eine optimierte grafische Darstellung versprechen und die herkömmlichen Braillezeilen ablösen wollen, aber dies ist bislang noch Zukunftsmusik.

Weil bei grafischen Benutzeroberflächen nicht jedes Zeichen als Solches mehr dargestellt werden kann, sorgen Statusmodule für zusätzliche Informationen, die ansonsten die Sprachausgabe ausgibt. Dies kann der Status eines Steuerelements sein, wie beispielsweise ein aktiviertes Kontrollkästchen. Auch die Bedienung des Screenreaders kann je nach Modell vollständig über die Braillezeile erfolgen, inklusive Texteingabe. Hierzu gibt es die unterschiedlichsten Bedienungsansätze, die sich zwischen den Herstellern unterscheiden: Wippende Leisten für den zeilenweisen Vorschub, Rollen oder Räder, Schieber für die vertikale und horizontale Bildschirmerfassung, wippen, speziell angeordnete Taster oder Joysticks. Daher ist die Umstellung von einen auf den anderen Hersteller mit einer gewissen Umgewöhnungszeit verbunden. Allen gleich ist das Cursor-Routing, welches ermöglicht, den Cursor zu einem bestimmten Zeichen auf der Braillezeile zu verschieben, umso beispielsweise ein Wort in einem Text zu korrigieren. Die Einsatzmöglichkeiten einer Braillezeile sind sehr individuell, so dass sie für reine Punktschriftleser oder auch Taubblinde das Arbeiten ganz ohne Sprachausgabe oder auch PC-Tastatur ermöglichen. Anders herum können sie auch als reines Textinformationsfenster ohne die Ausgabe von Steuerinformationen dienen.

Die Sprachausgabe

Braillezeilen sind damals wie heute kostenintensiv. Durch den Einsatz von Software, leistungsfähigen Computern und viel Speicher mit kurzen Zugriffszeiten haben Sprachausgaben eine Qualität erreicht, die man ihnen vor Jahrzehnten nicht zugetraut hätte. Fast schon menschlich klingen sie und das bei vergleichsweise wenig Rechenleistung. Sie setzen sich aus echten Sprachsamples zusammen (Diphonsynthese), die von realen Menschen im Studio aufgezeichnet wurden. Hierzu müssen nach Algorithmus Texte eingesprochen werden, die anschließend in kleinste Fragmente zuerlegt und je nach gefordertem Ausdruck in Echtzeit wieder zusammengesetzt werden. Mit einem Speicherplatz von rund 150 Megabyte lassen sich schon ordentliche Ergebnisse erzielen. Die Tonhöhensteuerung, beispielsweise am Satzende, wird durch Formantkorrekturen und Time Stretching realisiert, wobei auch ein umfangreiches Wörterbuch mit zahlreichen Ausnahmen die Grundlage für die Textanalyse bilden. Atemgeräusche, emotionale Betonungen und selbst Weinen oder Lachen zählt zum Repertoire der Hersteller. Heute sind sie Bestandteil fast eines jeden Betriebssystems, vor einigen Jahrzehnten waren sie kaum bezahlbar. Trotz einer guten Verständlichkeit sind hohe Geschwindigkeiten von Nachteil, weil die Sprachausgabe zum Verschlucken neigt und unnatürlich klingt. Daher ist ratsam, sich bei der Geschwindigkeit an einen üblichen Wert zu halten.

In den Anfängen allerdings wurde mit der Subtraktiven Synthese, resonanzfähigen Filtern und Rauschgeneratoren gearbeitet, Sprachausgaben waren nichts anderes als Hardware-Synthesizer. Die Ansteuerung per Software modulierte den eher schnarrenden Grundton, so dass man sich gut einhören musste, um die unnatürlich klingenden Stimmen verstehen zu können. Diese Unnatürlichkeit war allerdings auch ein Vorteil, denn viele blinde Anwender konnten eine extrem hohe Sprechgeschwindigkeit wählen und durch die Schnelligkeit der Hüllkurven waren die Sprachausgaben für sie gut verständlich. Auch wurden die damaligen, langsamen Computer mit einer Taktfrequenz von nur wenigen Megahertz nicht belastet, der Text wurde über die serielle Schnittstelle der Sprachausgabe zugeführt. Befehle bei der Vorverarbeitung optimierten den Sprachfluss und Ausnahmewörterbücher konnten die Aussprache noch verbessern. Damals kostete eine Sprachausgabe rund 2.500 bis 3.500 Mark (inflationsbereinigt zwischen 2.000 und 3.000 Euro), ein passender Screenreader für DOS und später Windows kam noch dazu. Die Kostenübernahme für den Privatbereich war nicht geregelt, so dass nicht viele blinde Anwender auch eine zur Verfügung stand. Später nahm die Leistung der Computer zu und man ging dazu über, diese Sprachausgaben per Software zu simulieren. Das ersparte die Hardware und so genügte eine einfache Soundkarte zur Wiedergabe. Dadurch konnten auch Kosten gesenkt werden, die Stabilität war zu Anfang jedoch ein großes Problem. Weil DOS allerdings kein Multitasking-Betriebssystem ist, konnte diese Emulation nur unter Windows erfolgen.

Grafische Benutzeroberflächen

Seit Anfang der 90er Jahre wurden grafische Betriebssysteme immer beliebter, allerdings zunächst weniger bei blinden anwendern. Eigentlich ist es erst seit Ende der 90er Jahre wirklich möglich, grafische Benutzeroberflächen intuitiv zu bedienen. Es wurde viel experimentiert, denn der Bildschirm war nicht mehr in feste Zeichen eingeteilt, sondern in reine Pixeln (Bildpunkte). Die Screenreader mussten nun intelligent werden und erkennen, welche Objekte wie dargestellt werden. Ein Vorteil dabei ist, dass grafische Betriebssysteme über fest definierte Steuerelemente verfügen (Textfelder, Schalter, Kontrollkästchen, Auswahlschalter, Fensterklassifizierungen etc.) Die Screenreader müssen auch heute noch diese Elemente erkennen und dem blinden Anwender mitteilen. Wenn er das Element kennt und weiß, wie er es bedienen kann, ist die Handhabung sogar einfacher als früher. Denn über die Jahre entwickelte sich eine klare Struktur für Anwendungen, die heute noch Bestand hat. Aktuell erlauben die grafischen Benutzeroberflächen den Screenreadern, die notwendigen Informationen über bestimmte Schnittstellen auszulesen, weshalb das Surfen im Internet, Mailen und Chatten, Musik hören und Erstellen von Tabellen, heute kein Problem

Alle heute erhältlichen Computer mit OS X und Windows Betriebssystem können von blinden Anwendern gleichermaßen bedient werden, eine spezielle Hardwareausstattung ist nicht erforderlich. Die Grundeinstellungen des Betriebssystems stellen für gute Bildschirmleser kein Problem dar. Manche blinde Anwender bevorzugen Tastaturen mit Hilfsmarkierungen auf einigen Buchstaben, um beim 10-Finger-Schreiben die Orientierung besser zu behalten. Notwendig ist dies heute weniger, da F und J bei allen Tastaturen markiert sind. Selbst die Leistung der günstigsten Systeme ist für reine Office-Arbeit, Internet und E-Mails, absolut ausreichend und praktische Leistungsunterschiede sind fast nicht zu spüren.

Bei Linux ist es allerdings etwas komplizierter. Zwar gibt es spezielle Versionen für blinde und sehbehinderte Nutzer, jedoch lassen sich diese meist nur von erfahrenen Anwendern installieren und bedienen. Besonders problematisch sind Fehlermeldungen, die zumeist über keine Erklärung verfügen und daher keinen Lösungsansatz bieten. Reine Anwender könnten hiervon überfordert sein, weshalb eine Beschränkung auf Windows oder macOS zu empfehlen ist. Zwar lässt sich auch in der Konsole unter Linux gut arbeiten, aber das Auswendig lernen komplexer Befehlsketten wird für den heutigen Anwender etwas befremdlich klingen.

Touchscreen-Bedienung

Bei Smartphones und Tablets sind Touchscreens üblich, aber auch moderne Windows-Versionen unterstützen ihn. Für Screenreader bedeutet dies einige Herausforderungen, vor Allem unter Windows. Bei Smartphones haben Apple und Google die Bedienung von Hause aus optimiert, unter Windows müssen die Entwickler bestehender Screenreader dazu lernen. Das war für manche eine Herausforderung, inzwischen aber ist der Touchscreen bedienbar. Spezielle Gesten müssen erlernt werden, sie ersetzen aber nicht die Tastatur. Der Vorteil bei barrierefreien Applikationen ist, dass der blinde Benutzer mit seinem Finger den Bildschirm in Echtzeit erkunden und Elemente durch Berühren aktivieren kann. Das erspart mitunter das Erlernen vielfältiger Tastenkombinationen. Dennoch sind Anpassungen nicht unkompliziert, zahlreiche Ausnahmen bei unterschiedlichen Verhaltensweisen des Betriebssystems erfordern auch, dass man die Gesten lernt und kontextabhängig nutzt. Dabei muss der Screenreader erkennen, in welchem Modus sich das Betriebssystem befindet. Die Bildschirmtastatur ist ein Beispiel, wenn diese bei bloßer Berührung Buchstaben aktivieren soll. Unter Windows zeigt sich allerdings, dass im Gegensatz zum iPhone die Touchscreen-Bedienung nicht immer als Vorteil erweist. Besonders bei gleichzeitiger Vergrößerung und kleinen Displays führt man die Hände stets durch das Sichtfeld, was besonders sehbehinderte Anwender irritieren kann.

Tastaturbedienung

Während es für PC und Mac Tastaturnormen gibt, die allerdings bei kompakten Tastaturen nicht immer eingehalten werden, stellen Notebooks mitunter ein Problem dar. Jeder Hersteller hat sein eigenes Layout und auf gewohnte Tasten, wie die rechte Windows-Taste oder Entfernen, wird nicht selten verzichtet. Hierbei ist es ratsam, sich über die Tastatur beispielsweise mit der Tastaturhilfe des Screenreaders zu informieren. Fehlen Hardwaretasten, kann man versuchen, sie mit Tools wie KeyTweak auf andere, nicht häufig benötigte Tasten umzubelegen. Vor dem Kauf einer kompakten Tastatur oder Notebook sollte man dies unbedingt beachten.

Mobile Screenreader

Für fast alle Smartphones gibt es zumeist fest integrierte Screenreader, selbst mit Anbindungsmöglichkeit einer Braillezeile. Diese sind ebenso, wie die heutigen mobilen Betriebssysteme, recht komplex und erlauben eine weitreichende Steuerung ohne sehende Hilfe. Gerade mobile Braillezeilen mit 12 Stellen sind eine gute Ergänzung und verwandeln ein Smartphone in einen mobilen Arbeitsplatz. Die tiefe Integration hat den Vorteil, dass Screenreader und Betriebssystem eng miteinander verzahnt sind und somit auch eine gewisse Zuverlässigkeit erwarten lassen. Der Nachteil liegt jedoch darin, dass man sich auf Weltkonzerne verlassen muss, welche die Entscheidungen treffen, ob Fehler beseitigt oder neue Funktionen implementiert werden. Ebenso bieten sie nur eingeschränkte Unterstützungen, so dass man ohne die Fähigkeit des Selbststudiums über das Internet möglicherweise an Grenzen stößt. Spezielle Anbieter hingegen können auf Kundenwünsche flexibel reagieren, allerdings sorgt auch der nicht immer freie Weg zum Betriebssystem für keine Lösungsgarantie. Der Trend geht, egal ob mobil oder stationär, zu im System integrierten Zugangslösungen und es bleibt zu hoffen, dass die Anwender Gehör bei den Herstellern finden und nicht im Alleingang vordiktiert wird, was ein Screenreader können muss.

Fazit

Es gibt somit eine Vielzahl unterschiedlicher Lösungen, die allesamt bedienbar sind. Was das Richtige für einen selbst ist, kann in einer umfassenden Hilfsmittelberatung ermittelt werden. In der Regel kann man davon ausgehen, dass sich ein Computer und ein Smartphone ergänzen, wobei auch der Einsatz im heimischen Umfeld und im Beruf unterschieden werden muss. Klar ist aber auch, dass Screenreader zunehmend überflüssig werden, weil diese Funktionen mehr und mehr in den Betriebssystemen verankert werden. Ob dies allerdings dazu führen kann, dass jedes am Markt befindliche Gerät barrierefrei genutzt werden kann, wird sich zeigen.

Sei der Erste, der das kommentiert

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.