Kommentare zu den Kapiteln

Der Inhalt dieser Website besteht aus dem Haupttext, der in Seiten gegliedert ist, und zahlreichen Fußnoten und Links, die zusammen einen größeren Inhalt repräsentieren.

Einzelne Aspekte werde ich nach Bedarf in Blogbeiträgen erklären. Dies erfolgt z.B. wenn neue Erkenntnisse auftauchen, die eine andere Sicht fordern als im veröffentlichten Buch eingenommen.

Gerne nehme ich auch Gastbeiträge an, die den Inhalt aus anderer Sicht darstellen wollen. Diese dürfen keinen kommerziellen Hintergrund haben. Ansonsten gebe ich die Beiträge unkommentiert wieder. Geprüft wird nur, ob der Inhalt Beleidigendes, Persönliches oder Strafbares enthält.

Gefahren durch eine Grundgröße, die kaum jemand versteht

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Die Lichttechnik hat zwei Größen, die in keiner anderen Technik oder Wissenschaft vorkommen: den Raumwinkel und die Leuchtdichte. Den Ersteren erkläre ich wo anders. Wichtiger ist die Leuchtdichte, weil sie die Grundlage des Sehens bildet.

Wenn Ihnen Unangenehmes oder zuweilen Lebensgefährliches widerfährt, kann es durch ein mangelndes Verständnis dieser Größe bei Fachleuten oder dem Gesetzgeber handeln:

  • Sie können nicht schlafen, weil der Nachbar aus dem nächsten Haus mit einer legal erworbenen Lampe in Ihr Schlafzimmer leuchtet, obwohl das Bundesimmissionsgesetz Sie davor schützen will
  • Während einer Autofahrt an einem sonnigen Tag überfahren Sie ein Kind, das hinter einem Radfahrer die Straße überquert. Kein Richter glaubt Ihnen, dass Sie haben nichts sehen können
  • Auf der Autobahn verfolgt Sie ein Fahrzeug, dessen amtlich zugelassenen Lichter stark genug scheinen, um Sie wegbeamen zu können.

 

Das alles und noch mehr ist möglich, weil die Leuchtdichte nicht oder falsch verstanden wird. Ihre Rolle bei der Blendung, die uns bei der Arbeit quält, hatte ich anderswo beschrieben (Beim ersten Ziel schon die Zähne ausgebissen)

Konsequenterweise gehört die Leuchtdichte in die Liste der internationalen Basiseinheiten (SI-Einheiten). Da die CIE aber aus einem Messverein entstanden war, nimmt diese Rolle die Lichtstärke ein. Sie ist eine der 7 wichtigen physikalischen Basiseinheiten. Wobei das Wort physikalisch nur halb stimmt. Sie leitet sich von der physikalischen Strahlstärke ab und wird daraus berechnet, indem man das jeweilige Licht mit der Augenempfindlichkeit bewertet. Die Lichtstärke konnte man als Erstes präzise messen und daher international normen.

Der Leuchtdichte hingegen entspricht keine physikalische Größe, obwohl sie mit physikalischen Geräten gemessen wird. Wer genau wissen will, was sie ist, muss sich durch eine lange Definition kämpfen – und versteht am Ende … nichts. Spaßeshalber habe ich deren Definition aus dem CIE-Wörterbuch der Lichttechnik kopiert. Da sie nicht auf einen 4K-Monitor passte, musste ich das Bild verkleinern. Leider gibt die CIE selbst die Definition nicht mehr auf Deutsch (link). Hier ist das Prachtstück

Diese wahnsinnig lange Definition ist leider nicht aus einer Unfähigkeit heraus entstanden. Sie ist der Komplexität der Größe zu verdanken. Fachleute wie Laien versuchen, sie erklärbar zu machen, und scheuen dabei keine Klimmzüge. Das älteste Bild, mit dem man sie erklären wollte, sieht aus wie hier.

Die Lampe der alten Dame beleuchtet den Tisch und erzeugt das, was ihr das Sehen ermöglicht: die Leuchtdichte. Da nicht nur alte Damen diese brauchen, gibt es die entsprechenden Bilder auch für andere. Ein Dutzend und mehr davon habe ich unter Wunder der Lichttechnik - Wie aus einer Grundgröße viele werden - kommentiert.

Dabei entstehen Bilder, die sogar schlechter verständlich sind als die Definition. Hier habe ich drei Beispiele zusammengestellt, die besonders lustig aussehen. Oben sieht man einen Mann mit Kravatte, dessen Lampe aus der Zeit stammt, als er noch im Blaumann arbeitete, gezeichnet von einer BG. Die beiden unteren stammen auch von einer BG, aber sind mit der Landwirtschaft verbunden. Das letzte Bildchen erklärte dem Bauern die Vorschriften für die Beleuchtung von Sauställen.

Links kommt ein Lichtstrom aus einer Lampe. Eigentlich hat er keine Richtung. Aber lassen wir das gelten. Dieser führt zu einer Beleuchtungsstärke. Eigentlich stellt das Oval keine Beleuchtungsstärke dar. Die ist nämlich gerichtet. Und daraus geht ein Strahl ins Auge des Schweins, der immer schmaler wird. Er sieht ähnlich aus wie der antike Lichtstrahl, der nach der damaligen Lehre vom Auge ausging und das Sehen ermöglichte. Wie dem auch sei, das Schwein sieht, wie die Kuh auch, nur dichromatisch, weil es nur zwei Farbempfänger im Auge hat. Menschen haben drei. Nur dafür kann eine Leuchtdichte berechnet werden. Für den Fall, dass sich Vogelliebhaber oder Aquarianer auch so ein Bild basteln: Vögel, Fische und Reptilien haben vier Farbempfänger im Auge.

Aber auch verbale Erklärungen sind mehr oder weniger falsch. So erzählt mancher, Leuchtdichte sei Helligkeit. Wer es genauer machen will, bezeichnet sie als Größe, die der Helligkeit entspricht. In Licht.de liest man gar Kluges: „Die Leuchtdichte (Kurzzeichen: L) kann vom Auge wahrgenommen werden. Sie bestimmt den Helligkeitseindruck einer Fläche, der von Farbe und Material abhängt. Sagen wir netterweise, ganz falsch ist diese Umschreibung nicht. Aber auch nicht richtig. Was soll ein Mensch unter einem Helligkeitseindruck verstehen, der vom Material abhängt? Was hat das Material mit der Helligkeit zu tun? Und mit Farbe?

Solche Missverständnisse und Ungenauigkeiten wären nur für Fachleute interessant und für andere gleichgültig oder erträglich, wenn sie nicht zu Situationen führen, die unangenehm bis gefährlich sind. Zunächst zu einem alltäglichen Ärgernis. Manche Nachbarn stellen in ihrem Garten Scheinwerfer auf und denken, dass das Licht schwächer werde, wenn es den Nachbarn trifft. Das tut es, wenn man im Schlafzimmer die Beleuchtungsstärke misst, wie das Bundes-Immissionsschutzgesetz (BImSchG) vorgibt. Die zulässigen Werte variieren stark je nach Gebietsart (z.B. reine Wohngebiete: 1 lx, Kerngebiete/Gewerbegebiete: 5 lx).

Zwar wird in diesem Zusammenhang auch die Leuchtdichte genannt. Aber nicht einmal Fachleute können diese messen. So gibt es auch keine Grenzwerte. Das Messproblem ist nicht einmal eine erstrangig wichtige Sache. Die Wichtigere ist das mangelhafte Verständnis der Wirkung: Die Leuchtdichte ist die Konstante in einem optischen Strahlengang. Sie nimmt in der Luft kaum ab. Ihre Wirkung besteht so lange praktisch unverändert, bis die leuchtende Fläche klein genug scheint. Deswegen stören Sterne am nächtlichen Himmel trotz einer hohen Leuchtdichte nicht. Erst wenn sie eine Mindestgröße erreichen, wird ihre Leuchtdichte allein wirksam (Riccosches Gesetz).

Das Bundesimmissionsschutzgesetz begrenzt die Beleuchtungsstärke am Ort der Störung. Diese ist proportional der Fläche des störenden Objektes und dessen Leuchtdichte. Und nimmt mit dem Quadrat der Entfernung vom strahlenden Objekt ab. Das ist das übliche Verständnis von der Ausbreitung von Licht oder Schall. Dass die Leuchtdichte mit zunehmender Entfernung nicht abnimmt, ist niemandem bewusst. Auch nicht, dass sie in die Blendungsberechnung mit dem Quadrat ihres Wertes eingeht.

Folgende Objekte erzeugen am Einfallsort exakt die gleiche Beleuchtungsstärke. Ihre Blendwirkung ist aber sehr unterschiedlich und steigt mit dem Quadrat der Fläche. Daher kann Ihr Nachbar Sie mit einer Lampe stören, ohne gegen das Gesetz zu verstoßen. Und er ahnt nichts davon.

(Bitte um Nachsicht für die Abbildung. Man kann auf einem Bildschirm nur eine etwa annähernde Wirkung simulieren.)

Echt gefährlich wird die Sache mit der Beleuchtung von Fahrzeugen. Da die Gefahr schon sehr früh bekannt war, wird deren Beleuchtung seit der Entstehung des motorisierten Verkehrs gesetzlich geregelt. In Deutschland waren die Vorschriften zur Fahrzeugbeleuchtung historisch in der Straßenverkehrs-Zulassungs-Ordnung (StVZO) verankert, die mehrmals neu gefasst wurde:

  • Beginn 20. Jahrhundert: Schon mit dem Aufkommen der ersten Kraftwagen wurden Beleuchtungsvorschriften erlassen, die zunächst oft auf einfache Öllampen oder Karbidlampen abzielten.
  • 1937: Die StVZO, die heute noch in Teilen gültig ist, enthielt detaillierte Regelungen zur Beleuchtung (§§ 49a - 54 StVZO).

Die StVZO enthält heute auch Vorschriften für die Beleuchtung von Fahrrädern. Da diese aber sehr schwache Lichtquellen waren, gibt es keine Prüfung wie bei den KfZ. Etwa jeder zweite Fehler, der bei KfZ-Prüfungen beanstandet wird, betrifft die Einstellung der Scheinwerfer, weil diese den Gegenverkehr blenden können. Bei Fahrrädern hingegen gibt es keine Prüfungen. Auch die Entwicklung von Fahrradbeleuchtung selbst wird kaum streng kontrolliert.

Das war auch nicht nötig, weil viele Beleuchtungen von Kleinrädern selbst in der Nacht kaum blendeten, weil sie einfach zu schwach waren. Zudem gingen sie aus, wenn das Fahrrad stand. Seit es LED-Lampen gibt, ist es aus mit den üblichen Eigenschaften. Da LEDs Leuchtdichten haben, die in die gleiche Größenordnung gehören wie die der Sonne, können Fahrradlichter einen bei Sonnenschein so blenden, dass man nichts mehr dahinter erkennen kann. (mehr unter Warum Autos so blenden)

Was ist der Kenntnisstand beim verantwortlichen Bundesministerium? Auf die kleine Anfrage der Abgeordneten zu „Gefahren im Straßenverkehr durch Blendeffekte von Leuchtdioden“ ließ er u.a. erklären: „Erkenntnisse über Gefahren, dass Fahrräder oder Motorräder mit Einzellicht durch Fahrzeuge mit ECE-genehmigten Tagfahrleuchten, die aus mehreren Einzeldioden bestehen, übersehen werden, sind nicht bekannt.“ (Drucksache 17/2307) (hier abrufbar. Anm.: Der Vorgang stammt zwar aus 2010, das Ministerium hat aber seit 1937 Manches nicht mehr gelernt)

Warum blenden dann die Scheinwerfer der Autos nicht, die viel größere Beleuchtungsstärken erzeugen? Um den Gegenverkehr nicht zu blenden, darf bei Fahrrädern die Beleuchtungsstärke bei 3,4 Grad oberhalb des hellsten Punktes des Lichtkegels 2 Lux nicht überschreiten. Aber Viele moderne, zugelassene LED-Fahrradscheinwerfer bieten heute Helligkeiten von 30 Lux, 50 Lux oder sogar über 100 Lux an, um eine bessere Sicht für den Fahrer zu gewährleisten.

Fahrradlampen sind sehr unterschiedlich befestigt, aber nur selten so unverrückbar wie bei Autos. Man kann die gleiche Lampe auf kleine oder große Fahrräder montieren und dazu noch frei ausrichten. Niemand kann sie kontrollieren, kaum einem Fahrer ist bewusst, dass sein Fahrrad stärker blendet als ein Auto.

Auch hier erfolgt die gesetzliche Regelung über die Beleuchtungsstärke, obwohl Fachleute schon immer wussten, dass die Blendung von der Leuchtdichte bestimmt wird.

Die letzte Aussage bedarf einer Korrektur, die allerdings entscheidend für die Zulassung von Fahrzeugbeleuchtungen ist. Lichttechniker aus Karlsruhe, wo auch die Zulassungsstelle für die Fahrzeugbeleuchtung sitzt, haben zwei unzulässige Aussagen bezüglich Blendung getroffen. Die Erste heißt: Maßgeblich für die Sicherheit des Straßenverkehrs ist die physiologische Blendung. Dies beruht auf der Vorstellung, dass man damit die Störung der Sehleistung messe. Daher wäre die psychologische Blendung im Straßenverkehr unbedeutsam. Mit dieser Vorstellung verwarf der Bundesminister eine Kleine Anfrage im Bundestag.

Während man schon lange mit dieser Vorstellung lebt, ist die zweite unzulässige Aussage der Grund für die Zulassung des sog. Dränglerlichts. Diese wurde vor 35 Jahren in der Form von Xenon-Lampen auf den Markt gebracht und hat ein sehr hohes Potenzial für die Blendung des Gegenverkehrs. Deswegen mussten diverse Maßnahmen vorgeschrieben werden, um die Blendung zu vermeiden, so eine automatische Leuchtweiteregelung und eine Scheinwerferwaschanlage, weil schon Staubpartikel auf dem Scheinwerfer ausreichen, um den Gegenverkehr zu blenden.

Die Einführung dieser sehr bedenklichen Technologie, deren Beherrschung immer noch schwer ist, wurde möglich durch folgende Aussage: Für die physiologische Blendung ist die Lichtstärke maßgeblich, für die psychologische Blendung die Leuchtdichte. Daher wurde gesetzlich die Lichtstärke begrenzt. Bis heute! Bei den alten Scheinwerfern war der Unterschied egal, nicht so bei Xenon- oder LED-Scheinwerfern. Um die Blendung (physiologisch) gleich zu halten, kann man bei halb so großen Scheinwerfern eine doppelte Leuchtdichte vorsehen, bei einem Zehntel der Fläche ist die zehnfache Leuchtdichte zulässig. Bei der psychologischen Blendung geht die Leuchtdichte mit dem Quadrat in die Berechnung ein. Daher der Begriff „Dränglerlicht“.

Das Thema ist "aktenkundig" und wurde z.B. bei Lux Junior 2013 vorgetragen. Fazit: "Der Beitrag zeigt, dass die aktuelle Bewertung lichttechnischer Komponenten im Automobilbereich nicht die tatsächlich resultierende Blendung erfasst. Die angeführten Literaturquellen in Verbindung mit den Ergebnissen aus durchgeführten Voruntersuchungen verdeutlichen, dass ein Scheinwerfer ein wesentlich höheres Blendpotential aufweisen kann, als durch die gesetzeskonforme Abnahme ermittelt wird."

Zu guter Letzt noch eine Beleuchtung, die die Sicherheit im Straßenverkehr erhöhen soll, aber nach Ansicht von Augenärzten das Gegenteil erreicht. Die Rede ist von Tagfahrlichtern. Diese sind seit Langem vorgeschrieben. Anders als die übliche Beleuchtung, die zum Sehen und Gesehenwerden dient, dienen Tagfahrlichter nur zum Gesehenwerden. Sie hängen vorn am Fahrzeug, damit es gesehen wird. Auch deren Licht wird gesetzlich über die Lichtstärke geregelt. Dummerweise hat die Lichtstärke selten etwas mit Sichtbarkeit zu tun. Dafür sorgen am besten die Farbe, die Größe oder die Leuchtdichte.

Bei Tagfahrlichtern gibt es so schlimme Exemplare, dass ich in meinem Arbeitszimmer im ersten Stock geblendet werde, wenn ein Auto auf uns zukommt. Die Lichter stören sogar am Tage sechs Meter über der Straße. Für die Blendung bestens sorgt wieder die Leuchtdichte der LED.

Auch dieser Effekt ist aktenkundig. Auf eine Anfrage von Abgeordneten (Drucksache 17/2042) antwortete der Verkehrsminister einst so: "Wissenschaftliche Erkenntnisse oder Forschungsberichte zur Blendung durch Tagfahrleuchten mit Leuchtdioden sind der Bundesregierung nicht bekannt. " (mehr hier) Dabei hatte Peter Heilig, Augenarzt, die Sache aus der Sicht eines Augenarztes dokumentiert (hier)

Eine Gruppe von Augenärzten hatte schon vor 10 Jahren Front gegen „zu helle“ Scheinwerfer gemacht, die man z.B. hier lesen kann. Dem Bundesverkehrsminister, der sich ahnungslos stellte, war die Sache aber schon bekannt. Die folgende Frage hat er nach der einstigen Kenntnislage nämlich so beantwortet:

„2. Wie bewertet es die Bundesregierung, dass sich zunehmend Verkehrsteilnehmer durch starke Lichteinwirkung von Leuchtdioden geblendet fühlen und dadurch im Straßenverkehr verunsichert werden?"

Antwort: "In der Wissenschaft wird unterschieden zwischen physiologischer und psychologischer Blendung. Die physiologische Blendung setzt die Sehleistung des Auges herab. Bei der psychologischen Blendung wird eine Blendungserhöhung empfunden, die nicht messbar und individuell verschieden ist. Verkehrsteilnehmer können sich geblendet fühlen, ohne dass dies zu einer verringerten Sehleistung führt.“

So antwortete der Bundesverkehrsminister am 28.06.2010. Nicht ganz wahrheitsgemäß. Die psychologische Blendung ist nach der Vorstellung der Industrie so gut messbar, dass sie Werte für ihre Leuchten (UGR-Wert) dreistellig angibt.

Und so wertete jemand, der sich schon sehr lange mit dem Problem beschäftigt hatte, Professor Stephan Völker, TU Berlin, am 11. September 2012 (Blendung – Ein Rückblick über 100 Jahre Forschung, Tagungsband Light 2012, 20. Gemeinschaftstagung LiTG, NSV, LtG, SLG): „Der vorliegende Beitrag zeigt, dass es möglich scheint, die vorhandenen Blendungsbewertungsmodelle auf ein Modell zurückzuführen. Zurzeit fehlen noch einige Einflussgrößen, welche aber bereits in Kürze vorliegen dürften. Diese müssen anschließend für alle Anwendungsfälle (Innen-, Außen-, Kfz-, Sportstättenbeleuchtung, etc.) validiert werden.“

Kurz gesagt: Die Vorstellung von zwei unterschiedlichen Arten der Blendung kann nicht mehr aufrechterhalten werden. Man kann ein neues Verfahren finden. Dieses muss danach validiert werden. D.h., die jetzige Vorstellung ist ungültig. Ob sie jemals gültig gewesen ist, darauf sollte man besser nicht wetten.

Die hier dargestellte Problematik ist nicht eines unter vielen. Denn Blendung im Straßenverkehr gehört in die hohe Politik. So wollte der damalige Verkehrsminister Georg Leber 1972 die Führerscheine älterer Bürger zeitlich begrenzen und von einer Prüfung der Blendempfindlichkeit abhängig machen. Faktisch gab es kein objektives Argument dagegen. Die Maßnahme unterblieb nur wegen der hohen Bedeutung der Mobilität für ältere Menschen. Mittlerweile ist der durchschnittliche Deutsche 10 Jahre älter als 1972 (mittleres Alter 35,5 Jahre (1972) und 44,9 Jahre (2024)), wobei sich der Anteil der Bevölkerung ab 65 Jahren fast verdoppelt hat (ca. 13% 1972 und ca. 22% 2024). Fahrräder und Autos dürfen aber fröhlich blenden, weil die Vorstellungen des Gesetzgebers auf wissenschaftlichen Erkenntnissen fußen, die spätestens vor 10 Jahren als falsch und nicht valide erkannt worden sind. Hinzu kommt, dass der Bundesminister eine unwahre Angabe macht.

Und die Folgen? Eine ADAC Umfrage mit 1.089 Personen mit gültiger Fahrerlaubnis ergab:

  • 67 % der befragten Personen empfinden die erlebte Blendung als untragbar oder störend.
  • 60 % aller Teilnehmer haben Probleme, Objekte im Umfeld der blendenden Lichtquelle wahrzunehmen.
  • 49 % der Befragten kneifen die Augen zu, wenn sie der Blendung ausgesetzt sind, oder schließen sie sogar kurz.
  • 27 % der Umfrageteilnehmer fühlen sich fast immer oder regelmäßig geblendet.
  • 27 % der Befragten gaben an, ein Bild der Lichtquelle auch nach dem Passieren für eine begrenzte Zeit weiterhin zu sehen (Nachbild) oder sogar Schmerzen zu empfinden.

(ADAC e.V., Hg., "Verbraucherumfrage Blendung im Straßenverkehr", München, 2024) Die obigen Daten stammen aus Lux Junior 2024. Die KI fasst das Ergebnis wie folgt zusammen: "Eine repräsentative Umfrage des ADAC ergab, dass über 90 % der Autofahrenden im Straßenverkehr geblendet werden, wobei fast zwei Drittel dies als störend empfinden. Besonders problematisch sind dabei das Fernlicht und moderne Scheinwerfertechnologien wie LED, die zu Blendung führen, da sie oft eine höhere Leuchtkraft und Platzierung haben."

Der ADAC selber gab am 3. September 2025 eine Meldung über die Situation in ganz Europa heraus: "Gefahr durch Blendung: Viele Autofahrer sind betroffen." (mehr hier)

Blendung, die man nicht Blendung nennt

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Warum sich die Lichtforschung im Kreise dreht, lässt sich am Beispiel des Fehlens einer übergeordneten Bezeichnung aller Erscheinungen darstellen, die einem das Sehen erschweren oder unmöglich machen. Die allgemeine Sprache kennt aber diesen Begriff: Blendung.

Die Lichttechnik hat einen bekannten Begriff genommen, diesen aber nur für eine begrenzte Bedeutung benutzt. Diese Bedeutung hieß und heißt physiologische Blendung. Und manches, was nicht unter diese Bedeutung passte, wird psychologische Blendung genannt. Diese Bedeutung ist für den Laien unverständlich, aber die Ermittlung der Blendung beruht auf der subjektiven Beurteilung  von Laien. Bezeichnend ist eine Bemerkung der ersten Forschenden, die im Labor von AEG in Springe Versuche durchführten. Sie sagten: „Das Schwierigste war es, den Probanden zu erklären, was Blendung ist.“

So ist es auch. Bei meinen Versuchen wollten die Probanden gar nicht erst geblendet werden. Dabei wären die Bedingungen, die sie beurteilen sollten, nach der gängigen Vorstellung unangenehm bis unerträglich. Nach etwa 200 Probanden fing ich an, die Versuchspersonen nach dem Versuch zu fragen, was sie denn beurteilt hätten. Sie sagten, ich wäre nett zu ihnen gewesen, hätte Kaffee und Kuchen serviert, und mein Modell wäre sehr schön. Außerdem würden sie für 20 Minuten Arbeit einen vollen Stundenlohn bekommen. Sie wollten mich nicht mit einem negativen Urteil enttäuschen. Zumal bislang niemand sie nach ihrer Meinung gefragt hätte.

In der Psychologie nennt man das Versuchsleitereffekt. Und ist der Hawthorne-Effekt für Arme. Einen Kollegen hat es noch schlimmer erwischt. Er hatte lange blonde Haare und war überhaupt sehr angenehm. Eine Probandin tauchte eines Tages mit einer Schachtel Pralinen bei ihm auf und wollte sich dafür bedanken, dass sie nach ihrer Meinung gefragt wurde.

Es lohnt sich, erst einmal den Begriff Blendung in der Lichttechnik anzusehen und danach die allgemeIne Bedeutung. Und was der Letzteren entspricht, aber einen anderen Namen trägt.

Physiologische Blendung ist eine Form der Blendung, die zu einer messbaren Herabsetzung der Sehleistung führt, so etwa beeinträchtigte Kontrast- und Formenerkennung, verminderte Sehschärfe.

Psychologische Blendung ist eine subjektive Störempfindung oder ein Gefühl des Unbehagens, ausgelöst durch zu hohe Helligkeitskontraste (z. B. ein helles Fenster im Blickfeld bei der Arbeit), ohne dass die Sehleistung unmittelbar messbar herabgesetzt wird.

Was versteht der Mensch, der eine Blendung beurteilen soll, unter diesem Wort? Wem ist das Wort Blendung ein Begriff? Immer wenn sich eine solche Frage stellt, bietet Wikipedia eine Seite, auf der verschiedene Bedeutungen eines Wortes angeführt werden. Diese Seite heißt auf Deutsch „Begriffsklärungsseite“. Bei manchen Worten imponiert die Wikipedia-Liste der Bedeutungen durch ihre Länge, bei Blendung insbesondere durch ihre Diversität. So kommt das Wort Blendung sowohl im Rechtswesen (Strafe) als auch im Militärjargon vor. Aber auch die Kryptographie benutzt das Wort ebenso wie die Kürschnerei.

Ist Blendung im Rechtswesen eine Strafe, die zur Erblindung führt, also zu einem permanenten Schaden, so spricht das Militär davon, dem Feind nur für eine begrenzte Zeit die Sicht zu nehmen. Die Kryptographie spricht von einem Blender, wenn es sich um ein Zeichen handelt, das keine Bedeutung hat, auf Englisch dummy oder null. Es soll dem unbefugten Entzifferer der Nachricht eine Bedeutung vortäuschen, damit sich dieser dem Blender widmet und so die nützliche Nachricht übersieht. Im Alltagsleben spielt ein Blender die Rolle einer Null. Mal ist dieser ein Vorstadtcasanova, mal ein Politiker, dessen Fähigkeiten man überschätzen soll.

Allen Begriffen gemeinsam ist, dass eine Blendung einem die Sicht nimmt oder erschwert, auch in übertragenem Sinne. Das tun die Objekte, die eine physiologische Blendung verursachen, aber nicht die, die eine psychologische Blendung erzeugen. Man sieht genauso klar mit und ohne psychologische Blendung, nur ist eine Situation halt unangenehm, wenn Blendung herrscht.

Es gibt aber Fälle, wo man am Sehen gestört wird und die Sache unangenehm findet, die aber trotzdem nicht Blendung heißen. Aber erst einmal zu einer Situation, die äußerst angenehm ist, aber mit Blendung, besser gesagt, die Blendung merkt keiner.

Das ist zweifellos eine angenehme Situation, bei der jeder der beiden Teilnehmer durch die Kerzen beleuchtet wird. Gleichzeitig aber muss man die andere Person am Tisch durch die Kerzen hindurch sehen und wird somit etwas am Sehen gehindert. Auf die Idee, diese Blendung zu nennen, kommt so gut wie niemand.

Hingegen kann eine Situation von unmerklich bis unerträglich unangenehm sein, das Sehen von kaum merkbar bis kaum vorhanden stören, man nennt sie trotzdem nicht Blendung. Jedenfalls nicht auf Deutsch. Amerikaner sprechen da schon reflected glare wie „Blendung durch Reflexion“. Diese Erscheinung ist seit Jahrzehnten bekannt. Ich musste sie vor rund 50 Jahren beschreiben und Massnahmen dagegen in den Arbeitsschutz einbringen. Und wurde von der Computerindustrie als einer der Feinde der Technologie verfolgt. Mir ist noch gelungen, eine deutsche Norm zu erstellen, die die Störung beseitigt. Die Industrie schaffte aber 15 Jahre später eine internationale Norm (ISO 9241-3:1992 Ergonomische Anforderungen an Bürotätigkeiten mit Bildschirmgeräten (VDTs); Teil 3: Anforderungen an Bildschirmgeräte), die keine Anforderung an Entspiegelung enthält. Diese Norm endgültig abzuschaffen dauerte bis zum Jahr 2023!

Zunächst zum Effekt. Er sieht in schlimmen Fällen wie hier aus. Dieses Bild ist über 60 Jahre alt. Ich fand es 1975. Der Effekt entsteht, indem Papier und Druckfarbe glänzen. Im schlimmsten Fall dreht sich der Kontrast um, das weiße Papier scheint schwarz, während die schwarze Druckfarbe hell glänzt.

Während man im normalen Leben solche Erscheinungen nur dort erleben kann, wo man unter gerichtetem Licht Seiten mit Glanzpapier zu lesen versucht (z.B. im Zug oder im Flugzeug), gibt es den Effekt fast überall, wo Arbeitsräume direkt beleuchtet werden. Das war in der Zeit, als wir das Projekt „Licht und Gesundheit“ bearbeiteten, praktisch in allen deutschen Büros der Fall. Die messbare Wirkung hat Prof. Hartmann sogar quantitativ untersucht.

In der Regel merkt man den Effekt nicht bewusst. Man kann ihn durch vergleichende Untersuchungen unter der gleichen Beleuchtung mit und ohne Sehaufgabe ermitteln. Wenn der Effekt da ist, ermüden die Probanden stärker. Die Rede ist von einer verminderten  Wiedergabe des Kontrastes. Man bestimmt sie in einer vergleichenden Messung unter idealen Bedingungen und in der realen Situation. Das Ergebnis ist der Kontrastwiedergabefaktor. Dessen Bedeutung wurde von den Experten der LiTG so hoch eingeschätzt, dass sie schon sehr frühzeitig eine Arbeitsgruppe an eine Publikation setzte (LiTG-Publikation Nr. 13 Der Kontrastwiedergabefaktor CRF – ein Gütemerkmal der Innenraumbeleuchtung,  1991).

Dieses Gütemerkmal hat es nie in eine Norm für Beleuchtung geschafft. Und das aus gutem Grunde aus Sicht der Industrie. Man kann nämlich mit Hilfe einer CRF-Berechnung nachweisen, dass die viele Jahrzehnte lang bevorzugte Beleuchtungsart, die Allgemeinbeleuchtung, gar keine ist. Sie ist nämlich definiert durch z.B. Prof. Hentschel als „eine gleichmäßige Beleuchtung, die an allen Stellen des Arbeitsraumes etwa gleiche Sehbedingungen schafft“ (Hentschel, H.-J.: Licht und Beleuchtung, Siemens Berlin München 1972). Rechnerisch gibt es aber annehmbare Sehbedingungen nur an bestimmten Teilen eines Raums, was man u.a. daran erkennt, dass die Normen für Beleuchtung die Anordnung der Arbeitsplätze mit vorgegeben haben. Wenn man den Empfehlungen folgt, müssten große Teile der Büros leer stehen.

Das Bild zeigt links, wie sich die Normer die Belegung eines Büros vorstellen. Rechts sind alle störenden Informationen bereinigt worden. Man sieht, wo man optimale Sehbedingungen hergestellt haben will.

Amerikanische Lichttechniker haben in den 1960ern eine Methode entwickelt, mit der man berechnen kann, was die Beleuchtung an den leeren Stellen dieser Räume „wert“ ist. Die Methode heißt „ESI“ wie equivalent sphere illuminance. Hierbei wird der Kontrast auf einem Objekt unter idealen Bedingungen (gleichmäßig leuchtende Kuppel über dem Objekt) und unter realen Bedingungen gemessen. Wird die Sehleistung durch einen Kontrastverlust verringert, kann man die Beleuchtungsstärke ermitteln, die fiktiv diese entsprechende Leuchtdichte erzeugen würde. Diese Größe wird die „äquivalente“ Beleuchtungsstärke genannt. Im Falle des eingezeichneten Beispiels beträgt sie weniger als die Hälfte des physikalisch messbaren Wertes. In besonders schlimmen Fällen bleibt von den installierten 500 lx effektiv nur ein Zehntel übrig.

Wenn man die Definition von Prof. Hentschel ernst nimmt, sind Planungen auf der Basis von Beleuchtungsstärken die reinste Augenwischerei. Allgemeinbeleuchtung kann es nach der Feststellung eines anderen prominenten Professors für Lichttechnik, Bodmann, nur mit einer Indirektbeleuchtung geben. (Bodmann, H.W.; Eberbach, K.; Leszczynska, H., Lichttechnische und ergonomische Gütekriterien der Einzelplatzbeleuchtung im Büro, Wirtschaftsverlag NW, Bremerhaven, 1995, Forschungsbericht BAuA) Äquivalent wäre eine leuchtende Decke.

Bislang geht es um ein lösbares Problem, das man auch oft genug praktisch gelöst hat. Viel hartnäckiger hält sich ein anderes Phänomen, Kontrastverlust auf Bildschirmen. Die erste Anfrage diesbezüglich an mich kam 1970 von Kollegen aus der Entwicklung von Siemens, die wissen wollten, wie man einen Bildschirm entspiegeln soll. Die (vorerst) letzte Anfrage könnte kurz vor meinem Tode kommen. Mein letztes Gespräch hierzu war im Sommer 2025 mit einem Professor für Farbenlehre, der jetzt allein mit den Problemen kämpft.

Nicht, dass wir keinen Fortschritt gehabt hätten. Der „normale“ Büromensch, der 1975 bei einer ordentlichen Beleuchtung kaum was auf seinem Bildschirm sehen konnte, wird heute kaum eine Beschwerde haben. Dumm nur, dass dieser unter Computernutzern mittlerweile eine winzige Minderheit ausmacht. Die Zahl der aktiven Mobilfunk-Abonnements (Handyverträge, SIM-Karten) weltweit liegt bei über 8,7 Milliarden (Prognose für Ende 2024, nach dem Ericsson Mobility Report). Die Anzahl der Smartphone-Nutzer liegt Schätzungen zufolge bei etwa 4,88 Milliarden bis 5,28 Milliarden Menschen (Stand 2024/2025). Das entspricht etwa 60 % bis 65 % der Weltbevölkerung.

All diese Menschen benutzen ein zu kleines Display für ihren Bedarf, weil dieses in eine Hand passen muss. Und es gibt niemanden, der sich um ihre Beleuchtung kümmert. Bis auf wenige Ausnahmen sind die Displays schlecht geschützt gegen Licht. Der öffentliche Raum ist voller Menschen, die alle so gucken wie hier.

Das ist aber noch nicht alles. Denn auf den zu kleinen Displays erscheinen Farben, deren Empfindlichkeit gegen weißes Licht keine einzige Norm der Welt berücksichtigt. Noch eine Blendung, die niemand so nennt. Dagegen ist die oben berechnete Wirkung des Kontrastverlustes im Büro eine Kleinigkeit.

Aber auch wer beruflich Displays benutzen muss, egal welcher Qualität, wird „geblendet“. Für Leute, die Bilder mit hoher Farbqualität bearbeiten sollen, gibt es nur die Dunkelheit am Arbeitsplatz. Aber auch ganz „normale“ Bearbeiter, z.B. Cutterinnen beim Fernsehen, sind in zunehmendem Maße betroffen, weil die Qualität des gesendeten Materials viel höher ist als noch vor 20 Jahren. Für diese gibt es sogar Ausnahmen beim Arbeitsschutz.

Kaum jemand wird sich Gedanken um Ärzte machen, die einen operieren. Diese arbeiteten einst unter gleißend heller Beleuchtung, jetzt nur noch in grüner Kleidung im Schummerlicht, weil die Operation auf Bildschirmen zu bewundern ist. Es gibt sogar Dienstverträge, die den Ärzten Lichttage bescheren als Kompensation für Tage, die sie isoliert vom Tageslicht arbeiten müssen (Licht und Lichttage).

Das Arbeitsleben wie das öffentliche Leben haben in den letzten 50 Jahren eine gewaltige Transformation erlebt, durch die das relativ einfach zu beleuchtende Papier seinen Platz an Displays überlassen hat. Diese sind auf diverse Arten und Weisen lichtempfindlich. Die lichttechnische Normung hat dies alles nicht mitbekommen. Sie gibt Beleuchtungen vor, die der Sehleistung dienen sollen, aber geeignet sind, Sehleistung soweit zu stören, dass die Beleuchtung zu einer Gefahr werden kann.

 

 

 

Glanzleiche – Oder vom Elend des Physikers beim Umgang mit Empfindungen

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Blendung und „natürliche“ Farben - Das waren die Themen der letzten beiden Blogs. Doch die Beschreibung von Erscheinungen, mit denen der Techniker nicht gerade meisterhaft umgehen kann, ist damit nicht komplett. Erst richtig schwierig wird es, wenn man den Begriff oder die Erscheinung Glanz dazu nimmt.

Aber zuerst zu dem „Techniker“. Dieser ist ein Mensch, der einen Beruf ausübt, dessen Name vom griechischen Wort techne stammt. Und die heißt so viel wie Kunst, Gewerbe, Geschick, List, Betrug. Nicht eines davon, sondern alle zusammen. List und Betrug darf man allerdings nicht im Sinne des Strafrechts nehmen, sondern im Sinne von Geschick. Der Techniker überlistet Natur, Materialien, Naturgesetze u.ä., um etwas zu erzielen. So kann ein Mensch fliegen, ohne dass ihm Flügel wachsen.

Wenn der Techniker mit Glanz umgehen soll und dabei gewissenhaft objektive Größen benutzen, handelt er als Physiker, dessen Welt viel regelhafter ist als die des Technikers. Dies musste ich in meinen jungen Jahren tun, und die Sache war bitter ernst. Die Menschen, die am Computer arbeiteten, hatten Probleme mit den Augen, die sie auch heute haben, aber damals schimpften sie mehr. Also musste ich die sog. visuellen Probleme der Menschen ermitteln und Lösungen dafür finden. Diese wurden nicht in den Sand geschrieben, sondern in Normen, die heute 50 Jahre danach immer noch ihre Wirkung entfalten.

Eine meiner Diagnosen war, dass die Bildschirme glänzten. Ergo schrieb ich in den Normenentwurf, die dürfen nicht glänzen. Nun bestand die Arbeitswelt nicht nur aus glänzenden Bildschirmen. Wenn die nicht glänzen dürfen, warum dürfen andere? Also schrieb ich in den Normenentwurf, dass alle Teile des Arbeitsplatzes aus matten Oberflächen bestehen müssen. Die Vorstellung musste ich nicht einmal selbst entwickeln. Sie stand in der Beleuchtungsnorm DIN 5035 und verbot den Glanz schon vor über 50 Jahren.

Ein Mitglied unseres Normenausschusses nahm dann diesen Entwurf in seinen Betrieb und legte ihn seinen Büroorganisatoren vor. Deren Meinung war verheerend: eine Welt ohne Glanz. Matt wie platt.

Die besagten Herren waren noch gnädig. Große Computerfirmen gingen dagegen aggressiv vor. Sie hatten aber mit Zitronen gehandelt, denn dafür, dass Bildschirme glänzen sollen, gab es keine Begründung. Also floss die Idee in Normen, später in Sicherheitsregeln und ganz zuletzt in Arbeitsschutzvorschriften wie die EU-Richtlinie für die Arbeit mit Bildschirmen von 1990. Auch der Bundesarbeitsminister verschreibt den Betrieben in der ASR A6 (Bildschirmarbeit) von 2024: „Grundsätzlich sind an Bildschirmarbeitsplätzen Bildschirme mit entspiegelten (matten) Displays und matten Gehäuseoberflächen zu verwenden.“ Er lässt nur wenige Ausnahmen zu.

Die fehlende Begründung für glänzende Bildschirme kam später, als Computer auch Videos abspielen konnten. Auf matten Bildschirmen sahen schicke Filme gar nicht so schick aus. So bauten unbotmäßige Computerhersteller Laptops mit glänzenden Bildschirmen. Denn man kann nicht dauernd das Display wechseln, wenn man mal Büroarbeit macht und mal einen Porno einzieht.

Das Problem besteht bis heute, aber mit anderen Begründungen. Der technische Fortschritt hat zu Monitoren geführt, die weniger glänzen als die Vorschrift erlaubt. Aber Handys lassen sich schwer verkaufen, wenn ihre Displays tot aussehen. Da diese aber das ganze Gesicht vom Handy ausmachen, glänzen die dummen Dinger um die Wette. So auch mein iPhone, wenn es als Display für meine Drohne dienen soll, die bei Kaiserwetter den Berliner Wannsee ablichten will. Da ich kaum noch was sehe, haut die Drohne manchmal ab. Sie kommt eine halbe Stunde später reumütig wieder, wenn ihr Akku leer ist. Ob das sich auch ukrainische Drohnenpiloten leisten können? Zum Teufel mit dem Glanz, wenn mein Leben auf dem Spiel steht.

Die Probleme mit dem Glanz waren vermutlich vor meiner Geburt schon bekannt gewesen. Ich habe Farbe studiert bei einer der wenigen Koryphäen, denen es gelungen ist, ein Farbsystem aufzustellen (Anm.: Es war nicht Goethe). Sein wichtigstes Werk im Bereich der Farbsystematik ist das DIN-Farbsystem DIN 6164 (auch bekannt als DIN-Farbenkarte oder DIN-Farbenatlas). Er war Physiker und Farbmetriker und gilt als einer der führenden Vertreter der Farbwissenschaft in Deutschland im 20. Jahrhundert. Auch ihn wurmte die Frage des Glanzes, weil der Glanz nicht nur die vor dem Bildschirm stört. Er zerstört die Farben. Egal, wie ein Objekt aussieht, rot, grün oder lila, der Glanz ist fast immer weiß oder farblos.

Unter unserem Lehrer versuchten mehrere Kollegen, fast alle Ingenieure, eine Dissertation zu dem Thema zu schreiben. So entstand die Bezeichnung Glanzleiche. Die ist nicht ein optisch präpariertes Opfer in einem Tatort, sondern eine Doktorarbeit, von der man bereits zu Beginn sagte, dass die nichts wird.

Warum aber, wenn eine Arbeit von einer begnadeten Koryphäe betreut wird und von intelligenten Menschen ausgeführt? Die Gründe habe ich im Kapitel Warum sich die Forschung auf der Stelle dreht ausführlich erklärt. In diesem Kapitel geht es um Blendung, bei deren Erforschung man sich seit 120 Jahren die Zähne ausbeisst. Darin wird auch erklärt, dass Glanz eine Blendung ist. Er verhindert, dass man Dinge so sieht, wie sie sind. Weder ein Mensch noch eine Kamera können unter einer glänzenden Stelle erkennen, was darunter liegt. Und Blendung ist immer etwas, was das Erkennen erschwert. Glanz ist eine Form der Blendung, die man aber nicht so nennt. Das aus gutem Grund, denn Blendung klingt negativ, Glanz ist aber …?

Das Teuflische ist, dass der Glanz zu den vier Eigenschaften gehört, die uns das Erkennen eines physikalischen Objekts vollständig erklären: Helligkeit, Farbe, Glanz und Form. Hiervon wird nur die Form nicht von Physikern oder Technikern behandelt. Die anderen drei lernt man, wenn man Lichttechnik oder Farbenlehre studiert. Dummerweise hängen Farbe und Helligkeit eng zusammen. Und Glanz wird erheblich von der Form bestimmt. Und dies in Tateinheit mit Farbe.

Somit kann man Glanz als eine Erscheinung sehen, die uns das Sehen ermöglicht und aber auch erschwert bis unmöglich macht. Ob wir dies positiv oder negativ sehen, hängt von uns und unserer Situation ab und nicht von den physikalischen Eigenschaften. Bei manchen Dingen liegen positiv und negativ nur Millimeter auseinander, so z.B. auf schönen Frauengesichtern, wo positiv (Lipgloss) von negativ (glänzende Nasenspitze) eng beieinander liegen.

Es gibt auch Fälle, wo die Störung des Sehens den Gesamteindruck prägt und somit deren Beseitigung die Gesamterscheinung zerstört. So benutzt der Fotograf Catchlights, um den Augen Tiefe, Ausdruck und "Leben" zu verleihen. Ohne diesen Glanz wirken die Augen oft matt, leer oder „tot". Dasselbe gilt für Exponate in Galerien, die mit einer Scheibe geschützt werden müssen. Wenn diese mattiert ist, sind die Bilder tot. Portraitfotografen setzen Catchlights, wenn ein Gesicht ohne solche aufgenommen worden ist. Man kann den Effekt nachstellen, indem man Gesichter mit Glanzpunkten bearbeitet und diese entfernt.

Das Ganze hat selbst einen prägenden Effekt auf Wissenschaft und Technik. Der Glanz von Oberflächen hat einen signifikanten Einfluss auf Wissenschaft und Technik, insbesondere in den Bereichen Materialwissenschaft, Optik und Messtechnik. Möbel, Stoffe, Bekleidung, Kunstdruck und nicht zu vergessen Autos.

Wenn eine Sache so wichtig ist, müsste es von Fachleuten auf dem Gebiet nur so wimmeln. Dem ist nicht so. Die Szene wurde über mehrere Jahrzehnte von Richard S. Hunter (1906–1991) beherrscht, der schon in den 1930ern eine prägende Persönlichkeit war. Er war der Gründer des Unternehmens Hunter Associates Laboratory, Inc. (HunterLab), das weltweit Glanz- und Farbmessgeräte herstellt und damit maßgeblich zur Verbreitung seiner Messstandards beigetragen hat. Aber er war zuvor am National Bureau of Standards (NIST) tätig, wo er seine Methode entwickelte. Dazu gehörte auch ein Farbraum, der seinen Namen trägt: Hunter L, a, b Farbraum.

Hunter gelang es, die menschliche Wahrnehmung auf die Messung zu übertragen. Seine Geräte zielten darauf ab, die visuelle Wahrnehmung des menschlichen Auges (speziell im Hinblick auf kleine Farbunterschiede und Glanzeffekte) objektiv zu quantifizieren. Damit wurden HunterLab-Geräte zu einem unverzichtbaren Werkzeug, um die Produktkonsistenz über Lieferketten hinweg zu gewährleisten.

Hunter war keine Glanzleiche. Er hatte im Dezember 1927 seine Karriere als "Minor Laboratory Apprentice" (kleiner Laborlehrling) begonnen beim National Bureau of Standards (NBS), heute bekannt als NIST. Als wir zu Beginn des 21. Jahrhunderts eine vom Arbeitsminister beauftragte Studie zu Oberflächen von IT-Produkten durchführten (Einfluss von optischen Oberflächeneigenschaften von IT-Produkten auf Benutzer, BAUA Forschungsbericht Fb1066, 2006), war Hunter der Lieferant der meisten Erkenntnisse auf dem Gebiet. Und er war einer der Autoren der Studie, die Anlass für diesen Forschungsbericht war.

So konnten wir getrost schreiben:
„Maßgeblich für die Empfindung ist aber nicht die physikalische Verteilung des Lichts, sondern dessen situationsabhängige Beurteilung:

  • Glanz wird absichtlich erzeugt, um das Erscheinungsbild eines Gegenstands mit Leben zu erfüllen;
  • Glanz wird vermieden, um einen Gegenstand ungestört betrachten zu können.

 

Hunter hatte bereits 1936 zutreffend geschildert, dass es nicht nur einen Glanz gäbe, sondern viele:

  • Spiegelglanz": Helligkeitsempfindung in Verbindung mit gerichteter Reflexion auf einer Fläche (Original: specular gloss)
  • Kontrastglanz": Helligkeitsempfindung infolge relativ unterschiedlicher Helligkeit von spiegelnden und diffus reflektierenden Teilen der Fläche (Original: contrast gloss)
  • Bildschärfeglanz": Empfundene Schärfe der reflektierten Objekte (je schärfer, desto störender) (Original: DOI gloss (DOI: distinctness of image))
  • Haze" (ohne Übersetzung, könnte Dunst oder Eintrübung heißen): Haloartig empfundener Schleier in der Nähe der spiegelnden Stelle
  • Sheen" (ohne Übersetzung, könnte Schein oder Schimmer heißen): Glanzerscheinung auf matten Oberflächen unter streifendem Lichteinfall bzw. -ausfall
  • Absence-of-texture gloss" (ohne Übersetzung, könnte Strukturlosigkeit heißen): Empfundene Gleichmäßigkeit und Strukturlosigkeit (einer ansonsten mit Struktur versehenen Fläche).

Nicht jeder Physiker kapituliert vor dem Elend, Empfindungen messen zu müssen. Es dauert manchmal halt lange …

Natürliche Farben und sonstige Märchen

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Man liest sehr häufig in allen möglichen Publikationen, auch in wissenschaftlichen, etwas von natürlichen Farben. Gibt es die? Vielleicht!

Wenn es natürliche Farben gibt, muss es die zumindest in der Natur geben. Leider ist die Natur nachts grau bis schwarz, egal, wie die Tiere und Pflanzen aussehen. Erst wenn das Sonnenlicht auf diese fällt, entfalten sie Farben. Aber alles sieht morgens früh ganz anders aus als mittags, bei Regen anders als bei Sonnenschein.

Farben gibt es eigentlich gar nicht, außer im Farbeimer, auf dem z.B. geschrieben steht RAL 7000 (Fehgrau). Das ist die Farbe, die man sieht, wenn ein U-Boot der Bundesmarine tagsüber vor einem auftaucht. Aber abends bei einem Fest auf der Marinebasis wird das Boot garantiert nicht so aussehen wie mittags auf dem Wasser. Wir sehen trotzdem (fast) immer dasselbe Grau.

Schuld sind dafür zwei Standards, von denen nur einer geschrieben steht. Der geschriebene Standard heißt D65, wobei D für Tageslicht steht (Daylight) und 65 ein Kürzel von 6500 wie 6504 K. Das ist die sog. Farbtemperatur. Mit vollem Namen heißt das Objekt Normlichtart D65. Wenn der Farbeimer eine Substanz erhält, die auf einem U-Boot wie RAL 7000 ausschaut, dann wird das U-Boot mit D65 angestrahlt.

Den ungeschriebenen Standard  tragen wir oben im Kopf. Dieser nennt sich Konstanzphänomen. Ein roter Apfel erscheint uns auch unter gelblichem Glühlampenlicht oder im Schatten rot. (Eine Kamera macht aber echt zwei unterschiedlich aussehende Äpfel daraus.)

Die physikalisch nicht existierende Farbe eines Gegenstandes entsteht in unserem Gehirn unter dem Licht, das ihn beleuchtet. Also müsste es in der Natur „natürliches“ Licht geben. Dummerweise gibt es dieses auch nicht. Als Bewunderer der Farbe Blau habe ich an vielen Stellen der Erde versucht, blau zu sehen. Jedes Meer hat sein Blau, jeder Ozean auch. Das wussten wohl bereits die Griechen in der Antike, die zwar blau liebten, aber keinen Namen dafür hatten. Anstelle dessen wurden blaue Objekte genannt. Die Wahrnehmung und Benennung von Blau in den Sprachen erfolgten historisch sehr spät im Vergleich zu Farben wie Schwarz, Weiß und Rot. Homer beschrieb das Meer in der Odyssee zum Beispiel als "weinrot". (Blau bekam seit 2001 eine besondere Bedeutung, die man in dem Kapitel Geheimnisse in Blau lesen kann.)

Bevor man Homer Farbenblindheit bescheinigt, sollte man sich fragen, warum das Rote Meer so heißt oder das Schwarze. Beide sind nämlich blau. Ach, ja, die Türken nennen das Mittelmeer Weiss, obwohl dessen Blau viel tiefer ist als das vom Schwarzen Meer. Hoffentlich hört Homer da nicht zu.

Niemand kann absolute Farben sehen. Das Licht mit der Farbe D65 gibt es übrigens in kaum einem Bürogebäude, weil es scheußlich kalt wirkt. Es ist auch nicht Tageslicht, es heißt nur so. D65 ist etwa die Farbtemperatur des Himmels an einem lauen Sommertag über Wien abzüglich der Sonne. Man kann zwar so etwas nie in der Natur erleben, aber Normlichtarten sind halt mathematische Modelle. Da kann man die Sonne aus dem heiteren Himmel extrahieren, ohne rot zu werden.

Es gibt aber andere „Tageslichter“, so z.B. D50. Das benutzen die Fotografen und Drucker. D50 simuliert das Mittagshimmel-Tageslicht und ist der internationale Standard (ISO 3664-2000) für die visuelle Farbabstimmung von Druckvorlagen und Druckerzeugnissen. Dies soll gewährleisten, dass die Farben sowohl am Monitor als auch auf dem gedruckten Material unter standardisierten Bedingungen korrekt erscheinen. So ganz gelingen will es aber nicht.

Ein weiteres „Tageslicht“ D75 wurde früher häufig in den USA als Standard für die Farbabmusterung in Branchen wie Textil, Kunststoff und Papier verwendet. Dieser Standard lebt noch in Nischen.

Die Verkaufsräume können mit diesen grauenhaften Farben nichts anfangen. Deswegen gibt es bei denen TL84 (F11) mit 4100 K als Standard. Das sind allerdings IKEAs oder ähnliche Verkaufsstätten. Wer Lebensmittel verkaufen will, muss tiefer in die Trickkiste greifen, um das nicht mehr so frische Fleisch so natürlich wie frisch von der Schlachtbank scheinen zu lassen. Der deutsche Gesetzgeber wollte dem einen Riegel vorschieben und verbat sich optische Frischmacher (mehr kann man hier lesen: Brühwurst-Index und dessen Entwicklung)

Bei so vielen Interessen fällt es schwer, einen Standard für die Farbwiedergabe der Lichtquellen zu setzen. Der jetzt geltende Standard, auch CRI-Verfahren genannt, bestimmt einen Index Ra, der so komisch gestaltet ist, dass er auch Fachleute in die Irre führt. (s. ISO/TR 9241-610). Wenn ein Licht mit Ra = 100 bezeichnet wird, denken Leute  gleich an 100% = alle Farben werden – natürlich – wiedergegeben.

Nichts dergleichen ist wahr. Es werden diese trüben Farbmuster nach Meinung der Prüfer wiedergegeben, von denen niemand weiß, wo sie sitzen. Keine einzige gesättigte Farbe geht in die Prüfung ein. Zu guter Letzt sollen die Originale der gezeigten Farbmuster unauffindbar sein. Wenn Sie also demnächst im Baumarkt eine Lampe kaufen, sollten Sie wissen, was die Angabe CRI bzw. Ra bedeutet bzw. nicht bedeutet.

Noch eine Besonderheit: Ra wird für zwei unterschiedliche Lichtquellen bestimmt, wobei beide mit 100 enden. Die eine Bestimmung erfolgt mit der Glühlampe (Normlichtart A), der man bestimmt keine überragende Farbwiedergabe nachsagen kann. Natürlich wirkt deren Licht nur auf Freunde des Lagerfeuers. Die sind aber offenbar so zahlreich, dass man natürliche Farben nur in dessen Licht erlebt.

Die Skala des Index  Ra fängt auch nicht bei 0 an, Ra kann auch negativ werden, so etwa, wenn ein Licht das Erkennen von Farben gelinde gesagt stört. Deswegen ist man seit über 10 Jahren dabei, einen neuen Standard zu schaffen. Da unser neuester Beleuchtungsstandard gerade mal ein Jahr alt ist, wird es mit dem neuen Standard für Farbwiedergabe erst einmal nichts.

Lassen wir die Welt der künstlichen Lichter beiseite. Wie natürlich sind die Farben in einem wunderbar sonnenbelichteten ökologischen Haus mit energie sparenden Fenstern? Da sieht es schön düster aus. Den meisten Architekten ist nicht bekannt, dass die besten Fenstergläser nur die Einscheibengläser sind, die wohl die Urgroßeltern noch kannten. Wer sich ein energetisch optimiertes Haus bauen oder sein altes sanieren lässt, darf sich von Farben nicht viel erhoffen. Verglasungen, die man in unseren Breiten verwendet, schlucken bis zu 70 % (!) des einfallenden Sonnenlichtes und können Ra zwischen 97 und 77 reduzieren. Und sie schlucken alle „gesunden“ Strahlen (Ultraviolett und Infrarot) komplett. Nix mit perfekter Farbwiedergabe bei Tageslicht. Diese gibt es leider nur draußen.

Beim ersten Ziel schon die Zähne ausgebissen

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Ob Thomas Edison der größte Erfinder war, weiß ich nicht. Er war aber der größte Dokumentator. In seinem Notizbuch hat er fein säuberlich dokumentiert, wie viele tausend Glühfäden er ausprobieren musste, bis er den geeigneten fand. Heute ist so etwas kein Wunder; die Qualitätssicherung dokumentiert in der gleichen Weise mit allen Nachweisen für das Versagen. Aber Edisons Notizbuch enthielt etwas, was ihn als den Besten auszeichnet. Er schrieb, warum er etwas erfinden wollte. Vor den Experimenten mit seinen 9000 Versuchen mit Glühfäden hatte er ins Büchlein geschrieben: „Ich werde ein Licht erfinden, das so billig ist, dass sich nur Reiche Kerzenlicht leisten. Und es wird nicht blenden.

Es ist erreicht. Kerzenlicht benutzt man nur noch, wenn man blenden will, so etwa wie der Pastor die Gemeinde oder der Profi-Dater die Angebetete beim Candlelight-Dinner. Über das Blenden durch die alltägliche Beleuchtung im Büro wissen wir vermutlich weniger als vor 100 Jahren, als man glaubte, der Blendung durch Forschen näher gekommen zu sein.

Man teilte das Phänomen in zwei Teile auf. Den einen nannte man die physiologische Blendung, weil man sie an den Augen toter Rinder ermitteln konnte. Da blieb aber was übrig, worauf man keinen Reim machen konnte, weil alle Versuche, diese mit der Wirkung des Lichts zu verknüpfen, kläglich scheiterten. So nannte man sie die „psychologische“ Blendung. Ingenieure nennen alles, was sie nicht deuten können, psychologisch bedingt. So auch die Blendung. Die Angelsachsen nennen sie „discomfort“ glare, was ein Problem für sich ist. Denn es soll das Gegenteil von comfort bedeuten und wird deswegen ins Deutsche als Komfort übersetzt. Ein typischer falscher Freund. Komfort bedeutet Bequemlichkeit, Annehmlichkeit oder Behaglichkeit. Deswegen wird er von deutschen Arbeitgebern ungern benutzt.

Aber auch britische oder amerikanische Kollegen hatten ihre liebe Not damit. Denn die psychologische Blendung haben keine Psychologen untersucht, sondern meist nur Ingenieure, so wie ich auch. Ich hatte die Ehre, die auch heute in erster Linie genannten Forschenden persönlich kennenzulernen. So etwa

  • Dr. S.K. Guth Schöpfer der Guth-Formel (VCP Methode Visual Comfort Probability, heute eine Basis der UGR-Methode, die weltweit angewandt wird
  • Prof. R.G. Hopkinson Schöpfer der Hopkinson Glare Formula (British Glare Index (BGI), IES Glare Index), eine weitere Basis der UGR-Methode
  • Dr. G. Söllner Schöpfer der Söllner-Kurven, die in Deutschland bis zur Einführung der UGR-Methode benutzt wurden
  • Professor J.B. de Boer Schöpfer der de Boer-Skala zur Messung der psychologischen Blendung

Hopkinsons Arbeitsstätte (Building Research Station (BRS), später Building Research Establishment (BRE), gegründet 1921) war der Ursprung der modernen Blendungsmetriken. Sie war staatlich finanziert. Alle anderen Herren waren bei der lichttechnischen Industrie angestellt.

Hätte ich auf Guths Rat gehört, hätte ich meine Doktorarbeit über alles Mögliche geschrieben, nur nicht über die psychologische Blendung. Er hatte mir nämlich gesagt: „Du bist noch am Anfang. Lass das lieber sein. Ich habe 25 Jahre meines Lebens damit vergeudet." Ich hatte Rabatt, bei mir dauerte es nur drei Jahre.

In diesen drei Jahren habe ich festgestellt, dass alle, auch die hier aufgezählten Koryphäen, mit dem gleichen Wasser kochten. Bezeichnend für deren Arbeit ist eine Skala wie diese, die von de Boer zurückgeht. Er hatte es andersherum aufgestellt. Aber die Mitte war gleich und hieß BCD-Kriterium, border between comfort and discomfort. Eben dies war der Knackpunkt. Die Forschenden wollten nicht etwa feststellen, wie komfortabel eine Beleuchtung war, sondern nur, wann eine Blendung von „comfort“ zu „discomfort“ wird. Bereits der erste Psychologe, dem ich diese Skala zeigte, riet davon ab, sie zu benutzen. Sie wäre falsch konstruiert nach dem Postulat, dass Blendung etwas Negatives sei. Wer soll dies bestimmt haben? Thomas Edison. Er wollte den negativen Effekt vermeiden. War das alles?

In dem Kapitel Warum sich die Forschung auf der Stelle dreht erkläre ich, warum die Forschung sich im Kreise dreht. Dafür sind folgende Faktoren maßgeblich, die einzeln behandelt werden:

  • Konzeptionelle Mängel grundsätzlicher Art;
  • Fehlen eines übergeordneten Ziels, weil Vermeiden von Blendung zu wenig bedeutet;
  • Vielzahl von Erscheinungen mit demselben Effekt, die unberücksichtigt bleiben;
  • Unzureichendes Ziel der Sehleistung, das das Farberkennen ignoriert;
  • Gefährden statt nützen, wenn unsinnige Anforderungen gestellt werden;
  • Etablieren eines Gütemerkmals, das seinem eigenen Ziel widerspricht.

Symbolisch für alle Erklärungen symbolisch zeige ich den Raum, in der die jüngsten Blendungsbewertungen stattgefunden hatten, und in Vergleich dazu den ältesten. Ob je ein Mensch in der Lage sein wird, in einer solchen Umgebung als Proband so etwas wie „Komfort“ zu ermitteln? Selbst wenn man lauter Probanden finden würde, die das können, bleibt ein entscheidender Faktor übrig, der ausreicht, alle Blendungsuntersuchungen für obsolet zu erklären: Fehlen jeglicher Augenbelastung durch die Arbeit.

Kein Wunder, dass Untersuchungen zur Validität der UGR-Werte ein vernichtendes Urteil ergeben: „Blendungsmodelle wurden nach fehlenden Untersuchungsbedingungen und Inkonsistenzen geprüft. Es wurden Mehrdeutigkeiten gefunden wie die Einbeziehung von kleinen und großen Blendquellen und was überhaupt eine Blendquelle in komplexen Situationen mit mehreren Leuchten ist. … Die Blendungsmodelle wurden umgerechnet, um mit den Vorhersagen von 1949 von Luckiesh und Guth verglichen zu werden. Die Modelle zeigten eine geringe Aussagekraft. Wenn man Blendung in komplexeren Situationen [mehrere Leuchten, d. Autor] bewerten will, müssen die Modelle grundsätzlich neu formuliert werden.“ (Clear, R. D. Discomfort glare: What do we actually know?, Lighting Research and Technology, 2012).

Etwa gleich alt wie diese Aussage ist die Feststellung von Stephan Völker, Professor für Lichttechnik an der TU Berlin (Stephan Völker: Blendung – Ein Rückblick über 100 Jahre Forschung. Licht 2012 Gemeinschaftstagung): „Der vorliegende Beitrag zeigt, dass es möglich scheint, die vorhandenen Blendungsbewertungsmodelle auf ein Modell zurückzuführen. Zurzeit fehlen noch einige Einflussgrößen, welche aber bereits in Kürze vorliegen dürften. Diese müssen anschließend für alle Anwendungsfälle (Innen-, Außen-, Kfz-, Sportstättenbeleuchtung, etc.) validiert werden.“Tröstlich zu hören, dass man nach 100 Jahren hofft, in Kürze einige Einflussgrößen zu finden. Dann wird man, - hoffentlich – die Methode validieren, d.h. den Nachweis führen, dass sie etwas Bedeutsames ermittelt.

Die psychologische Blendung ist eine extrem bedeutsame Eigenschaft der künstlichen Beleuchtung, aber ein schlecht verstandener Begriff. Die in der Praxis eingesetzten Verfahren sind veraltet und nachweislich nicht valide.

Ob man die richtige Methode für die Blendungsbewertung finden wird, um danach sie zu validieren, kann ich nicht positiv  beantworten. Um eine eigene Antwort zu finden, empfehle ich das Kapitel Validieren – das leidige Problem durchzuarbeiten. Dieses Problem besteht nicht nur bezüglich der Blendung.

Hawthorne Effekt und sonstige Narrative in der Lichtwelt

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Dieses Buch wurde anlässlich des 100. Jahrestags eines der wichtigsten Ereignisse der Lichttechnik geschrieben: der Veröffentlichung der V(λ)-Kurve. Sie ermöglichte die Quantifizierung des Lichts und somit den Handel mit den Lichtprodukten. (mehr hier) Man weiß seitdem, was man kauft. Kurz gesagt: Helligkeit.

Das Jahr 1924 war aber auch der Beginn eines Ereignisses, das alle humanbezogenen Wissenschaften, Psychologie, Soziologie, Medizin … stark geprägt hat. Die Rede ist von Hawthorne Studies, deren Ziel der Nachweis der Wirkung der Qualität der Beleuchtung auf die menschliche Arbeitsleistung war. Am Ende wusste die Welt aber etwas Unerwartetes: Egal, wie das Licht auch war, leisteten Menschen mehr, wenn sie sich beobachtet fühlten. Es schien, die Qualität des Lichts würde die Leistung nicht beeinflussen. Somit misslang der Versuch, dem Käufer von Licht den Gegenwert dafür zu belegen. Mehr Licht = mehr Leistung ging nicht auf.

Die Hawthorne Studien und deren Folgen für die Lichttechnik habe ich in den Kapiteln

behandelt. Damit soll erklärbar werden, warum es in der Lichttechnik Legenden gibt, die sich über Jahrzehnte halten. Den Vorwurf einer Märchenerzählung hat nicht etwa ein Feind der Lichttechniker erhoben, und auch nicht in einem Provinzblatt. Er wurde von einem der renommiertesten Vertreter des Fachs erhoben und das vor dem Kongress der größten Lichttechnischen Gesellschaft der Welt, IES.

Aber noch viel älter als diese Legenden ist der Glaube, gutes Licht sei wichtig für den Arbeitsschutz. Dies kann man z.B. an den Vorschriften in vielen Ländern sehen, die Beleuchtung und Arbeitsschutz verbinden. Als die CIE in den 1990er Jahren eine internationale Umfrage startete, um festzustellen, in welchen Ländern es Vorschriften zu Beleuchtung und Arbeitssicherheit gibt und worauf diese beruhten, stellte sie fest, dass 14 Länder antworteten, dass sie Regeln und Vorschriften hätten. Auf die Frage „Gibt es Forschungsarbeiten zu Licht als Unfallursache, auf denen die nationalen Regeln beruhen?“, gab es keine einzige Antwort.

So etwas hielt die Lichttechniker nicht davon ab, zu behaupten, Licht sei bedeutsam für den Arbeitsschutz. Das geschah nicht etwa aus Überzeugung, sondern aus Marketinggründen. Denn seit dem Jahr 1935 sorgt der deutsche Staat dafür, dass deutsche Betriebe die Normen und Vorschriften für Beleuchtung einhalten, die die lichttechnische Industrie erarbeitet.

Woher kam aber der Glaube? Das kann ja nicht 1935 plötzlich entstanden sein. Die Antwort auf diese Frage zieht sich wie ein roter Faden durch das Buch. Zunächst waren es Sozialwissenschaftler, Architekten, Städtebauer, die die Bedeutung des Lichts für die menschliche Gesundheit propagierten. Dies habe ich z.B. im Kapitel Krankheiten der Finsternis – Geschichten aus New York und Chicago behandelt. Die Entstehung der Gartenstädte weltweit, die Entstehung und Verbreitung von Gartenlauben von Deutschland ausgehend in ganz Europa sind Beispiele dafür. All dies sorgte für den Glauben, gutes Licht = gesunde Umwelt.

Es fiel niemandem schwer, so zu glauben, weil das Helle auch jenseits der technischen Welt immer positiv gesehen wird. Es stand ja schon in der biblischen Schöpfungsgeschichte, dass Gott gesehen hatte, dass Licht gut war.

"Licht und Gesundheit" war am Ende der Industriellen Revolution Gegenstand von sozialpolitischen Bewegungen. Den Elan, den diese geschaffen hatten, nutzte ein gewisser Matthew Luckiesh, Direktor einer Lampenfabrik von General Electric, in unheimlich geschickter Weise. Dessen Buch Light and Health erschien vor 99 Jahren. Sein Anspruch: Tageslicht ist unerlässlich für ein gesundes Menschenleben, aber es ist unzuverlässig. Man kann es künstlich besser nachbauen. Dies sollte ein anderer Direktor eines Lichtherstellers etwa 75 Jahre später vor laufender Kamera einem Fernsehjournalisten gegenüber behaupten. So tief sitzt der Glaube.

Was 1935 geschehen war, ist eine deutsche Version der Hawthorne Studies. Der deutsche Staat sorgte mit einer Kampagne für „Gutes Licht“ dafür, dass die Leistung des Arbeiters steigen möge. Der Initiator des Ganzen, ein gewisser Albert Speer, sollte später Kriegsminister Hitlers werden. Seinerzeit wurde nicht nur der Arbeitsschutz unter die staatliche „Obhut“ genommen, sondern auch die Lichttechnische Gesellschaft (seinerzeit Deutsche Lichttechnische Gesellschaft e. V. (DLTG), später Deutsche Lichttechnische Gesellschaft e. V. (LiTG), 111 Jahre nach ihrer Gründung, LiTG, Deutsche Gesellschaft für LichtTechnik und LichtGestaltung e. V.). Sie bekam sogar einen Gauleiter.

Die damals geknüpften Bande zwischen der Lichttechnik und dem Arbeitsschutz wurde 1990 durch die EU gekappt. Diese erließ neue Arbeitsschutzgesetze, wonach alle normativen Regelungen, die die Gesundheit der arbeitenden Bevölkerung berühren, Sache des Staats sind. Somit dürfen Normen „privater“ Organisationen wie DIN oder VDI keine Bestimmungen enthalten, die für ein bestimmtes Niveau an Sicherheit sorgen sollen.

Am Ende steht nach 100 Jahren V(λ)-Kurve, dass der Staat den Betrieben Vorgaben für die Beleuchtung der Arbeitsstätten macht (ASR A3.4 Beleuchtung). Dummerweise kann man danach recht schlecht planen. Dazu gibt es, völlig ungefragt, Normen für die Beleuchtung von Arbeitsstätten (z.B. EN 12464-1 und -2 bzw. deutsche Versionen davon, die sich ein Ziel suchen mussten. Gesundheit und Sicherheit durften es nicht mehr sein. Was bleibt: Leistung.

So sagt der Anwendungsbereich der Norm aus: „Dieses Dokument legt Beleuchtungsanforderungen für Menschen an Arbeitsplätzen in Innenräumen fest, die den Anforderungen an den Sehkomfort und die Sehleistung …“ Kann sich wer was darunter vorstellen? Sehkomfort? In den 1347 definierten Begriffen des Internationalen Wörterbuchs der Lichttechnik (ILV) kommt der Sehkomfort nicht vor. Aber auch sonst ist er nur ein Schlagwort. Dann bleibt echt Sehleistung übrig. Wer da ein Kriterium erwartet, mit dem man ein normatives Werk von 103 Seiten begründet, wird entgeistert sein. Sie war in ILV einst so definiert: „Leistung des visuellen Systems, wie sie beispielsweise durch die Geschwindigkeit und die Genauigkeit gemessen wird, mit welcher eine Sehaufgabe gelöst wird.“ Sehaufgaben lösen?

Diese Definition gefiel den Europäern nicht, so formulierten sie etwas Besseres: „Sehleistung – Leistung des visuellen Systems“ (DIN EN 12665:2002 Licht und Beleuchtung, Grundlegende Begriffe und Kriterien für die Festlegung von Anforderungen an die Beleuchtung). Und was ist das visuelle System? Was leistet sie denn?

Wer so dumme Fragen stellt, ist selber schuld. Genau genommen weiß niemand, was das visuelle System ist. Bekannt ist nur, dass das Gehirn des Menschen etwa zur Hälfte zur Verarbeitung von visuellen Signalen dient (ISO 9241-610 Impact of light and lighting on users of interactive systems). Da das Gehirn 20% der Gesamtenergie verbraucht, ist das Sehen mit 10% (!) dabei.

Was soll man mit einer solchen Norm überhaupt anfangen? Man sollte nach deren Vorwort verfahren: „Sicherheit und Gesundheitsschutz - Grundsätzliche Anforderungen an die Beleuchtung hinsichtlich der Sicherheit und des Gesundheitsschutzes der Beschäftigten bei der Arbeit werden in Deutschland nicht in dieser Norm, sondern in der Arbeitsstättenverordnung
(ArbStättV) geregelt. In den Anwendungsbereich der ArbStättV fallen alle Arbeitsstätten. Die allgemeinen Anforderungen der ArbStättV hinsichtlich Beleuchtung werden in der Arbeitsstättenregel ASR A3.4 „Beleuchtung“ weiter konkretisiert."

Diese und weitere Narrative habe ich im Kapitel „Die Legende vom gesunden Licht reloaded“ behandelt und kommentiert. Denn was in Hawthorne nicht gelungen ist, der Nachweis einer Beziehung zwischen Lichtqualität und Arbeitsleistung, wird auch heute niemandem gelingen.

Wenn man keine Beziehung zwischen Lichtqualität und Leistung nachweisen konnte, heißt das, dass es diese nicht gibt? Diese Schlussfolgerung darf nicht gezogen werden. Die Wahrheit heißt, man kann sie nicht experimentell nachweisen. Der Hawthorne-Effekt heißt der Missetäter, der beim Experimentieren täuscht.

Kann man eine solche Beziehung nie nachweisen? Selbstverständlich kann man mit einigem Aufwand den Nachweis führen, dass geeignetes Licht zu besserer Leistung führt. Eine Methode besteht darin, dass man den Hawthorne-Effekt umgeht, indem die Beobachtung von Individuen entfällt. So kann man die Wirkung des Lichts auf die kollektive Leistung eines Werkes studieren. Noch sicherer ist eine retrospektive Studie, bei der man frühere Ereignisse nachträglich untersucht. Beides hatte mein Institut geplant. Gescheitert sind die Vorhaben nicht am Hawthorne-Effekt, sondern an der Struktur der Industrie.

Projekt 1 sollte nach 1990 in Autowerken stattfinden, die in der ehemaligen DDR neu entstanden waren. Sie gehörten westdeutschen Unternehmen, deren Werke eine andere Beleuchtung hatten. Was liegt näher als die Qualität der neuen Beleuchtung und der Arbeit zu untersuchen? Leider kann man so etwas im Labor durchführen, aber nicht in der Industrie. Man stelle sich vor, es wird nachgewiesen, dass ein Ausleger einer Firma effizienter oder qualitativ besser produziert als das Haupthaus! Projekt 1 tot!

Projekt 2 sollte zwischen den Werften einer Luftfahrtgesellschaft stattfinden, die Flugzeuge warten. Es sollte der Einfluss des Tageslichts auf Fehler untersucht werden. Da in der Luftfahrt-Industrie Fehler eine besondere Rolle spielen, wird die Qualität der geleisteten Arbeit ständig geprüft. Unentdeckte Fehler entdeckt man nach Unfällen. Da alles in der Vergangenheit liegt, werden keine Menschen bei der Arbeit beobachtet. Ergo kein Hawthorne-Effekt. Dafür gibt es leider zwei große Hindernisse: den Wettbewerb zwischen den Werften, die sich um die Aufträge reißen, und die Luftfahrtaufsicht, die sich sehr um die unentdeckten Fehler interessiert, die die Wartung überlebt haben sollen. Projekt 2 tot!

Das waren die Gründe hinter dem Namen eines Kapitels: Legendenbildung und Märchenerzählung – Ungewöhnliche Aktivitäten für Ingenieure …

Probleme mit der Beleuchtung, die andere verschuldet haben

Menschen werden mit Sehaufgaben beschäftigt,
die ihre Sehfähigkeit überfordern. Dafür kann man
nicht die Beleuchtung verantwortlich machen.

Erwin Hartmann, Professor für Sehphysiologie

Warum gibt es Beleuchtungen, mit denen die Menschen hadern? Eine Antwort darauf, dass die Beleuchtung irgendwie falsch sein muss, so falsch geplant, falsch ausgeführt, etc., kann häufig in die Irre führen. Eine solche Antwort könnte nur richtig sein, wenn die Beleuchtung eine eigenständige Einheit wäre, deren Funktion oder Eigenschaften nur durch sie selbst bestimmt wären. Im Folgenden führe ich kurz Erfahrungen aus Projekten an, bei denen nachweislich nicht die Beleuchtung oder deren Planer verantwortlich waren.

Wer dann? Als erstes seien zwei Verursacher genannt, die hinter den meisten Problemen stecken. Diese werden aber selten genannt, weil nicht erkannt.

Der erste der Missetäter ist das liebe Geld. Dessen Bedeutung erklärte mir ein Leuchtenentwickler, als ich ihm (und seinesgleichen) vorwarf, Lichtteppiche zu planen. Er seufzte und sagte: “Wir wären froh, wenn die Bauherren Licht wie Teppiche behandelten. Mit einem festen Budget und bereits früh in der Planung.“ Und er erklärte weiter, dass bei der Planung eines Bürohauses der Teppich recht oben anstünde und etwa mit dem vierfachen Wert pro Quadratmeter wie Licht verplant würde. So falsch lag er damit nicht. Man kann zwar keine Qualität erwarten, wenn man sinnlos Geld ausgibt. Aber von selbst entsteht auch keine Qualität.

Der zweite Verursacher steckt hinter dem Wort Quadratmeter wie Bürofläche. Bauen oder Mieten ist immer teuer. So machen diese an den Gesamtkosten eines Arbeitsplatzes rund 8 % aus. Damit man eine Vorstellung von der wahren Bedeutung hat, hier absolute Zahlen: Der durchschnittliche Bruttojahresgehalt für einen Sachbearbeiter in Deutschland liegt bei 41.000 € bis 50.000 €. Die Gesamtkosten betragen 63.000 € bis 76.500 €. Demnach liegt die Miete bei 6.000 € p.a.

Kein Wunder, dass die Unternehmen scharf darauf gucken. Schlimmer noch: Die Bürofläche verwalten nicht die Arbeitgeber, sondern Facility Manager, die häufig sparen ohne Rücksicht auf die Arbeit. Was hat das aber mit der Beleuchtung zu tun? Leider sehr viel. Unser lieber Arbeitsminister, derzeit die liebe Frau Bärbel Bas, empfiehlt als ein Musterarbeitsplatz für einen Büromenschen dieses:

Wenn man überschlägig berechnet, hat dieser Raum eine Fläche von 45 m² bis 80 m². Nach den Vorschriften, die auch Frau Bas kennt, RBBau, darf die Höchstfläche für einen Behördenleiter 21 m² nicht übersteigen. Ein Anspruch darauf bestand aber nie. Sachbearbeiter sollen 12 m² in Einzelzimmern und mit jeweils 6 m² in Mehrpersonenzimmern untergebracht werden. Was entsteht, wenn Frau Bas uns einen Musterarbeitsplatz empfiehlt, der mehr Fläche hat als ein Raum für Minister (42-48 m²), die Vorstellungen der Lichttechnik hingegen nur bei einer Besiedlung wie dieser funktionieren, …

… und pro Kopf nur 6 m² zur Verfügung stehen? Einfach: Stress! Trifft dieser nur die Leute im öffentlichen Dienst? Schön wär’s! Auch die Versicherungsaufsicht wacht darüber, dass kein Unternehmen zu viel Fläche baut. Allerdings braucht es keine Kontrolle, der wirtschaftliche Zwang reicht.

Nun zu Projekten, bei denen Licht zum Stress wurde.

Ein Verlag baut sich ein Hauptquartier …

Ein internationaler Verlag baut sich ein Hauptquartier auf einem schönen Hügel an einem sagenhaften deutschen Fluss … Geld spielt keine Rolle, weil dort die wichtigsten Mitarbeiter des Verlags arbeiten sollen: Lektoren, die die Qualität der Bücher maßgeblich bestimmen.

Als es zu Knatsch wegen der Beleuchtung kommt, erklärt der Lichtplaner, er habe die wenigen verfügbaren Leuchtenmodelle geprüft, die in die Schlitze in der Decke passten. Diese waren nicht geeignet für übliche Lampen, die 1,20 m lang sind. So hat er welche für 1,00 m-Lampen nehmen müssen. Und davon hätte es nur wenige gegeben. Da die Mittel für den Bau so gut wie erschöpft waren, hätte er eben die jetzigen Leuchten nehmen müssen.

Ursache der Misere: Denken an Licht, wenn der Rohbau steht und das Geld alle ist.

Noch ein Hauptquartier, aber ein sehr großes …

Eines der größten Unternehmen der Republik will sich eine neue Konzernzentrale bauen. Ein sehr bekannter Lichtguru hört die Signale und bietet seine Kreation an. Eine Hochdrucklampe, deren Licht mehrere Spiegel an den Punkt lenkt, an dem der Mensch sitzt. Er erklärt dem Vorstand seine „Philosophie“: Licht gehört dorthin, wo gearbeitet wird. Der Vorstand ist begeistert und will die Leuchte sehen. Ach, ja. Das muss noch gebaut werden. Macht nix, sogar das Modell der Kreation wird bezahlt.

Der Architekt, einer der größten seiner Zeit, hofft, dass die Büroplaner dem Treiben ein Ende setzen. Leider hofft er vergebens. So entsteht ein riesiges Gebäude, in dem vor dem Einzug des ersten Bewohners feststeht, wo er in seinem Arbeitszimmer zu sitzen hat. Soll der Raum anders genutzt werden, muss der Hausmeister kommen und die Lampe umhängen und die Spiegel justieren. Er kommt aber sehr selten, weil er noch weitere Probleme hat. Denn die Hochdrucklampen geben häufig ihren Geist auf, weil man diese nicht häufig ein- und ausschalten soll. Und die Mitarbeiter müssen sich überlegen, wie lange sie wegbleiben, bevor sie das Licht ausschalten. Die Lampe schaltet sich erst in 15 Minuten wieder an.

Ursache der Misere: In einem Bürohaus ziehen etwa 10% bis 15% der Mitarbeiter pro Jahr um, noch einmal so viele ändern die Besiedlung des Raums. Wer das vergisst …

Noch ein Hauptquartier, aber ein sehr teures …

Eines der größten internationalen Unternehmen Deutschlands baut auf einem der teuersten Grundstücke des Landes eine Zentrale. Die Mitarbeiter handeln nicht etwa mit Bananen, ihre Kundschaft handelt mit Milliarden, und sie verhandeln häufig mit denen. Selbst die Kunst am Bau ist Stadtgespräch. So soll der schöne Bau nicht mit Heizkörpern verunstaltet werden. Man beschließt die sogenannte Betonkernaktivierung. D.h., Heizen und Kühlen werden von der Betondecke und den Wänden besorgt. Die letzteren sind leider rar, weil es sich um Open Space handelt. Deswegen kommt die Kälte von oben nach unten, und die Wärme verschwindet in der Decke. So soll es werden, auch wenn die Physik eigentlich etwas Anderes sagt.

Um die Beleuchtung kümmert man sich erst, nachdem alles ziemlich fertig ist. Leider stellt es sich heraus, dass die akustischen Eigenschaften der Decke den Vorstellungen über einen Büroraum Hohn lachen. Da muss jede Menge Akustikmaterial dran. Akustikmaterial zeichnet sich durch seine Isolationswirkung aus. Dummerweise kann man die Decke deswegen nicht ganz verkleiden, weil dann die Klimatisierung nicht funktioniert. Ergo? Stopft man das Akustikmaterial um die Leuchte herum. Schwarzes Material um eine Leuchte herum? Beste Voraussetzungen für Blendung.

Zu allem Verdruss: Die Beleuchtungskörper für einen der teuersten Bürobauten nimmt man aus dem Lager, wo man alte Leuchten abgelegt hatte.

Die Krone der Katastrophe kommt, als die Leute einziehen. Die Akustik ist jenseits von Gut und Böse, so kommen viele Glaszellen zum Einsatz.

Ursache der Misere: Alles andere, nur nicht die Beleuchtung.

Und noch ein Hauptquartier, so ziemlich das Bestplatzierte …

Ein Unternehmen lässt sich auf einem der edelsten Böden der Republik ein imposantes Haus bauen, das als Zentrale dient. Leider reicht es nicht aus, dass man weitere Flächen in der Nähe kauft oder mietet. Ab und an wird „umorganisiert“ und die Zentrale mit neuen Mitarbeitern beglückt. Wir sollen ermitteln, warum das Haus diese stört. Was heißt stören, sie hassen es. Naheliegend ist anzunehmen, dass der Architekt völlig versagt haben muss. Dass Licht und Klima nicht funktionieren, müsste mit den Großräumen zusammenhängen. Weil sie immer damit zusammenhängen? Mal schauen!

Wir sollen ermitteln, was die Ursache der Unzufriedenheit ist. Vorerst wollen wir feststellen, wie es mit der Arbeitsfläche ausschaut. Es arbeiten 3.000 Personen im Haus. Weiterhin müssen 500 Personen aus den umliegenden Bürohäusern die Sozialflächen (Kantine, Pausenräume, Archive, Seminarräume) mitbenutzen. Wir berechnen, dass der Raum für etwa 1.800 Angestellte reicht. Es sind aber 3.000 + rechnerisch ein Drittel von 500 Leuten.

Was hatte der Architekt geplant? Das Haus war für genau 1.800 Personen geplant und auch so bezogen worden. Deren Klimatisierung und Beleuchtung waren genau für diese Zahl von Arbeitsplätzen berechnet worden. Was darf man erwarten, wenn man das Haus mit etwa 180% der vorgesehenen Belastung belegt und betreibt?

Ursache der Misere: Überbelegung

Mir liegt fern, irgendwelche Fehler weißzuwaschen. Auch Prof. Hartmann wollte nicht die Beleuchtung weißwaschen, sondern auf den wahren Kern der Probleme mit der Beleuchtung verweisen. Ähnlich kann man es mit der Klimatisierung erleben. Etwa die Hälfte der Beschwerden mit ihr wären nicht entstanden, wenn die Anlagen ordnungsgemäß betrieben und gewartet worden wären.

Muss ich verstehen, wenn meine LED so schnell durchbrennt?

Der Hersteller hat sich nicht geirrt.
Er hatte nur eine
kreative Auffassung der Wahrheit.

Anonymus

Dass ein technisches Datum Industriegeschichte schreibt, kommt nicht alle Tage vor. Die „1000 h“ für die Lebensdauer der Glühlampe, präzise gesagt, der Allgebrauchsglühlampe, hat es geschafft. Ihre Festlegung durch das Phoebus-Kartell gilt als Startschuss für eine allseits verhasste technische „Errungenschaft“, vorgeplantes Lebensende eines technischen Produktes, besser bekannt als geplante Obsoleszenz. Nicht nur Lampen, sondern Autos, Fernseher und andere hochwertige Industriegüter können der geplanten Obsoleszenz unterliegen. Gemeint ist, dass der Hersteller bestimmt, ob und wann ein Produkt nicht mehr funktioniert.

Über das Phoebus-Kartell wie über die geplante Obsoleszenz kursieren unzählige Legenden oder Gerüchte. Ich habe versucht, den wahren Kern verständlich zu machen, damit sich jeder seine Meinung bilden kann. Dazu schrieb ich in Genesis 2.0 Schöpfung der elektrischen Sonne zwei Kapitel. Das Kapitel Das Phoebus-Kartell – Gerücht - Legende – Realität behandelt den Begriff Kartell, um diesen von der technischen Normung zu unterscheiden, die ebenso Absprachen trifft. In dem Kapitel Angaben für die Lebensdauer von Leuchtmitteln werden Methoden zur Bestimmung der Lebensdauer von allen technischen Leuchtmitteln beschrieben. Der Zweck der Übung ist die Erklärung der Schwierigkeiten, den Schlüsselbegriff Lebensdauer zu verstehen. Vielleicht trägt zum Verständnis auch bei, dass Fachleute Seminare besuchen müssen, die 1.190 € + MWSt und 3 Tage Zeit kosten, um die Berechnung der Lebensdauer einer LED vornehmen zu können (hier).

Der Laie wie der Fachmann liest 50,000 Stunden und ist frustriert, wenn das schöne Ding keine 500 h hält. Wenn man dazu noch hört, dass es eine Jahrhundertglühlampe gibt, die seit 124 Jahren ununterbrochen leuchtet, ist man echt perplex! Hie 124  Jahre da 1000 h?

Der Schlüssel zum Verständnis ist schlicht und einfach die enorme Abhängigkeit von Lampen bzw. Leuchtmitteln von den Betriebsbedingungen. Dies gilt sogar für die Kerze oder Fackel. Ihre Lebensdauer ist am längsten, wenn man sie optimal aufstellt und kein Wind weht.

Bei derjenigen Lampe, der Glühlampe, deren Lebensdauer noch einfach zu verstehen ist, spielt die Betriebsspannung die erste Geige. Die Lebensdauer einer Lampe steigt oder fällt mit der dritten bis vierten Potenz der Spannung. Wird eine Lampe mit einer nur 13% höheren Spannung betrieben, lebt sie nur noch 30% der angegebenen 1000 h.

Wäre dies die einzige Wirkung, könnte man damit noch einigermaßen verständlich umgehen. Aber die Überspannung von 13% erhöht die Lichtleistung der Lampe um 150%. Und das Licht wird weißer. Wenn man die Lampe mit Unterspannung betreibt, glimmt sie so vor sich hin. Bei der Nennspannung, die der Hersteller so nennt, hat sie die vom Hersteller angegebenen Eigenschaften (Lichtstrom. Lichtfarbe, Spektrum etc.). Bei einer weiteren Steigerung wird das Licht immer weißer, bis sich die Lampe unsanft verabschiedet.

Im allgemeinen folgt der Lichtstrom exponentiell steigend der Spannung, wobei der Exponent 3,4 bis 3,8 beträgt. D.h., bei der doppelten Spannung erhält man etwa 16 Mal so viel Licht. Allerdings nicht sehr lange. Der Exponent für die Lebensdauer liegt typischerweise bei Werten zwischen 12 und 16 der Spannung. Nett ausgedrückt, wenn man eine Lampe mit doppelter Spannung betreibt, erhält man 16 Mal so viel Licht, aber ihre Lebensdauer wird um den Faktor 65.536 kürzer. Oder die Lampe leuchtet 0.01525878906 h. Das sind gerade 0,9 Minuten.

Immerhin, manche „Lampe“ lebt nicht einmal so lang. Die einst üblichen Blitzbirnen, die nichts anderes waren als überzüchtete Glühlampen, brannten in 1/30 Sekunden ab. Hingegen gab es für Hotelzimmer Lampen, die über 2000 h lebten. Und das alles unter den ordentlichen Nennbedingungen. Betreibt man eine solche Lampe mit halber Spannung, lebt sie 16.000.000 Stunden oder 1826 Jahre und 175 Tage.

Die Vertreter der Industrie behaupten, das Phoebus-Kartell habe die Lebensdauer der Lampen auf 1000 h begrenzt, um den Verbraucher zu schützen. Ich denke, allzu abwegig ist der Gedanke nicht. Zumal das Kartell Werbung mit Lebensdauern unterbunden hat. Auf jeden ist die Lebensdauer ein Politikum, bei dem sich die Hersteller ungern in die Karten gucken lassen. Ein tiefes Verständnis über die Lebensdauer ist in der Lichttechnik allgemein nicht erwünscht, wie man im „Handbuch für Beleuchtung“, Herausgeber Gesellschaften für Lichttechnik von vier deutschsprachigen Ländern, ermitteln kann. Hier spreche ich von Ermitteln, weil der Begriff Lebensdauer als solches nicht behandelt, geschweige denn definiert wird. In diesem Kompendium zur Beleuchtung gibt es nur Bemerkungen dazu und das nur zur Lebensdauer von Entladungslampen. Dort heißt es: „An dieser Stelle und im allgemeinen muß auf nähere Informationen über die Lampenlebensdauer verzichtet werden, weil die Betriebsbedingungen Betriebsbedingungen zu große Unterschiede aufweisen und starken Schwankungen unterliegen. Fehlschlüsse aus konkreten Angaben wären in der Praxis nicht zu vermeiden.“.

Was ist mit der Lebensdauer von LED? Warum liest man Angaben bis 100.000 h, wenn Leute behaupten, ihre LED hätte sehr schnell den Geist aufgegeben? Hier ist der Missetäter nicht die Betriebsspannung, sondern die Thermik. Ein LED-Element besteht aus einer eigentlich relativ winzigen Diode und einem riesigen Kühlkörper. Die Elemente werden häufig zu ganzen Modulen zusammengepackt, in denen viele Dioden leuchten. Sind die beiden aufeinander abgestimmt und wird die Diode betrieben, wie der Hersteller bestimmt hat, gelten die Lebensdauern, die der Hersteller angibt.

Allerdings muss man schon wissen, wie die zustande kommen. Eigentlich müsste der Hersteller eine wahnsinnige Formel abarbeiten: L70B10C10F10. Fangen wir vorne an. L70 heißt, die LED wird bei 70% ihrer Leuchtkraft (Lichtstrom) für tot erklärt. B10 sagt aus, dass höchstens 10% der Elemente diese Leistung unterschreiten dürfen. Bx ist somit ein Maß für die Ungleichmäßigkeit der Helligkeit der Elemente innerhalb eines LED-Moduls. C10 bedeutet, dass in einem Modul maximal 10% aller Elemente total ausgefallen sind. Last not least, F10 sagt aus, dass höchstens 10% der LED dürfen den L-Wert unterschreiten (inklusive Totalausfall).

Leider tun LED-Module uns nicht gefallen, dass sie einfach aufhören zu leuchten. Deswegen die komplizierte Angabe der Lebensdauer. Dummerweise gibt es auch noch weitere Probleme. Die genannten Zahlen sind statistische Werte, d.h. nicht aller Elemente eines Moduls haben den gleichen Zustand. Dann hat die Beleuchtung nicht nur Helligkeitsunterschiede, sondern auch erhebliche Farbunterschiede. Im schlimmsten Fall flackern die ausgefallenen Elemente vor sich hin.

Da man dem einfachen Menschen nicht zutraut, rätselhafte Angaben mit L70B10C10F10 zu entziffern, bekommt man oft eine Angabe in Jahren. Diese wird berechnet für einen Betrieb von 2 Stunden und 45 Minuten am Tag, also etwa 11% des Tages. Wer das aus welchem Grund so festgelegt hat, müsste man bei Interesse selbst ermitteln. Dafür gibt es leider keine Seminare. Also Vorsicht, wenn die Lebensdauer in Jahren statt in Stunden angegeben wird.

Wenn ein Lieferant nicht liefert, was er verspricht

 Ein Lügner weiß, dass er ein Lügner ist,
aber wer nur Teile der Wahrheit ausspricht,
um zu täuschen, ist ein
Handwerker der Zerstörung.

Criss Jami

Am 25.09.2025 habe ich zwei „Standards“ kommentiert und erklärt, warum sie krank machen. Diese waren entstanden, ohne dass irgendjemand sie wollte. Ein Teil davon war durch Licht bedingt. Wäre dieser Umstand alternativlos, wäre es müßig, darüber zu reden. So als wenn man sich vor einem Hochofen über Hitze beklagt.

Dem ist es aber nicht so. Denn die „gute“ Lösung, die ich nach 1 ½ Jahrzehnten Forschung gefunden habe, die Indirektbeleuchtung, war schon in den 1920ern bekannt. (s. Erbschaft der 1920er Jahre – Wo Sie heutiges Wissen bestimmt ) Zugegebenermaßen auch ihr Manko, die Kosten. Die stattdessen normierte Lösung, war aber für die Unternehmen unvergleichlich teurer, wenn man alle Kosten berechnet. Denn die über viele Jahrzehnte gepriesene Lösung, die Allgemeinbeleuchtung, war erstens gar keine. Sie sollte überall die gleiche Lichtqualität erzeugen. Tat dies aber nicht, wie man es bereits aus den Abbildungen in den Normen sehen konnte. „Lichtqualität“, so es die überhaupt gab, gab es nur an bestimmten Stellen in den Räumen, ausgewiesen durch die Normen, die Allgemeinbeleuchtung predigten.

Und zweitens könnte deswegen nur mit einem immensen Aufwand an Bürofläche genutzt werden. Da sich niemand den Aufwand leisten wollte oder konnte, litten die Beschäftigten darunter. Sie wurden ständig gestört und haben versucht, Abhilfe zu schaffen. Und das ging so:

Wie kann es dazu kommen, dass ein Lieferant, die lichttechnische Industrie, anstatt versprochener Problemlösungen Probleme frei Haus liefert? Ein Grund liegt darin, dass die Industrie glaubt, sie darf den Betrieben vorgeben, wie diese ihre Arbeitsplätze aufstellen. Am deutlichsten konnte man dies an der Norm DIN 5035-7 „Beleuchtung mit künstlichem Licht — Teil 7: Visuelle Gestaltung von Räumen mit Bildschirmarbeit" sehen, die im Jahr 2015 erneuert werden sollte, nachdem wir sie zuvor abgeschossen hatten. Dort stand zu lesen: „6. Anordnung der Arbeitsplätze und der Arbeitsmittel: „Die grundlegenden Anforderungen an die Beleuchtung bilden die Basis für die Anordnung der Arbeitsplätze im Raum.“ Für einen Betrieb ist die Basis für die Anordnung der Arbeitsplätze im Raum der Arbeitsablauf sowie die elementaren Bedürfnisse der Mitarbeiter (Bewegung, Verkehr, Lärmvermeidung u.ä.). Die Lichttechnik schert sich nicht um die Interessen der Betriebe und derer Mitarbeiter.

Selbstverständlich kann ein Hersteller angeben, unter welchen Bedingungen sein Produkt funktioniert. Ich denke, er muss dies sogar immer spezifizieren, wenn es sich nicht um eine Selbstverständlichkeit handelt. Was er nicht darf, ist die Nutzung in seinem Sinne hintenrum durch Arbeitsschutzgesetze und -regeln zu erzwingen.

War das alles? Kaum zu glauben, aber seit der Erfindung der Glühlampe bis etwa Ende des 20. Jahrhunderts wurden die Normen für Beleuchtung nicht mit denen der Architektur koordiniert. Sie existierten nebeneinanderher, obwohl es praktisch keine Bauten ohne künstliche Beleuchtung gibt. Schlimmer noch, die Normen für die Beleuchtung wurden für Tageslicht und Kunstlicht immer getrennt entwickelt und behandelt. Wenn es denn bei den Normen allein geblieben wäre! Für das Tageslicht waren die Länder zuständig, weil die Bauordnung Ländersache ist, während für die künstliche Beleuchtung die Berufsgenossenschaften und der Bundesminister für Arbeit zuständig waren.

Wer denkt, das sei wohl etwas übertrieben dargestellt, sollte sich die allerneueste „globale“ Beleuchtungsnorm ISO/CIE 8995-1 angucken: Sie empfiehlt 8 verschiedene Eigenschaften für alle Arbeitsplätze. Die neunte Empfehlung kommt zusätzlich dazu, wenn es sich um einen Bildschirmarbeitsplatz handelt (mehr hier). Das gilt selbst für CAD-Arbeitsplätze, die schon in den 1960ern computerisiert waren. Deswegen heißen die so, Computer Aided Design. Es ist eine unglaubliche Leistung, die Entwicklung und die Auswirkungen einer der wichtigsten Technologien der Menschheitsgeschichte zu verschlafen.

Nachdem die deutschen Berufsgenossenschaften 1980 eine Sicherheitsregel erlassen hatten (ZH 1/618 - Sicherheitsregel für Bildschirmarbeitsplätze), unter der Erwartung, dass künftig jeder Arbeitsplatz ein Computerarbeitsplatz sein kann, machte sich die lichttechnische Industrie  daran, die „gute“ Beleuchtung dazu zu normen. Netterweise hat sie das Konzept illustriert:

Der Raum auf der rechten Seite fand keinen Zugang in die Norm, weil ich beanstandete, dass es solche Räume in Deutschland nicht gibt. Aber hier kann man schon erkennen, wie viel Raumfläche das Konzept braucht, um zwei winzige Tische hinzustellen. Zu den Tischen ist zudem zu sagen, dass es auch sie nicht so gab. Die damaligen Arbeitstische waren mindestens drei Mal so groß. Nur die Bedientische von Computern mit Fernschreibern darauf waren so klein. Die galten aber nicht als Büroarbeitstisch.

Den Raum links hingegen kann man massenweise finden. Nur nicht so möbliert. Die Normer wollten, dass alle Bildschirmarbeitsplätze im Rauminnern untergebracht werden. Und vor allem mickrig waren. Nicht, dass dies Sinn macht. Wenn andere Tische dort aufgestellt würden, würde es erkennbar sein, dass das Konzept nicht aufgehen kann. Da in realen Betrieben dieser Unsinn nicht berücksichtigt werden konnte, mussten die gestörten Mitarbeiter halt kreativ werden. Das Ergebnis steht in der Tabelle oben.

Ein mittlerweile verblichener Computerhersteller, Nixdorf, tat mir den Gefallen, die genormte Beleuchtung in einen etwas anderen Raum einzuzeichnen.

Wenn man in dem Bild die störende Information entfernt, sieht man deutlich, welcher Unsinn da gezeichnet steht (rechte Seite). Will man die angebliche Allgemeinbeleuchtung nutzen, muss der Arbeitsraum zu etwa 80% bis 90% leer stehen. Abgesehen von den Kosten: Wer will in einem solchen Raum arbeiten? Vor allem: Welcher Betriebsmensch, z.B. Facility Manager oder Büroorganisator, verinnerlicht das Konzept so, dass er die Kosten begründen kann? Dazu muss man wissen, dass die Büromiete nach dem Gehalt den zweitgrößten Posten ausmacht.

Später kam es viel besser. Diesmal wollte ein Ausschuss für Arbeitssicherheit der DGUV eine Sicherheitsregel für die Beleuchtung (BGR 131 „Natürliche und künstliche Beleuchtung von Arbeitsstätten“) erarbeiten. Da auch dieser sein Konzept bebildern wollte, entstand dieses Gebilde.

Auf der rechten Seite bedeuten die Kreuze, wo man Licht messen muss. Man beachte, wie viele der Messpunkte hinter dem Benutzer liegen. (Mehr zu diesem vorschriftsmäßigen Unsinn hier) Ich habe den Flächenbedarf für dieses Gebilde berechnet. Da man die Maße nicht so genau abgreifen kann, komme ich auf 45 m² bis 80 m². Man vergleiche dies mit der Realität eines Call Centers;

Wenn jemand hofft, dass ein solcher Unsinn möglichst schnell aus der Welt geschafft werden kann, dem wird geholfen. Die BGR 131 wurde tatsächlich abgeschafft. Jetzt steht der Unsinn (fast) komplett in ASR A3.4 Beleuchtung. Dies ist nach dem Vorwort Stand der Technik und mehr „Die Technischen Regeln für Arbeitsstätten (ASR) geben den Stand der Technik, Arbeitsmedizin und Hygiene sowie sonstige gesicherte wissenschaftliche Erkenntnisse für die Sicherheit und Gesundheit der Beschäftigten beim Einrichten und Betreiben von Arbeitsstätten wieder.“ So hilft der Bundesarbeitsminister den Betrieben mit der Einrichtung von gesunden und sicheren Arbeitsplätzen.

Es scheint, als würden Fachleute für Beleuchtung bzw. von ihnen beeinflusste Gremien immer wieder Anforderungen formulieren, die in der Praxis kaum umsetzbar sind. Oft entstehen dadurch Vorschriften und Regeln, die an der Realität vorbeigehen und von den Betrieben schlicht ignoriert werden müssen. Diese Diskrepanz zwischen Theorie und Praxis führt zu Regelwerken, die niemand wirklich erfüllen kann und die letztlich mehr Verwirrung stiften als Nutzen bringen. Wer dies nicht ganz glauben möchte, kann sich hier weiter amüsieren.

Wenn ernsthafte Fachleute ernsthafte Probleme besprechen, sollten sie sich hüten, ihre Lösung zu bebildern. Sonst lernen die einfachen Menschen, die von alledem keine Ahnung haben, dass die Experten noch weniger wissen als sie selbst.

Was machen die nicht-so-einfachen Menschen? Was sie könnten, wenn sie könnten, hat das Management-Netzwerk Linkedin ermittelt. Wenn sich deutsche Führungskräfte einen Arbeitsplatz nach ihrem Wunsch einrichten könnten …

Ich habe als Kommentar zur Lösung nach BGR 131 bzw. ASR A3.4 mit der sicheren Beleuchtung auch ein Bildchen gezeichnet. Bitte ausdrucken, ausschneiden, umbiegen und mit ins Büro nehmen.

Standards, die niemand setzen wollte

Das Aussortieren des Unwesentlichen ist der
Kern aller Lebensweisheit.

Laozi

Viele Leute hadern mit Normen und Standards, weil sie sich dadurch eingeengt fühlen. Das hatten Zeitungen übrigens am 22. Dezember 1917 befürchtet. An diesem Tag wurde DIN gegründet, damals noch Normenausschuß der deutschen Industrie genannt. Es wurde gesagt, Normung würde die Kreativität töten. Wenn das stimmt, ist die Kreativität längst mausetot, denn wir haben mittlerweile 35,000 Normen allein von DIN.

Während jeder einzelne Mensch auf dem Planeten das Recht hat, gegen DIN-Normen vorzugehen oder ggf. eine zu beantragen, ertragen wir „Standards“ geduldig, die nie geplant waren. Sie sind aber nicht einfach so da, also So-Da-Standards, sie haben eine Historie. Zwei davon haben es mir angetan, weil Millionen darunter leiden, ohne dass dagegen vorgegangen wird. Gegen diese habe ich Lösungen gefunden, die auch praktisch funktionieren. Dumm nur, dass sie nicht so verbreitet sind, wie ich es mir wünsche.

Mein erster Liebling hat nicht viel mit Licht zu tun. Er ist zwischen 1868 und 1984 entstanden. Die Rede ist von der Tastatur der Computer, die am 23. Juni 1868 als QWERTY-keyboard von Christopher Latham Sholes patentiert wurde. Die seltsame Verteilung der Buchstaben war dem Bemühen geschuldet, die Typenhebel der Maschine davon abzuhalten, einen Typenhebel-Salat zu produzieren. Erfolgreich nur für die englische Sprache. 

Die Idee wurde trotzdem weltweit mit kleinen Änderungen akzeptiert. Sie wurde erst mit dem Patent von IBM überflüssig, das für die IBM-Selectric erteilt wurde. Diese wurde am 21. Juli 1959 unter der US-Patentschrift Nr. 2.895.584 patentiert. Die Maschine hatte keine Typen mehr, sondern nur noch einen Kugelkopf. Eine Änderung des Tastaturlayouts indes unterblieb.

Es folgten Maschinen mit Tastaturen, die nichts mehr druckten. Sie waren Bildschirmterminals. Sholes‘ Tastatur war immer noch dabei. Sie wurde nur nach rechts verlängert, weil man neue Tasten brauchte. So kamen als erste Cursor-Tasten dazu. Weiter rechts davon wurde die Tastatur des Kalkulators angebaut. Die Terminals konnten auch rechnen. 

Fast präzise 100 Jahre nach Sholes‘ Maschine wurde die Maus von Douglas C. Engelbart am 9. Dezember 1968 erfunden: Engelbart stellte seine Erfindung im Rahmen einer Live-Präsentation in San Francisco der Öffentlichkeit vor, die später als "Mutter aller Demos" bekannt wurde. Sie blieb bis zum 24. Januar 1984 den Eingeweihten vorbehalten. An diesem Tag wurde der Apple Macintosh der Welt präsentiert. Seitdem gibt es praktisch keinen modernen Computer ohne Maus.

Am 6. April 1992 war es endlich so weit. An diesem Tag wurde Windows 3.1 vorgestellt, der einen Triumphzug auf den Bürotischen einleitete. Seitdem ist diese Anordnung „Standard“ weltweit.

Sie belastet alle Benutzer mehr oder weniger stark. Manche merken nichts, andere fühlen sich an der rechten Schulter unwohl. Viele können die Maus nicht mehr vernünftig halten und müssen daher sie links bedienen. Im schlimmsten Fall hilft nur eine Operation, RSI heißt die Malaise. Ein Standard, der krank macht. Niemand hat dies je beabsichtigt. Er war 1992 So-Da!

Meinen zweiten Liebling erleben Millionen Menschen im Büro täglich, er hat so viele Vorteile, dass er vermutlich mit 60% aller Büroarbeitsplätze ausmacht. Dumm nur, dass er hinderlich für die Beleuchtung ist. Wer darunter leidet, ahnt häufig nichts über die Ursache. Er macht einfach das Licht aus.

Anders als bei Maus und Tastatur lassen sich die Ereignisse, die zu dem Umstand geführt haben, nicht genau lokalisieren und datieren. Gemeint ist die Entstehung des rechteckigen Zellenbüros für zwei Personen. Sie lässt sich auch für weitere Gruppen mehrfach aneinanderreihen. Nennt sich Modulsystem. Seit Jahrzehnten werden die Bürogebäude nach einem festen Achsmaß gebaut. Es ist der kleinste Teiler der Fassade. Meist 1,25 m. Beträgt er 1,20 m, nennt man ihn Beamtenachse, weil er dem einfachen Beamten seine ihm zustehende Bürofläche beschert, 12 qm. Der übliche Angestellte bekommt eine Achse mit zwei Leuchten über seinem Kopf. Sollen drei statt zwei in einem Raum sitzen, kommt noch eine Scheibe dazu, + 6 qm.

Der Grundriss in diesem Bild ergibt sich vermutlich aus DIN 277 gemeinsam mit dem Bemühen, Grundstücke mit möglichst viel Büronutzfläche zu bebauen. Die Norm gibt es seit dem Jahr 1934 (sic!). Wie der Name sagt, „Grundflächen und Rauminhalte von Hochbauten“, beschreibt sie wichtige Daten der Gebäude.

Dass daraus rechteckige Räume entstanden sind, muss nicht der Norm angelastet werden. Diese Räume sind auch noch flach. Waren einst Büroräume bis 6 m oder gar darüber hoch, müssen diese in Deutschland mindestens 2,50 m hoch sein. Mit Ausnahme von Bayern, wo 2,40 m reichen sollen. Das gibt eine schlechtere Luft und auch eine schlechtere Lichtverteilung. Wenn einer gar im Stehen arbeitet, hängt die Beleuchtung kurz über seinem Kopf.

Beides, die Höhen von 6 m oder 2,50 m sind durch Licht bedingt. Frühe Bürohäuser waren auf Tageslicht angewiesen, während man später glaubte, mit künstlichem Licht dieses ersetzen zu können, daher die Höhe von 2,50 m. Wäre es nach dem Franzosen Le Corbusier gegangen, würden 2,20 m reichen. Der große Baumeister war bis zu seinem Tode dem deutschen Beamten gram, der ihn daran gehindert hat.

Übrigens, es war auch der deutsche Beamte, der die Architekten daran gehindert hat, das besagte Rechteck ohne Fenster zu bauen. Die Arbeitsstättenverordnung von 1975 schrieb senkrechte Fenster in Augenhöhe vor. Die Arbeitsmedizin hatte aber „nachgewiesen“, dass der Arbeitnehmer kein Tageslicht bräuchte, um gesund zu arbeiten. Der deutsche Beamte pfiff auf die Arbeitsmedizin -  und das war gut so.

Was brauchte man oder frau denn für ein Licht? Die „finale“ Antwort hieß: 500 lx. Wie man dazu gekommen sein will, kann man hier lesen: Basis der Festlegung von  Beleuchtungsstärkewerten in Beleuchtungsnormen. Praktischerweise bedeutete das, dass man nach unten offene Leuchten einsetzte, die eine gemeine Eigenschaft haben: Sie blenden durch ihre Reflexe auf dem Tisch und allem, was darauf steht. Zwar wurden dazu Raster zur Entblendung eingesetzt. Die helfen aber nicht gegen Reflexblendung.

So musste man die „optimale“ Anordnung erfinden, die man auch heute überall vorfindet. Man baut eine Leuchtenreihe fast direkt am Fenster, die zweite weiter im Raum. Dumm nur, dass das Licht dann vornehmlich die Ränder des Tisches beleuchtet.

Nicht schlimm für den findigen Lichttechniker. Man baut schräg-strahlende Leuchten. Nennt sich Batwing-Verteilung. Wenn das die armen Viecher wüssten. Form von nachtaktiven Tieren für die Beleuchtung von Tischen für tagaktive Menschen?

Ob das gut gegangen wäre, konnte man leider nicht erleben. Kaum war das Konzept ausgedacht, gab es schon Computer. Und deren Bildschirme glänzten gemeinerweise. So war es aus mit Batwing! Abgedunkelt war in. Auch wenn hochgestellte Persönlichkeiten die Charakteristik von tiefstrahlenden Leuchten breitstrahlend nannten, wollte sich das Licht nicht verbiegen lassen. Es flog mit Freuden dorthin, wo sie nicht viel Nutzen entfalten konnte. Egal, wo das Licht entlang flog, die Tastaturen wollten das Glänzen nicht aufgeben.

Es gab nur zwei mehr oder weniger schlechte Lösungen. Man richtet seine Zelte, sprich Bildschirm und Akte, in der Mitte zwischen den Leuchtenreihen an, wo es am dunkelsten ist. Da die Bildschirme viel Platz brauchten, bot die Büromöbelindustrie die geniale Lösung an, die sie einst nur den Sekretärinnen angeboten hatte: die Eckkombination.

Der Bildschirm steht vor dem Fenster und unter den Leuchten. Wenn man geradeaus guckt, ist einem die Blendung sicher. Die Leuchten spiegeln sich dazu noch wunderbar unter der Leuchte. Dafür liest man seinen Papierkram an der garantiert dunkelsten Stelle des Tisches. Der Platz nennt sich Schreib-Lesebereich. Der größte Teil des mühsam erzeugten Lichts landet entweder auf dem Teppich (links) oder auf den Bildschirmen, wo es nichts zu suchen hat.

Dieser Standard wurde nur durch den technischen Fortschritt teilweise überflüssig. Die Eckkombinationen sind weg. Aber die Anordnung der Leuchten hat sich in die Zeit gerettet, in der ein völlig neues Leuchtmittel regiert, die LED. Man erzeugt Licht viel wirtschaftlicher und beleuchtet damit vornehmlich die Tischränder oder den Teppich. Die 500 lx bekommt man, wenn man 700 lx am Tischrand mit 300 lx in der Mitte mittelt. Der Norm ist genüge getan.

Obwohl man moderne Leuchten bis 80 m Länge bauen kann (s. hier), aber auch in winzigen Größen in Millimetern, baut die Industrie massenweise immer noch 1,25 m Einheiten, deren Länge einst die „optimale“ Leuchtstofflampe bestimmt hatte, von der jeweils zwei pro Kopf den Bürohimmel über dem Menschen erleuchteten.

Müssen wir mit solchen „Standards“ leben? Ja und nein. Wenn die Beliebtheit der Zellenbüros nicht nachlässt, die vom Massenbüro über Großraumbüro und Kombibüro ein Jahrhundert Revolutionen überlebt hat, werden Architekten weiterhin mit Achsmaßen bauen. Sie werden bestenfalls kleinere oder größere Achsen nehmen. Das unberührbare Maß ist die Fläche pro Kopf. Für die Beamten ist die vorgeschrieben, deren KollegInnen in der Privatwirtschaft geht es auch ohne Vorschrift nicht besser.

Die Misere mit der Tastatur und Maus muss nicht sein. Ich habe dazu die Compact-Tastatur als Konzept erfunden, die 2007 international genormt wurde. Die steht seit Juli 2024 auch in der ASR A6 Bildschirmarbeit. Eigentlich war sie mehr oder weniger gut gemacht seit 1983 Teil eines Laptops. Wir müssen leider noch abwarten, dass alle Käufer die ASR oder solche Artikel wie hier lesen. Denn ausgeliefert werden PCs mit einer Tastatur, die etwa 1984 ohne Maus ausgedacht wurde, obwohl die Maus längst da war.

Und der dumme Standard mit zwei Leuchtenreihen am Himmel? Dass die krank macht, hatte ich schon 1990 mit dem Forschungsbericht „Licht und Gesundheit“ (hier kompletter Bericht) gezeigt. Wie man die Malaise erfolgreich los wird, steht nachgewiesen in der 1998er Ausgabe der Arbeit. Damals war noch die Indirektbeleuchtung die beste Lösung. Seit längerem kann man großflächige LED-Module nehmen, für die die Vorurteile gegenüber der Indirektbeleuchtung nicht gelten.

Ich hoffe, dass diese Ausführungen helfen, solche Räume wie unten Geschichte werden zu lassen. (Anm.: Dieser Raum ist nicht etwa lieblos zusammengewürfelt worden. Man hatte sich viel Mühe gegeben, um einen guten „Standard“ zu realisieren. Die Beleuchtung ist etwa 5 Jahre alt und hat die besten Aussichten, weitere 25 Jahre den Raum zu schmücken. )