Lichtqualität im semantischen Dreieck

Wasser tut’s freilich
höher jedoch steht die Luft,
am höchsten das Licht!

Arnold Rikli

Die Lichtqualität, die man im Wirken der Organisationen wie die CIE (Internationale Beleuchtungskommission) ganz oben in der Agenda wähnt, hat es im 99. Jahr vor dem Jubiläum der V(λ)-Kurve in das Internationale Wörterbuch der Lichttechnik geschafft, das seit immerhin 1938 schriftlich vorliegt und gepflegt wird.

Bis dato definierte nämlich diese Kurve, was Lichtqualität bedeutet – Helligkeit.

Was hat das mit dem semantischen Dreieck zu tun? Viel. Es ist ein faszinierendes Konzept, das uns erklärt, wie wir Dinge verstehen oder begreifen. Oder wie wir uns einen Begriff von Dingen machen wie z.B. von der Qualität.

Das Dreieck besagt, dass zum Begreifen von etwas dieses Etwas existieren muss. So z.B. ein Fisch. Es muss relativ klar umrissen sein wie z.B. ein Garten oder ein Baum. Wird diese Voraussetzung nicht erfüllt, verstehen wir selbst täglich benutzte Dinge nicht. Dazu gehört der Computer, den manche Leute hassen. Sie schreiben diesbezügliche Ideen zuweilen auf ihrem Handy und übermitteln diese anderen auch damit. Dass ein Handy ein Computer ist und kein Telefon, wissen zwar viele.  Sie verstehen es aber nicht.

Zum Verstehen von Etwas gehört nämlich ein Name, besser gesagt, eine genaue Bezeichnung. Wenn es gelingt, diese Bezeichnung präzise zu fassen, verstehen wir das Etwas besser. So ist ein bestimmter Computer, der Autoschlüssel, jedem ein Begriff. Während man unter einem PC viele Dinge vorstellen kann. Für die meisten von heute ist ein PC ein Laptop mit Display und Tastatur, in dem man Programme und Daten speichern und sich wiederholen kann. Genau die gleichen Kisten stehen aber auch bei Angestellten im Büro, sie funktionieren etwa gleich, sie sind aber etwas anderes. Sie speichern keine Daten, ihre Programme stehen auf Servern oder in der Cloud, wie manchmal die Daten auch.

Damit kommen wir zu der dritten Ecke des Dreiecks: Um das Etwas zu begreifen, benötigen wir die persönliche Begegnung damit. Ein gut geschulter Angestellter an einem Firmen-PC wird den besser verstehen als einer, der die Kiste im Schaufenster sieht. Wer gar nur das Wort PC hört, denkt an sein Gerät, so er eins gehabt hat.

Anders als das semantische Dreieck scheint das Wort Qualität jedem ein Begriff zu sein. Es ist immerhin etwa 2500 Jahre alt. Leider ist dem nicht so. Deswegen musste sogar eine Qualitätswissenschaft gegründet werden. Diese ist aber erstaunlich jung. Nach dem Zweiten Weltkrieg, insbesondere in Japan, trugen Persönlichkeiten wie W. Edwards Deming (hier) und Joseph M. Juran maßgeblich zur Entwicklung des modernen Qualitätsmanagements bei. Deming entwickelte Prinzipien der ständigen Verbesserung (PDCA-Zyklus) und 14 Managementprinzipien.

Im Westen kamen diese Ideen dadurch an, dass Japan große Erfolge damit feierte, also erst in den 1970ern. 50 Jahre gegenüber 2500? Ist Qualität so schwer zu verstehen? Die Antwort ist ja. Und daran sind die Alten schuld. Qualität ist nämlich nicht ein Begriff, sie war von Anfang an zwei Begriffe. Und auch nach der internationalen Normung in den 1980ern (ISO 9000 Reihe) blieb das Wort Qualität zweideutig.

Die eine Bedeutung der Qualität ist eine (hohe bzw. hochwertige) Beschaffenheit. Wer ein Qualitätsprodukt kauft, will eine hohe Qualität. Und die ist, was er sich darunter vorstellt. So stellt ein Porsche für viele ein Qualitätsauto dar.

Die genormte Bedeutung der Qualität ist „Erfüllen der Anforderungen“. Sie ist, was das Ingenieurswesen ausmacht, dessen Produkte weder gut noch schlecht sind, sondern für ihren Zweck geeignet oder nicht. Wer als Familienvater einen Kinderwagen für Zwillinge transportieren muss, für den ist ein Porsche bestimmt kein Qualitätsauto. Vielleicht war er es gewesen, als der Fahrer der Mutter der Zwillinge imponieren wollte.

Jeder Ingenieur, der etwas schafft, handelt i.S. der zweiten Definition der Qualität. Sein Produkt muss die Anforderungen erfüllen, die daran gestellt werden. Wer diese stellt? Das ist die große Kunst. Vor einer Entwicklung muss man sich ein Bild davon machen, was der Benutzer von dem Produkt erwartet. Die professionelle Kunst hört auf den Namen Requirements Management.

Was tut man aber, wenn die Leute nicht wissen, was sie fordern sollen? Man erfindet z.B. ein disruptives Objekt wie das Smartphone. Es hat nicht nur eine hundertjährige Branche umgeschmissen. Die Telekommunikation ist nach 2007 eine völlig andere geworden. Es hat den Weltmarkt umgeworfen. Der Marktführer für Mobiltelefone Nokia mit 38% Weltanteil war fünf Jahre danach nicht mehr existent. Und es hat Kulturen umgeworfen. Selbst Analphabeten können mit dem Smartphone Bankgeschäfte u.ä. erledigen. In Afrika läuft das Bankgeschäft für Arme über Handys. In Indien ist ein Gesundheitssystem entstanden, das darauf aufbaut.

Wie war es, als Edison die Glühlampe perfektionierte? Hat Licht als Begriff existiert? Eigentlich, ja. Man wusste vom natürlichen Licht vermutlich seit der Schöpfung der Menschheit. Das künstliche Licht war etwa 17,000 Jahre alt. Es war nur nicht perfekt (siehe Epochen der Kunst der Lichtmacher). Das Licht hatte also einen Namen. Das erste Eck vom semantischen Dreieck war also besetzt.

Hatte der Begriff Licht klare Umrisse? Hier kommt ein klares Nein. Selbst die Physik wusste nicht gerade viel über Licht. Menschen wie Einstein oder Max Planck waren zwar schon geboren, sie hatten ihr großes Werk noch nicht abgeliefert. Man hing noch der Äther-Theorie nach. Diese, die Äthertheorie, besagte, dass der gesamte Raum – auch der scheinbar leere Weltraum – von einem unsichtbaren, masselosen und allgegenwärtigen Medium, dem sogenannten "Äther", erfüllt sei. Der Äther hatte praktisch keine Masse, ließ alle Planeten ungehindert wandern, war elastischer als der härteste Stahl. Also ein Gebilde, das es hat nicht geben können. Aber große Geister wie  René Descartes, Vater des kartesischen Systems, oder Isaac Newton, der Vater der modernen Physik, und auch James Clerk Maxwell, dem die Vereinheitlichung von Elektrizität, Magnetismus und Licht in einer einzigen, kohärenten Theorie gelungen war, glaubten an den Äther.

Wenn das das einzige Problem wär! Man wusste nicht einmal genau, woraus Licht bestand und welche Anteile welche Wirkungen auf den Menschen ausübten. Auch als Matthew Luckiesh sein Buch „Light and Health“ im Jahre 1926 veröffentlichte, hatten weder die Mediziner noch die Lichttechniker viel Ahnung von den Dingen, von denen sie sprachen. Daher der Versuch der CIE, mit der V(λ)-Kurve Licht zu definieren und vor allem, messbar zu machen.

Diese Kurve war so erfolgreich, dass die Präsidentin der CIE alle ihre Experten einlud, zur Jahrhundertfeier ein Gedicht zu schreiben oder wenigstens ein Kunstwerk zu erstellen. Zu erfolgreich. Denn das so definierte Licht umfasst nur einen Teil dessen, was Licht für den Menschen ausmacht. Für fast alle Pflanzen ist die Kurve sogar falsch. Und auch die meisten Tiere sehen Licht anders.

Dem so definierten Licht ist in der Natur noch nie ein Mensch begegnet. Es ist ein rein künstliches Gebilde, das einen Teil der Sehvorgänge beim Menschen erklärt, so er nicht ganz jung oder älter ist.

Wir haben trotz des Jahrhunderts des Lichts keine Chance gehabt, es zu begreifen. Es hakt an allen Ecken des semantischen Dreiecks. Daher die ganzen Irrungen und Wirrungen, von denen das Buch Genesis 2.0 – Schöpfung der elektrischen Sonne handelt.

Licht und Ergonomie

Manche Dinge finden sich nicht zueinander, obwohl man sie fast immer im gleichen Kontext vermuten darf. Überraschenderweise gilt dies für Beleuchtung und Architektur, allerdings erst seit etwa 1925. Da half nicht einmal, dass der Staat im Dritten Reich Lichttechniker und Architekten zur Zusammenarbeit zwingen wollte. Er hatte nämlich vor, die Leistung des deutschen Arbeiters mit Hilfe der Beleuchtung zu steigern (s. hier). Dazu gründete der Staat eine Behörde, die auf den seltenen Namen “Schönheit der Arbeit” hörte. Deren Chef, der später Kriegsminister werden würde, Albert Speer, wusste als Architekt von der Bedeutung des Lichts. Er ließ sogar einen Spielfilm dazu drehen, das einfach “Licht” hieß. Ein sehenswerter Film.

Jahrzehnte später, Speer war schon 10 Jahre tot, saß ich zufällig  mit einem Architekturprofessor und dem Geschäftsführer des DIN-Normenausschuss Bauwesen (NABau) an einem Kindergeburtstag und erzählte ihnen, dass die Normen für Lichttechnik und für das Bauwesen unkoordiniert miteinander entstünden. Beide Herren erschraken und wollten dagegen sprechen, taten es aber lieber nicht. Dem war so.

Dass es dem so war, hatte ich beim Studium im Fachgebiet Umwelttechnik der TU Berlin gelernt. Zur Zeit ihrer Gründung gehörten Lichttechnik und Akustik, die ich studierte, neben der Instituten für Architektur dazu. Uns war es damals nicht gelungen, unsere Vorlesungen und Laborübungen Architekturstudenten schmackhaft zu machen. Deswegen war ich später zu Arbeitswissenschaft und Ergonomie migriert, weil mein Doktorvater glaubte, dort bessere Forschungsbedingungen zu Wirkungen des Licht auf die Arbeit vorzufinden. Klarer Fall von Denkste!

So freute ich mich 1981 wahnsinnig über das Buch Human Factors in Lighting von Peter Boyce. Human Factors ist das amerikanische Synonym für Ergonomie. Nach langer Suche fand ich in dem Buch aber nichts zur Ergonomie. Auch die dritte Ausgabe des Buches (2014) ließ Ergonomie missen. Unter dem Akronym IEA (eigentlich International Ergonomics Association) führt Boyce International Energy Agency an.

Insbesondere was das Tageslicht anging, glänzten alle besagten “Wissenschaften” durch Nichtwissen. So hatte das Standardwerk IESNA LIGHTING HANDBOOK (2006) der US-amerikanischen Lighting Engineering Society für Tageslicht und Human Factors gerade mal eine halbe Seite (von 1002) übrig.

Ich habe versucht, die Lücke zu füllen, angefangen bei den Begriffen (hier, (Begriffe(1) ERGONOMIE und LICHT). Im Rahmen eines Projektes Tageslicht (Tageslicht nutzen – Bedeutung von Dachlichtöffnungen für Ergonomie, Architektur und Technik), bei dem ein hervorragender Architekt und ein Institut für Bauwesen beteiligt waren, habe ich mit meiner Frau zusammen die Ergonomie des Lichts behandelt, dessen Bericht hier (Lichtergo1) zum Download steht. Die beiden anderen Teilberichte sind in dem Buch enthalten (hier)

Warum ist meine LED schon wieder kaputt?

Wer viel über LEDs gelesen hat, wundert sich zuweilen, warum eine vor Kurzem gekaufte Lampe tot ist. Angeblich leben LEDs 50.000 Stunden.

Kurze Antwort, wenn eine Lampe wirklich schnell gestorben ist: LEDs haben ein thermisches Problem. An falscher Stelle eingebaut und schlecht gekühlt, kann jede LED schnell sterben. Wer im Baumarkt solche eine Lampe kauft, sollte sie anmachen und nach mehreren Minuten die Temperatur fühlen.

Die lange Antwort kann wirklich lang werden, was man daran erkennt, dass es Seminare in Wochenlänge zu dem Thema gibt. Üblicherweise wird eine LED nicht total ausfallen, sondern nur an Qualität einbüßen. So verliert sie an Lichtstrom (wird dunkler), verändert die Farbe (wird blasser). Sie flackert oder glimmt im ausgeschalteten Zustand.

Wer als Techniker an LEDs arbeitet, benötigt genauere Informationen wie Daten als jemand, den nur der Betrieb interessiert. Dieser muss mit Angaben wie L70B10C10F10 umgehen können. So bedeutet L70, dass der Lichtstrom auf 70% zurückgegangen ist. Die Lampe ist aber immer noch funktionsfähig, gibt aber weniger Licht ab.

Wenn hinter L70 eine weitere folgt, so L70B10, bedeutet dies, dass bei einem Verlust von 30% an Lichtstrom höchstens 10% der Elemente diese Leistung unterschreiten dürfen. Bx ist somit ein Maß für die Ungleichmäßigkeit der Helligkeit der Elemente innerhalb eines LED-Moduls.

Totalausfälle von LED-Modulen bzw. -Leuchten werden durch den Cx-Wert (catastrophic failure) gekennzeichnet, wobei der Zahlenwert von X die zu einem gegebenen Zeitpunkt zu erwartende Ausfallrate in Prozent angibt. Ein Wert von C10 bedeutet, dass in einem Modul 10% aller Elemente total ausgefallen sind.

Last not least, kommt der Wert Fx, die Zusammenfassung von Bx und Cx. F10 bedeutet, dass höchstens 10% der LED dürfen den L-Wert unterschreiten (inklusive Totalausfall).

Den kompletten Wert für die Lebensdauer mit L70B10C10F10 wird man in der Praxis selten finden. Auf Lampenpackungen erscheint häufig eine Angabe in Jahren. Diese wird berechnet für einen Betrieb von 2 Stunden und 45 Minuten am Tag, also etwa 10% des Tages.  Wer das aus welchem Grund so festgelegt hat, müsste man bei Interesse selbst ermitteln.

Eine Angabe wie L70B10 50.000 Stunden bedeutet, dass nach 50.000 Betriebsstunden noch 70% des ursprünglichen Lichtstroms vorhanden sind und maximal 10% der LEDs in der getesteten Gruppe diesen Wert unterschreiten oder ausgefallen sind. Fehlt der B-Wert, wird standardmäßig von B50 ausgegangen.

Beim Kauf von LED-Lampen ist es ratsam, auf die Angabe der Betriebsstunden in Kombination mit dem L- und B-Wert zu achten, um eine fundiertere Entscheidung über die zu erwartende Lebensdauer treffen zu können.

Wirkung der Tageslichtfarbe im Innenraum

Nach langen Irrungen und Wirrungen hat die Lichttechnik die Bedeutung des Tageslichts für den Menschen anerkannt. Leider ist kaum jemandem klar, wovon man spricht, wenn von Tageslicht die Rede ist. Dies habe ich u.a. hier thematisiert.

Zum einen geht es darum, dass in der Lichttechnik nur ein Teil des Tageslichts als Licht aufgefasst wird. Diesen Teil hat aber nie ein Mensch oder ein Tier erlebt. Pflanzen schon gar nicht. Das Problem geht aber weiter, weil das Wort "Tageslicht" z.B. zur Bezeichnung von Lampen verwendet wird, deren Licht in keinerlei Hinsicht etwas mit Tageslicht zu tun haben kann.

Aber auch ein mit vielerlei Tricks in Arbeitsräume eingeführtes Licht wird Tageslicht genannt, so auch das hier abgebildete.

Die vielen Spiegel reflektieren das Licht, dass die Prismen über dem Fenster  vom Himmel in den Raum umlenken. Die Prismen sammeln aber nicht das Sonnenlicht, sondern das Licht vom Zenit, weil es dort konstanter ist. Dort finden sich zuweilen Wolken, deren Farbtemperatur je nach Wolkenart variiert. Sie kann sich von 2000 K bis 3000 K (gegen Abend) über 5000 K bis 7500 K (hohe Wolken, mittags) auf bis 9000 K bis 12000 K (dünne Wolke oder wolkenloser Himmel)  ändern. Ohne Wolken liegt die Farbtemperatur meist oberhalb von 10000 K und reicht bis 17000 K.

Die angegebenen Farbtemperaturen sind "Natur". Was empfindet aber der Mensch als "natürlich"? Die Erfahrung sagt, dass die Empfindung draußen und drinnen sehr unterschiedlich ist. Während man einen strahlendblauen Himmel (über 10.000 K) häufig mit Wärme verbindet, weil gleichzeitig die Sonne scheint, empfinden Menschen die Lichtfarbe "neutralweiß" (4000 K) im Innenraum als kalt. Als "natürlich" wird die Glühlampe erlebt, an der bestimmt nichts natürlich ist.

Seit 2018 wird die biologische Wirkung von Beleuchtung auf das Tageslicht bezogen, und zwar auf ein Licht mit der Farbtemperatur von 6504 K. Dieses Licht ist im Vergleich zum blauen Himmel sehr warm! Aber kaum jemand möchte es in seinem Arbeitsraum sehen.

Das Unterfangen, Tageslicht oder was es sein soll, mit physikalischen Größen zu charakterisieren und die Empfindungen der Nutzer damit zu erklären, ist zum Scheitern verdammt. U.a. deswegen geben Beleuchtungsnormen, die ansonsten sehr detaillierte Angaben zu verschiedenen Beleuchtungsstärken machen, keine Empfehlung zu Lichtfarbe bzw. Farbtemperatur. So steht es in der letzten Beleuchtungsnorm DIN EN 12464-1:

"Die Wahl der Lichtfarbe ist eine Frage der Psychologie, der Ästhetik und dem, was als natürlich angesehen wird. Die Auswahl hängt von der Beleuchtungsstärke, den Farben des Raums und der Möbel, dem Umgebungsklima und der Anwendung ab. In warmen Klimazonen wird im Allgemeinen eine kühlere Lichtfarbe bevorzugt, wohingegen in kaltem Klima eine wärmere Lichtfarbe bevorzugt wird."

 

Warum man in Arbeitsräumen kein UV-Licht erzeugt

Wenn die UV-Strahlung so lebenswichtig ist, wie in diesem Buch behauptet, fragt man sich, warum man dies nicht mit Lampen erzeugt. Das hatte der Guru der Vollspektrumlampe, John Ott,  ausdrücklich bemängelt.

Die Antwort auf diese Frage ist mehrere Milliarden Jahre alt: UV ist eine tödliche Strahlung. So tödlich, dass das Leben auf der Erde erst nach der Bildung der Ozonschicht das schützende Wasser verlassen durfte. Etwas bizarr, dass ausgerechnet ein giftiges Gas dem Leben auf die Sprünge helfen musste.

Es gibt auch eine etwa 100 Jahre alte Antwort, die ich in dem Buch ausführlich behandle (s. Geburtsjahre der elektrischen Sonne und Auftritt Matthew Luckiesh – Von der Überlegenheit der elektrischen Sonne) Vor einem Jahrhundert war es das erklärte Ziel der Lichttechnik, UV in alle Räume zu bringen. Selbst Züge, Busse oder Schiffe wurden mit UV-durchlässigen Fenstern versehen. Diese Lampe sollte für Sehen und Gesundheit sorgen:

Kindergärten oder Schulklassenräume wurden mit diesen und ähnlichen Lampen beleuchtet bzw, bestrahlt.

An dem Bild1Quelle: Science Service Collection, Division of Medicine and Science, National Museum of American History, Smithsonian Institution kann man erkennen, warum das Anliegen zum Scheitern verurteilt war. Die gesunde UV-Strahlung in der Natur ist in der Atmosphäre gestreut. Wenn sie direkt von der Sonne kommt, wie hier aus der Lampe, empfangen die Menschen sie sehr unterschiedlich. Die Kinder rechts im Bild werden vom UV kaum profitieren, während die auf der Gegenseite die Strahlung auch ins Auge bekommen.

Die heutigen Arbeitsschutzbestimmungen würden UV-Erzeugern kaum Chancen lassen, diese in Innenräumen zu installieren. Selbst die einst hochgepriesenen UV-durchlässigen Fenstergläser (s. Lass’ die Sonne wieder scheinen) wie Vita Glass wären in Wohnungen bedenklich, weil kein Mensch diese Strahlung im Schutz seiner Wohnung erwartet.

Wirkung einer physikalischen Größe auf den Menschen

Physikalische Größen wie Gewicht (Reis, Brot) oder Volumen (Milch, Wein) werden in einem physikalischen Maßsystem gemessen. Wenn sie sich auf den Menschen auswirken, gilt dieses System nicht mehr. So sind 2 kg Brot doppelt so viel wie 1 kg. Wenn man das Brot auf einmal isst, ist die Wirkunf von 2 kg Brot nicht doppelt so hoch wie bei einem kg.

Allgemein nimmt man an, dass sich physikalische Größen auf Empfindungen nach einer sog. S-Kurve auswirken.

In dem Bereich 1 wirkt sich die physikalische Größe nicht erkennbar aus (unterschwellig). Nach Erreichen eines Schwellenwertes nimmt die Wirkung mit zunehmender Größe zu. Im Bereich 3 bleibt die Wirkung gleich oder nimmt sogar auch ab (Sättigung).

Der Verlauf im Bereich 2 ist für die Forschung am interessantesten. Man nimmt an, dass die Wirkung mit dem Logarithmus der Größe ansteigt. So z.B. bei der Leistung. Die Wirkgröße (Beleuchtungsstärke) ist logarithmisch unterteilt.

So verfährt man z.B. bei Schall. Die Wirkgröße (Schalldruckpegel) erzeugt Lärm nicht linear, sondern logarithmisch. So wirkt sich eine Verdoppelung des Schalldrucks bei 50 dB(A) nur dahingehend aus, dass jetzt 53 dB(A) herrschen.

In der Lichttechnik sind alle Grundgrößen linear. Die oben gewählte logarithmische Darstellung wurde vor langer Zeit aufgegeben. So sind 200 lx doppelt so groß wie 100 lx. Ihre Wirkung steigt aber nicht in dem gleichen Maße.

 

Die wahren Verhältnisse zeigt die obige Kurve. Die Sehleistung lässt sich mit zunehmender physikalischer Wirkung steigern, hört aber irgendwo auf. Der unterschwellige Bereich liegt bei etwa 1 lx. Der grüne ansteigende Ast liegt bei Lesbarkeit von einem weißen Blatt Papier zwischen 1 lx und ca. 1000 lx. Bei oberhalb von ca. 10,000 lx blendet das Papier derart zunehmend, dass die Sehleistung sinkt.

Was ist das Tageslichtäquivalent?

Seit man weiß, dass das Licht eine bestimmte biologische Wirkung auslöst, nämlich die Unterdrückung der Melatoninproduktion, suchte man nach einem Maß hierfür.

Nicht jedes Licht beeinflusst die körperliche Melatoninproduktion in dem gleichen Maße. Die Wirkung hängt stark mit dem Blaugehalt des Lichts zusammen. Um dies zu berücksichtigen, werden alle lichttechnischen Größen, so auch die Beleuchtungsstärke, umgerechnet. Die neuen Größen heißen dann melanopisch.

Um von einer physikalischen Größe (z.B. Strahlungsintensität) die visuelle Wirkung zu berechnen, wird deren Spektrum mit dem jeweiligen Wert der V(λ)-Kurve multipliziert. Die so erhaltene Größe ist unabhängig von der Person und der Lichtfarbe.

Eine solche Umrechnung ist mit melanopischen Größen nicht möglich. Hierzu muss man das Alter der Person und die spektrale Verteilung des Lichts berücksichtigen. Für eine Person mit 32 Jahren und eine Beleuchtung mit einer Farbtemperatur von 6504 K ist 100 Lux, visuell = 100 Lux  melanopisch. Bei älteren Menschen ist die Wirkung geringer, bei jüngeren größer.

Die Umrechnung von Lux (visuell) in M-EDI (Melanopic Equivalent Daylight Illuminance) erfolgt auf der Basis der Farbtemperatur. Eine Lampe mit 2700K (Glühlampe, LED) ergibt etwas unter 50 melanopische Lux. Die Kurven zeigen für 4 LEDs das Ergebnis der Umrechnung. Das bedeutet, dass 100 lx von der jeweiligen Lampe erzeugt dem Skalenwert entsprechend viel circadiane Wirkung zeigt. So wirkt L. 1 bei 4000K wie 75 lx Tageslichtäquivalent.1Die Wirkgröße heißt ähnlichste Farbtemperatur, weil nur Festkörper Farbtemperaturen haben. Bei allen sonstigen Leuchtmitteln nimmt man die nächstbeste Temperatur. Daher "ähnlichste".

Ist der Mensch älter oder jünger als 32 Jahre, wird der so erhaltene Wert mit einem Korrekturfaktor multipliziert. Der unterscheidet sich auch noch nach Lichtfarbe. Im einfachsten Fall wird der Wert für 25-Jährige mit 1,052 multipliziert (gute Augen), für 90-Jährige mit 0,459.

So wird nicht nur die Berechnung der Beleuchtungsstärke zur hochkomplizierten Aufgabe, sondern auch die Angabe. Die sieht korrekterweise so aus:

Die obige Formel gibt die Mindestbeleuchtungsstärke für den Tag in Arbeitsstätten an. (v = vertikal, mel = melanopisch, D65 = Farbtemperatur 6504 K). Die ganze Formel ist als Bild eingesetzt, weil es keine Möglichkeit gibt, sie mit anderen Mitteln darzustellen. Bei Word muss man die Formelfunktion benutzen.

Wenn man so etwas Fundamentales wie die Wirkung des Lichts auf den Körper in Formeln fassen will, muss man sich wirklich bemühen. Bei der Wirkung des Lichts auf die Psyche sind wir von einer Formel weit entfernt.

Warum sind die Farben so blass?

Die Effizienz von Lampen wird daran gemessen, wie viel Helligkeit sie aus der Energie erzeugen können, die man zu ihrem Betrieb benötigt. Farbensehen gehört überraschenderweise nicht zur Sehleistung, obwohl es kaum einen Menschen gibt, der keine Farben sieht. Diese Effizienz wird in Lumen je Watt gemessen.

Ob ein Licht überhaupt irgendwelche Farben wiedergeben kann, ist damit nicht gesagt. Die Farbwiedergabe ist die Fähigkeit einer Beleuchtung, Farben von Objekten sichtbar zu machen, die unter ihrem Licht stehen. Leider ist diese Aufgabe nicht so leicht, wie sie scheint. Denn ein physikalisches Objekt hat keine Farbe, sondern nur Reflexionseigenschaften. Und ein Mensch sieht, wie man aus diversen beliebten „Sehtäuschungen“ kennt, Farben nicht absolut, sondern relativ. Es gibt keine "natürlichen " Farben.

Der Farbwiedergabeindex gibt nur die Fähigkeit einer Lampe bzw. eines Leuchtmittels – und nicht einer Beleuchtung – an, bestimmte Farbmuster in Vergleich zu ihrem Erscheinen unter einem Referenzlicht wiederzugeben. Da diese eigentlich nirgendwo tatsächlich vorhanden ist, bezieht sich der Vergleich auf die Glühlampe – mittlerweile in der EU verboten – und auf „Tageslicht“. Da das Tageslicht bekanntlich morgens, mittags und abends unterschiedlich ist, benutzt man unterschiedliche „Tageslichter“.1Das natürliche Tageslicht verändert seine Farbe und Intensität über den Tag. Zudem ist es vom geografischen Ort abhängig. In der Technik werden unterschiedliche "Tageslichter" definiert, so D50, D55, D65, D75 = D für Daylight, XX für die ersten zwei Ziffern der Farbtemperatur in Kelvin. So benutzt man in der Druckbranche wie in der Fotografie D50 (Farbtemperatur 5000 K.  Egal wie, ein Index von 100 = höchster Wert, bedeutet nicht etwa, dass alle Farben wunderschön wiedergegeben werden. Nur 8 Pastellfarben werden berücksichtigt und keine gesättigten. Diese sind hier dargestellt:

Hier fehlen nicht nur die gesättigten Farben, sondern so wichtige wie die Hautfarbe des Menschen. Dies ist verständlich, weil die menschliche Haut von Weiß bis fast Schwarz praktisch alle Farbtöne annehmen kann. Weniger verständlich ist indes, das in der Farbwiedergabe etwas fehlt, was man seit Jahrhunderten kennt, die Wirkung von Weißmachern und Aufhellern. Diese sind in vielen Materialien, im Papier oder in Waschpulver enthalten. Sie werden vom UV-Anteil im Sonnenlicht angeregt . Fehlt dieser, erscheinen die Oberflächen gelblich. So sieht auch die sauberste weiße Bettwäsche nicht nur unter künstlicher Beleuchtung leicht vergilbt aus, sondern auch unter dem Sonnenlicht, das durch moderne Fenstergläser gefiltert wird.

Dieser Effekt wird bei der Angabe der Farbwiedergabe der LED elegant unterschlagen. Das kann u.U. sehr teuer werden. So wurde die Allianz Arena, München, mit LED-Scheinwerfern hoher Qualität beleuchtet. Das Fernsehen beanstandete aber trotzdem die Bildqualität. So wurden nachträglich 540 UV-Scheinwerfer installiert.

LEDs können UV erzeugen, sie müssen aber nicht. Das ist eine Besonderheit von LED, dessen Licht keine unbeabsichtigte "Konterbande" enthält. So wird jede Glühlampe neben etwas Licht viel Wärmestrahlung erzeugen. Theoretisch ist sogar etwas UV drin.  Leuchtstofflampen erzeugen primär kaum Licht, sondern weitgehend nur UV. Sie benötigen den Leuchtstoff, diese Strahlung in Licht umzuwandeln.

Die Bestimmung der Farbwiedergabe erfolgt nach einem obsoleten System, das man seit etwa zwei Jahrzehnten versucht abzuschaffen. Sie leidet auch darunter, dass die Lichttechniker UV nicht als Licht anerkennen. Somit bedeutet auch der höchste Index von 100 nicht, dass Farben gut wiedergegeben werden.

Beleuchtungsnormen geben i.a. keine Lichtfarbe vor und empfehlen meist einen Wert von 80 für den Index. Wie dieser bestimmt wird, wird in keinem Buch oder Artikel beschrieben. Wenn man auch noch auf die Verwendung von Farben in einem Raum verzichtet, entsteht das traurige Bild wie hier. Dieser Raum ist mit LED-Leuchten beleuchtet mit einem Farbwiedergabeindex über 90. Wenn Arbeitsumgebungen grau in grau gestaltet werden, kann auch die beste Lampe keine Farben hervorzaubern.

Moderne Büros leiden häufig unter akustischen Störungen. Wenn man sie versucht mit üblichen Mitteln zu beseitigen, graue Schallschirme, helfen auch die besten Lampen nichts.

Beleuchtungsstärke – Information oder Irreführung?

Die Beleuchtungsstärke ist ein vielfach verwendeter Begriff, wenn es um Beleuchtung geht. Laien wie Fachleute wissen meistens gar nicht, wovon sie reden. Das liegt daran, dass man eine Laborgröße, die wohl definiert ist, in vielerlei Bedeutungen benutzt. (Ausführlicher Artikel zu diesem Thema hier abrufbar)

Die Beleuchtungsstärke gibt die Menge des Lichts an, das auf dem Sehobjekt ankommt. Und das bestimmt, wie gut wir dieses sehen. Dumm nur, dass sie nicht allein bestimmt, was und wie gut wir das beleuchtete Objekt sehen. Denn eigentlich gibt es keine Beleuchtungsstärke, sondern viele leuchtende Objekte, die ihr Licht mehr oder weniger auf die Stelle senden, an der unser Sehobjekt steht oder liegt. Man addiert die künstlich zu einem Wert zusammen.

Wenn man bei dem obigen Bild das sieht, was beleuchtet wird, sieht man links das Gesicht, in der Mitte eine von oben beleuchtete Frisur mit vermutlich leuchtender Nasenspitze und rechts nur den Hinterkopf. Jeder Schüler lernt in der Schule, dass Licht eine Richtung hat. Aber in der Lichttechnik scheint diese nicht zu existieren. Außer bei Labormenschen.

Das Konzept der Beleuchtungsstärke, wie es derzeit verstanden wird, sieht bei den Lichtquellen im Bild unten keinen Unterschied:

Die gelbe Lichtquelle erzeugt bei entsprechender Größe dieselbe Beleuchtungsstärke wie die grüne, jedenfalls in der Weise, wie in Arbeitsstätten Beleuchtungsstärke berechnet wird. Sie kennt keine Richtung.

Dass das Licht in der Beleuchtungstechnik keine Richtung hat, kann man verstehen, wenn man sich einen Großraum anschaut:

Wie soll ein Planer hier eine gewünschte Lichtrichtung für jeden Arbeitsplatz einhalten? Er wird halt viele Leuchten an der Decke verteilen und zusehen, dass auf jedem Tisch Licht ankommt. Irgendwie. In der Hoffnung, dass es bei vielen Arbeitsplätzen die richtige Richtung hat.

Man weiß naturgemäß, dass dies nicht der Weisheit letzter Schluss ist. So wird z.B. in der letzten Norm für die Beleuchtung von Arbeitsstätten eine Vielzahl von Beleuchtungsstärken vorgegeben, die der Planer realisieren möge. Die haben Bezeichnungen wie hier: Ēm, Ēi, Ēz , Ēm,z, Ēm,wand, Ēm,decke Ēm,modified.. So bedeutet Ēm,decke die mittlere an die Decke gerichtete Beleuchtungsstärke. Warum beleuchtet man aber die Decke?

Noch viel lustiger stellt sich die Frage, was denn Ēm,z ist. Das ist die mittlere zylindrische Beleuchtungsstärke.

Wenn man sich anstelle des grünen Zylinders ein Gesicht vorstellt, kann man verstehen, was man damit will. Gesichter beleuchtet man von vorn. Warum aber dann die anderen Pfeile, vor allem die von hinten? Jeder Fotograf weiß, dass Gegenlicht das Sehen eher verschlechtert. Bei der Berechnung von Ēm,z werden aber die Beiträge aus allen Richtungen addiert.

Das Geheimnis ist, dass ein Planer einer Arbeitsstätte nicht weiß, wohin einer gucken wird (s. oberes Bild vom Großraumbüro). Ergo? Das Licht muss aus allen Seiten kommen. Geht das überhaupt? Eigentlich nicht. Man kann Objekte wie Gesichter nur in dem Lichte sehen, das aus der gleichen Richtung kommt, aus der man schaut. Das Licht aus der Gegenrichtung ist bestenfalls eine Störung.

Noch etwas: In fast allen Arbeitsstätten kommt das künstliche Licht von der Decke. Wer biegt das Licht so, dass es waagrecht einfällt?

Ist es ein Wunder, dass viele Lichtplaner kein Messgerät für die Beleuchtungsstärke besitzen?

Was blendet da?

Blendung ist etwas, was für Stadtmenschen alltäglich ist. Man wird z.B. beim Autofahren durch den Gegenverkehr geblendet. Man kennt ebenso die Schutzmaßnahmen, z.B. wenn der TÜV das Auto bemängelt. Etwa jede zweite Beanstandung erfolgt wegen falsch eingestellter Scheinwerfer.

Blendung war bereits für Edison ein wichtiges Thema (hier). Er hatte in sein Tagebuch notiert, er werde ein Licht erfinden, das so billig ist, dass nur Reiche sich eine Kerze anzünden würden. Und das Licht werde nicht blenden. Bei Kfz musste die Blendung bereits zu Beginn in den 1930ern gesetzlich begrenzt werden. Heute blenden aber schon Kinderfahrräder.

Dennoch erlebt auch heute der normale Mensch Blendung durch Autoscheinwerfer, so etwa durch das Dränglerlicht. Dass dies nicht ganz so normal ist, merkt man, wenn ein Fahrrad tagsüber bei Sonnenschein blendet, während Autos mit etwa 50 x stärkeren Scheinwerfern es nicht tun. Diese Frage habe ich häufig thematisiert, z.B. hier. Dort ist z,B zu lesen, dass unsere liebe Regierung im Jahr 2017 den Deutschen Bundestag informiert hat, dass keine wissenschaftlichen Erkenntnisse über die psychologische Blendung von Tagfahrleuchten vorlägen.1Warum wir von Ahnungslosen regiert werden … @ Wie schlimm diese blenden und vor allem warum, habe ich hier thematisiert.

Den größten Teil seiner Wachzeit, vor allem unter Stress, verbringt der Mensch bei der Arbeit, bei der die Blendung ihn am meisten beanspruchen kann. Das war, wie oben steht, bereits Edison bewusst. Als in den 1940ern die Industrie aufbrach, die gesamte Arbeitswelt mit "Neon-Lichtern" zu bestücken, so der volksübliche Name der Leuchtstofflampe, entwickelten insbesondere Hersteller wie General Electric oder Philips Blendungsbegrenzungsmethoden. Leider nicht sehr erfolgreich. So kann man heute zwar Leuchten kaufen, deren Blendwert in einer vierstelligen Zahl angegeben wird. Was sagt dieser so mühsam errechnete Wert?  Vielleicht etwas. Allerdings weiß auch der Fachmann nicht, was sie aussagt.

Eine bessere Aussage hat einer getroffen, der ermitteln wollte, was der Blendwert wert ist: "Blendungsmodelle wurden nach fehlenden Untersuchungsbedingungen und Inkonsistenzen geprüft. Es wurden Mehrdeutigkeiten gefunden wie die Einbeziehung von kleinen und großen Blendquellen und was überhaupt eine Blendquelle in komplexen Situationen mit mehreren Leuchten ist. … The Blendungsmodelle wurden umgerechnet um mit den Vorhersagen von 1949 von Luckiesh und Guth verglichen zu werden. Die Modelle zeigten eine geringe Aussagekraft. Wenn man Blendung in komplexeren Situationen [mehrere Leuchten, d. Autor] bewerten will, müssen die Modelle grundsätzlich neu formuliert werden.2Clear, R. D. Discomfort glare: What do we actually know?, Lighting Research and Technology, 2012, doi: 10.1177/1477153512444527

Eine modellfreie Beurteilung der Blendung hatte der Autor Leffingwell bereits in den 1920er Jahren abgegeben: Indirektbeleuchtung. Eine Ergänzung dazu aus dem Jahr 2025: Großflächige LED-Leuchten wirken sogar besser. Ganz ohne Blendungsbewertungssystem und vierstellige Blendwerte.