Wenn Licht krank macht: Zur langen Suche nach Ursache und Wirkung

Wer das Licht der Wahrheit sehen will,
muss erst durch den Tunnel
der Ungewissheit kriechen.

Anonymus

Wenn Licht krank macht: Zur langen Suche nach Ursache und Wirkung, kurzgefasst

Der Beitrag analysiert die komplexen und bislang nur unvollständig geklärten Zusammenhänge zwischen Lichtexposition und menschlicher Gesundheit mit besonderem Fokus auf potenzielle Beziehungen zur Krebsentstehung. Ausgehend von der Feststellung, dass bereits grundlegende Lichtwirkungen – wie die Sehleistung – wissenschaftlich schwer eindeutig zu fassen sind, wird gezeigt, dass sich diese Schwierigkeit bei der Untersuchung langfristiger gesundheitlicher Effekte erheblich verstärkt. Auf Basis arbeitswissenschaftlicher, photobiologischer und medizinischer Ansätze wird ein Wirkmodell vorgestellt, das primäre (direkte), sekundäre (mittelbar vermittelte) und tertiäre (langfristige) Lichtwirkungen unterscheidet. Historische und experimentelle Befunde zur kanzerogenen Wirkung ultravioletter Strahlung werden ebenso diskutiert wie neuere Erkenntnisse zu hormonellen Veränderungen, circadianen Störungen und Licht in der Nacht. Diese indirekten Wirkpfade, etwa über Melatonin und Cortisolregulation, werden als zentral für das Verständnis möglicher Zusammenhänge zwischen Licht und bestimmten Krebserkrankungen herausgearbeitet. Der Beitrag verdeutlicht, dass Licht nur selten als unmittelbarer Krankheitsauslöser wirkt, sondern überwiegend Bestandteil komplexer biologischer Wirkungsketten ist. Abschließend wird betont, dass die Erforschung von Lichtwirkungen auf die Gesundheit zwingend interdisziplinäre Ansätze erfordert und einfache Ursache Wirkungs Modelle der Problematik nicht gerecht werden.

Wenn Licht krank macht: Zur langen Suche nach Ursache und Wirkung

Viele Menschen können nicht glauben, dass es so schwer ist, eine bestimmte Wirkung von Licht zu ermitteln. Dabei fängt die Schwierigkeit bereits bei dem üblichen Zweck an, den man mit einer Lichtanwendung gemeinhin verfolgt, Sehen. Vermutlich haben Menschen künstliches Licht – hier gemeint die Öllampe – erfunden, um Sehleistung zu erzeugen. Das war vor mehr als 17.000 Jahren. Das Feuer war schon länger bekannt. Daher können die Menschen, die die Öllampe geformt haben, damit nur bezweckt haben, das Feuer dorthin zu tragen, wo man etwas sehen wollte. Wie erklärt man dann, dass die Sehleistung heute so unbrauchbar definiert ist, dass man mit der Definition kaum etwas anfangen kann? (s. Es war einmal … - Drei Ingenieure und das Märchen von der Sehleistung).

Wenn diese scheinbar so triviale Aufgabe schwer fällt, wie mühsam muss es erst werden, wenn man nach Wirkungen aus ist, an die man zuletzt an Licht denkt, so z.B. eine Beziehung zwischen Licht und Darmkrebs? Tatsächlich hatten die Menschen selbst bei Rachitis Probleme damit gehabt, zu glauben, dass das Licht auf der Haut etwas damit zu tun haben könnte, dass den Menschen die Knochen erweichen, die das Licht kaum erreichen kann.

Als die Tagungsreihe „Licht und Gesundheit“ im Jahr 1997 an der TU Berlin konzipiert wurde, sollte ich einen Vortrag zu meinen Arbeiten halten. Stattdessen lieferte ich einen Beitrag mit dem Titel „Licht als Stressor oder Stimulans - Psychophysiologische Wirkungen der Beleuchtung auf den arbeitenden Menschen“ (Download hier). Ich hatte mittlerweile ein Vierteljahrhundert über die Wirkungen des Lichts auf den Menschen geforscht, etwa 1.000 Menschen in Fußballstadien befragt, 4.500 Arbeitsplätze studiert. Aber ich konnte mich immer noch nicht entscheiden, ob Licht „gut“ ist (Stimulans) oder eher „schlecht“ (Stressor).

Was mir insbesondere fehlte, war ein Modell für “Licht und Gesundheit”. Eine Beschreibung der Auswirkungen von Licht auf die Gesundheit des arbeitenden Menschen setzt voraus, dass man eine modellhafte Vorstellung von den Wirkungsmechanismen entwickelt. Diese nennt sich im Arbeitsschutz Einwirkungsdefinition. Bevor man einen Umweltfaktor, der als „unangenehm“ erlebt wird, auch als einen Faktor der Beeinträchtigung der Gesundheit bezeichnen kann, ist die Festlegung der Einwirkungsdefinition erforderlich. Der betrachtete Faktor muss eine nachvollziehbare Einwirkung auf den Organismus ausüben, damit sich dieser überhaupt verändert. Aber nicht jede feststellbare Veränderung eines Organismus wird gleichsam als eine Beeinträchtigung der Gesundheit bezeichnet, da jede Information aus der Umwelt eine Veränderung hervorruft. So verändert z.B. ein Warnsignal die Hirnströme, ohne dass man dies als Beeinträchtigung der Gesundheit ansieht.

Richtig schwierig wird die Sache, wenn man nicht nach einer „Beeinträchtigung“ der Gesundheit sucht, sondern nach einer manifesten Erkrankung, als deren Verursacher man Licht nachweisen will. Die größte Schwierigkeit dürfte dabei sein, dass nur Mediziner relevante gesundheitliche Daten erheben dürfen. Sie sind auch die Einzigen, die Diagnosen stellen können und dürfen. Beiden Problemen kann man begegnen, indem ein Mediziner die Projektleitung übernimmt oder wenigstens sich maßgeblich beteiligt. Dann bleibt aber immer noch das Problem, dass Licht in der Medizin etwas anderes ist als in der Lichttechnik. Viele Heilmethoden in der Medizin nutzen Wirkungen von Strahlungen, die für die Lichttechnik kein Licht sind. Für den Lichttechniker gehört das alles zu „Photobiologie“.

Die Geschichte der Photobiologie reicht hinter unsere Zeitrechnung zurück. Schon in der Antike beobachteten Menschen den Einfluss des Lichts auf das Leben. Der Begriff "Photobiologie" existierte zwar noch nicht, aber die Konzepte waren da: Die Nutzung von Sonnenlicht zu Heilzwecken (Heliotherapie) war bei den Griechen und Römern bekannt. Die "moderne" Photobiologie ist etwa 120 bis 150 Jahre alt. In dieser Zeit wurden die Mechanismen dahinter entschlüsselt, z.B.: Downes und Blunt bewiesen 1877, dass ultraviolettes (UV) Licht Bakterien abtöten kann. Niels Finsen erhielt 1903 den Nobelpreis für die Behandlung von Hautkrankheiten mit konzentrierter Lichtstrahlung (Lichttherapie). Die Photobiologie ist als eigenständige, organisierte Fachdisziplin etwa 70 bis 80 Jahre alt. 1954 wurde das Comité International de Photobiologie (heute die International Union of Photobiology) gegründet.

Will man mit einer Studie ursächliche Beziehungen zwischen Licht und ihren Wirkungen aufdecken, muss man neben direkten Wirkungen wie Blendung („primäre“ Wirkung“) auch „sekundäre“ Wirkungen wie die Ausschüttung von Hormonen wie Cortisol  erfassen. Ist das Licht vermutlich erst über den Umweg von hormonellen Veränderungen  (z.B. Beeinflussung der Arbeitsleistung infolge circadianer Rhythmusstörungen) beteiligt, spricht man von „tertiären“ Wirkungen.

Zusammenfassung der Wirkungen

Primäre Wirkungen (momentan eintretende Wirkungen)

Das sind durch Strahlungseinfluss unmittelbar entstehende Wirkungen, wozu insbesondere die Sehvorgänge zählen. Die darüber hinausgehenden primären Wirkungen (z.B. Hautpigmentierung) beschreibt die Photobiologie. Bei den primären Wirkungen kann man eindeutige Ursache-Wirkungs-Beziehungen finden und diese mit geeigneten technischen Einrichtungen messbar machen. Aus diesem Grunde lassen sich Techniken und Maßnahmen entwickeln, die primäre Wirkungen gezielt erzeugen, beispielsweise Ausleuchtung von Arbeitsobjekten zum besseren Erkennen oder Bestrahlung von Haut, um eine Bräunung zu erreichen.

Sekundäre Wirkungen (nach längerer Dauer eintretende Wirkungen)

Diese Wirkungen werden mittelbar verursacht, so z.B. die Aktivierung des Körpers infolge einer hellen Umgebung oder die Steigerung der Leistungsfähigkeit durch eine als angenehm empfundene Beleuchtung. Bei diesen Wirkungen lassen sich Ursache-Wirkungs-Beziehungen nicht einfach herstellen bzw. messen. Man weiß beispielsweise, dass eine Beleuchtung mit geringer Blendwirkung nicht nur durch ihre primäre Wirkung (bessere Sehleistung) die Belastung des Menschen mindert, sondern auch durch Minderung der subjektiven Ermüdung. Die letztere Wirkung entzieht sich aber in der Regel einer genauen Ermittlung. Zu den wichtigsten sekundären Wirkungen können Einflüsse auf die Hormonausschüttung gezählt werden, die vom Licht erzeugt werden.

Tertiäre Wirkungen (langfristig eintretende Wirkungen)

Diese Wirkungen werden durch Vorgänge beeinflusst bzw. ausgelöst, die mit den primären und sekundären Wirkungen der Strahlung zusammenhängen. Zu solchen Wirkungen gehören Einflüsse auf das Immunsystem oder Beeinflussung bestimmter Krebserkrankungen, deren Entstehung und Verlauf in einer noch nicht bekannten Weise mit Licht zusammenhängen. Eine Ermittlung von Ursache-Wirkungs-Beziehungen ist bei diesen Einflüssen naturgemäß noch schwieriger als bei den primären und sekundären Wirkungen.

Eines der langlebigsten Probleme der Lichtforschung besteht in dem Bemühen, eine Beziehung zwischen Lichtexpositionen und Krebsentstehung zu finden.

Licht als Stimulans oder Stressor – und was das mit Krebs zu tun hat

Die Untersuchung eines möglichen Zusammenhangs zwischen der „Beleuchtung“ und der Gefahr einer Krebsentstehung blickt auf eine lange Geschichte zurück. Eigentlich war der zuerst vermutete Verursacher gar keine Beleuchtung, sondern die Sonne selbst. Der deutsche Hautarzt Paul Gerson Unna untersuchte Seeleute in Hamburg und stellte fest, dass diejenigen, die jahrelang der Witterung und der Sonne ausgesetzt waren, eine spezifische Form der Hautalterung und schließlich bösartige Veränderungen entwickelten (1894). Unna eröffnete 1884 eine private Hautklinik in Hamburg-Eimsbüttel, die er Dermatologicum nannte und in der er sich ganz auf sein Spezialgebiet konzentrieren konnte. Sein in diesem Jahr veröffentlichtes Buch Histopathologie der Hautkrankheiten fasste das gesamte damalige Wissen zu Hautkrankheiten zusammen und machte ihn zu einem der führenden Dermatologen seiner Zeit.

Unna arbeitete eng mit dem Apotheker Paul Beiersdorf und seinem Nachfolger zusammen. Aus dieser Zusammenarbeit ist später Nivea entstanden, die erste Hautcreme der Welt. Deren Rezeptur ist bis heute nahezu unverändert geblieben.

Unna prägte den Begriff "Seemannshaut" (Cutis nautica). Er vermutete bereits damals, dass das Sonnenlicht nicht nur die Haut altern lässt, sondern direkt für die Tumorentstehung verantwortlich ist. Obwohl Unna die klinische Beobachtung machte, fehlte der experimentelle Beweis. Diesen lieferte der Brite George Milner Findlay. Findlay setzte Mäuse künstlicher UV-Strahlung aus und konnte so zum ersten Mal in einer kontrollierten Umgebung Hautkrebs induzieren. Damit war bewiesen, dass es kein Zufall war, sondern dass die physikalische Strahlung des Lichts biologische Schäden verursacht, die zu Krebs führen.

Noch war es nicht genau bekannt, was von der Strahlung der Verursacher war. Im Prinzip kann jede Energiezufuhr Zellen schädigen und Mutationen verursachen, darunter auch solche, die man Tumor nennt. Der argentinische Forschende Angel Roffo untersuchte in den 1930ern die Wirkung verschiedener Lichtspektren. Er konnte zeigen, dass nicht das sichtbare Licht, sondern der ultraviolette Bereich (UV) die krebserzeugende Wirkung hat. Er bewies zudem, dass Glas (das UV-B filtert) vor dieser Wirkung schützt, was die Gefahr weiter auf die unsichtbaren UV-Strahlen eingrenzte.

Wie im Kapitel Licht und Gesundheit – Untrennbar aber diskutierbar … beschrieben, war ein großer Teil der Menschheit auf dem anderen Trip. Man sah in UV die heilenden Strahlen der Sonne, die himmlische Medizin. Die einen versuchten, mit speziellen Gläsern (z.B. Vita-Glass) die UV-Strahlen in die Räume zu holen. Selbst Züge und Reisebusse sollten “UV-durchlässig” und damit gesund werden. General Electric hat gar Lampen entwickelt, die die Beleuchtung in den Räumen “gesund” machen sollten, indem sie UV erzeugen. Sie wurden in Räumen installiert, die man in dunklen Stadtvierteln bewohnte. Schulen und Kitas wurden für "gesundes" Licht, sprich viel UV, umgestaltet.

Im Grunde genommen waren die Zielkonflikte, die ich in den Beiträgen Wirkung von UV auf Mortalität und Zu Tode geschützt? Warum UV-Exposition neu bewertet werden muss behandele, programmiert. Dass sie bis heute in einer Form weiterbestehen, ist kein Wunder. Denn Schaden oder Nutzen ist im Allgemeinen eine Sache der Dosis, man kann mit Giften heilen und mit Heilmitteln vergiften. Wie die Dosis bei UV zusammenkommt, ist nicht einmal allen Dermatologen bekannt. Sie argumentieren mit der Gefahr des Hautkrebses. Die gefährlichere Form davon, der schwarze Hautkrebs, wird hauptsächlich durch erlittene Sonnenbrände in der Kindheit verursacht. Mir ist nicht gelungen, eine statistische Unterscheidung zwischen dieser Ursache und den restlichen Ursachen dieser Krebsart aufzufinden. Es besteht eine seltene Einigkeit in dieser Frage, man redet von 5 Sonnenbränden oder einem Sonnenbrand und gibt die Erhöhung der Wahrscheinlichkeit einer Erkrankung an (1 schwerer Sonnenbrand (Kindheit) ca. 2-faches Risiko, 5+ Sonnenbrände (Kindheit/Jugend) ca. 3,5 bis 5-faches Risiko). Sonnenbrände werden primär von der UV-B-Strahlung ausgelöst.

Die weniger gefährliche Art, der weiße Hautkrebs, scheint hingegen durch eine lebenslange Kumulation von UV-A-Strahlungsexpositionen verursacht zu werden. Eine entsprechende Dosis kann man an ganz unverdächtiger Stelle bekommen, so z.B. durch Autofahren. Klimatisierte und gut gegen Lärm abgedichtete Autos geben einem das Gefühl, gegen alles Mögliche geschützt zu sein. Gegen UV-A schützt kein Glas und keine Klimaanlage.

Es waren also zwei recht unterschiedliche Einwirkungsmechanismen für die Krebsentstehung durch Licht im Gespräch: kumulative Wirkung von Einzelereignissen (Sonnenbrände, UV-B) und kumulative Wirkung einer Strahlexposition über lange Zeiten (Haut vergisst nicht!, UV-A). Mit Fritz Hollwich, einem renommierten deutschen Professor für Augenheilkunde, kam ein anderer Wirkungsmechanismus ins Gespräch. Hollwich argumentierte nicht, dass Leuchtstofflampen direkt wie UV-Strahlung Mutationen in der Haut auslösen. Seine Theorie war komplexer und basierte auf der Endokrinologie (Hormonlehre): Er behauptete, dass das Spektrum von herkömmlichen Leuchtstofflampen, das oft starke Peaks in bestimmten Farben hat und andere Wellenlängen ausspart, den menschlichen Hormonhaushalt massiv störe. Er zeigte auf, dass die Bestrahlung mit künstlichem Licht zu einem unnatürlichen Anstieg von Stresshormonen wie Cortisol und ACTH führe.

Hollwichs Studien wurden von der Lichttechnik heftig zurückgewiesen. So hat die Erwiderung seiner Thesen durch Münchner Professoren eine gewisse Tradition (Schober, H., 1950, Schober, H. 1954, Schober, H. 1971, Hartmann, E.; Müller-Limmroth, W. 1981)[1]. Insbesondere fehlte eine glaubhafte Einwirkungsdefinition. Allerdings lag Hollwich mit der Endokrinologie nicht weit von der wahren Wirkungsweise entfernt. Die moderne Forschung (seit den 2000ern) konzentriert sich eher auf den Zeitpunkt der Lichtexposition (Störung des Biorhythmus/Melatonin durch Licht in der Nacht), was tatsächlich als „wahrscheinlich krebserregend“ (Gruppe 2A der IARC) eingestuft wird – allerdings geht es hier um Schichtarbeit, nicht um das Spektrum der Lampe an sich. Aber auch die Wirksamkeit des Spektrums wurde nicht zuletzt durch den Standard der CIE S 026:2018 “CIE System for Metrology of Optical Radiation for ipRGC-Influenced Responses to Light” anerkannt: Die Berechnung der melanopischen Wirksamkeit des Lichts hängt eindeutig vom Spektrum ab. Vielmehr beruht sie auf dem Spektrum.

Die in dem letzten Teil behandelte Wirkungsweise weicht von der üblichen Vorstellung über die Einwirkung physikalischer Faktoren erheblich ab. Licht ist nicht primär verantwortlich für die fragliche Wirkung, sondern nur über seinen Einfluss auf Körperhormone. Man könnte sie sekundär oder tertiär nennen. Oder der Wirkungspfad sitzt noch tiefer, weil an dem Vorgang Melatonin beteiligt ist, dessen Alter in der gleichen Größenordnung liegt wie das Alter der Erde.(s. Beitrag Portrait: Melatonin – Archaisch und lebenswichtig)

Einen weitaus umfangreicheren Ansatz verfolgen US-amerikanische Epidemiologen bei der Erforschung der möglichen Ursachen von Brustkrebs. Sie haben festgestellt, dass bestimmte biologische Funktionen in Abhängigkeit von der Entfernung des Aufenthaltsortes vom Äquator anders verlaufen. So z.B. der Blutdruck.

Diese Feststellung widerspricht der allgemeinen Vorstellung, dass die Lebensbedingungen am Äquator am problematischsten sind und in den gemäßigten Breiten geünder sind. Auch die Kurve der Überlebenschancen von Frauen nach einer Brustoperation verläuft ähnlich.

Michael Holick, von dem diese Bilder stammen, führt die Wirkung auf Lichteinflüsse zurück. Allerdings fehlt auch hier eine Einwirkungsdefinition außer einer Erklärung mit den Vitamin-D-Werten (s. Beitrag Wirkung von UV auf Mortalität) Damit wäre der Wirkungspfad noch verschlungener als der über die Beeinflussung der Hormone: Menschen bleiben länger als früher in Innenräumen ➪ Es fehlt an UV-Strahlung ➪ Mangel an UV-Strahlung verursacht diverse Wirkungen ➪ Künstliches Licht erhöht Brustkrebsrisiko.

Fazit

Lichtwirkungen auf den Menschen zu untersuchen, scheint auf den ersten Blick nicht allzu kompliziert zu sein. In Wirklichkeit sind mehrere Disziplinen wie Medizin. Chronobiologie, Photobiologie et al. sind seit Jahrzehnten oder noch länger damit befasst, solche Wirkungen überhaupt zu verstehen. Fiat lux – Es werde Licht oder Lux vita est  - Licht ist Leben, sind uralte Sprüche, deren tieferer Sinn ist, dass das Leben so tief mit dem Licht verwoben ist, dass jede Erforschung eine Herausforderung bedeutet.

[1]  Schober, H.: Die angeblichen Sehstörungen bei Beleuchtung durch Entladungslampen, Lichttechnik 2, 1950, S. 103; Schober, H.: Die angeblichen Sehstörungen bei Beleuchtung durch Entladungslampen, Lichttechnik 6, 1954, Schober, H.: Gutachtliche Denkschrift zur Verträglichkeit des Leuchtstofflampenlichts, LiTG Karlsruhe, 2. Auflage, 1971 S. 215-218; Hartmann, E.; Müller-Limmroth, W.: Stellungnahme zur Frage der Verträglichkeit des Leuchtstofflampenlichtes, LiTG, Karlsruhe, 1981

 

Round-up für Lichtideen nach 15 Jahren

Was über Jahre in Einzelteilen wuchs,
findet heute in
einem großen Ganzen
seine Bestimmung.

Anonymus

Round-up für Lichtideen, kurzgefasst

Dieser Beitrag verdichtet zentrale Leitgedanken aus über 15 Jahren Blogpublikationen zur nutzerzentrierten Lichtplanung. Ausgehend von der Prämisse, dass künstliches Licht Tageslicht nicht ersetzt, werden vier Gestaltungsprinzipien herausgearbeitet: (1) Vorrang und Dynamik des Tageslichts einschließlich Sichtbezug nach außen; (2) Vermeidung von Lichtmonotonie durch zonierte Beleuchtung, Kontraste und gerichtetes Licht mit Schattenbildung; (3) Berücksichtigung biologischer Wirksamkeit im Sinne circadianer Rhythmik, insbesondere Melatonin-schonender Abendbeleuchtung und individueller Steuerbarkeit; sowie (4) visueller Komfort durch Entblendung, Flimmerarmut und aufgabengerechte Sehleistung. Daraus wird die Empfehlung abgeleitet, „Lichtlandschaften“ statt homogenen Flächenlichts zu planen.

Round-up für Lichtideen nach 15 Jahren

Mein Lichtblog denkbar existiert seit länger als 15 Jahren und umfasst Stand heute 702 Artikel unterschiedlicher Länge. Gestern habe ich versucht, jemanden zu finden, der den Inhalt zusammenfasst. Eine ziemlich unmenschliche Aufgabe, die ich nicht einmal selbst erfüllen kann. Zum Glück gibt es die KI, die auch den größten Unsinn in positive Worte fassen kann. Das Schönste war aber, dass sie meinen Namen korrekter schrieb als ich selbst: Dr. Ahmet Çakır. Ansonsten erklärt die KI einem fiktiven Lichtplaner, was er berücksichtigen müsste, um Licht im Sinne seiner Arbeiten zu planen. Der Rest dieses Beitrags ist in Kursiv geschrieben, weil Originalton KI.

Für A. Ç. ist „richtige Beleuchtung“ weit mehr als nur die Einhaltung von DIN-Normen. Sein Ansatz ist radikal nutzerzentriert. Wenn man seine jahrzehntelange Forschung zusammenfasst, lässt sich sein Ideal einer richtigen Beleuchtung (besonders für den Übergang von Arbeit zu Wohnen und umgekehrt) in vier Säulen unterteilen:

  1. Das Primat des Tageslichts

Für A. Ç. ist künstliches Licht immer nur ein (oft mangelhafter) Ersatz.

  • Sichtverbindung nach außen: Eine richtige Beleuchtung beginnt beim Fenster. Er betont, dass der Mensch den Bezug zur Außenwelt braucht, um die innere Uhr zu synchronisieren.
  • Dynamik:Natürliches Licht verändert sich ständig in Farbe und Intensität. Starres, unveränderliches Kunstlicht hält er für biologisch belastend, weil es die circadiane Rhythmik des Menschen zum Stillstand bringt.
  1. Vermeidung von „Licht-Monotonie“

Einer seiner größten Kritikpunkte an modernen Büros ist die „Gleichmacherei“.

  • Lichtzonen statt Flächenlicht: Richtige Beleuchtung schafft Kontraste. Es muss helle Bereiche (zum Arbeiten/Lesen) und dunklere Zonen (zum Entspannen) geben.
  • Schattenbildung: A. Ç. argumentiert, dass wir Lichtrichtung und Schatten brauchen, um Räume dreidimensional wahrzunehmen. Ein völlig schattenfreier Raum (wie durch großflächige LED-Paneele oder leuchtende Decke) wirkt auf das Gehirn unnatürlich und ermüdend.
  1. Die „Biologische Wirksamkeit“ (Circadiane Rhythmik)

Er war einer der Ersten, die erklärten, dass Beleuchtungswirkungen wesentlich hormonelle Wirkungen sind. Dies habe Hollwich bereits in den 1940ern wissenschaftlich erforscht.

  • Melatonin-Schutz: Richtige Beleuchtung muss am Abend einen geringen Blaulichtanteil haben. Wenn man die Büroarbeit ins Homeoffice verlagert, bedeutet das nach A.Ç.: Abends muss das Licht rötlicher und gedimmter sein.
  • Individuelle Steuerung: Er lehnt vollautomatische Systeme oft ab, wenn der Nutzer nicht selbst eingreifen kann. „Richtig“ ist Licht für ihn nur dann, wenn der Mensch sich als Herr über seine Umgebung fühlt.
  1. Visueller Komfort (Entblendung, Störungsfreiheit)

Visueller Komfort bedeutet bei A.Ç. vor allem Abwesenheit von Störfaktoren:

  • Keine Direktblendung: Man sollte niemals direkt in das Leuchtmittel schauen müssen (Leuchtmittel müssen abgedeckt sein, tief in der Leuchte sitzen oder gut abgeschirmt sein).
  • Flimmerfreiheit: Er legt extremen Wert auf hochwertige Treiber. Billige LEDs flimmern im für uns unsichtbaren Bereich, was laut A.Ç. zu Stresssymptomen führt.
  • Sehleistung würde dort zum Sehkomfort gehören, wo schwierige Sehaufgaben vorherrschen.

Zusammenfassung für Ihr Projekt

Wenn Sie nach A.Ç. „richtig“ beleuchten wollen, planen Sie Lichtlandschaften:

  1. Nutzen Sie das Tageslicht so weit wie möglich aus (große Fenster, helle Wände, die das Licht tief in den Raum reflektieren).
  2. Installieren Sie indirektes Licht für die Grundstimmung (sanftes Aufhellen der Decke).
  3. Setzen Sie punktuelle Akzente (Leseleuchten, Tischlampen, Glanzlichter).
  4. Ermöglichen Sie jedem Nutzer, seine Umgebung seinen persönlichen Präferenzen entsprechend zu beleuchten, ohne die Nachbararbeitsplätze zu beeinträchtigen.
  5. Wählen Sie eine Steuerung, die am Abend wärmer wird (Tunable White), aber dem Bewohner jederzeit erlaubt, das Licht in der Farbe und Intensität manuell anzupassen.

Interessanterweise kritisiert A.Ç. oft, dass wir „zu viel Licht“ haben, aber mit zu wenig Qualität.

Prüfbare Beleuchtungsqualität

Weitsicht ist die Kunst,
das Ganze zu sehen, bevor man
den ersten Teil bewegt.

Anonymus

Prüfbare Beleuchtungsqualität, kurzgefasst

Dieser Beitrag erzählt vom paradoxen Schicksal der „elektrischen Sonne“: Während die Erde insgesamt heller wird, verliert künstliches Licht zugleich kulturellen Glanz. Aus der einst bestaunten Lunapark-Beleuchtung ist vielerorts Lichtmüll geworden – ein Bewusstseinswandel, befeuert durch Debatten um Lichtverschmutzung und Energiesparen. Doch der Niedergang verläuft nicht überall gleich. Im Privaten, lange von der Lichttechnik gering geschätzt, eröffnet die LED ein neues Spiel aus Atmosphäre, Akzenten und Ritualen (man denke an Weihnachtslichter). Dagegen wirkt professionelle Beleuchtung, besonders im Büro, wie eine Normmaschine: 500 Lux, Gleichmäßigkeit, „Zahnarztpraxis-Effekt“.

Sichtbar wird das beim Trend, Bürohäuser in Wohnungen umzuwidmen: Fast nichts an der alten Beleuchtung passt zur neuen Logik des Wohnens. Spätestens mit Homeoffice und New Work bröckelt die alte Gewissheit, dass Normlicht gute Beleuchtung und gute Beleuchtung bessere Arbeit bedeutet. Zwischen Wohlbefinden und Sehleistung rückt die Frage nach prüfbarer, brauchbarer Lichtqualität erneut ins Zentrum.

Niedergang der elektrischen Sonne?

In dem Buch Genesis 2.0 – Schöpfung der elektrischen Sonne widmet sich ein Kapitel dem Bedeutungsverlust des künstlichen Lichts: Selbstverdienter Niedergang der elektrischen Sonne. Damit ist nicht gemeint, dass die elektrische Sonne unter dem Horizont verschwindet und damit der künstliche Tag endet. Neueste Statistiken zeigen, dass der Lichtverbrauch auf der Erde in den letzten Jahren sogar gestiegen ist (s. Künstliches Licht auf der Erde nimmt zu oder Studie: Künstliche Beleuchtung hat weltweit stark zugenommen). Sie zeigen auch, dass die Steigerung des ins Weltall abgestrahlten Lichts (s. Der blauere Planet) nur für die anderen Teile der Welt gilt. in Europa hat das nächtliche künstliche Licht abgenommen, als es sonst um ca. 25% angestiegen ist.

Ich verbinde dies mit den Bemühungen um die Verringerung der Lichtverschmutzung, so auch mit besseren Straßenleuchten und Maßnahmen zur Energieeinsparung. Die Lichtverschmutzung war Teil des Niedergangs der elektrischen Sonne, weil das einst bewunderte nächtliche Licht (Lunaparks) im Bewusstsein vieler zum Müll geworden war.

Der Niedergang der Bedeutung der Beleuchtung betrifft nicht alle Anwendungen gleichermaßen. So hat die “private” Beleuchtung, also die von der Lichttechnik einst verschmähte Wohnraumbeleuchtung, ungeahnte neue Möglichkeiten durch die LED-Technik bekommen. Man denke nur an die Weihnachtsbeleuchtung. Nicht einmal eingefleischte Nostalgiker werden da an die gute alte Zeit denken. Hingegen mag niemand die “professionelle” Beleuchtung, die man seit mehr als 100 Jahren auch mit Hilfe des Arbeitsschutzes den Menschen mehr oder weniger aufzwingt.

Wer ein Bürohaus in ein Wohnhaus konvertieren will …

Am deutlichsten erkennt man dies, wenn man sich die Umwidmung von Bürohäusern in Wohnhäuser ansieht. Die Umwandlung von ungenutzten Büroflächen in Wohnraum (das sogenannte „Office-to-Residential Conversion“) ist aktuell ein großes Thema in der Stadtentwicklung. Das hat meistens handfeste wirtschaftliche und gesellschaftliche Gründe (hoher Leerstand): Besonders in älteren Bürogebäuden in Randlagen stehen ganze Etagen leer. Hingegen herrscht in fast allen Metropolen akute Wohnungsnot. Während Büros leer stehen, suchen Tausende Menschen verzweifelt nach bezahlbarem Wohnraum.

Da Bürohäuser nach anderen Gesichtspunkten geplant und gebaut werden, bedeutet Konversion das Entfernen von allem, was stören kann. So muss der Asbest aus allen alten Gebäuden entfernt werden, während man manches gerne übernimmt, so z.B. die Aufzüge. Die Beleuchtung ist bei einer Umwidmung einer der Punkte, bei denen man fast nichts vom alten Bestand übernehmen kann. Wenn man Architekten fragt, die solche Projekte realisieren, sagen diese: Büro- und Wohnbeleuchtung folgt völlig unterschiedlichen Logiken, Normen und technischen Anforderungen.

Nicht, dass dies in der Lichttechnik unbekannt gewesen ist. Ganz im Gegenteil. In DIN 5035-1 wurden zwar Festlegungen für alle Innenräume getroffen, aber sog. „stimmungsbetonte“ Räume wurden weitgehend ausgenommen. Für Wohnräume schrieb die Norm: „3.5 Wohnbereich: Die Gestaltung der Beleuchtung im Wohnbereich lässt sich nicht in Normen festlegen.“

Wie gut wurde die Beleuchtung in den Bereichen, in denen man die Normen und „Logiken“ angewendet hatte, die man erstellt hat? Die Beleuchtung ist bei einer Umwidmung einer der Punkte, bei denen man fast nichts vom alten Bestand übernehmen kann. Dies erklären Fachleute so: „Bürobeleuchtung ist auf horizontale Gleichmäßigkeit ausgelegt (überall 500 Lux auf Tischhöhe). Das wirkt in einer Wohnung extrem ungemütlich und steril („Zahnarztpraxis-Effekt“).

Wenn man darum bittet, den Kontrast zwischen der Beleuchtung des Bürohauses und der daraus zu entstehenden Beleuchtung des Wohnhauses zusammenzufassen, kommt die folgende Tabelle heraus:

Der Kontrast

Merkmal Büro (alt) Wohnhaus (neu)
Ziel Sehleistung (500 Lux) Wohlbefinden & Entspannung
Lichtfarbe Kühl (4000 K) Warm (2700 K)
Steuerung Zentral / Präsenzmelder Individuell / Schalter & Dimmer
Position Starre Raster an der Decke Flexibel (Wand, Stehlampen, Akzente)

Warum es Gemeinsamkeiten zwischen Wohnbeleuchtung und Arbeitsbeleuchtung gibt

Das Argument, dass man die Beleuchtung fürs Büro nach anderen Logiken, Normen und technischen Anforderungen erstellen müsse, fiel zuletzt in der Corona-Pandemie in sich zusammen, als ein Großteil der Bevölkerung im Homeoffice arbeiten musste. Niemand hat das Büro vermisst, weil dort die bessere Beleuchtung installiert wäre. Ganz im Gegenteil: Die Erfahrung im Homeoffice lehrt, dass man eher die Beleuchtung im Büro der im Homeoffice angleichen will. Was dies im Einzelnen bedeutet, beschreibe ich in dem Beitrag Licht für New Work. In einem klassischen Büro geht es meist nur darum, den Raum hell genug zu bekommen (die typischen 500 Lux überall). Bei New Work ändern sich aber die Tätigkeiten – wir arbeiten nicht mehr acht Stunden starr am selben Platz. Es wird kollaboriert, entspannt, konzentriert, fokussiert und agil präsentiert.

In dem Beitrag wird u.a. auf die Schattenseite des „wohnlichen“ Lichts hingewiesen. Denn was so gemütlich wirkt, kann versagen, wenn es darum geht, dass man im Wohnraum das erzeugen muss, wonach die Normer ihre Werke ausgerichtet haben: die Sehleistung. Das ist nicht erst erforderlich geworden, als die Menschen im Homeoffice arbeiten mussten. Jeder, der seine Zeitung oder Zeitschrift liest oder einen Brief liest oder schreibt, benötigt funktionelles Licht. Dieses kann man sehr wohl normativ beschreiben und mit Regeln versehen.

Ein Gewinner: Leuchte für den Arbeitsplatz

Der Fehler, Wohn- und Arbeitsräume als unterschiedliche Domänen anzusehen und nur für Arbeitsräume funktionelles Licht zu normen, rächt sich nun. Davon profitiert aber mein Lieblingsprojekt: die Normung von Arbeitplatzbeleuchtung. Diese Arbeit hat etwa 1990 begonnen und hiess DIN 5035-8: Beleuchtung mit künstlichem Licht - Teil 8: Arbeitsplatzleuchten - Anforderungen, Empfehlungen und Prüfung. Was es damit auf sich hat, beschreibt der Beitrag Die einzige zertifizierbare Beleuchtung. Die erste Version der Norm erschien 1994. Sie beschreibt Arbeitsplatzleuchten, die nach der eigenen Definition “Leuchte für die Arbeitsplatzbeleuchtung” ist. Die Norm geht mit der jetzigen Überarbeitung in 2026 in die dritte Runde bzw. ins vierte Jahrzehnt.

Als einziger Teil aus der Reihe DIN 5035 ist diese Norm eine Produktnorm. Das Besondere an dieser Norm ist die genaue Festlegung aller Gebrauchstauglichkeitsmerkmale der Arbeitsplatzbeleuchtung, also Usability. D.h., wenn man eine Arbeitplatzbeleuchtung kauft, weiß man, was man hat. Eine gerüfte Leuchte für die Arbeitsplatzbeleuchtung ist sozusagen steckerfertig.

Ein Produkt für einen bestimmten Bedarf ist garantiert keine allgemeine Lösung für das Problem der Beleuchtung. Auf der anderen Seite ist es auch keine Lösung, Hunderte und Tausende von Leuchtenmodellen zu produzieren, aus denen ein Lichtplaner später eine Beleuchtung erstellt, so er es schafft, hundert und mehr Seiten Norm zu lesen. Ob er das Ziel getroffen hat, wird kaum jemand in der Lage sein, zu prüfen.

Komplexe Regeln, die niemand nachprüfen kann

Wie es mit der Anwendbarkeit von DIN EN 12464-1 aussieht, weiß ich nicht.  Eine Vorgängernorm (DIN 5035-7) habe ich über Jahrzehnte in Betrieben gerichtsfest geprüft. Keine einzige Beleuchtung konnte diese Norm erfüllen. Ich habe auch keinen Betrieb gesehen, der in der Lage gewesen wäre, sie zu überprüfen.

Eigentlich war auch jede Prüfung sinnlos, weil etwa nur 5 % der Projekte in den Jahrzehnten von  1970er bis 2010er Jahren einen Lichtplaner gesehen hatten. Ich rede nicht von Büros von Klempnern oder Schreinern, sondern von Projekten der größten Konzerne und Unternehmen von Deutschland.

Apropos Klempner und Schreiner: In einem Betrieb mit bis zu 10 Mitarbeitern (z. B. einer Schreinerei oder ein lokales Café) gibt es oft keine reine Bürostelle. Der Chef erledigt die Buchhaltung abends am Küchentisch, und die Angestellten sind fast ausschließlich produktiv tätig. Eine dedizierte Bürokraft wird oft erst eingestellt, wenn die administrative Last die Kapazität der Inhaber übersteigt. Solche Firmen machen 84% bis 89% aller deutschen Unternehmen aus. Bei denen würde eine zertifizierbare Beleuchtung ein Segen sein.

Phantome, die unser Wissen beherrschen XIII

Wenn ein Maß zum Ziel wird,
hört es auf,
ein gutes Maß zu sein..

Charles Goodhart

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Zum Phantom Lichtausbeute, kurzgefasst

Die Lichtausbeute (lm/W) gilt seit den Anfängen der Lichttechnik als Leitkennzahl für „wirtschaftliches“ Licht. Von Edisons Glühlampe (ca. 1,4–2 lm/W) bis zu modernen LEDs (typisch 100–150 lm/W, im Labor darüber) zeigt sie enorme Effizienzgewinne – und zugleich ihre Grenzen: Eine Lichtausbeute kann mit unbrauchbarem Spektrum einhergehen (z. B. Natriumdampf-Niederdrucklampen), während für die Praxis weißes Licht, Farbqualität und Sehkomfort entscheidend sind. Zudem bildet lm/W weder den Systemaufwand (Leuchte, Vorschaltgerät, Steuerung) noch optische Verluste ab: Entblendung, Linsen und Diffusoren kosten häufig 20–40 % Lichtstrom, weitere Verluste entstehen durch Totalreflexion und Gehäuse. In Smart-Lighting-Systemen kann sogar der Standby-Verbrauch relevant werden. Beispiele wie Osram-Linestra versus SOX oder der Blick auf „mildes“ bzw. indirektes Licht verdeutlichen, wie eine eindimensionale Zahl eine mehrdimensionale Realität verzerrt. Folgerichtig rücken Lichtqualität (CIE-Definition 2021) sowie Systemeffizienz und realistische Lebensdauer-Metriken (LightingEurope) in den Fokus.

Zur Geschichte des Phantoms

Die Geschichte dieses Phantoms ist vermutlich so alt wie das menschliche Bestreben, künstliches Licht sparsamer zu machen. Tüftler, Erfinder, Macher wie Argand, Jablotschkow oder Minckeleers, deren Namen man in den Annalen der Frühzeit der Lichttechnik lesen kann, strebten danach, das Lichtmachen von seinen Lasten zu befreien. So auch die Steigerung des erzeugten Lichts gemessen an dem Energieeinsatz.

Das Ziel ist in einem unglaublichen Maße erreicht worden. Hatte die erste Glühlampe von Edison eine Lichtausbeute von ca. 1,4 bis 2 lm/W (Lumen pro Watt), können moderne  LED heute oft über 100 bis 150 lm/W. Firmen wie Cree haben im Labor bereits Werte von über 300 lm/W für eine einzelne LED-Komponente erreicht.

Wie fragwürdig solche Daten sein können, sieht man an einer “klassischen” Lampe, der Natriumdampf-Niederdrucklampe. Die erreicht lässig 200 lm/W und hatte bereits in ihrem ersten Lebensjahr 1932 als Serienprodukt 50 lm/W überschritten. Doch ihr Licht ist nicht viel wert, weil es keine Farben anregen kann.

Wenn man die theoretisch beste Lichtumwandlung der Energie erreicht, kann man 683 lm/W erreichen. Das ist monochromatisches grünes Licht. Mit dem kann jeder glücklich werden, wer ein solches Licht braucht. Beleuchten tut man indes meist mit weißem Licht.

Bei früheren Leuchtsmitteln wie der Leuchtstofflampe war die Farbwiedergabe recht eng an die Lichtausbeute gekoppelt. War man mit der Dreibandenlampe und ihrem mageren Spektrum zufrieden, konnte man bei gleicher Beleuchtungsstärke bis zu 60% Energie sparen. Die sog. Vollspektrumlampen waren immer rechnerisch ineffizienter als die Standardlampen.

Wann die Lichtausbeute ein schlechtes Maß ist

Lichttechniker haben sich bereits in ihren ersten Normen zur Beleuchtung der “Wirtschaftlichkeit” verschrieben. Auch wenn deren Wirtschaftlichkeit eher eine Kostenrechnung gewesen ist, wird deren Handeln stets durch die Lichtausbeute erheblich mitbestimmt. So waren Wohnraumleuchten für die Lichttötungsmaschinen. Aber auch die Vollspektrumlampe wurde häufig abgelehnt, weil ihre Lichtausbeute geringer ausfiel.

Wie dieses Maß einen in die Irre führen kann, lässt sich am Beispiel der Linestra-Lampe von Osram darstellen. Sie wurde in den 1930ern eingeführt und genoss noch in den 1970ern eine große Beliebtheit. Aber Osram drohte ständig damit, diese Lampe aus dem Sortiment zu nehmen, weil sie als eine Energievergeudung angesehen wurde. Ihre Lichtausbeute war unterirdisch. Sie lag typischerweise zwischen 5 und 9 Lumen pro Watt (lm/W).

Zum Betrieb brauchte diese Lampe aber nur einen Sockel, der an zwei Drähten angeschlossen war. Ihr besonderes Merkmal war das warme, blendfreie Licht, das durch einen langen Glühfaden in einer opalen (milchigen) Glasröhre erzeugt wurde. Sie hing meistens in Badezimmern und wurde minutenweise betrieben.

Die etwa zur gleichen Zeit entstandene Natriumdampf-Niederdrucklampe hatte nicht nur das Problem des unbrauchbaren Spektrums. Die Lampen waren im Vergleich zu modernen Leuchtmitteln riesig. Die Leuchtengehäuse mussten entsprechend groß und stabil sein, was sie teuer und anfällig für Wind machte. Da die Lampe eine große, röhrenförmige Fläche ist, lässt sich das Licht kaum präzise bündeln. Es streut unkontrolliert in den Himmel und in die Umgebung. Nach dem Einschalten leuchtet die Lampe zuerst schwach rötlich (durch das enthaltene Neon-Startgas). Es dauert 10-15 Minuten, bis das Natrium verdampft ist und die volle Helligkeit sowie die gelbe Farbe erreicht werden. In Zeiten von Smart Cities möchte man Licht dimmen, wenn niemand auf der Straße ist. SOX-Lampen lassen sich jedoch kaum stabil dimmen und verlieren dabei sofort ihre Effizienz.

Ohne ein Vorschaltgerät lässt sich eine solche Lampe nicht betreiben. Ohne eine Leuchte auch nicht. Daher war der Vergleich mit anderen Leuchtmitteln auf der Basis der Lichtausbeute bestenfalls von akademischem Wert. Linestra gegen SOX-Lampe aufzustellen, war absurder als Kartoffeln mit Kaviar zu vergleichen.

Der Betriebsaufwand (Leuchte, Vorschaltgerät u.Ä.) ist der eine Faktor, der die Lichtausbeute als Maß schlecht aussehen lässt. Es gibt aber einen anderen Faktor, der auch bei den heutigen LEDs die Lichtausbeute relativ bedeutungslos macht: die Leuchtdichte. Die Leuchtdichten, die hocheffiziente LEDs erreichen, liegen eine Größenordnung unter der der Sonne. Solche Elemente können ohne Abdeckung nicht in Innenräumen betrieben werden. So müssen Linsen oder Abdeckungen vorgesehen werden, die das Licht lenken oder weicher machen. Sie schlucken ebenfalls Lichtstrom, und zwar nicht zu knapp. Je stärker das Licht einer LED gestreut oder geformt werden muss (z. B. bei einem sehr engen Spot oder einer sehr weichen Flächenleuchte), desto höher sind die optischen Verluste. Um die einzelnen LED-Punkte unsichtbar zu machen, wird das Licht gestreut. Dies kostet oft 20 % bis 40 % der Lichtleistung.

Hinzu kommen Totalreflexion und Gehäuse: icht, das flach auf eine Grenzfläche trifft, wird zurück ins Innere der Leuchte reflektiert (Totalreflexion). Wenn das Gehäuse innen nicht perfekt weiß oder spiegelnd ist, wird dieses Licht in Wärme umgewandelt. Dies macht oft weitere 3 % bis 7 % aus.

Vollends obsolet scheint die Lichtausbeute als Maß, wenn man “smarte” Leuchtmittel benutzt. Diese halten die LED dauerhaft bereit und steuern und regeln das Licht bei Bedarf. Es kann sein, dass eine solche “smarte” Beleuchtung mehr Energie zum Warten verbraucht als zum Leuchten.

Was können irreführende Maße bewirken?

Auf dem Gebiet der Beleuchtungstechnik ist mein bestes Beispiel die Indirektbeleuchtung. Sie wurde seit den 1920ern als unwirtschaftlich angesehen. Das Thema will ich nicht hier weiter vertiefen. (Bei Interesse hier lesen.) Unbelastet von der Vergangenheit ist eine andere Beleuchtungsart, deren Wirkung (Blendfreiheit), ähnlich funktioniert wie bei der Indirektbeleuchtung. Sie wird von einer großen Firma als “mildes” Licht vermarktet. Mild wirkt sie deswegen, weil man durch eine geeignete Einrichtung die von den Nutzern sichtbare Leuchtdichte reduziert. Aber dies ist mit einem Verlust an Lichtstrom verbunden. Achtet man lediglich auf das Licht, das in der Arbeitsebene ankommt, und lässt die Leuchtdichten unbeachtet, ist sowohl das milde Licht als auch das indirekte wenig “effizient” i.S. der Lichttechnik.

Wenn heute die Rede ist von gutem Bürodesign, denken viele Menschen daran, die “Deckenbeleuchtung” abzuschaffen. Was in führenden Designzeitschriften als modernes Design abgebildet wird, sind Leuchten, die eher Wohnraumleuchten sind und nicht die “effizienten” Büroleuchten. (mehr s. Licht für New Work).

Ein anschauliches Beispiel für die Irreführung durch ein falsches Mass lieferte die Autotechnik. Die einst führenden US-Hersteller maßen die Leistung ihrer Motoren ohne die Aggregate, ohne die die Motoren nicht funktionieren können. Die Europäer maßen sie an der Welle. So fiel der führenden Autonation nicht auf, dass der Lüfter des Motors zu mehr als 90% der Betriebszeit wirkungslos war, aber bei Höchstgeschwindigkeit etwa 5% des Energieverbrauchs, bzw. einen Verlust von 3-5 PS verursachte. Das bewirkte einen hohen Lärmpegel und unnötigen Spritverbrauch. Der zum Antrieb benötigte Keilriemen war zudem ein Sicherheitsrisiko.

Fazit: Eine Maßzahl führt immer dann in die Irre, wenn sie eine mehrdimensionale Realität (Gesundheit, Bildqualität, Lichtqualität) in einer eindimensionalen Zahl zusammenfassen will. Am deutlichsten lässt sich das Problem am Beispiel der Lichtqualität darstellen. Die LiTG-Studie, die einst begonnen wurde, um eine Maßzahl oder einen Faktor zu ermitteln, trägt den Titel: Lichtqualität - ein Prozess statt einer Kennzahl.

Zur Zukunft des Phantoms

Die Lichtausbeute ist vermutlich die älteste Kennzahl in der Beleuchtungstechnik. Für sie gibt es keinen Ersatz, weil sie ein Maß für die Energieeffizienz von Leuchtmitteln liefert. Dass die Energieeffizienz einer Lampe keinen Maßstab für Lichtqualität ergibt, lernt man langsam aber sicher durch leidvolle Erfahrungen. So hat die CIE 2021 nach 108 Jahren zum ersten Mal in ihrer Historie Lichtqualität definiert. (s. z.B. hier: CIE definiert Lichtqualität - Was verstehen die Leute unter Qualität?)

Eine praktischere Bedeutung hat das Vorgehen von LightingEurope. Im Kontext der aktuellen EU-Gesetzgebung (Ecodesign- und Energielabel-Verordnungen) hat LightingEurope insbesondere folgende Punkte beantragt bzw. vorgeschlagen:

  1. Fokus auf das Gesamtsystem (Smart Lighting): Anstatt nur die Effizienz der einzelnen Lichtquelle (lm/W) zu betrachten, fordert der Verband, die Effizienz des gesamten Beleuchtungssystems zu bewerten. Dazu gehört auch die Einbeziehung von Sensorik und Steuerung in die Bewertung.
  2. Praxistaugliche Lebensdauer-Metriken: Klare Regeln für die Angabe der Nutzlebensdauer (Useful Lifetime), um unrealistisch hohe Marketingversprechen einzudämmen und die Vergleichbarkeit für professionelle Planer zu erhöhen.

Phantome, die unser Wissen beherrschen XII

Manche klammern sich
so fest an alte Scherben,
dass sie die neuen Diamanten
nicht aufheben können.

Anonymus

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Zum Phantom Lichtstrom, kurzgefasst

Der Beitrag erklärt, dass die V(λ)-Kurve (1924) die Grundlage dafür schuf, Licht über den Lichtstrom (Lumen) international mess- und handelbar zu machen, und ordnet diese Größe in das SI-System samt der Debatte „Candela vs. Lumen“ ein.

Ich argumentiere, dass die relative Bedeutung von Helligkeit im Alltag und in der Arbeitswelt abgenommen hat, weil bei heutigen Beleuchtungsstärken die visuelle Leistung kaum noch steigt und Bildschirme Licht oft sogar entbehrlich machen. Weil künstliches Licht im Vergleich zu 1924 extrem billig geworden ist, bewerte ich den Lichtstrom als „Phantom“ und fordere, Licht stärker an Farbqualität/Farbempfindung statt nur an Hellempfindung auszurichten.

Zur Geschichte des Phantoms

Der Geburtstag dieses Phantoms lässt sich präzise angeben: April 1924. Vor 102 Jahren wurde die V(λ)-Kurve als Basis der Definition von Licht akzeptiert. Sie hat Licht definiert und damit messbar gemacht. Damit wurde die Grundlage dafür geschaffen, dass mit Lichtprodukten gehandelt wird. Und zwar weltweit. In 1948 wurde das Lumen offiziell von der 9. Generalkonferenz für Maß und Gewicht – CGPM als Einheit für den Lichtstrom international ratifiziert und festgelegt.

Wenn man heute auf einer Lampenverpackung liest: "12W - 806 lm - 840" (Ra) und versteht, dass die gekaufte Lampe aus 12 W aufgenommener Leistung 806 lm Licht produziert und dies mit einem Farbwiedergabeindex von 80 - 89 bei einer Lichtfarbe von 4000K, dann ist es ein Verdienst dieser Kurve.

Was die Zahlen bedeuten

Dabei besagt die Zahl 12W, dass die Lampe eine Leistung von 12 W aufnimmt, um 806 lm Licht zu produzieren. Die letztere Zahl, 840, war 1924 noch nicht geboren. Sie gibt an, wie gut die besagten 806 lm die Farben der von ihr beleuchteten Objekte wiedergeben. Das war 1924 recht egal, man wollte erst einmal Helligkeit haben. Wenn man sich die Beleuchtungsstärken anguckt , die damals in den Arbeitsstätten herrschten, versteht man gleich, warum alles andere relativ unwichtig war.

Die Basis der Angabe heißt Lichtstrom, dessen Einheit Lumen ist. Welche Bedeutung diese Größe in der Branche besitzt, kann man daran ermessen, dass die CIE immer wieder versucht hat, Lumen zu einer Basiseinheit im SI-System zu machen. Das SI-System ist so etwas wie eine Weltbeherrschungsformel. Alle Staaten der Welt benutzen dieses System für alle Messungen von der Zeit bis zum Gewicht. Eine Ausnahme machen nur drei Staaten, Myanmar, die ehemalige britische Kolonie Burma; Liberia, ein künstlicher afrikanischer Staat, dessen Bevölkerung ehemalige Sklaven aus den USA bildet; und die USA selber.

Das SI-System kennt 7 Basisseinheiten: Zeit, Länge, Masse, Stromstärke, Temperatur, Stoffmenge und Lichtstärke. Diese erkennt man daran, dass ihre Symbole keine Formeln enthalten: s, m, kg, A, K, mol und cd. Alle weiteren Einheiten werden aus diesen sieben abgeleitet. So gibt es für das allseits bekannte Gewicht eine Ableitung wie diese: kg•m/s2 . Eine Kugel mit der Masse von 1 kg wiegt 9,81 kg•m/s2 bzw. 9,81 N wie Newton.

Die Lichtstärke Candela war immer das "Sorgenkind" unter den Basiseinheiten. Sie ist die einzige Einheit, die direkt auf der menschlichen Wahrnehmung (der Hellempfindlichkeitskurve des Auges) basiert, statt auf einer rein objektiven physikalischen Größe. Leider ist das mit dem Basieren auch nicht ganz korrekt. Denn Candela entspricht keine einzige Wahrnehmung.

Eine Basiseinheit sollte so einfach wie möglich definiert sein. Das Lumen enthält jedoch den Steradiant (sr), also eine Raumwinkel-Komponente. Die Metrologen des CIPM argumentierten, dass eine Basiseinheit nicht von einer anderen abgeleiteten Größe (dem Raumwinkel) abhängen sollte, wenn es sich vermeiden lässt. Den meisten Experten wird indes weder Steradiant noch der Raumwinkel ein Begriff sein. Beide sind nur Lichttechnikern gut bekannt.

Am Ende wurde Candela als eine SI-Basiseinheit gewählt, weil es präziser zu messen war. Als das SI-System 2019 revidiert wurde, beantragte die CIE, dass Lumen, also die Einheit des Lichtstroms, zu einer Basiseinheit werden möge. Man blieb bei Candela, weil die Messgenauigkeit dieser Größe trotz aller technischen Fortschritte immer noch größer war. Der Lichtstrom ist aber nicht deswegen zum Phantom geworden.

Schwindende Bedeutung der Helligkeit

Hellempfindung beschreibt nur eine der Wirkungen von Licht. Diese besitzt eine umso größere relative Bedeutung gegenüber anderen Wirkungen, je weniger Licht zur Verfügung steht, wie man nachts auf der Autobahn verstehen lernt. Auch die innerstädtische Beleuchtung in der Nacht ist, so opulent sie auch scheinen mag, eine Art Notbeleuchtung. Erst ab Beleuchtungsstärken um 100 lx oder Leuchtdichten um > 10 cd/m2 kann man von einer (relativ ) hellen Umgebung sprechen.

Die hier dargestellte Kurve zeigt den prinzipiellen Verlauf der Sehleistung in Abhängigkeit von einer Einflussgröße (Kontrast, Beleuchtungstärke etc. Bis zu einem bestimmten Wert steht einer Größe keine messbare Sehleistung gegenüber. Danach nimmt sie steil zu, um später nur noch wenig anzusteigen. Ab einem bestimmten Zustand sieht man schlechter. So kann man eine Zeitung bei 5 lx gerade noch entziffern, bei 20 lx einigermaßen lesen. Je nach Alter und Druckqualität der Zeitung fängt die Abflachung der grünen Kurve etwa bei 1000 Lux an. Ähnlich geht es mit der Größe der Schrift. Wenn sie unter 0,5 mm groß ist, können die meisten Menschen sie nicht lesen. Zwischen 1 mm und 3 mm steigt die Lesbarkeit steil an. Noch größere Zeichen sind zwar auffälliger, aber nicht besser lesbar, jedenfalls nicht in einer Zeitung oder in einem Buch.

Bei einer grundsätzlich wichtigen Leistung des Auges, der Sehschärfe, sieht man, dass sie bereits bei relativ geringen Leuchtdichten (10 cd/m² oder 100 cd/m²)  ihren Höchstwert etwa erreicht. Bei anderen Funktionen können höhere oder geringere Werte einer Einflussgröße zu einem Maximum an Leistung führen.

Wenn man sich die realen Beleuchtungen in deutschen Betrieben anguckt, stellt man fest, dass die Beleuchtungsstärken zwischen 200 lx und etwa 2000 lx liegen können. Heute geplante Beleuchtungen liegen meist über 500 lx. Das entspricht etwa einer Leuchtdichte von 125 cd/m² auf dem Büropapier. Somit liegen wir bei dem obigen Diagramm in dem Bereich, wo die Sehleistung kaum mehr mit der Beleuchtungsstärke ansteigt.

Allein zum Lesen reichen gemäß Bodmann Beleuchtungsstärken bis ca. 50 lx.[1] Er hatte bereits 1962 ein Niveau von 400 lx empfohlen, um eine angenehm helle Arbeitsumgebung zu realisieren. Über 60 Jahre später brauchen die wenigsten Arbeitnehmer das Licht zum Lesen. Ihre Sehaufgabe steht auf dem Bildschirm, auf dem die Beleuchtung bestenfalls stört. Die Empfehlung von Bodmann bezüglich der hellen Umgebung steht aber noch. Man kann sich nur darüber streiten, ob 400 lx reichen oder gerade das Minimum sind.

All das ließ die Bedeutung des Lichtstroms schwinden. Dafür stieg die relative Bedeutung einer weiteren Funktion des Lichts, die der Farbempfindung. Zum einen braucht man die Beleuchtung stärker als zu Zeiten Bodmanns, um die Arbeitsumgebung angenehmer zu gestalten. Zum anderen kann man jetzt Wert auf Qualität legen, weil unsere Wohn- und Arbeitsstätten keine notdürftig beleuchteten Umgebungen mehr sind, wo man froh wäre, überhaupt etwas Licht haben zu dürfen.

Nicht zuletzt an den Pflichtangaben für Lampenverpackungen wie "12W - 806 lm - 840" (entspricht Ra 80 - 89) erkennt man die (neue) Bedeutung der Farbqualität. Die hier erwähnte Lampe, kein besonderes Produkt, erzeugt 806 lm; ihre modernere Form würde nur noch 7 W verbrauchen. Dies entspricht 58 Edison-Lampen der ersten Serie, die Wert gefunden wurden, um auf Weltausstellungen präsentiert zu werden.

Die beispielhafte Lampe ist der Nachfahre der Allgebrauchsglühlampe für 60 W. Was deren Licht 1924 ökonomisch bedeutet hat und ein Jahrhundert später bedeutet, kann man an einer Beispielrechnung erkennen. Um dies zu berechnen, müssen wir drei Faktoren berücksichtigen: den Strompreis, die Effizienz der Leuchtmittel und die Kaufkraft (Inflation).

  • Strompreis: In Deutschland kostete eine Kilowattstunde (kWh) etwa 40 bis 50 Pfennig.
  • Einkommen: Ein durchschnittlicher Arbeiter verdiente damals etwa 150 bis 200 Mark im Monat. Eine 60-W-Lampe kostete damals etwa 1,50 bis 2,00 Reichsmark.
  • Lichtausbeute: Eine 60-Watt-Wolfram-Glühlampe erzeugte damals ca. 600 bis 700 Lumen.

Um eine 60-W-Lampe eine Stunde zu betreiben, verbrauchte man 0,06 kWh. Das kostete etwa 3 Pfennig. Was wenig klingt, war viel: Ein Arbeiter musste dafür etwa 10 bis 15 Minuten arbeiten. Eine Stunde Licht (800 Lumen) kostet heute etwa 0,28 Cent (0,007 kWh • 40 Cent). Bei einem Durchschnittslohn entspricht das einer Arbeitszeit von weniger als einem Bruchteil einer Sekunde. Der "reale" Preis für Licht ist mindestens um den Faktor 80 bis 100 gesunken. Das ist repräsentativ für die Abnahme der Wertigkeit der künstlichen Helligkeit.

Um das Licht, das eine moderne Wohnung heute an einem Abend verbraucht, im Jahr 1924 zu erzeugen, hätte eine Familie einen signifikanten Teil ihres Tageslohns ausgeben müssen. Licht war damals etwas, das man beim Verlassen des Raums sofort ausschaltete – nicht aus Umweltbewusstsein, sondern aus purer finanzieller Notwendigkeit. (Eine genauere Berechnung findet sich hier.)

Auch wenn die Fachleute der Branche das Lumen als Maß aller Dinge sehen wollen, bezeichne ich den Lichtstrom als Phantom. Die Lichttechnik muss ihre Maße nicht nur an der Hellempfindung festmachen, sondern eher an der Farbempfindung. Bis heute gehört Farbensehen nicht zur Sehleistung.

[1] Bodmann. H.W.: Beleuchtungsniveaus und Sehtätigkeit, Int. Licht Rundschau, 1962, S. 41

Bodmann, H.W.: Kriterien für optimale Beleuchtungsniveaus, Lichttechnik, 15. Jahrg. Nr. 1/ 1963, S. 24-26

Phantome, die unser Wissen beherrschen XI

Wer das Licht der Lampe will,
muss auch das Öl nachfüllen?

Anonymus

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Zum Phantom Wartungsfaktor

IDer Beitrag beschreibt den „Wartungsfaktor“ in der Lichtplanung als ein langlebiges, aber inhaltlich veraltetes Konzept – ein „Phantom“, weil moderne Beleuchtungstechnik (insbesondere LED) und reale Betriebsbedingungen nicht mehr gut zu den zugrunde liegenden Annahmen passen. Historisch ist die Pflege von Licht zwar stetig einfacher geworden, sie verschwand jedoch nie, sondern wurde durch Normen und Berechnungsmethoden zunehmend komplex.

Technisch ist der Wartungsfaktor (MF) eine dimensionslose Kennzahl, die den Beleuchtungszustand zum Wartungszeitpunkt im Verhältnis zum Neuzustand abbildet und aus LLMF, LSF, LMF und RSMF berechnet wird. Er wurde maßgeblich durch den CIE-Bericht 97 (1992) definiert und ersetzte in Deutschland ältere, pauschale Zuschläge und schwer fassbare Begriffe wie die „Nennbeleuchtungsstärke“.

Rechtlich ist die Instandhaltung von Beleuchtung in Deutschland über ArbStättV und ASR A3.4 verankert; bei Bezug auf DIN EN 12464-1 muss der Planer Wartungsfaktoren angeben und einen Wartungsplan vorbereiten. In der Praxis fehlt Anwendern oft das Bewusstsein (und teils die organisatorische Möglichkeit) für Wartung, wodurch Planer unrealistisch hohe Faktoren ansetzen können, etwa durch „sehr saubere Umgebung“ trotz gegenteiliger Realität.
Gleichzeitig stützen sich die in CIE 97 hinterlegten Erfahrungswerte auf Technik und Räume der 1970er/80er Jahre; die LED-Ära bringt andere Alterungs- und Ausfallbilder sowie stark temperaturabhängige Lebensdauern. Marketingzahlen wie „50.000 Stunden“ wirken als Motivationskiller für Wartung, obwohl es u. a. bei Sicherheitszeichen und thermisch belasteten Installationen weiterhin kritische Instandhaltungsanforderungen gibt.

Als technische Gegenmaßnahme wird u. a. CLO (Constant Light Output) genannt, das den Lichtstromrückgang elektronisch kompensiert und so Planung, Betrieb und Energieeffizienz beeinflusst. Insgesamt bleibt der Wartungsfaktor als Engineering-Idee wichtig, muss aber inhaltlich modernisiert und mit realistischen, überprüfbaren Annahmen und Wartungsplänen hinterlegt werden.

Zur Geschichte des Phantoms

Dieses Phantom war wohl zu Zeiten Goethes bekannt, von dem der Spruch überliefert ist: „Ich wüsste nicht, was sie besseres erfinden könnten, als wenn die Lichter ohne putzen brennten.“ Wer Licht machen wollte, musste sich schon immer um dessen Pflege bemühen. Unterschiedlich waren nur der Umfang und die Berechenbarkeit des Aufwands, den man treiben musste. (s. dazu Kapitel Epochen der Kunst der Lichtmacher)

Im Laufe der Jahrhunderte wurde der Pflegebedarf für Licht stetig geringer, was einen großen Teil des Fortschritts der Technologie ausmacht. So musste man bei der Kerze recht häufig nachsehen, ob sie noch brennt. Edisons erste Lampe brannte 40 Stunden lang ohne Aufsicht. Nur wenige Jahrzehnte danach musste die Industrie einen Glühlampenweltvertrag beschließen, um die Lebensdauer der Lampe auf 1000 h zu kürzen. Und heute redet man von 50.000 Stunden, die eine LED Licht spenden soll. Abgeschafft wurde die Pflege der Beleuchtung aber immer noch nicht. Sie wurde nur unendlich komplizierter. Seit langem hat sie einen Namen: Wartungsfaktor. Es fehlt nur an der Modernisierung des Inhaltes. Daher die Qualifizierung als Phantom.

Der Wartungsfaktor als technischer Begriff

Wie jedes Ingenieurprodukt ist auch die Technik der künstlichen Beleuchtung fest mit dem Prinzip von Inspektion und Wartung verbunden. Inspektion heißt, man prüft den bestimmungsgemäßen Zustand. Wartung bedeutet, dass man eine Technik ertüchtigt und wieder in den bestimmungsgemäßen Zustand bringt.

Der Begriff bestimmungsgemäßer Zustand ist juristisch relevant. Er bedeutet, dass sich ein technisches Produkt in dem Zustand befindet, den sein Hersteller für den üblichen Betrieb vorgesehen hat. Der bestimmungsgemäße Zustand (oft synonym zu „bestimmungsgemäßer Betrieb“ oder „bestimmungsgemäße Verwendung“ verwendet) beschreibt den Zustand einer technischen Anlage, Maschine oder eines Produkts, in dem es sicher, effizient und entsprechend seiner Auslegung und Dokumentation betrieben wird. Wenn beim Arbeitsstättenrecht von Beleuchtung die Rede ist, ist dieser Zustand gemeint.

Bei der Kerze hatten die Aufgabe, den bestimmungsgemäßen Zustand zu erreichen, die Lichtschneuzer übernommen, die spezialisierte Diener der Reichen waren. Opern und Theater beschäftigten Komödien-Lichtputzer für diese Aufgabe. Die Pflege in der Zeit, als man Licht durch Verbrennen erzeugte, galt nicht nur der Beleuchtung, denn die Stoffe, die bei der Verbrennung entstanden, so z.B. Ammoniak und Schwefel, zerstörten die Dekorationen, Gemälde und sonstige Ausstattungen. Das Licht war sogar Konkurrent des Menschen um den Sauerstoff. So hatten die Lichtschneuzer und -putzer eine Schutzaufgabe für alles.

Bei der Beleuchtung hingegen war die Sache nicht so klar. So ist mir kein Berufsstand bekannt, der den Betrieben das regelmäßige Fensterputzen erledigt, um die Fenster in den bestimmungsgemäßen Zustand zu versetzen. Das Problem muss uralt sein, denn der staatlich geförderte Film Licht des Amtes für schöne Arbeit von 1935 beginnt die gute Beleuchtung mit kollektivem Fensterputzen. Hingegen schrieb mir ein Architekturkritiker im März 2026 über ein viel gelobtes öffentliches Gebäude, er hätte unter schlechten Bedingungen gearbeitet, weil der Architekt vergessen hatte, dass die Fenster auch mal geputzt werden müssen. Eigentlich ein Verstoß gegen die Arbeitsstättenverordnung.

Bei der künstlichen Beleuchtung sollte so etwas nicht vorkommen können. Die lichttechnische Industrie hatte und hat – ganz uneigennützig – ein großes Interesse daran, dass installierte 100 lx immer 100 lx blieben. Wie man das auch anstellen mag. Die Definition eines Wartungsfaktors bildete den vorletzten Schritt dazu.

Der Wartungsfaktor (Maintenance Factor, MF) ist eine dimensionslose Kennzahl in der Lichtplanung. Er definiert das Verhältnis der Beleuchtungsstärke einer Anlage zu einem spezifischen Zeitpunkt (Wartungszeitpunkt) im Vergleich zu ihrem Neuzustand. Der Begriff wurde erst spät 1992 definiert, obwohl es immer bekannt war, dass eine Lichtplanung auf der Basis des Neuzustandes nie sinnvoll gewesen sein konnte. Der eigentliche Durchbruch für die heutige Definition kam im Jahr 1992. Die Internationale Beleuchtungskommission (CIE) veröffentlichte den technischen Bericht CIE 97 "Maintenance of indoor electric lighting systems".

Der Wartungsfaktor wird aus vier spezifischen Verlustfaktoren berechnet, die die Lampen, deren Lebensdauer, die Leuchten und die Verschmutzung der Raumwände betreffen.

WF = LLMF x LSF x LMF x RSMF

LLMF (Lampenlichtstrom-Wartungsfaktor): Berücksichtigt die Abnahme des Lichtstroms der Lichtquelle über die Betriebsdauer (Degradation)

LSF (Lampenlebensdauerfaktor): Berücksichtigt die statistische Ausfallwahrscheinlichkeit der Leuchtmittel bis zum Wartungszeitpunkt.

LMF (Leuchtenwartungsfaktor): Berücksichtigt die Verschmutzung der Leuchte in Abhängigkeit von ihrer Bauart und der Umgebungssauberkeit.

RSMF (Raumwartungsfaktor): Berücksichtigt die Abnahme der Reflexionsgrade von Wänden und Decken durch Verschmutzung.

Auch in dieser Formel kann man die Natur einer Vorgabe erkennen, die sicherstellen will, dass eine Beleuchtung immer dem gewünschten Zustand entspricht. Was der gewünschte Zustand für Arbeitsstätten ist, wurde seit 1913 in diversen Regelwerken (Normen, Gesetzen, Verordnungen etc.) festgelegt (s. Beitrag Beleuchtung von Arbeitsstätten muss i.S. des Arbeitsschutzes reguliert werden.). Festgelegt wurde fast immer die in einer horizontalen Messebene in Arbeitshöhe (einst 85 cm, später etwas tiefer) vorhandene Beleuchtungsstärke. Diese stellt den Vertragsgegenstand zwischen dem Auftraggeber und dem Lichtplaner dar.

Als der Begriff noch nicht existierte …

Schon in den Anfängen der elektrischen Beleuchtung war bewusst, dass Anlagen mit der Zeit dunkler werden, lange bevor die Lampen ausfallen. In den alten deutschen Normen (wie der DIN 5035) wurde jedoch meist nicht mit einem detaillierten "Wartungsfaktor" gerechnet, sondern mit einem pauschalen Planungswert (oft 1,25).

  • Man schlug einfach 25 % auf die benötigte Beleuchtungsstärke auf, um Verluste auszugleichen.
  • Das entsprach rechnerisch einem Wartungsfaktor von 0,8 (1 / 1,25 = 0,8).

Das war gemessen an der Genauigkeit, mit der ein Planer die angestrebte Beleuchtungsstärke erzielte, sogar zu genau. Damals ging das Gerücht herum, dass die Wettervorhersage im Monat April genauer war als die Lichtplanung bei der Bestimmung der Beleuchtungsstärke. Tatsächlich haben wir bei gerichtsfesten Messungen festgestellt, dass bei einer Vorgabe von 500 lx als Nennwert (= 625 lx Neuwert), Werte zwischen 300 lx und 2000 lx installiert wurden. In einem Fall, bei dem bei einer falschen Beleuchtungsstärke ein Gang vor Gericht drohte und deswegen eine präzise Vorgabe der späteren Messung bei der Auftragsvorgabe erfolgte, variierte in 38 Anlagen (= 38 Bürohäuser für jeweils etwa 300 Mitarbeitende) mit dem gleichen Leuchtentyp des gleichen Herstellers die Beleuchtungsstärke zwischen 350 lx und 900 lx.

Interessant ist, wogegen der Verlust berechnet wurde. Der Zustand, gegen den ein Verlust berechnet wurde, nannte sich die Nennbeleuchtungsstärke. Die Größe Nennbeleuchtungsstärke war „der zeitliche und örtliche Mittelwert“ der Beleuchtungsstärken. Was soll man sich darunter vorstellen? Einen örtlichen Mittelwert kann sich jeder halbwegs gebildete Laie verstehen: Man misst die Beleuchtungsstärke an verschiedenen Orten und berechnet davon den Mittelwert. Aber der zeitliche Mittelwert? Die Erklärung der Nennbeleuchtungsstärke, die das Maß für den Verlust darstellt, umfasste in DIN 5035:1990 ca. eine DIN-A4-Seite und war selbst für erfahrene Verwaltungsrichter eine Herausforderung bei entsprechenden Klagen. Denn kaum eine technische Größe wurde je krummer definiert:

Die Nennbeleuchtungsstärke En ist für Arbeitsstätten in Innenräumen der Nennwert der mittleren Beleuchtungsstärke im Raum oder in der einer bestimmten Tätigkeit dienenden Raumzone, für den die Beleuchtungsanlage auszulegen ist.“ Soweit ist die Sache noch in Ordnung. Aber die Norm erklärt weiter: „Die Nennbeleuchtungsstärke En für Arbeitsstätten in Innenräumen bezieht sich:

  • auf den mittleren Alterungszustand der Beleuchtungsanlage:
  • auf den eingerichteten Innenraum die eingerichtete Raumzone;
  • im allgemeinen auf die horizontale Arbeitsfläche in 0,85 m Höhe über dem Fußboden; bei anderer Lage der Arbeitsfläche bezieht sich die Nennbeleuchtungsstärke En auf diese Lage (z.B. Schaltschrankmontage, Zeichenbrett, Schreibtisch);
  • bei Verkehrswegen in Innenräumen auf deren Mittellinie in max. 0,2 m Höhe über dem Fußboden.“ (fettkursiv schlecht oder gar nicht bestimmbare Faktoren)

Wie soll man verstehen, was es bedeutet, dass sich eine Planungsgröße, die man beim Bau einer Arbeitsstätte zugrunde legen muss, auf die Lage eines Schreibtisches bezieht?  Woher weiß der Planer, wann der mittlere Alterungszustand einer Beleuchtungsanlage sein wird? Kann man bereits bei der Planung eine Größe berücksichtigen, die sich auf einen eingerichteten Raum bezieht, bevor dieser Raum überhaupt entstanden ist?

Nachdem die Nennbeleuchtungsstärke etwa 30 Jahre lang kaum jemandem ein Begriff geworden war, wurde sie zusammen mit der Normenreihe DIN 5035 abgeschafft. An ihre Stelle trat die Wartungsbeleuchtungsstärke bzw. der Wartungswert der Beleuchtungsstärke. Diesen Wert kann jeder jederzeit an jedem Arbeitsplatz messen. Wie hoch er sein soll, kann man in DIN EN 12464-1 ab Jahrgang 2001 lesen.

Durch diesen Vorgang bekam der Wartungsfaktor eine neue Bedeutung. Hat man einst einen pauschalen Zuschlag zur Nennbeleuchtungsstärke eingeplant (z.B. 1,25 für die meisten Fälle), kann man seit 2001 vereinbaren, wann eine Wartung erfolgen soll (z.B. nach 1 Jahr oder nach 3 Jahren), wonach sich der Wartungswert errechnet.

Rechtliche Lage

In Deutschland ist die Wartung von Beleuchtungsanlagen kein "nice-to-have", sondern durch Gesetze und Normen geregelt. Dabei wird grundsätzlich zwischen der Beleuchtung und der Sicherheitsbeleuchtung (Notbeleuchtung) unterschieden. Die primäre Rechtsgrundlage ist die Arbeitsstättenverordnung (ArbStättV) in Verbindung mit der ASR A3.4 ("Beleuchtung"). Der Arbeitgeber muss sicherstellen, dass die Beleuchtung jederzeit den Anforderungen der ASR A3.4 entspricht.

Zwar muss kein Betrieb diese ASR erfüllen. Das gilt aber nur, wenn er gleichwertige oder bessere Vorgaben hat. Hinsichtlich der Beleuchtung dürfte es jedem schwerfallen, eine gleichwertige Alternative zu den geforderten Eigenschaften zu realisieren. Die Instandhaltung wird in 9.2. Instandhaltung der ASR A3.4 geregelt. In diesem Paragraphen sind auch die Fenster nicht vergessen: “Um die Versorgung mit Tageslicht nicht zu beeinträchtigen, sind Fenster und Dachoberlichter regelmäßig zu reinigen. Anforderungen an den Arbeitsschutz bei der Reinigung von Fensterflächen siehe ASR A1.6 „Fenster, Oberlichter, lichtdurchlässige Wände“.

Die ASR fordert auch: “Es ist dafür zu sorgen, dass sichere Instandhaltung möglich ist, insbesondere ist für einen sicheren Zugang zu sorgen.”

Wenn sich jemand auf die Norm DIN EN 12464-1 beruft, muss dieser auch den Wartungsfaktor berücksichtigen. Die Aufgaben des Planers sind wie folgt beschrieben:
Der Konstrukteur [der Lichtplaner, Anm. d.A.] muss:

— fm angeben [fm ist der Gesamtwartungsfaktor, oben WF genannt] und alle Annahmen auflisten, die bei der Ermittlung des Werts gemacht wurden,

— die für die Anwendungsumgebung geeignete Beleuchtungsanlage angeben und

— einen Wartungsplan vorbereiten, z. B. für die Häufigkeit des Ersetzens der Lichtquelle, für Reinigungsintervalle von Leuchte und Raum.

fm hat einen großen Einfluss auf die Energieeffizienz. Die bei der Ermittlung von fm gemachten Annahmen müssen sowohl realistisch erreichbar als auch auf eine Weise optimiert werden, die zu einem hohen Wert führt.“

Wo es arg kneift

Fehlendes Bewusstsein bei den Anwendern

Anwender zeigen im Allgemeinen wenig Neigung, Beleuchtung zu warten. Bei betrieblichen Studien habe ich die Frage, ob man einen Wartungsplan hätte, gestellt, um die nicht so ehrlichen Kandidaten herauszufischen. Denn man kann i.d.R. davon ausgehen, dass es den Betrieben nicht einmal bewusst ist, dass sie so etwas brauchen. Man weiß gleich, warum, wenn man sich die Beschreibung der Nennbeleuchtungsstärke anguckt.

Wenn man sich die möglichen praktischen Bedingungen näher ansah, konnte man auch verstehen, warum man an eine Wartung erst gar nicht dachte. Manche Leuchten brauchen zwei Elektriker, um die Lampen zu entfernen. Und die einst vorherrschenden Hochglanzspiegel durfte man nur mit Schutzhandschuhen anfassen. Auf den Tischen standen zuweilen hochauflösende Bildschirme mit einem Gewicht bis 20 kg oder Drucker bis 40 kg. All das wegräumen, um Leuchten zu putzen?

Ein Fachmann, der in den 1970er Jahren die Wartung von Beleuchtung als Dienstleistung anbieten wollte, verdiente keinen Cent damit. In mehreren Jahrzehnten der Betriebsberatung ist uns kein Wartungsplan über den Weg gelaufen.

Das liebe Geld

Da es den Anwendern an Bewusstsein für die Wartung der Beleuchtung fehlt, kann ein Planer einen hohen Wartungsfaktor zugrundelegen, z.B. 0,8, und dem Kunden gegenüber verschleiern, dass er einen festen Reinigungszyklus von einem Jahr voraussetzt. Es ist überhaupt fraglich, ob ein Betrieb weiß, dass eine Reinigung der Wände zu der Wartung der Beleuchtung gehört. Man deklariert eine Industriehalle oder ein Standardbüro einfach als „sehr saubere Umgebung“. Dann setzt man den Raumwartungsfaktor (RSMF) und Leuchtenwartungsfaktor (LMF) so hoch an, als würde dort täglich Staub gewischt. So springt der Wartungsfaktor von realistischen 0,67 auf 0,85. Dabei bedeutet ein WF von 0,67, dass man 50 % mehr installieren muss, während man bei 0,85 nur 17% mehr installiert. Man spart also 20% der Installation durch optimistische Annahmen, die nicht einmal zutreffen. Kein Kläger, kein Richter.

Verwirrende neue “Begriffe”

Obwohl es vielen Leuten vom Fach sehr schwergefallen war, sich von der Nennbeleuchtungsstärke auf die Wartungsbeleuchtungsstärke umzustellen, hat die Normung in der letzten Ausgabe der EN 12464-1 redlich Mühe gegeben, die Sache noch komplizierter zu machen. So wurden noch der “minimale Warnungswert der Beleuchtungsstärke” und der “höhere Wartungswert der Beleuchtungsstärke” vorgeschrieben. Zu denen kam noch  eine Forderung nach dem Wartungswert der mittleren zylindrischen Beleuchtungsstärke, wobei man diese Größe nach einem Kontextmodifikator eine Stufe höher oder tiefer wählen kann.

Was dieser Kontextmodifikator sein soll, habe ich lange gesucht. In der Norm ist die Rede von „kontextabhängigen Modifikatoren“, womit gemeint ist, dass z.B. eine Aufgabe Fehlermöglichkeiten beinhaltet, deren Folgen schwerwiegend sein können. Dann soll die Beleuchtungsstärke eine Stufe höher gewählt werden. Warum man der folgenden Anforderung folgen soll, leuchtet mir immer noch nicht ein: „Der Wartungswert der Beleuchtungsstärke darf um mindestens eine Stufe in der Beleuchtungsstärke-Skala (siehe 4.3.2), angepasst werden wenn die Sehbedingungen von den üblichen Annahmen abweichen.“

Insgesamt waren in dem Entwurf dieser Norm so viele Sonderbarkeiten, dass die Übersetzung ins Deutsche zwei Jahre gedauert hat, obwohl die größte Gruppe unter den Autoren aus Deutschland kam.

Obsolete Grundlagen

Die Festlegung der Wartungsfaktoren in CIE 97 im Jahre 1992 erfolgte auf der Basis von Erfahrungen mit Leuchten, Lampen und Räumen aus den 1970er und 1980er Jahren. Zwei Jahrzehnte danach musste nachgebessert werden, weil sich die Lampen wie die Leuchten geändert hatten (CIE 97:2005). Man legte den Fokus auf den individuellen Wartungszyklus. Wie ich oben erklärt habe, fehlt den Auftraggebern die Motivation dazu, aus dieser Entwicklung einen Vorteil im Sinne der besseren Beleuchtung zu machen.

Die wichtigste Änderung betrifft aber die Lampentechnik. In ganz Europa wird nur noch LED-Beleuchtung installiert. Dabei hat sich eine Marketingszahl als Motivationskiller herausgeschält: die Zahl 50.000. Diese soll angeblich die Lebensdauer der LED kennzeichnen. Für Betriebe bedeutet sie eine ungeheure Zahl, durch die jegliche Fürsorge für die Beleuchtung entfällt. In welchem Büro mag wohl die künstliche Beleuchtung die 50.000 Betriebsstunden hinter sich bringen?

In der Lichtplanung und energetischen Bilanzierung (nach DIN V 18599) gibt es für ein Standardbüro in Deutschland klare Richtwerte für die jährliche Betriebsdauer. In fensternahen Bereichen brennt das Kunstlicht oft nur 50 % der Zeit (ca. 1.200 – 1.500 Stunden). Theoretisch nimmt die Norm bei Tagnutzung 2.250 Stunden an. So kann ein Optimist (1200 h Brenndauer jährlich) von 41,66 Jahren ausgehen, für den Pessimisten ergeben sich 22,22 Jahre.

In Deutschland werden gewerbliche Gebäude, die nach dem 31.3.1985 fertiggestellt wurden, linear mit 3 % pro Jahr abgeschrieben, was einer rechnerischen Lebens-Dauer von 33 Jahren entspricht. Die wirtschaftliche Lebensdauer beträgt ca. 30 – 50 Jahre. So kann man optimistischerweise damit rechnen, im Laufe der Lebensdauer eines Bürohauses mit einem Lampenwechsel davonzukommen. Vielleicht kann man den aufschieben?

Doch dem ist nicht so. Denn erstens gibt es elektrisch beleuchtete Sicherheitszeichen (z.B. Fluchtwegbeschilderung), die während der gesamten Betriebsstunden ständig leuchten müssen, häufig rund um die Uhr. Der Glaube an die 50.000 Stunden lässt sogar die wöchentlichen Inspektionen vergessen, die erforderlich sind. Zweitens ist die Lebensdauerbetrachtung einer LED wesentlich komplizierter (s. Kapitel Angaben für die Lebensdauer von Leuchtmitteln. Wie kompliziert es mit der LED ausschaut, erkennt man an der Formel L70B10C10F10. L70 bedeutet, dass die LED bei 70% des Anfangslichtstroms am Ende ist. B10 bedeutet, dass dabei höchstens 10% der Elemente diesen Wert unterschreiten dürfen. C10 bedeutet, die zu einem gegebenen Zeitpunkt zu erwartende Ausfallrate in Prozent. Ein Wert von C10 bedeutet, dass in einem Modul 10% aller Elemente total ausgefallen sind. F10 bedeutet, dass höchstens 10% der LED den L-Wert unterschreiten dürfen (inklusive Totalausfall).

Die Angaben für die Lebensdauer von LEDs gelten nur für optimale Temperaturbedingungen. Bereits kleine Abweichungen können zu drastischen Verlusten an Lebensdauer führen. Diese können durch ungeeignete Leuchten bedingt sein, aber auch durch zu hohe Temperaturen in Industriehallen. Für den letzten Fall müsste ein zusätzlicher Korrekturfaktor für die Temperatur berücksichtigt werden.

In der Realität ist der Vorgang der Degradation eines LED-Moduls noch schwieriger zu beschreiben, weil die Module nicht nur an Leuchtdichte verlieren, sondern auch in Farbe. Oder ein Element ist noch in Betrieb, flimmert aber nur noch.

Fazit

Der Wartungsfaktor ist ein Erbe alter Zeiten, das die Bezeichnung Phantom redlich verdient. Er hat noch lange nicht ausgedient, weil das Konzept Teil eines jeden Engineering-Konzepts ist. Der Wartungsfaktor beruht aber auf recht alten Daten und noch älteren Vorstellungen mit Lampen, die es nicht mehr gibt. Die modernen Lampen weisen andere Alterungserscheinungen auf. Dabei geht die Alterung der Lampe gleich zweimal in die Berechnung des Wartungsfaktors ein, als Lampenlichtstrom-Wartungsfaktor und als Lampenlebensdauerfaktor. Der letztere Faktor beruht zum einen auf einer drastisch höheren fiktiven Lebensdauer[1] gegenüber älteren Lampen (50.000 h gegenüber 1.000 h bei Allgebrauchsglühlampen und 10.000 h bei Leuchtstofflampen).

Anstatt die Leuchten von Anfang an mit 100 % Leistung zu betreiben (und damit am Anfang "zu viel" Licht zu haben), kann man heute technische Gegenmaßnahmen wie CLO-Treiber ( constant light output) nutzen. Die Elektronik gleicht den LLMF automatisch aus. Die Leuchte startet bei etwa 80 % Leistung und steigt über die Lebensjahre hinweg schrittweise auf 100 % Leistung. Beispiele für diese Funktionalität gibt es z.B. hier und da und dort. Ein CLO-Treiber spart über lange Jahre Strom und verlängert die Betriebsdauer einer LED.

Ob und wann man sich allgemein eine solche Technik aneignet, ist trotz der Vorteile leider nicht gesagt. Ein Grund könnte die höhere Investition zu Beginn sein. Man muss mehr in die Technik investieren, um später daraus Vorteile zu erzielen. In einem professionell genutzten Gebäude fallen die Investitionen beim Investor an, die Vorteile beim Mieter. Diese sind i.A. zwei unterschiedliche Firmen. Selbst wenn sie Töchter derselben Firma sind, erscheinen die Kosten und die Ersparungen in zwei getrennten Bilanzen auf. Dieser Umstand hat die Durchsetzung des elektronischen Vorschaltgerätes mehrere Jahre verzögert.

Im Privatbereich spielen solche Überlegungen kaum eine Rolle. Die Energieersparnis (durch das gedimmte Start-Niveau) ist bei einer einzelnen Lampe so gering, dass sich der Aufpreis für den teuren Treiber im privaten Umfeld oft erst nach Jahrzehnten rechnen würde. Zudem muss man daran denken, dass viele Privatleute gebrannte Kinder sind, was die Lebensdauer von Lampen angeht. Bereits bei der Glühlampe konnte man den Verdacht nicht loswerden, dass da etwas nicht stimmte. Bei der Leuchtstofflampe, die sich im Wohnbereich nie richtig durchsetzen konnte, war es umgekehrt. Fiel eine Glühlampe gefühlt zu früh aus, waren Leuchtstofflampen im Haushalt (z.B. bei Aquarien) noch bei der doppelten oder dreifachen Lebensdauer im Einsatz, auch wenn sie nur noch die Hälfte des Lichts abgaben, die sie am Anfang produziert hatten.

LEDs sind da ein Fall sondergleichen. Viele erleben, dass die angeblich ewig lebende Lampe nach wenigen Tagen den Geist aufgibt,  wofür der Hersteller des Leuchtmittels häufig nichts kann. Das Problem liegt beim Kühler oder bei den sonstigen Faktoren für die Kühltechnik. Auch dieser Umstand ist privat schwer zu vermitteln, weil LEDs nachgesagt wird, dass sie sehr wenig Strom brauchen und noch weniger Wärmestrahlung in ihrem Licht haben. Beides stimmt sogar. Aber auch das vorzeitige Ableben vieler LEDs aus thermischen Gründen.

Es gibt also sowohl berechenbare als auch schwer verständliche Faktoren, die dem Phantom Wartungsfaktor zu einem langen Leben verhelfen werden.

[1] Hier spreche ich absichtlich von einer fiktiven Lebensdauer, weil die angegebenen Zahlen eher vom Marketing stammen als von der Realität. Auch wenn die Zahlenwerte Jahre bedeuten, kommen sie sehr unterschiedlich zustande. S. hierzu Angaben für die Lebensdauer von Leuchtmitteln

.

Phantome, die unser Wissen beherrschen X

Ist das Wissenschaft,
oder eher eine sehr teure Form
der Astrologie mit besseren Grafiken?
Anonymus

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Das fundamentale Phantom

In der Lichttechnik wird Helligkeit bis heute mit einer Standardkurve (V(λ)) bewertet, die vor rund 100 Jahren aus Messungen an wenigen, jungen erwachsenen Männern abgeleitet wurde.

Diese Kurve steckt aber hinter fast allen wichtigen Lichtangaben wie Lumen und Lux – und verleitet dazu zu glauben, sie gelte für „den Menschen“ allgemein. Tatsächlich sehen ältere Menschen, Kinder, aber auch viele Tiere und Pflanzen Licht anders, sodass gleiche Messwerte in der Praxis sehr unterschiedliche Wirkungen haben können.

Neuere Kennzahlen wie „melanopische“ Beleuchtungsstärken sollen biologische Effekte des Lichts besser erfassen, sind folgerichtig von Alter und Lichtspektrum abhängig und dadurch kompliziert zu verwenden. Mit der Einführung melanopischer Kenngrößen (CIE S 026/E:2018) wurde die Problematik sichtbar verschärft: Melanopische Beleuchtungsstärken (z. B. mel-EDI) sind explizit alters- und spektralabhängig; ein Zahlenwert gilt nur für definierte Referenzbedingungen (u. a. ein Referenzalter), während herkömmliche lichttechnische Größen diese Unterschiede nicht erfassen. 

Die zentrale Botschaft ist: Lichttechnische Grundgrößen sind keine einfache „Physiologie in Zahlen“, und gute Beleuchtung muss stärker auf unterschiedliche Menschen und Anwendungsfälle abgestimmt werden. Die Voraussetzung dafür ist, dass das Licht valide gemessen wird, d.h. eine bestimmte Größe entspricht einer bestimmten Wirkung.

Zur Geschichte des Phantoms

Dieses Phantom ist die Grundlage aller lichttechnischen Größen. Dass es eigentlich längst in die Geschichte gehört, diskutierte ich noch als junger Student, als uns Professor Helwig die V(λ)-Kurve erklärte. Helwig ist schon 55 Jahre tot, das Phantom hat vor zwei Jahren quicklebendig sein erstes Jahrhundert gefeiert.

Die junge Lichttechnik zu Beginn des 20. Jahrhunderts hatte sich vorgenommen, Lichtgrößen für den Menschen zu bestimmen und Licht an dem Menschen zu messen. Damit war sie vielen Disziplinen weit voraus. Die Physik misst Licht mit ähnlichen Instrumenten wie die Lichttechnik, kommt aber zu einem anderen Ergebnis. Das liegt an der besagten V(λ)-Kurve.

Die Kurve, die sich so schick geschwungen präsentiert, sah nicht immer so aus wie hier. An ihr ist viel poliert worden.

Sie hieß einst relativ visibility und wurde, wie im Bild deutlich erkennbar, aus verschiedenen Studien zusammengestückelt. Die CIE (Commission Internationale de l'Éclairage) sammelte die Daten von etwa 50 Probanden aus verschiedenen Studien. Obwohl die Gruppe statistisch gesehen recht klein war, reichten die Daten aus, um einen Mittelwert zu bilden. So wurden die individuellen Empfindlichkeitskurven der Probanden gemittelt. Der höchste Punkt der Kurve (das Maximum) wurde auf den Wert 1 gesetzt. Dieser Punkt liegt bei einer Wellenlänge von 555 nm (gelb-grün). 1924 wurde diese gemittelte Kurve als internationaler Standard für das photopische Sehen (Tagessehen) definiert.

An sich kein großes Problem. Dumm nur, dass die Probanden in den relevanten Studien der frühen 1920er Jahre (hauptsächlich die Untersuchungen von Gibson und Tyndall sowie Coblentz und Emerson) überwiegend junge Erwachsene waren. Die meisten Teilnehmer waren zwischen 20 und 30 Jahre alt. In der entscheidenden Studie von Gibson und Tyndall (1923), die 52 Probanden umfasste, lag das Durchschnittsalter bei etwa 26 bis 27 Jahren. Noch dümmer: Viele der Probanden waren Mitarbeiter des National Bureau of Standards (NBS) (also vom Fach) oder Studenten – also eine leicht verfügbare, junge Testgruppe.

Was in den Annalen nicht steht, weil man den Fehler in der Forschung bis heute macht: Alle Probanden waren jung, gesund und irgendwie “normal”. Wer im National Bureau of Standards arbeitet, gehört zudem nicht zu Familie Doe, deren Mitglieder John und Jane unserem Max und Erika   Mustermann entsprechen. Und Studenten im Alter von 25 Jahren bildeten zu Beginn des 20. Jahrhunderts die Bevölkerung genauso wenig ab wie im Jahre 2026.

Bei diesem Beitrag geht es insbesondere um die Altersgruppe, weil die Augen von allen Lebewesen mehr oder weniger stark altern. Beim Menschen ändert sich die Lichtwahrnehmung durch rund ein Dutzend Alterungsprozesse, die relevant sind.

Bedeutung der V(λ)-Kurve

Die so definierte Kurve liegt allen lichttechnischen Größen zugrunde. Dies hat zweierlei Auswirkungen. Zum einen die beabsichtigte: Bewerten der Strahlung nach der angestrebten Wirkung, die Hellempfindung. Zum anderen verführt sie zu der Annahme, es handele sich um eine Quantifizierung einer physiologischen Wirkung. Genau dies ist falsch. Wie unten ausgeführt, beweist sogar ein Standard der CIE dies höchstpersönlich.

Die aus der Sicht der lichttechnischen Industrie wichtigste lichttechnische Grundgröße ist der Lichtstrom, also die Menge des Lichts, die ein Leuchtmittel abgibt. Daraus lässt sich z.B. die Effizienz einer Umwandlung von Energie in Licht berechnen. Auch die populärste, weil auch den Laien bekannte, lichttechnische Größe, die Beleuchtungsstärke, lässt sich daraus ableiten.

Damit kommen wir der physiologischen Wirkung näher, die man mit einer Lichtquelle erzielen will, der Sehleistung. Egal wie man diese definiert, landet die Betrachtung immer bei der Leuchtdichte, die z.B. beim Kontrast eine große Rolle spielt, die wiederum z.B. die Lesbarkeit stärker beeinflusst als die meisten anderen Größen. Auch bei der Geschwindigkeit des Erkennens kleiner Objekte spielt die Leuchtdichte die Hauptrolle.

Genau da setzen die diversen Fehlermöglichkeiten an, die sich aus dem Phantom ergeben.

Dieser Herr zeigt, wie aus dem Lichtstrom eine Leuchtdichte wird. Bereits er gehört nicht mehr der Altersgruppe an, für die die V(λ)-Kurve ermittelt worden war. Es kann aber noch schlimmer kommen, wie die beiden Personen in dem unteren Bild zeigen.

Die beiden Menschen sehen sehr unterschiedlich alt aus. Trotzdem ergibt die Beleuchtungsstärke nach der Reflexion die Leuchtdichte. Wenn man die Formel auf beiden anwendet, ist der Wert der Leuchtdichte gleich. In der Realität allerdings nicht. Was der linke junge Mann sieht, hat relativ wenig mit dem zu tun, was sich der Dame präsentiert.

Die Erklärungen der Grundgrößen durch zwei offizielle Stellen, unverkennbar Agrargenossenschaften, illustrieren einen möglicherweise größeren Fehler.

Denn die abgebildeten Beobachter sind keine jungen Männer, sondern Nutztiere. Diese besitzen wie die meisten Säugetiere nur zwei Farbempfänger im Auge (Dichromaten), während die Menschen drei Farbempfänger besitzen (Trichromaten). Wenn das obige Bild von einem Aquarianer gezeichnet werden würde, würde der einen noch größeren Fehler produzieren, weil Vögel und Fische vier Farbempfänger haben und viel mehr sehen können als Menschen. Allein der Unterschied zwischen Säugetieren und Menschen ist derart groß, dass man das Licht für beide mit zwei getrennten Geräten messen müsste.

Die Sicht auf das Licht durch das Auge eines jungen Mannes wird vollends absurd, wenn man sie auf Pflanzen anwendet. Deren „V(λ)-Kurve“ ist eher die Umkehrung der menschlichen.

Nicht nur auf der großen weiten Welt leben Menschen, Tiere und Pflanzen zusammen, sondern zuweilen in kleinen Wohnzimmern. Wenn Licht über die Augenempfindlichkeit von jungen Männern definiert wird, ergeben sich somit erhebliche Probleme.

Vor vier Jahren haben britische Forschende eine Arbeit veröffentlicht, aus der hervorgeht, dass nicht einmal die Erdüberwachungssatelliten gemerkt haben, dass der Planet nachts blauer strahlt, weil ihre Sensoren im blauen Bereich praktisch blind sind. (s. Der blauere Planet)

Dann kam die Idee mit der mel-Lux …

Mit der Entdeckung eines neuen Sensors im Auge im Jahr 2001 kam man gleich auf die Idee, deren Wirkung ebenso zu quantifizieren wie die Wirkung auf die Hellempfindung mit der V(λ)-Kurve. Die treibende Motivation beruhte auf der Erbsünde der LED, die technologiebedingt immer einen Peak im Blauen aufweist. Im Spektrum sieht das wie folgt aus:

Dass dieser Verlauf des Spektrums für die meisten LEDs gilt, zeigt ein Bild von Bodrogi, der mehrere hundert LED-Spektren gemessen und in einem Diagramm abgebildet hat.

Mit dem Standard CIE S 026/E:2018 wurde die Grundlage dafür gelegt, dass neben den herkömmlichen lichttechnischen Größen wie der Beleuchtungsstärke eine entsprechende melanopische Größe berechnet werden kann.[1] Nunmehr heißen die herkömmlichen Größen visuelle Größen. Im Gegensatz dazu werden die neuen Größen melanopisch bezeichnet, weil sie auf der Empfindlichkeit von Melanopsin beruhen. Im Internationalen Wörterbuch der Lichttechnik (e-ilv) findet sich zu jeder Größe auch eine melanopische.

Jetzt müssen die visuellen Größen mit dem Index „v“ gekennzeichnet werden, d.h. zu Leuchtdichte wird das Kürzel Lv und L angegeben, bei der Beleuchtungsstärke muss man sich viel Mühe geben, keinen Fehler zu machen. Denn Ev ist nicht einfach die visuelle Beleuchtungsstärke, weil es schon einmal eine etablierte Größe mit dieser Bezeichnung gegeben hat. Um die Sache zu verschlimmern, wurde diese Größe auch noch zur bestimmenden Wirkgröße für die melanopische Wirkung auserwählt. Deswegen muss die Vertikalbeleuchtungsstärke Ev,v genannt werden. Wenn man irgendwo nur Ev liest, muss man nachsehen, wann der Artikel veröffentlicht worden ist.

Das grundsätzliche  Problem liegt aber anderswo begraben: Die melanopischen Größen sind altersabhängig. Wenn man die Beleuchtungsstärke mel-EDI mEDI oder MEDI angibt, gilt die Angabe für 32 Jahre alte Menschen. In CIE S 026/E:2018 kann man die Altersabhängigkeit bis zum 90. Lebensjahr ablesen. Allerdings ist das Ablesen nicht nur schwer verständlich, sondern auch noch teilweise unmöglich. Das liegt daran, dass die neuen Größen einen Schritt in Richtung physiologisch gegangen sind und daher die Einflüsse des Alterns auf das Auge besser abbilden. Hinzukommt, dass die neuen Beleuchtungsstärken auch noch vom Spektrum abhängen. Das erkennt man nicht zuletzt an der Angabe einer melanopischen Beleuchtungsstärke:

Der Wert von 128 lx gilt für das Spektrum D65 und 32 Jahre alte Menschen. Für andere Menschen und Spektren muss man mit einem Korrekturfaktor arbeiten. Dieser liegt zwischen 1,052 (Alter 25 Jahre, Spektrum D65) und 0,442 (Alter 90 Jahre, Spektrum Normlichtart LED-B5).

Mit anderen Worten, die melanopische Wirkung des Lichts kann sich um den Faktor 2,38 unterscheiden, während ein Lichtmessgerät, das die Beleuchtungsstärke anzeigt, für alle Lampentypen und alle Menschen von 0 bis 100 Jahren denselben Wert angibt. Dieser Effekt hat aber mit der melanopischen Wirkung des Lichts wenig gemein, außer dass für beide die Vergilbung der Augenmedien maßgeblich ist.

Das Alterungsverhalten des Auges war bereits in der Antike bekannt. Schon im antiken Griechenland und Ägypten wusste man, dass Augen im Alter "blind" und weißlich-trüb werden können. In der Renaissance hatte man die Trübung der Linse im Fokus. Georg Bartisch veröffentlichte 1583 das erste bedeutende Werk der Augenheilkunde ("Ophthalmodouleia"). Darin beschrieb er verschiedene Formen des Stars, doch die chemische Veränderung – also die Vergilbung – blieb noch ein Rätsel.

Die Auflösung folgte im 18. Jahrhundert. Mit der Entwicklung besserer Mikroskope und der Extraktion der Linse bemerkten Ärzte, dass Linsen im Alter nicht nur trüb, sondern oft deutlich bernsteinfarben oder gelblich-braun sind. Mitte des 19. Jahrhunderts begann man zu verstehen, dass diese Gelbfärbung die Farbwahrnehmung beeinflusst (insbesondere die Absorption von kurzwelligem, blauem Licht). Die Auswirkungen dieser neuen Erkenntnisse konnte man bis in die Damenmode (Farbe der Hüte) verfolgen. Auch historische Gemälde von Künstlern im hohen Alter (wie etwa Claude Monet) haben oft einen extremen Gelbstich oder es fehlten Blautöne fast völlig: Die Künstler malten so, wie sie die Welt durch ihre vergilbten Linsen sahen.

So gesehen war die Definition des Lichts ohne Alterungseinflüsse und mit Experimenten mit jungen Männern ein bedenklicher Vorgang gewesen. Forscher wie Weston (1945) und spätere Studien zeigten, dass ein 60-Jähriger etwa dreimal so viel Licht benötigt wie ein 20-Jähriger, um die gleiche Sehaufgabe (z. B. Lesen) mit derselben Genauigkeit zu bewältigen. In den 1960er Jahren wurde nachgewiesen, dass die Netzhaut eines 60-Jährigen nur noch etwa 33 % des Lichts erhält, das die eines 20-Jährigen erreicht.

So wurde in der Lichttechnik folgerichtig gefordert, für ältere Personen höhere Lichtniveaus vorzusehen. Aber die Idee, die Bestimmung des Lichts so zu ändern, dass ein bestimmter Wert für alle Altersgruppen die gleiche Hellempfindung bedeutet, kam man aber nicht. Dies wäre ein weiterer Schritt in Richtung physiologisch richtiger Bestimmung des Lichts geworden.

Stattdessen haben sich die Beleuchtungsnormen auf die “normale” Sehkraft eingeschossen. So hieß es bei der Norm DIN 5035 (Entwurf, 1969): “Die Nennbeleuchtungsstärken nach Tabelle 1 gelten für Räume, die mit Personen unterschiedlichen Alters besetzt sind. Bei für vorwiegend ältere Menschen geplanten Allgemeinbeleuchtungsanlagen sowie bei Arbeitsplatzbeleuchtungen für den Einzelnen sind die Beleuchtungsstärken der nächsthöheren Stufe zu wählen.” Was machen die älteren Mitarbeitenden bei den Standard-Arbeitsplätzen?

In späteren Jahren verschwand die Anforderung für Räume mit vorwiegend älteren Mitarbeitenden und wurde durch etwas Schlimmeres ersetzt: „Die Zuordnung eines bestimmten Wertes der Nennbeleuchtungsstärke zu einer Sehaufgabe bezieht sich auf normalsichtige Personen.” (DIN 5035-1:1979-10). Man schrieb also Beleuchtungsnormen für normalsichtige Personen. Wer sollte das wohl sein? Das konnte man nirgendwo erklärt bekommen. Wenn eine Norm aber nicht für die gesamte Arbeitspopulation gilt, muss in derselben Norm angegeben werden, für wen sie nicht gilt.

Nach jahrelangem Studium der Beleuchtungsnormen und der sonstigen lichttechnischen Regelwerke, die seit 1924 entstanden sind, bin ich zu der Überzeugung gekommen: Die Festlegungen der Beleuchtungsnormen, die auch vom Arbeitsschutz angewendet wurden, galten für die jüngere Arbeitsbevölkerung unter 40 Jahren mit gesunden Augen. Diese muss auch noch Glück haben mit den sonstigen Eigenschaften der Beleuchtung. Denn für die Festlegung gilt: „Dabei wird vorausgesetzt, daß dieser Wert der Beleuchtungsstärke in seiner Auswirkung auf die Sehleistung nicht durch Störeinflüsse wie Direktblendung, Reflexblendung und Kontrastminderung, ungeeignete Lichtfarbe und Farbwiedergabe beeinträchtigt wird.

Wer noch viel schlimmer betroffen sein kann …

Die Gruppe junger Menschen zwischen 0 und 25 Jahren kommt bei der Bestimmung von mel-EDI gemäß CIE S 026/E:2018 nicht vor. Diese ist nicht etwa vergessen worden, sondern ohne Kommentar ignoriert. Denn man weiß nicht viel über die Reaktion jüngerer Menschen bezüglich Melatonin, auf dessen Basis man eine Berechnung durchführen könnte. Was man weiß, ist die wesentlich höhere Transparenz der Augenmedien, bevor deren Vergilbung anfängt, die eine Schutzwirkung gegen blaues Licht entfaltet. Wenn Kinder wie Erwachsene im gleichen Raum der gleichen Beleuchtung ausgesetzt werden, ist die Belastung durch Blaulicht sehr unterschiedlich.

Man hatte früher in Kitas oder Krankenhäusern nicht unbedingt darauf geachtet, dass die für die Erwachsenen geplante Beleuchtung die Augen der auf dem Rücken liegenden Babys schädigen könnte. Dabei gab es vor allem in den 1940ern bis 1960ern viele Erblindungen, die man fälschlicherweise erst nur dem Licht zuschrieb, die aber eine Kombination aus zu viel Sauerstoff und Lichtstress waren. Eines der Opfer war Stevie Wonder, dessen Erblindung zuerst auf das Licht geschoben wurde. Später wurde der Sauerstoff im Inkubator als Ursache identifiziert. Die vermutlich größte Gefährdung erfolgt vermutlich eher an südlichen Stränden, wo blonde und blauäugige Babys und Kleinkinder der Mittelmeersonne ausgesetzt werden.

Systematische Mängel

Unbekanntes Grundkonzept: Accessibility oder Design for All

Die Definition von Licht über die spektrale Empfindlichkeit der Augen junger Männer erschwert die Berücksichtigung des weitaus größeren Teils der arbeitenden Bevölkerung. Die Lichttechnik hat zwar Wörter aus der Antike wie Lux, Lumen oder Candela für ihre Größen ausgewählt und gar den Gott Apollo für den ersten Kartellvertrag der Industriegeschichte eingespannt, der die geplante Obsoleszenz[2] eingeführt hat, aber antike Konzepte wie “Der Mensch ist das Maß aller Dinge” nicht zur Kenntnis genommen.

Die moderne Form des zitierten Spruchs  des antiken Sophisten Protagoras (5. Jh. v. Chr.) trägt den Namen Accessibility. Das ist eine Politik, die der Bürgerrechtsbewegung aus den USA aus den 1960er Jahren entstammt. Sie ist durch viele Länder und auch von der UNO übernommen worden. Die ergonomische Normung wird seit mehr als 20 Jahren mit der zugänglichen Gestaltung der Arbeit und der Arbeitsstätten befasst. Die allgemeine Politik arbeitet nach dem Konzept “Design for All”. Design for All (auch bekannt als „Universal Design“) ist ein Gestaltungskonzept, das darauf abzielt, Produkte, Dienstleistungen und Umgebungen so zu entwickeln, dass sie für alle Menschen gleichermaßen nutzbar sind – unabhängig von Alter, körperlichen Fähigkeiten oder Lebenssituation. Ein solches Design ist für Menschen mit unterschiedlichen Fähigkeiten nützlich und marktfähig. Es kommt verschiedenen Vorlieben und Fähigkeiten entgegen (z. B. linkshänder-freundlich).

Die barrierefreie (accessible) Gestaltung der Beleuchtung an Arbeitsplätzen stellt sicher, dass alle Beschäftigten – unabhängig von individuellen Seheinschränkungen, Alter oder spezifischen Sehaufgaben – sicher, ergonomisch und ermüdungsarm arbeiten können. Das Problem ist, dass man das Konzept in der lichttechnischen Literatur lange suchen kann, ohne es zu finden.

Validitätsproblem – Wenn die Maße nicht stimmen

Validität ist einer der drei wichtigsten Grundpfeiler der Statistik und Forschung (die sogenannten Gütekriterien). Vereinfacht gesagt, beantwortet die Validität die Frage: „Misst der Test wirklich das, was er messen soll?“ Weiter gefasst: Was bedeutet Validität? Was bedeutet eine Messgröße?

Welche praktische Bedeutung die richtige Antwort darauf haben kann, kann man in der Historie der Kerntechnik lesen. Am 28. März 1979 bemerkten die Reaktorfahrer in Three-Mile-Island, Harrisburg, Pennsylvania, dass sie einen Unfall hatten. Pflichtgemäß pumpten sie 6.000 Kubikmeter Wasser in den Reaktor, das damit den notwendigen Wasserstand erzielte. Jedenfalls nach der Anzeige. In Wirklichkeit war kein Wasser im Reaktor. Die Anzeige hatte einen Rechenwert angezeigt, der den Wasserstand aus dem gepumpten Wasser und dem Volumen des Reaktorgefäßes errechnet hatte. Seit diesem Tag sind in den USA nur ganze zwei Reaktoren in Betrieb gegangen. Und das in 48 Jahren.

Das Thema Validierung wird in Genesis 2.0 – Schöpfung der elektrischen Sonne hier ausführlich behandelt:  So soll die Leuchtdichte der Helligkeit entsprechen. Die Lichttechnik muss sich mit sehr ernsthaften Validierungsproblemen befassen, denn alle ihre Größen sind linear, zwei Lux sind das Doppelte von ein Lux, ihre Wirkungen aber nicht, sie sind definiert nach physikalischen Entitäten. So soll die Leuchtdichte der Helligkeit entsprechen. Das tut sie nicht, weil sie das nicht kann.

Lichttechnische Grundgrößen entsprechen physikalischen Größen, die man mit Hilfe der V(λ)-Kurve umrechnet. Wenn ihre Werte etwas bedeuten sollen, müssen sie physiologischen Wirkungen entsprechen, welchen auch immer. Im einfachsten Fall sollten z.B. Reflexionsgrade wie 0,3 oder 0,6 etwa dem Helligkeitseindruck entsprechen, den Proben mit solchen Werten erreichen. Rein physikalisch gesehen reflektiert die Probe mit einem Reflexionsgrad von 0,6 tatsächlich exakt doppelt so viel Lichtenergie wie die Probe mit 0,3. Unser visuelles System arbeitet nicht linear, sondern annähernd logarithmisch. Das bedeutet: Damit wir einen Helligkeitsunterschied als gleichmäßig steigend wahrnehmen, muss die physikalische Lichtintensität exponentiell zunehmen. Das ist die Kernaussage des Weber-Fechner-Gesetzes. Das Weber-Fechner-Gesetz beschreibt den Zusammenhang zwischen der objektiven Intensität eines physikalischen Reizes und der subjektiv empfundenen Stärke dieses Reizes. Es bildet das Fundament der Psychophysik.

Jeder Lichttechniker und jeder Akustiker lernt das Gesetz, bestimmte Ingenieure gleich zweimal. Wenn sie sich auf dem Gebiet der technischen Akustik bewegen, arbeiten sie mit einer logarithmischen Größe. Als Lichttechniker müssen sie linear denken. Arbeitswissenschaftler wie ich verzweifeln zuweilen, wenn sie den Umstand Betriebsleuten vermitteln sollen.

Einfach gesagt: Es gibt keine physiologischen Entsprechungen zu lichttechnischen Größen. Man muss Lichtwirkungen mühsam mit den Beleuchtungsbedingungen in Relation bringen. Dabei wird man nicht selten durch die falsch definierten Maße in die Irre geführt.

[1] Wann die melanopischen Größen wirklich in dem Wörterbuch erschienen sind, kann ich nicht zuverlässig angeben. Die CIE hat bis zum Jahr 2021 das Zitieren der Begriffe aus ihrem Wörterbuch e-ilv im Internet nicht anerkannt. Sie bestand darauf, dass man die gedruckte Version benutzt. Diese gab es aber in keiner Bibliothek. Mir ist nicht einmal auf offiziellem Weg gelungen, ein Exemplar zu Gesicht zu bekommen. Das wird erst verständlich, wenn man berücksichtigt, dass das Wörterbuch komplett überarbeitet werden musste.

[2] Gemeint ist das Phoebus-Kartell, mit dem weltweit eine feste Dauer für die Glühlampe festgelegt wurde. (mehr hier Das Phoebus-Kartell – Gerücht - Legende – Realität) Phoebus (Phoibos) ist der Beiname von Apoll, besser bekannt als Apollon, des Olympischen Gottes des Lichts und der Heilkunst.

.

Ist LED-Beleuchtung effizienter als die Glühlampenbeleuchtung? Eine physiologische Betrachtung

Zahlen sind hervorragende Diener,
aber miserable Wegweiser
Anonymus

Kurzfassung

LED‑Beleuchtung gilt als energieeffizient, weil sie fast ausschließlich Licht im sichtbaren Bereich erzeugt – üblicherweise zwischen 380 und 650 nm. Glühlampen und Sonnenlicht hingegen strahlen über ein viel breiteres Spektrum (300–2500 nm), das auch UV‑ und vor allem Infrarotanteile umfasst.

Eine aktuelle Studie von Barrett & Jeffery (2026) zeigt, dass diese Spektralverengung bei LEDs negative Auswirkungen auf die Mitochondrien und damit auf Stoffwechsel, Alterung und visuelle Leistungsfähigkeit haben kann. Insbesondere kurze Wellenlängen (420–450 nm), die bei LEDs dominieren, unterdrücken die mitochondriale Atmung, während längere Wellenlängen (670–900 nm) diese verbessern.

Insgesamt argumentiert dieser Beitrag, dass die Beurteilung von Lichtquellen nicht nur auf ihrer Lichtausbeute in Lumen/Watt basieren sollte: Die gesundheitlichen und visuellen Auswirkungen des Spektrums sind mindestens ebenso entscheidend.

Was ist die visuelle Effizienz?

Die Effizienz von Lichtquellen wird sinnvollerweise daran gemessen, welchen Gegenwert man für die Energie erhält, die man in die Lampe steckt. Die Größe, die man hierzu heranzieht, ist üblicherweise die Lichtausbeute in Lumen/Watt. Lumen ist die Einheit des Lichtstroms, den ein Leuchtmittel erzeugt. Dieser gilt als die erwünschte Nutzwirkung.

Die Rechnung geht dann ohne Einschränkung auf, wenn das so berechnete Licht für die erzeugte Sehleistung allein maßgeblich ist. Man nimmt im Allgemeinen an, das sei der Fall, weil der Lichtstrom auf der Basis der Definition von Licht nach CIE (V(λ)-Kurve) erfolgt, die alle Strahlung berücksichtigt, die eine Sehempfindung hervorruft. Die hier besprochene Beziehung ist die Grundlage für den Handel mit Licht und Lichtprodukten.

Während die Glühlampe als sehr ineffizient galt und deswegen von der EU verboten wurde, wurde die LED-Technologie insbesondere wegen der Energieeffizienz gefördert. Der Unterschied ist immens. Während die Allgebrauchsglühlampe etwa bei 15 lm/W lag, erreichen weiße LEDs mittlerweile Werte bei 140 lm/W.

Die wahre Rechnung wäre, wenn man die durch die Beleuchtung erzeugte Sehleistung dem Energieverbrauch gegenüberstellen würde. Dies ist allein deswegen nicht möglich, weil es keine vernünftige Definition von Sehleistung gibt. (mehr dazu z.B. hier Vom Elend, ein Lichtplaner in Deutschland zu sein oder da Halbe oder doppelte Beleuchtungsstärke bei Tageslicht?) Welche Definition man auch heranziehen mag, eine der wichtigsten Leistungen des Auges, Farben zu erkennen, gehört nicht zur Sehleistung.

Woher kommt der Effizienzunterschied zwischen Leuchtmitteln

Da ein Leuchtmittel weder Energie erzeugen noch vernichten kann, strahlt es alle Energie, die man in sie hineinsteckt, wieder ab. Dies kann bei Stralungsquellen, die zur Lichterzeugung verwendet werden, in drei Bereichen erfolgen: Wellenlänge < 380 nm (UV) , 380 nm – 780 nm (Licht) und über 780 nm (IR). Der gesamte Bereich wird optische Strahlung genannt, weil man sie mit optischen Instrumenten messen kann.

LEDs kann man so bauen, dass ihre gesamte Strahlung als Licht erzeugt wird. Daher die große Effizienz. Die allergrößte Effizienz würde eine LED erreichen, die alles Licht bei 555 nm abstrahlt. Allerdings kann man mit diesem Licht keine Beleuchtung betreiben. Deswegen erfolgt die Effizienzbetrachtung nur für weißes Licht.

Schwachstelle der Betrachtungsweise

Die Schwachstelle dieser allgemein üblichen Betrachtungsweise sehen Forschende darin, dass die Hellempfindung nicht den gesamten Sehvorgang erfasst. Sie gehen davon aus, dass sich das menschliche Leben unter einer Strahlung mit Wellenlängen von 300 nm bis 2500 nm entwickelt hat. Hingegen würden die LED-Beleuchtungen sich auf den Bereich von 380 bis 650 nm beschränken. Daher wäre die Lichtausbeute nur scheinbar hoch.

In Nature wurde in Januar eine Studie von E. M. Barrett und G. Jeffrey veröffentlicht, die nachweist, dass die LED-Beleuchtung mit diesem schmalen Frequenzband die Sehleistung gegenüber Sonnenlicht verschlechtert.

Barrett, E.M., Jeffery, G. LED lighting (350-650nm) undermines human visual performance unless supplemented by wider spectra (400-1500nm+) like daylight. Sci Rep 16, 3061 (2026). https://doi.org/10.1038/s41598-026-35389-6

Ergebnis der Nature-Studie)

Nachfolgend die Kurzfassung der Autoren übersetzt durch deepl (Absätze von mir eingefügt, um das Lesen zu erleichtern.. Die benutzten Daten können bei Glenn Jefffrey mit einer Begründung abgerufen werden: g.jeffery@ucl.ac.uk

Das Leben hat sich unter breitspektralem Sonnenlicht entwickelt, das von Ultraviolett bis Infrarot (300–2500 nm) reicht. Dieses spektral ausgewogene Licht hat die Physiologie und den Stoffwechsel des Lebens geprägt. In der modernen Beleuchtung dominieren jedoch seit kurzem Leuchtdioden mit eingeschränktem Spektrum (350–650 nm).

Das Fehlen längerer Wellenlängen bei LEDs und die Dominanz kurzer Wellenlängen wirken sich auf die Physiologie aus und beeinträchtigen die normale mitochondriale Atmung, die den Stoffwechsel, Krankheiten und den Alterungsprozess reguliert. Mitochondrien sind lichtempfindlich.

Das in LEDs vorherrschende Licht im Bereich von 420–450 nm unterdrückt die Atmung, während tiefes Rot/Infrarot (670–900 nm) die Atmung bei Alterungsprozessen und einigen Krankheiten, einschließlich der Blutzuckerregulation, steigert. Hier ergänzen wir LED-Licht zwei Wochen lang durch Breitbandlicht (400–1500 nm+) und testen die Farbkontrastempfindlichkeit. Wir zeigen eine signifikante Verbesserung dieses Messwerts, die auch nach dem Wegfall der zusätzlichen Beleuchtung noch 2 Monate anhält.

Mitochondrien kommunizieren im gesamten Körper und haben systemische Auswirkungen nach regionaler Lichtexposition. Dies beinhaltet wahrscheinlich veränderte Muster der Serum-Zytokin-Expression, was die Möglichkeit weiterer negativer Auswirkungen von LEDs auf die menschliche Gesundheit nahelegt, insbesondere bei älteren Menschen oder in klinischen Umgebungen, in denen Personen geschwächt sind. Eine Änderung der Beleuchtung in diesen Umgebungen könnte ein äußerst kostengünstiger Weg zur Verbesserung der öffentlichen Gesundheit sein.

Diskussion durch die Autoren (nicht editiert)

Wir zeigen, dass sich die Sehleistung von Personen, die unter Standard-LED-Beleuchtung arbeiten, durch die Einwirkung von Glühlampenlicht, dessen Spektrum dem Tageslicht ähnelt und eine umfangreiche Infrarotkomponente aufweist, deutlich verbessert. Diese Daten stimmen mit der Hypothese überein, dass LED-Beleuchtung die Sehleistung des Menschen beeinträchtigt. Dieses Ergebnis steht im Einklang mit Laborversuchen, bei denen bestimmte von LEDs erzeugte Rot-/Infrarot-Wellenlängenbereiche genutzt wurden, um die Sehfunktion bei Tieren und Menschen auf konservative Weise zu verbessern. Es gibt jedoch drei entscheidende Unterschiede zu diesen früheren Studien. Erstens haben wir lediglich die Umgebungsbeleuchtung in einer Arbeitsumgebung mit Bewegungsfreiheit verändert. Zweitens haben wir signifikante, ausgewogene Verbesserungen sowohl im Protan- als auch im Tritan-Bereich erzielt. Zuvor führte die Exposition gegenüber einem begrenzten experimentellen 670-nm-Licht zu Verbesserungen, die stark zugunsten der Tritan-Funktion verzerrt waren. Daher führt die Exposition gegenüber Vollspektrum-Beleuchtung zu einem ausgewogenen Muster der Verbesserung der Sehleistung. Drittens haben wir gezeigt, dass Verbesserungen der Sehfunktion nach der Exposition gegenüber Glühlampenlicht bis zu 6 Wochen und möglicherweise darüber hinaus anhalten, während die Vorteile von rotem Licht mit eingeschränktem Spektrum aus einer einzelnen LED auf etwa 5 Tage begrenzt waren. Diese drei Merkmale verändern die Art und Weise, wie langwelliges Licht zur Verbesserung der menschlichen Physiologie eingesetzt werden kann, indem es in normalen Umgebungen mit anhaltenden, ausgewogenen Effekten bereitgestellt wird. Diese Ergebnisse sind neuartig und könnten Auswirkungen auf die öffentliche Gesundheit haben.

Die Evolution des Lebens auf der Erde erstreckt sich über 4 Milliarden Jahre, die des Menschen über etwa 4 bis 5 Millionen Jahre seit dem letzten gemeinsamen Vorfahren der Primaten. All dies fand unter Sonnenlicht statt, dessen Spektralbereich etwa 300 bis 2500 nm+ umfasst, wobei innerhalb dieses Bereichs stets ein Gleichgewicht zwischen kurzen und längeren Wellenlängen herrschte. Die Nutzung des Feuers durch den Menschen vor 1–2 Millionen Jahren ergänzte das Sonnenlicht, als dieser Afrika verließ, da dessen Spektrum ähnlich ist und einen hohen Infrarotanteil aufweist. Ebenso wies die bis etwa zum Jahr 2000 verbreitete Edison-Glühfadenlampe ein dem Sonnenlicht ähnliches Spektrum auf. Um 2010 herum setzte sich jedoch die LED-Beleuchtung mit ihrem stark eingeschränkten Spektrum (350–650 nm) und ihren energiesparenden Eigenschaften durch, was zu einem Verlust an Infrarotlicht in der bebauten Umwelt führte.

Die Physiologie von Lebewesen ist in einem über die Arten hinweg hochkonservierten Muster an das natürliche Umgebungslicht angepasst. Licht beeinflusst die Mitochondrienfunktion, die ein zentraler Regulator des Stoffwechsels und des Alterungsprozesses bei Tieren ist. Wenn sich das Gleichgewicht zwischen kurzen und langen Wellenlängen verschiebt, hat dies Auswirkungen auf die Mitochondrien. Bei vorherrschender Exposition gegenüber kürzeren Wellenlängen, wie bei LED-Beleuchtung, nimmt die Mitochondrienfunktion ab. Die Proteine der Mitochondrienkomplexe werden abgebaut, und die ATP-Produktion ist verringert. Mit einem verringerten Glukosebedarf der Mitochondrien kommt es zu einer Gewichtszunahme und zu Störungen der Serumzytokine. Folglich besteht, im Einklang mit der mitochondrialen Theorie des Alterns, eine erhöhte Wahrscheinlichkeit für das Altern und den Tod von Zellen bzw. Organismen. Es wird vermutet, dass dies teilweise darauf zurückzuführen ist, dass Licht im Bereich von 420–450 nm, das bei LEDs vorherrscht, von Porphyrin absorbiert wird und die daraus resultierende Produktion von Sauerstoffsingulett-Radikalen Entzündungen fördert.

Umgekehrt wird die Exposition gegenüber längeren Wellenlängen mit einem erhöhten mitochondrialen Membranpotenzial und einer erhöhten Konzentration von Proteinen der mitochondrialen Komplexe in Verbindung gebracht, deren Gehalt mit zunehmendem Alter und bei Erkrankungen abnimmt. Dies wiederum geht mit einem erhöhten ATP-Spiegel, einer verminderten Entzündungsreaktion und einer verlängerten durchschnittlichen Lebenserwartung einher. Die experimentelle Anwendung längerer Wellenlängen in solchen Situationen wird gemeinhin als Photobiomodulation bezeichnet.

Die Netzhaut weist den höchsten Stoffwechsel im Körper sowie eine hohe Mitochondrienkonzentration auf. Der Stoffwechsel der Netzhaut nimmt mit zunehmendem Alter ab, was jedoch bei verschiedenen Spezies durch langwelliges Licht teilweise ausgeglichen werden kann. Beim Menschen verbessert eine einzige 3-minütige Bestrahlung mit 670 nm das Farbsehen innerhalb von 3 Stunden, wobei dieser Effekt fast eine Woche lang anhält. Was die Autoren dieser Studie jedoch nicht berücksichtigten, war, dass dies in einer Population geschah, die hauptsächlich unter LED-Belechtung arbeitete und lebte, was ihre Ausgangswerte möglicherweise verfälscht hat. Hier haben wir keinen Versuch unternommen, die Lichtexposition oder die Bewegungen der Probanden zu kontrollieren, wie es bei Laborversuchen der Fall wäre. Vielmehr war es unser Ziel, breitbandiges Langwellenlicht in eine Arbeitsumgebung einzubringen, um die menschliche Leistungsfähigkeit durch mitochondriale Manipulation in einem translationalen Schritt zu verbessern.

Es gibt zahlreiche Hinweise darauf, dass die Einwirkung längerer Wellenlängen systemische Auswirkungen hat. Durieux et al. stellten im Zusammenhang mit Experimenten an C.elegans fest: „Wir haben festgestellt, dass eine Störung der Mitochondrien in einem Gewebe vom mitochondrialen Stressreaktionsweg in einem entfernten Gewebe wahrgenommen und darauf reagiert wird.“ Bei Mäusen zeigen sich signifikante, deutliche Veränderungen der Serumzytokin-Expression bei Expositionen sowohl gegenüber kurzwelligem als auch langwelligem Licht. In ähnlicher Weise senkt die Exposition der Körperoberfläche (mit Ausnahme der Augen) gegenüber langwelligem Licht den Blutzuckerspiegel beim Menschen signifikant und erhöht den Sauerstoffverbrauch. Dies liegt wahrscheinlich daran, dass eine mitochondriale Hochregulation den Kohlenhydratbedarf erhöht, um die gesteigerte ATP-Produktion zu unterstützen. Weitere systemische Auswirkungen lassen sich bei experimentell induziertem Parkinson bei Primaten beobachten und sind dort deutlich erkennbar. Licht, das durch Implantate gezielt auf die Substantia nigra gerichtet wird, ist wirksam bei der Linderung der Symptome, aber ebenso wirksam ist Licht, das auf distale Stellen gerichtet wird.

Einzelne 3-minütige Bestrahlungen bei 670 nm bleiben etwa 5 Tage lang wirksam. Wir zeigen jedoch, dass sie bei einem breiteren Spektrum 6 Wochen lang wirksam bleiben, obwohl wir das Ende der Wirkung nicht feststellen konnten. An dieser Stelle lohnt es sich, mögliche Wirkmechanismen zu betrachten, die nach wie vor umstritten sind. Historisch gesehen wurde angenommen, dass Verbesserungen durch rotes Licht auf die Lichtabsorption durch Cytochrom C in der Atmungskette zurückzuführen sind. Positive Effekte werden jedoch in vitro auch in Abwesenheit dieses Cytochroms festgestellt. Folglich wurde vermutet, dass längere Wellenlängen die Viskosität des Wassers um die rotierenden ATP-Pumpen herum verringern, wodurch der Rotor an Geschwindigkeit zunehmen kann. Dies kann die anhaltenden Auswirkungen der Lichtexposition nicht erklären, da dieser Effekt relativ vorübergehend sein müsste, da die Viskosität nach Entzug des Lichts rasch ansteigen würde. Ein wesentliches Merkmal der Absorption von Licht mit langer Wellenlänge ist jedoch die erhöhte Proteinsynthese in der Atmungskette. Diese Proteine unterliegen im Laufe des Tages Schwankungen, und Komplex IV wird nach Bestrahlung mit rotem Licht hochreguliert. Während rotes Licht also zunächst die Drehzahl der Rotorpumpen erhöhen mag, folgt darauf rasch eine Steigerung der Proteinsynthese, die zu einer höheren Kapazität der Atmungskette führen könnte. Die Lebensdauer dieser Proteine könnte dann die Dauer der Wirkung bestimmen.

Bei der mitochondrialen Proteinsynthese werden lediglich dreizehn Polypeptide gebildet. Dieser Prozess verlangsamt sich wahrscheinlich mit zunehmendem Alter und trägt vermutlich zum altersbedingten Rückgang der Mitochondrienfunktion bei. Entscheidend ist jedoch, dass wir weder die Geschwindigkeit der mitochondrialen Proteinsynthese noch die Lebensdauer dieser Proteine noch das Tempo ihres Abbaus kennen. Wir vermuten, dass dies entscheidende Faktoren für die Dauer der Auswirkungen von Lichteinwirkung sein könnten.

LED-Beleuchtung hat eindeutig das Potenzial, die Sehleistung zu beeinträchtigen, wahrscheinlich durch eine verminderte mitochondriale Funktion. Da sich gezeigt hat, dass lichtinduzierte Veränderungen der mitochondrialen Leistungsfähigkeit systemische Auswirkungen haben, könnten die hier aufgezeigten Auswirkungen von LEDs weitreichender sein als ursprünglich angenommen. Angesichts der weit verbreiteten Nutzung von LEDs könnte dies ein wichtiges Thema für die öffentliche Gesundheit und klinische Umgebungen darstellen, wo eine Anpassung der Beleuchtungsmuster unter Berücksichtigung dieses Aspekts zu bedeutenden positiven Ergebnissen führen kann.

Angesichts unserer Ergebnisse stellt sich die Frage, welche Lösungen zur Verbesserung der Gesundheit im Hinblick auf die Beleuchtung in der bebauten Umwelt gefunden werden können. Glühlampen, die, wie wir hier zeigen, einen deutlich positiveren Einfluss haben als herkömmliche LEDs, werden aus Gründen der Energieeffizienz weltweit aus dem Verkehr gezogen, wobei der Fokus ausschließlich auf dem erzeugten sichtbaren Licht liegt.

Eine Lösung könnte in der Entwicklung von Beleuchtungskörpern mit mehreren LEDs längerer Wellenlänge liegen, um einen größeren Bereich des nahen Infrarots abzudecken. Unsere Versuche in dieser Hinsicht waren jedoch nur begrenzt erfolgreich. Mehrere eng beieinander liegende Spektralpeaks erzeugen keine gleichmäßige Spektralstrahlung, wie sie bei Glühlampen und Sonnenlicht zu finden ist, was für die Funktionsverbesserung problematisch ist und bislang noch keine Ergebnisse gebracht hat. Dies könnte möglicherweise durch eine größere Anzahl von Spektralpeaks mit engerem Abstand überwunden werden. Dies wirft jedoch eine Reihe anderer Probleme hinsichtlich der Kosten und des erhöhten Energieverbrauchs auf, wodurch diese Lösung im Hinblick auf die ökologische Nachhaltigkeit nicht besser ist als die Beibehaltung von Glühlampen.

Entscheidend bei diesem Thema ist die Frage, wie viel Infrarotstrahlung erforderlich ist, um eine verbesserte Funktion aufrechtzuerhalten. Infrarotstrahlung wird in der bebauten Umgebung von relativ wenigen Materialien absorbiert, und aktuellen Studien zufolge muss der Umgebung nur relativ wenig hinzugefügt werden, um eine Wirkung zu erzielen. Eine praktikable Option besteht jedoch darin, eine Glühlampe bei einer niedrigeren Temperatur zu betreiben, was sowohl zu Energieeinsparungen als auch zu einer längeren Lebensdauer des Geräts führt und zudem das spektrale Leistungsmaximum in Richtung längerer Wellenlängen verschiebt.

Wird dies mit einer Halogenlampe durchgeführt, bei der es sich um eine Art Glühlampe mit Wolframfaden handelt, hält der Faden länger, da sich verdampftes Wolfram wieder auf dem Faden ablagert, anstatt das Lampenglas zu schwärzen. Daher ist die Verwendung einer Halogenlampe bei niedrigerer Spannung eine realistische Alternative in Bezug auf Gesundheit und Energieverbrauch.

Anm.: Halogenlampen funktionieren bei niedrigen Temperaturen nicht. Aber auch eine normale Glühlampe kann bei halber Betriebsspannung praktisch unendlich leben.

Links und Literatur

Die Studie ist in vollem Umfang online erhältlich. Für Interessierte füge ich einen Download-Link bei.

Die Autoren zitieren 29 Studien. Hiervon scheinen mir einige besonders interessant:

Jeffery, G. et al. Longer wavelengths in sunlight pass through the human body and have a systemic impact which improves vision. Sci. Rep. 2025 July;15(1);24435. https://doi.org/10.1038/s41598-025-09785-3

Begum, R. et al. Near-infrared light increases ATP, extends lifespan and improves mobility in aged Drosophila melanogaster. Biol.Lett. ;11(3):20150073. (2015). https://pubmed.ncbi.nlm.nih.gov/25788488/ PMID: 25788488.

Powner, M. B. & Jeffery, G. Light stimulation of mitochondria reduces blood glucose levels. J.Biophotonics. ;17(5):e202300521. (2024). https://pubmed.ncbi.nlm.nih.gov/38378043/. PMID: 38378043.

Shore-Lorenti, C. et al. Shining the light on Sunshine: a systematic review of the influence of sun exposure on type 2 diabetes mellitus-related outcomes. Clin. Endocrinol. ;81(6):799–811. (2014). https://pubmed.ncbi.nlm.nih.gov/25066830/ PMID: 25066830.

Sivapathasuntharam, C., Sivaprasad, S., Hogg, C. & Jeffery, G. Aging retinal function is improved by near infrared light (670 nm) that is associated with corrected mitochondrial decline. Neurbiol. Aging 2017 Apr:52:66–70. https://pubmed.ncbi.nlm.nih.gov/28129566/ PMID: 28129566.

Erinnerung an die Zukunft von einst

Das in diesem Artikel in Nature vor zwei Monaten veröffentlichte Argument war im Zuge der Diskussion eines Glühlampenverbots zu Beginn des Jahrhunderts mehrfach vorgebracht worden. Der Grundstein zum Verbot wurde mit der Verabschiedung der ersten Ökodesign-Richtlinie (2005/32/EG) im Juli 2005 gelegt. Diese Richtlinie schuf den Rahmen, um Mindestanforderungen an die Energieeffizienz von Produkten festzulegen. Damals wurde die Glühbirne noch nicht namentlich verboten, aber sie rückte als ineffizienter "Energiefresser" (da rechnerisch bis 95 % der Energie in Wärme statt Licht umgewandelt werden) ins Visier der Experten.

Der wichtigste Protagonist in Deutschland war Alexander Wunsch, der die Argumentation mit dem evolutionsbegleitenden Spektrum jüngst in Licht 1/26 präzisiert hat. Der Beitrag ist hier abrufbar:  Rückkehr der verbotenen Lampe. Wunsch führte in einem Beitrag von 2009 die Rolle des Infrarotanteils für die Funktion der Mitochondrien an: “Der Nahinfrarot-Anteil der Glühlampe stärkt die Funktion der Mitochondrien (Zellkraftwerke).“  Auch das Argument mit besserem Sehen wurde vorgebracht: „Durch die niedrigen Blauanteile erleichtert das Licht der Glühlampe den Sehvorgang, Kontrast und Sehschärfe werden um bis zu 50% erhöht.”

Sein damaliges Fazit lautete: “Aus ganzheitsmedizinischer Sicht käme das Verbot der Verwendung von Glühlampen einer staatlich verordneten KÖRPERVERLETZUNG gleich, solange kein gleichwertiges Leuchtmittel zur Verfügung steht!” (abrufbar unter Creative Commons Lizenz hier

Phantome, die unser Wissen beherrschen IX

Die größte Gefahr für die Erkenntnis ist
nicht das Unwissen, sondern die Faulheit,
die sich hinter Fachbegriffen versteckt
Anonymus

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Phantom Lambertscher Strahler

Der Beitrag erläutert, warum das Lambertsche Gesetz – ein mathematisches Modell für ideal diffuse Reflexion – in der realen Beleuchtungspraxis häufig zu Fehlinterpretationen führt. Ein Lambert Strahler würde in alle Richtungen gleich hell erscheinen, doch kein reales Material verhält sich exakt so. Trotzdem wird dieser Idealzustand in vielen Normen und Berechnungen vorausgesetzt. Viele Normen und Regelwerke (z. B. DIN-Normen zu Arbeitsstätten, Sportstättenbeleuchtung, Bildschirmarbeitsplätzen) basieren auf Annahmen, die physikalisch nicht zutreffen. Sogar eine Grundgröße wie die Beleuchtungsstärke oder eine wichtige Größe wie der Reflexionsgrad machen nur Sinn, wenn man von einer Lambertschen Reflexion ausgeht.
Vorschriften zur Leuchtenanordnung und zum Arbeitsraum führten zu teils absurden Anforderungen (z. B. ausschließlich matte Oberflächen, stark eingeschränkte Raumzonen für Arbeitsplätze). Viele Anforderungen sind praktisch nicht erfüllbar und werden daher ignoriert – zu Lasten der Benutzer. Man hätte besser mehr diffuses Licht statt direkter Beleuchtung vorsehen sollen, entspiegelte Bildschirme statt Vorschriften zu deren Aufstellung. Man muss anerkennen, dass das Lambert-Modell ein hilfreiches Ideal ist, aber keine reale Grundlage für praktische Normen.

Zur Geschichte des Phantoms

Dieses Phantom kennen nur Fachleute unter seinem Namen, den dessen Erfinder ihm gegeben hat, Johann Heinrich Lambert, seines Zeichens schweizerisch-elsässischer Mathematiker, Logiker, Physiker, Astronom und Philosoph der Aufklärung, der u. a. die Irrationalität der Zahl Pi bewies. Die Folgen des großzügigen Umgangs mit dem Phantom kann man in allen Lebenslagen erfahren.

Wenn man eine genaue Erklärung für Lamberts Kosinus-Gesetz aus dem 18. Jahrhundert braucht, kommt meistens etwas zusammen, dass auch manche Fachleute rätseln müssen, was das denn sein soll. Hier ist ein gutes Beispiel für (k)eine gute Visualisierung:

Anschaulicher stellt das Lambertsche Gesetz Wikipedia dar du sagt dazu: „…Wenn eine Fläche dem Lambertschen Gesetz folgt und die Strahldichte der Fläche konstant ist, so ergibt sich eine kreisförmige Verteilung der Strahlstärke.

Legende: Winkelabhängigkeit der Strahlstärke bei einem Lambert-Strahler.
I: Strahlstärke; S: Quelle oder Reflexionsfläche

Allerdings kann auch diese Abbildung nicht allzu viel helfen, das Thema zu verstehen, weil sie zwar simpel ausschaut, aber trotzdem sehr technisch ist. Für den in diesem Beitrag verfolgten Zweck ist eine verbale Beschreibung viel erhellender: Ein Objekt, das dem Lambertschen Gesetz genügt, sieht aus allen Richtungen gesehen gleich hell aus, egal ob es selbst strahlt oder fremdes Licht reflektiert. Bei der Reflexion ist es vollkommen gleichgültig, ob das Licht aus einem einzigen  Punkt kommt (z.B. von der Sonne, von einer Lampe) oder aus einer gleichmäßig leuchtenden Halbkugel um das Objekt herum. Dieses Verhalten zeigt das Bild unten. Das aus einer einzigen Richtung einfallende Licht wird so gestreut, dass man aus jeder Richtung die gleiche Helligkeit sieht.

Es geht genau um die mit den kleinen blauen Pfeilen angedeutete Verteilung des reflektierten Lichts. Es gibt nämlich überhaupt kein Material, dessen Oberfläche so reflektieren kann. Das Problem entsteht dadurch, dass man in der Beleuchtungstechnik so tut, als ob dies (fast) immer gelten würde. Das macht ein perfektes mathematisches Modell zum Phantom. Viele Irrungen und Wirrungen in der Beleuchtungstechnik lassen sich auf Missverständnisse zurückführen.

Wo es überall kneift und schwitzt

Was es in etwa bedeutet, kann man an diesem Bild erkennen, das einen Tisch zeigt, dessen Oberfläche nicht ganz dem Gesetz entspricht, was man an den Schatten erkennen kann. Auf dem Bild sind mehrere Objekte abgebildet, deren Reflexionsvermögen sehr unterschiedlich ist.

Auf dem Tisch befindet sich ein Computer, dessen Bildschirm stark von dem Lambertschen Gesetz abweicht. Davor sieht man ein bedrucktes Blatt Büropapier, das dem Lambertschen Ideal recht nahekommt. Während der Monitor neben der beabsichtigten Information alles Mögliche noch zeigt, z.B. den Kopf des Benutzers und die Nachbargebäude, scheint das Papier frei von Reflexionen aller Art.

Das Bild, vollkommen unbearbeitet, zeigt trotzdem nicht die „Wahrheit“, also ein physikalische Gegebenheit. Der abgebildete Monitor ist für dessen Benutzer hervorragend entspiegelt, sieht aber wie ein perfekter Spiegel aus. Der Benutzer sieht aber nichts von allem, was das die Monitoroberfläche gespiegelt abbildet. Das matte Papier ist matt nur für weitgehend gestreutes Licht. Die darauf gedruckte Schrift glänzt noch etwas, je nachdem, wie der Drucker sie fixiert hat.

Im übelsten Fall, streifendes Licht, kann ein passables Bild (s. unten, links) zu einem katastrophalen werden (unten, Mitte). Der Kontrast kann sich sogar umkehren (unten, rechts)

Mit einfachen Worten, die Abweichung der realen Reflexionsbedingungen kann bis zu einer fast vollständigen Verfälschung eines gegebenen Bildes führen. Daher macht es Sinn, anzusehen, wo überall in unserer Denke und Praxis das Phantom zuschlägt.

Die Größe Beleuchtungsstärke macht Sinn, wenn …

Der Begriff Beleuchtungsstärke stammt aus dem Labor und gilt genau genommen nur in der Art, wie sie dort benutzt wird. Beleuchtungsstärke ist der an einem Punkt ankommende Lichtstrom (rechts im Bild). Wenn dort ein Photometer hängt, liest man den Wert ab. Wenn dort ein Objekt hängt, das so reflektiert wie nach dem Lambertschen Gesetz, entsteht eine Leuchtdichte

L = ρ • E
Wobei L für Leuchtdichte steht und ρ für den Reflexionsgrad.

Dieselbe Formel verwendet man aber auch, um die Leuchtdichte des Papiers anzugeben, das z.B. unter sehr verschiedenen Beleuchtungen liegt, die unten skizziert sind.

Wenn man die Beleuchtungsstärke an einem Punkt links oder rechts im Bild misst und dort einen Wert X liest, rechnet man mal die Leuchtdichte eines dort befindlichen Objekts nach diesem Wert. Das ist aber nur dann zulässig, wenn das Objekt richtungsunabhängig reflektiert. Ansonsten kann der abgelesene Wert alles Mögliche bedeuten, nur nicht die errechnete Leuchtdichte.

Man liegt mit der Bewertung einer Beleuchtungsstärke umso weiter daneben, je weiter sich die Beleuchtung von einer idealen Halbkugel mit gleicher Abstrahlung unterscheidet. Der eklatanteste praktische Fall liegt bei älteren Sportstätten vor, die mit vier Masten beleuchtet werden. Bei diesen hat die auf dem Feld gemessene Beleuchtungsstärke mit der tatsächlich relevanten Leuchtdichte (Richtung zur Hauptkamera des Fernsehens) so gut wie nichts zu tun. Dies habe ich 1973 mit simultanen Messungen der Beleuchtungsstärke und Leuchtdichte in einem Stadion nachgewiesen. Kurz gesagt: An 13 von 100 Messpunkten versagt die Größe der Beleuchtungsstärke bei der Angabe der gemessenen Leuchtdichte. Stand heute gelten aber die “Anforderungen an die horizontale Beleuchtungsstärke nach Sportarten gemäß DIN EN 12193:2008-04

Wenn man das Licht aus diesen vier Masten an einer bestimmten Stelle des Spielfeldes zusammenzählen  will, um daraus eine sinnvolle Größe für die Leuchtdichte zu erhalten, die für die Kameras und Menschen relevant ist, muss der Rasen ein Lambert-Strahler sein. Dass er das bestimmt nicht ist, kann man als Fussballfan ein paar Mal in jeder Woche am Fernseher erleben. Wie der Rasen in einem Stadion wirklich reflektiert, ist hier skizziert:

Dieser Effekt ist seit etwa 60 Jahren bekannt und gehört mittlerweile zum Erscheinungsbild eines Fussballstadions. Er wird mit Hilfe von besonderen Einrichtungen hergestellt.

Dass die Horizontalbeleuchtungsstärke bei Sportarten wie Fussball nicht nur wenig Bedeutung hat, war dem deutschen Fernsehen in den 1960ern bekannt. Deswegen verlangte es für die Olympiasportstätten in München Vertikalbeleuchtungsstärken. Dennoch blieb es bis heute nicht nur bei den unsinnigen Anforderungen. Die Praxis liegt noch schlimmer daneben.

Die Annahme, dass eine Horizontalbeleuchtungsstärke bei den vorliegenden Lichtverteilungen Sinn mache, der die Vorstellung einer Lambertschen Reflexion zugrunde liegt, enthebt die Notwendigkeit, sich Gedanken über die Ebene zu machen, in der das Licht einfällt. Das untere Bild zeigt einen Ball, der von zwei Seiten beleuchtet wird.

Die beiden Scheinwerfer links und rechts werden in der Berechnung ihrer Wirkung einfach zusammengezählt. Wenn ein Mensch oder eine Kamera diesen Ball von links aufnimmt, nützt ihnen der Lichteinfall von rechts garantiert nicht. Somit ist der Kontrast des Balls zu seinem Hintergrund halb so hoch wie berechnet.

Das scheinbar unlösbare Problem der Bildschirmreflexionen

Reflexionen auf Bildschirmen sind seit ihrer Einführung im Büro in den 1960ern ein Thema. Ein Nachweis dafür, dass sie auch heute relevant sind, liefert ein Blick in die Arbeitsstättenverordnung, bei der ein ganzes Kapitel der Gestaltung und dem Betrieb von Bildschirmarbeitsplätzen gewidmet ist.  Wie die Beleuchtung von Arbeitsstätten damit erfolgreich umgehen könnte, steht in DIN EN 12464-1: “EN ISO 9241-307 enthält Anforderungen an die visuellen Eigenschaften von Displays bezüglich unerwünschter Reflexionen.”

Offenbar hat aber niemand einen Blick in ISO 9241-307 geworfen. Denn dort stehen keine Anforderungen. Anforderungen können auch nicht dort stehen, was man am Titel der Norm erkennen kann: „DIN EN ISO 9241-307:2009-06  Ergonomie der Mensch-System-Interaktion - Teil 307: Analyse- und Konformitätsverfahren für elektronische optische Anzeigen” .

Tatsächlich sollte die gesamte Normenreihe ISO 9241-30X dazu dienen, die ergonomischen Eigenschaften von Monitoren zu normen. Der Teil ISO 9241-303 heißt dieser Aufgabe entsprechend “Ergonomie der Mensch-System-Interaktion - Teil 303: Anforderungen an elektronische optische Anzeigen”. Doch die Autoren dieser Norm sind in die gleiche Falle getappt wie die Autoren der Norm für die Beleuchtung von Sportstätten. Sie gingen davon aus, dass sich eine Beleuchtung durch die Horizontalbeleuchtungsstärke charakterisieren lasse. Sie rechneten diese Größe lediglich in die Ebene des Bildschirms um. So gelten 2026 die Anforderungen an elektronische optische Anzeigen” für eine bestimmte Beleuchtungsstärke im Büro, z.B. 300 lx oder 500 lx. Wenn die Norm anwendbar wäre, wären Monitore für diese Beleuchtungsstärken zertifiziert worden. Ein Monitor, der nur in Räumen ordentlich funktioniert, deren Beleuchtungsstärke 500 lx oder weniger beträgt?

Reflexionen auf optischen Anzeigen gibt es aber immer. Ob sie für den Benutzer überhaupt relevant sind, hängt von seiner Position und von den Leuchtdichten der Flächen ab, die der Benutzer gespiegelt sehen kann. So wird der Benutzer des zu Beginn des Kapitels abgebildeten Computers auch bei 5000 lx seinen Bildschirm gut lesen können. Wenn er 50 cm daneben sitzt, wird das Bild ihn stören, auch wenn die Beleuchtungsstärke nur 100 lx beträgt.

Ein Foto eines kleinen Monitors (< 25 cm in der Breite) mit Reflexionen darauf zeigt, dass die Beleuchtungsstärke im Raum gegenüber der Verteilung von Leuchtdichten fast völlig irrelevant ist.

Eigentlich braucht es keine Bilder, um zu wissen, dass die Beleuchtungsstärke nur eine geringe Rolle spielt. Wäre dem so, würde kein Navigationsgerät in Autos tagüber funktionieren, auch kein großes Display, wie es heute in allen Autos der Fall ist. Denn tagsüber liegt die Beleuchtungsstärke in Fahrzeugen weit jenseits von den Werten in Büroräumen. Man benutzt aber in beiden Fällen eine ähnliche Technik.

Das ist nur ein Beispiel, wie eine Vorstellung, die auf der Lambertschen Reflexionscharakteristik  beruht, einen ganzen Normenausschuss in die Irre geführt hat.[1]

Anordnung der Leuchtenreihen in Arbeitsstätten

Die Gründe, warum man in Deutschland (aber auch in vielen anderen Ländern) die Leuchten in Arbeitsräumen in Reihen parallel zur Fensterfront hängt, sind längst vergessen. Man macht es seit mindestens 40 Jahren so.

Was würde sich ändern, wenn ,man sich nicht daran hielte? Man kann sich den Spaß erlauben und einen kleinen Büroraum (Breite 3,60 m, 3 Modulmaße a 1,20 m) mit zwei Leuchtenreihen senkrecht zur Fensterfront anordnen. Dann würde das, was man auf den nächsten Bildern sieht, um 90° gedreht in zweifacher Ausfertigung über die ganze Breite des Arbeitsplatzes möglich sein und sich bei jeder Körperbewegung in Richtung des Monitors mitbewegen.

Um solche Effekte zu vermeiden, geben die Beleuchtungsnormen immer vor, bestimmte Maßnahmen zur Verminderung der Reflexblendung zu treffen. Deren Aufzählung begann in der ältesten mir vorliegenden Norm, DIN 5035-1:1962 (Entwurf) so: “Blendung hervorgerufen durch Spiegelung von Leuchten in beleuchteten Gegenständen (Reflexblendung) kann im allgemeinen durch geeignete Wahl der Lichteinfallsrichtung, in manchen Fällen durch entsprechende Behandlung der Oberfläche (mattes Papier, matter Kopierstift, Tasten von Schreibmaschinen aus nicht speigelndem Material und dergleichen vermieden werden.” Wenn man sich nicht auf dergleichen verlassen wollte, konnte man dem Rat der Norm folgen, der da hieß: “Allgemein kann Reflexblendung durch Erhöhung des diffusen Anteils der Beleuchtung gemildert werden.”

Da man sich 1962 schon auf die kommende Änderung des Bürohausbaus freute – man dachte , 1980 würden alle Büroarbeitsplätze im Großraumbüro angesiedelt sein -, war die Sache mit der Lichteinfallsrechnung nicht gerade der große Hit. Eine “durch Erhöhung des diffusen Anteils der Beleuchtung”  wäre problemlos und effizient, indem man Indirektbeleuchtung einführte. Aber gegen diese hatte die Lichttechnik immer was. So blieb die einzige beherzigte Empfehlung “entsprechende Behandlung der Oberfläche (mattes Papier, matter Kopierstift, Tasten von Schreibmaschinen aus nicht speigelndem Material und dergleichen” übrig. Man verordnete allen alle Tischoberflächen, Arbeitsgeräte und Materialien matt zu machen. Mattes Papier kann man kaufen, auch wenn man nicht selten glänzendes braucht. Wie soll ein Arbeitgeber aber Schreibmaschinen kaufen, die der Beleuchtung passen?

Im Entwurf von DIN 5035-1:1969 war nicht viel anderes zu lesen: “Reflexblendung lässt sich durch Festlegen einer geeigneten Lichteinfallsrichtung, Erhöhung des diffusen Anteils der Beleuchtung oder durch Anwendung großer Leuchtflächen verringern. Ferner sollen Arbeitsflächen, Papier, Schriften, Tasten von Schreibmaschinen und dergleichen möglichst matte Oberflächen haben.

Als die Norm 1972 erschien, wurden die diffusen Anteile nicht größer, sondern kleiner, weil man statt Plexiglasabdeckungen (= Diffusoren) nunmehr Raster verwendete. Da die Lampen auch effizienter wurden, wuchs die Leuchtdichte der Reflexe. Insgesamt wurden die leuchtenden Teile kleiner, somit die Blendung stärker.

In der letzten Ausgabe der DIN 5035-1:1990 war die Vermeidung der Reflexblendung zu einem längeren Abschnitt geworden. Auch hier beginnt die Aufzählung der Maßnahmen mit “Anordnung von Leuchten und Arbeitsplätzen”: “Durch geeignete Anordnung sind Leuchten und Arbeitsplätze einander so zuzuordnen, daß für den arbeitenden Menschen möglichst keine störenden Lichtreflexe auf dem Sehobjekt entstehen können. Für ebene, waagerecht liegende Sehobjekte ist dies bei seitlicher Lichteinfalssrichtung gegeben.” Und die Sehobjekte, die nicht matt flach vor einem liegen? “Oberflächen, in denen sich Leuchten spiegeln können, sollen matt oder entspiegelt gestaltet sein.” Solche Oberflächen sind nach der Norm Oberflächen von Arbeitsplätzen, Papier, Schreibmaterialien wie Tinte, Tusche usw., Tasten von Schreibmaschinen, EDV-Terminals usw., Bildschirmgeräte.

Kurz gesagt, um eine störungsfreie Beleuchtung zu genießen, müssen die gesamte Umwelt und alle Geräte matt gestaltet sein. Wer das nicht schafft, ist selber schuld. Was ist, wenn Computerhersteller “glossy” Displays anbieten, die heute bei drei von vier Handys hübsch glänzen?

Die Lichttechnik wollte aber auch selber etwas tun und gab dies vor: “Leuchten, die für den arbeitenden Menschen Lichtreflexe auf dem Sehobjekt erzeugen können, sollen für die kritischen Ausstrahlungsrichtungen niedrige Leuchtdichten haben.” Das würde unter zwei Bedingungen helfen:

  1. Man berücksichtigt alle Richtungen, die störanfällig sind.
  2. Man misst die Leuchtdichte, die die Störung verursacht.

Leider ist beides nicht geschehen. Die Normer postulierten, nur der Bereich zwischen 20° und 30° von der Vertikalen unter der Leuchte wäre störend, als würden die arbeitenden Menschen in Normhaltungen unter den Leuchten sitzen. Und die Messung der Leuchtdichte ist fehlerhaft. Man misst die Lichtstärke in einer gegebenen Richtung und berechnet daraus die mittlere Leuchtdichte unter der Annahme, dass die gesamte Leuchtenfläche Licht abstrahlt. Das gilt für Spiegelrasterleuchten nicht.

Zu guter Letzt war, bei einem etwa gleichbleibenden Katalog an Methoden, die Leuchtdichte der benutzten Lampen durch den Fortschritt der Technik in einem unvorstellbaren Maß gewachsen. Hier ein Vergleich der Lampendurchmesser, wobei die Leuchtdichte in dem Maße wächst, wie der Lampenquerschnitt geschrumpft ist (gelbe Fläche gegen die rote)

Der wahre Hammer kam aber mit DIN 5035-7:1988. Obwohl die Autoren dieser Norm teilweise die gesamte Geschichte der Normenreihe DIN 5035 kannten, weil sie sie selbst geschrieben hatten, war die “Begrenzung der Reflexblendung” mittlerweile auf zwei Seiten angewachsen, beschrieben wurde aber auf diesen zwei Seiten akribisch, wie man dem neuen Gütekriterium dient, das da hieß: “Vermeidung störender Spiegelungen heller Flächen auf dem Bildschirm”. Und das, was man seit Jahrzehnten immer wieder neu formuliert, aber weitgehend beibehalten hatte, war plötzlich fast zu einer Fußnote geschrumpft. Weil es so schön aussieht, zeige ich die in Faximile.

Reflexblendung muss begrenzt werden. Basta! Es gibt nur ein Problem, und dies hatte der Initiator dieser Norm sogar selbst veröffentlicht. Wenn jemand die Norm DIN 5035-7 anwendet, kann man die Reflexblendung auf dem Bildschirm vielleicht mindern, aber die auf allen anderen Oberflächen, Tastaturen, Tischen, Telefonen wird stärker. Das ist unvermeidbar, weil diese Norm eine Beleuchtung mit tiefstrahlenden Leuchten vorschrieb, die jegliche diffuse Beleuchtung unterdrückte. Da die Raumflächen auch abgedunkelt werden sollten, wurde der diffuse Anteil an der Beleuchtung noch geringer.

Auf die Idee, den Bildschirm zu entspiegeln, statt die ganze Beleuchtung und den Raum umzugestalten, kam man wundersamerweise nicht. Diese Lösung war aber allen Autoren der Norm aus einem Forschungsbericht des Arbeitsministeriums aus dem Jahr 1978 bekannt, den ich geschrieben hatte. Diese Arbeit sollte als Grundlage der Normung der Bildschirmarbeitsplätze dienen und ist praktisch in jedes Regelwerk eingeflossen, das seitdem zu diesem Bereich entstanden ist, auch in viele ausländische regelwerke. Den Anfang machten die “Sicherheitsregeln für Bildschirmarbeitsplätze im Bürobereich” der deutschen Berufsgenossenschaften im Jahr 1980. Im Jahr 1990 kam die europäische Bildschirmrichtlinie dazu, die die Sicherheit und Gesundheit des arbeitenden Menschen zum Ziel hat. Diese wurde in Deutschland 1996 in die Bildschirmarbeitsverordnung umgesetzt. Im Jahr 2016 wurde sie in die Arbeitsstättenverordnung umgesetzt. Die diesbezügliche Anforderung hieß

  • Der Bildschirm muß so ausgeführt sein, daß Spiegelungen und Reflexionen weitgehend vermieden werden und sich nicht mehr störend bemerkbar machen. (1980)
  • Der Bildschirm muss frei von Reflexen und Spiegelungen sein, die den Benutzer stören können. (1990)
  • Der Bildschirm muß frei von störenden Reflexionen und Blendungen sein. (1996)
  • Bildschirme müssen frei und leicht dreh- und neigbar sein sowie über reflexionsarme Oberflächen verfügen. Bildschirme, die über reflektierende Oberflächen verfügen, dürfen nur dann betrieben werden, wenn dies aus zwingenden aufgabenbezogenen Gründen erforderlich ist. (2016 – heute)

Hätte man also das Wissen um die Lambertsche Reflexion richtig gewertet und angewandt, hätte man sich den ganzen Unsinn mit der Beleuchtung zum Entspiegeln der Bildschirme ersparen können. Das sonderbare Gütekriterium “Vermeidung störender Spiegelungen heller Flächen auf dem Bildschirm” wäre uns auch erspart geblieben.

Das alles ist aber nicht so schlimm wie eine weitere Konsequenz, die im nächsten Abschnitt dargestellt wird.

Wenn große Teile des Arbeitsraums leer stehen müssen …

Dieses Thema wird im Kapitel Wenn nur ein Wenn man die störenden Elemente aus dem Bild links entfernt, sieht man deutlich den Anteil der Raumfläche, der besiedelbar wäre, wenn man eine Allgemeinbeleuchtung realisiert. des Arbeitsraums benutzbar ist ausführlich diskutiert. Hier erfolgt eine kurze Erwähnung. Wenn man die seit Jahrzehnten propagierte Maßnahme zur Vermeidung der Reflexblendung, Anordnung der Arbeitsplätze, erweitert, wie in DIN 5035-7:1988 geschehen, um auch die Entspiegelung der Bildschirme in die Betrachtungen einzubeziehen, musste man sehr viel mehr berücksichtigen als nur die Anordnung flacher Tische. Man musste nicht weniger als die empfohlene Beleuchtungsart ändern. Wurde seit 1972 die Allgemeinbeleuchtung als Regel empfohlen, musste man jetzt auch die arbeitsplatzorientierte Allgemeinbeleuchtung als gleichwertig zulassen.[2]

Weiterhin mussten die Bildschirmarbeitsplätze in das Rauminnere verbannt werden, was das untere Bild verdeutlicht. Einen besseren Beweis dafür, dass das Konzept während des Tages schlecht aufgeht, gibt es kaum: diese Empfehlung. Sie wirkt nur dann, wenn die dominierende Beleuchtung künstlich ist. Das ist in den meisten deutschen Büros zwischen Ende März und Anfang Oktober nicht der Fall. Wenn ein Raum ordentlich gebaut ist, braucht man in diesem Zeitraum zu 90% der Zeit kein künstliches Licht.

Die – angeblich – erforderlichen Bedingungen für einen störungsfreien Betrieb würden dann realisiert, wenn die Arbeitsplätze in einem engen Bereich aufgestellt würden.

Die Bestimmung dieses Bereichs sollte in Abhängigkeit von der Röhrenkrümmung erfolgen, die man auch für die Abstrahlcharakteristik von Leuchten heranzog.

Bilder wie diese aus DIN 5035-7 verschleiern etwas Wichtiges durch die Eintragung der Leuchtenreihen. Entfernt man sie aus solchen Bildern, wird der Unsinn, der hinter solchen Ideen steckt, sehr deutlich. Dies habe ich in dem unteren Bild dargestellt.

Links sieht man einen Raum mit diversen Einträgen, die man in Natura nicht sieht, rechts ist der Raum von allen Elementen befreit. Wenn man die störenden Elemente aus dem Bild links entfernt, sieht man deutlich den Anteil der Raumfläche, der besiedelbar wäre, wenn man eine Allgemeinbeleuchtung realisiert. Kein Unternehmen kann sich leisten, einen solchen Unsinn umzusetzen. Sollte es doch eine Firma geben, die die Kosten tragen will, wird die Belegschaft nicht mitspielen. Niemand will auf einsamen Inseln in einem fast leeren Raum arbeiten.

Wenn sich der übermäßige Flächenverbrauch zu den weiteren unerfüllbaren Anforderungen wie von Tinte bis zum Computer alle Gegenstände im Arbeitsraum matt zu gestalten hinzukommt, können die Betriebe nur eins: ignorieren. Und dies geht zu Lasten der arbeitenden Menschen. Denn die durch die Beleuchtung vorgeblich zu lösenden Probleme sind real, nur die Lösungen sind untauglich.

Wenn man Meldungen wie diese in der Zeitung liest, sollte man immer wieder an das Licht denken:

In einer Umfrage, bei der sich 78% der Befragten mit ihrem Raum zufrieden zeigten, wollte nur 1% (!) im Großraum arbeiten.

Noch heftiger fällt das Urteil von deutschen Managern aus. Nach ihrem wichtigsten Kriterium für ihren Arbeitsplatz gefragt, wünschen sich 37% einen Arbeitsplatz frei von künstlichen Lichtquellen. Das größte Problem der Büromenschen nach ergonomischen Studien, Lärm im Büro, kommt weit abgeschlagen auf Platz 2.

Wie hätte man denn agieren müssen?

Arbeitsplätze mit Problemen, für die es keine oder mäßig erfolgreiche Lösungen gibt, sind nicht selten. Das liegt manchmal an den Problemen, manchmal an dem lieben Geld. Zuweilen liegt es sogar daran, dass die störende Wirkung Folge einer erwünschten Lösung ist. So gibt es für Problem Nummer 1 im Büro, Lärm, eine einfache Lösung: Einzelzimmer. Diese Büroform ist aber nicht die beliebteste, sondern das Doppelzimmer. Aber in keiner anderen Büroform kann es nach akustischen Messungen lauter werden. Das Doppelzimmer ist aus verschiedenen Gründen beliebt.

Daher sollte man mit Lösungen vorsichtig sein, wenn Fachleute nicht zu denen greifen. Aus diesem Grunde habe ich einige Jahrzehnte mit Beleuchtung experimentiert, bis ich mir eine finale Meinung gebildet habe.

Hätte man der Reflexblendung mit dem Wissen begegnet, das 1962 in der Beleuchtungsnorm gestanden hat, Erhöhung des diffusen Anteils an Beleuchtungsstärke hilft, wären die meisten Probleme nicht entstanden. Wir haben dies in der Studie Licht und Gesundheit bis 1990 mit Untersuchungen an 2.000 Arbeitsplätzen und Befragungen von ca. 900 Personen ermittelt. Anschließend haben wir 1.500 Arbeitsplätze mit neu entwickelter Beleuchtung ausgestattet, um den Nachweis zu führen, dass die Verbesserungen tatsächlich auf die Eigenschaften der Beleuchtung zurückzuführen sind.

Man kann die notwendige Maßnahme mit Indirektbeleuchtung oder mit (teilweise) leuchtenden Decken realisieren. Das Entscheidende ist, dass die leuchtenden Flächen eine geringe Leuchtdichte besitzen. Wer eine vernünftige Indirektbeleuchtung realisiert, braucht keine Anforderungen an die Aufstellung der Arbeitsplätze, die kaum jemand erfüllen kann außer auf Zeichnungen. Vor allem muss man nicht fordern, dass von der Tinte bis zum Computerterminal alles matt sein soll. Wer soll denn das realisieren?

Man hätte einfach einsehen müssen, dass das Lambertsche Gesetz ein mathematisches Konstrukt ist, dem die wenigsten physikalischen Materialien bzw. deren Oberflächen genügen. Von betrieben Dinge zu verlangen, die sie nicht realisieren können, kann nur Scheinlösungen hervorbringen.

Was die Bildschirme angeht, hätte man unter Beachtung ihrer Reflexionscharakteristika feststellen können, dass ihr Verhalten so weit von einer Lambertschen Reflexion abweicht, dass eine Lösung auf der Basis einer fest installierten Beleuchtung nicht gefunden werden kann. Die einzig gangbare Lösung, Bildschirme zu entspiegeln und Reflexe zusätzlich durch einen hellen Hintergrund relativ unsichtbar zu machen, war 1975 von mir formuliert und 1980 vom Arbeitsschutz akzeptiert worden. Warum musste ein Jahrzehnt später eine „lichttechnische“ Lösung gesucht werden?

Wann werden wir das Phantom los?

Ein mathematisches Modell kann man leider nicht loswerden. Wenn es eine gute Lösung beschreibt, kann man versuchen, sich dem Ideal anzunähern. Mir schwebt in dieser Hinsicht das Beispiel der Kugel vor. Diese ist mathematisch absolut rund in allen Richtungen. Reale Kugeln sind nicht rund, sie weichen etwas vom Ideal ab. Mit üblichen Kugeln kann man hinreichend gute Kugellager bauen. Will man sehr leise Kugellager bauen, müssen die Kugeln runder sein. Diese kann man auch fertigen. Es wird nur teurer. Braucht man Kugeln, die sehr nahe an die mathematische Form der Kugel kommen, muss man sie selektieren. Ähnlich verfährt man heute auch bei LEDs. Früher war das Vorgehen bei Transistoren üblich.

Was wir loswerden müssen, ist, dass man Beleuchtungen normt oder erstellt, die nur unter unerfüllbaren Bedingungen gut funktionieren. Zwar ist jeder Hersteller frei, die Einsatzbedingungen seines Produktes vorzugeben. Wenn man allerdings zu viel voraussetzt, kann es sein, dass die Anwender zu einfachen Mitteln greifen. So herrscht heute bei Standard-LED-Leuchtmitteln (Retrofits) ein extremer Preisdruck durch asiatische Massenware. Wenn man sich nach einer langen Planung eh Ärger einhandelt, greift man gleich zu Billigware.

Zudem ziehen viele Menschen vor, möglichst selten im Büro zu weilen. Die Unternehmen müssen ihre Mitarbeitenden mit einer angenehmen Umgebung ins Büro locken. Trotz aller Bemühungen haben wir in Deutschland derzeit ca. 8 % Büroleerstand. Wenn man sich die Bürokonzepte anguckt, mit denen man das Bürohaus für die arbeitenden Menschen schmackhaft machen will, liest man sehr häufig „Stehleuchten, Tischlampen statt Deckenlicht“, „keine Deckenbeleuchtung“ oder „keine Neonlampen an der Decke“. Was sich Menschen wünschen, habe ich unter Licht für New Work  dargelegt.

[1] Da diese Normenreihe zwar nicht anwendbar ist, aber dennoch in Deutschland aus rechtlichen Gründen angewendet werden muss, hat mein Ausschuss für den Gebrauch der Prüfstellen in Deutschland einen Standard produzieren müssen, der eine Prüfung dennoch möglich macht.

[2] Zu dem Begriff Allgemeinbeleuchtung ist zu bedenken, dass es diese ohnehin nicht gegeben hat. Wenn man Allgemeinbeleuchtung definiert als eine Beleuchtung, die an allen Stellen des Raums etwa gleich gute Sehbedingungen schafft und gleichzeitig empfiehlt, Arbeitsplätze der Anordnung der Leuchten entsprechend zu platzieren, gesteht man, dass es keine Allgemeinbeleuchtung gibt.

 

Phantome, die unser Wissen beherrschen VIII

Daten-Yoga: Wir biegen uns die Zahlen
so zurecht, bis sie entspannt aussehen
Anonymus

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Allgemeiner Farbwiedergabeindex Ra

Der klassische Farbwiedergabeindex CRI/Ra basiert auf nur 8 blassen Testfarben und einem veralteten Farbraum. Er bildet reale Farbwahrnehmung schlecht ab, besonders gesättigte Farben wie Rot (R9). Moderne Lichtquellen wie LEDs können dadurch trotz hohen CRI schlechte Farbwiedergabe haben.

Neue Methoden wie IES TM‑30‑20 mit 99 Testfarben, Rf (Fidelity) und Rg (Gamut) liefern wesentlich präzisere und realistischere Ergebnisse. TM-30 zeigt realitätsnahe und differenzierte Ergebnisse – wichtig für Museen, Handel, Architektur und LED-Technik. Dennoch bleibt CRI in vielen Normen, einschließlich ISO/CIE 8995-1:2025, weiterhin vorgeschrieben. Das Phantom kann man eher als Zombie beschreiben.

Zur Geschichte des Phantoms

Den genauen Zeitpunkt, an dem das Phantom geboren wurde, kann ich nicht angeben. Aber es ist feststellbar, wann die Bedeutung einer guten Farbwiedergabe erkannt wurde. Es war Matthew Luckiesh, der postulierte, dass die menschliche Wahrnehmung auf das Tageslicht angewiesen wäre, weil nur das Tageslicht die Farben gut wiedergeben könne. Das war im Jahre 1926.

Es dauerte eine gute Weile, bis ein offizielles Verfahren entstand. Dessen Geburtsstunde kam 1965, als die erste offizielle Empfehlung für ein Verfahren zur Messung und Kennzeichnung der Farbwiedergabe veröffentlicht wurde. Damals wurde das Verfahren entwickelt, um die neuen[1] Leuchtstofflampen mit klassischen Glühlampen und dem Tageslicht vergleichbar zu machen. Die Methode (CIE 13) entwickelte sinnvollerweise die CIE, um eine weltweit gültige Basis zu erstellen.

Dass man sich damit so viel Zeit lassen konnte, war der Glühlampe zu verdanken, die große Bereiche dominierte, bis die Leuchtstofflampe sie in der Arbeitswelt ablöste. Zuvor galt die Farbwiedergabe der Glühlampe als "natürlich".  Sie sieht ja dem Sonnenuntergang ähnlich aus. Dass es in der Natur viele andere Lichtfarben gibt, ändert nichts an der Tatsache, dass man der Glühlampe Naturnähe nachsagt.

Die heute verwendete Methode (CIE 13.2) stammt aus dem Jahr 1974. Die Version von 1974 ist im Wesentlichen das, was wir heute noch als Standard verwenden. Dabei wurden die Testfarben präzisiert, auf denen die Berechnung des Ra-Wertes basiert.

Wie die Methode (nicht) funktioniert

Da es keine „absoluten“ Farben geben kann, beruht die Methode immer auf einer Referenzlichtquelle mit einem bestimmten Spektrum, die ausgewählte Farbmuster beleuchtet. Man legte fest, dass eine Lampe immer mit einer "idealen" Lichtquelle derselben Farbtemperatur verglichen wird (die war z. B. eine Glühlampe bei 2700 K).

Man wählte aus naheliegenden Gründen zwei Referenzlichtquellen, die Glühlampe und das Tageslicht. Wenn eine Testfarbe unter der neuen Lampe genau so aussah wie unter der Referenz, gab es 100 Punkte. Jede Abweichung führte zu einem Punktabzug.

Während man die Glühlampe sehr gut mit ihrer Farbtemperatur kennzeichnen kann, ist es mit dem „Tageslicht“ nicht so einfach. Wenn man über die Farbwiedergabe (CRI) spricht, ist das "Tageslicht" nicht einfach nur Sonnenschein, sondern eine mathematisch präzise definierte Referenzlichtquelle.

Dieses Tageslicht war zunächst die Normlichtart C. Das war eine echte Lampe mit einem speziellen Blaufilter. Wenn man die Wiedergabe von Farben mit dieser Normlichtart zur Grundlage macht, kann man die Bezeichnung Tageslicht gleich vergessen. Denn das Spektrum der Normlichtart C endete bei 380 nm, wo für die CIE Licht beginnt. Es entsprach auch nicht der natürlichen Strahlungsverteilung des Himmels.  Wer Farben bei diesem künstlichen Tageslicht betrachtet, wird nicht selten den falschen Eindruck bekommen, weil das Un-Licht (UV-Strahlung) fehlt. Diese gehört aber zur Farbwiedergabe vieler Objekte (Textilien, Papier, Wandfarben, Makeup), weil deren Farbwirkung erheblich von optischen Aufhellern bestimmt wird. Deswegen musste die CIE wider die eigene Definition des Lichts handeln und ein neues Tageslicht festlegen, die Reihe DXX. Hierbei steht D (=daylight) für Tageslicht und XX für die Farbtemperatur (D65 = Tageslicht mit der Farbtemperatur 6504 K). Die in 1964 eingeführten Spektren der neuen Tageslicht(er) sehen so aus. Was man sehr deutlich erkennt, ist, dass die Lichtkurve (V(λ)-Kurve) in allen Fällen das Licht im kurzwelligen Bereich (links bis 450 nm) sehr schlecht bewertet. Was dieses Bild aber (fast) verschweigt, ist in der Abbildung darunter hervorgehoben, die UV-Strahlung unter 380 nm.

Die hier abgebildete Strahlung erzeugt den Effekt der optischen Aufheller, ohne den eine Farbprüfung keinen Sinn macht.

Die Farbwiedergabequalität, die mit dem Index R gekennzeichnet wird, wird nicht etwa durch einen Vergleich eines bekannten Objektes, z.B. eines Orientteppichs, unter dem Referenzlicht und der zu prüfenden Lampe bestimmt. Das wäre viel zu unwissenschaftlich. Obwohl der Orientteppich aus farbechten Fasern besteht, die ihre Farbtreue über Jahrhunderte bewiesen haben, wird mit einem Satz von 8 Prüfmustern (R1 … R8) aus dem Munsell-Farben-Spektrum rechnerisch geprüft.

Um von einem wirren Spektrum (unten, rechts) zu einer sauberen Zahl wie Ra = 83 zu kommen, brauchte man 1965 ein mehrstufiges Rezept. Zuerst berechnete man für jede der acht Testfarben, wie stark sie sich unter der Testlampe im Vergleich zur Referenz verschiebt. Man nutzt dafür den CIE 1960 UCS-Farbraum. Danach wurde diese Verschiebung in eine Punktzahl zwischen 0 und 100 umgewandelt. Die Formel lautet:

Ri = 100 - 4,6 • ΔEi

Wobei ΔEi aus dem Farbraum[1] berechnet wird. Wie kommt man aber auf den Faktor 4,6? Das ist der "Skalierungsfaktor". Die CIE hat diesen Wert so gewählt, dass eine damals handelsübliche Standard-Leuchtstofflampe (Typ "Warmweiß") genau einen Wert von 50 erhält. Man wollte eine Skala konstruieren, die für den Nutzer intuitiv sein soll.[2]

Danach rechnet man die Werte für die 8 Testfarben zusammen und mittelt. So entsteht der CRI-Wert, den man 2026 auf jeder Lampenverpackung liest. Denn CRI ist eine relevante Größe, die auch im Marketing eine große Rolle spielt. Deswegen muss der entsprechende Wert angegeben werden. Die Energiekennzeichnungsverordnung (EU) 2019/2015 macht die Angabe von Ra oder CRI zur Pflicht. Der Hersteller ist gesetzlich verpflichtet, den genauen CRI-Wert in die europäische Produktdatenbank (EPREL) einzutragen. Über den QR-Code auf der Packung muss dieser Wert für dich als Verbraucher jederzeit abrufbar sein.

Die oben angegebene Berechnungsmethode nach 8 Testfarben ist aber längst Geschichte.

Das ist der Moment, in dem die Mathematik auf die physikalische Realität trifft. Um zu verstehen, warum das 1965er-System heute "schwitzt", muss man sich ansehen, wie unterschiedlich diese Lampen ihr Licht zusammenmischen. So sieht z.B. das Spektrum einer Lampe im Vergleich mit echtem Tageslicht aus, deren Farbwiedergabeindex besser ist als in allen Beleuchtungsnormen gefordert. Das Spektrum der Lampe hat mehr Lücken als Fleisch.

Frühere Leuchtstofflampen (Halophosphat-Lampen) funktionierten wie ein schlechtes Orchester, das nur drei Töne spielt, aber behauptet, eine Sinfonie zu spielen. Deren Spektrum bestand aus extrem hohen, schmalen Spitzen. Zwischen diesen Spitzen gab es riesige Lücken. Wenn eine der acht Testfarben genau in eine solche Lücke fiel, sah sie unter der Lampe völlig grau oder verfälscht aus. Die Hersteller optimierten ihre Gase und Leuchtstoffe oft genau so, dass sie die acht Testfarben (R1–R8) der CIE perfekt trafen, während andere Farbtöne dazwischen völlig vernachlässigt wurden.

Ein Experte, der die Leute gut kannte, die die 8 Testfarben aussuchten, sagte seinerzeit: “Da habt ihr aber ganz gut hin- und hergeschoben, bis eure Lampen nicht drittklassig wurden.

Da die acht CIE-Testfarben von 1965 allesamt eher blasse Pastelltöne sind, bemerken sie das Fehlen von sattem Rot kaum. Eine Lampe kann also einen CRI von 85 haben, aber die Tomaten in der Küche sehen trotzdem blass und unappetitlich aus, weil das gesättigte Rot im Spektrum einfach fehlt. Das waren die 8 Testfarben von 1965.

Ich denke, ein Blick auf #6 Himmelblau genügt, mit was für einer Gesamtqualität man rechnen konnte. Man merkte schnell, dass die Pastelltöne wie Altrosa oder Fliederviolett nicht ausreichten, um die Qualität von Lichtquellen für gesättigte Farben oder spezielle Objekte (wie Haut oder Pflanzen) zu bewerten. Die acht Standardfarben von 1965 wurden mathematisch so gewählt, dass sie den gesamten Farbkreis abdecken sollten, aber sie sind alle wenig gesättigt. So musste 1974 nachgebessert werden. Es kamen vier gesättigte Farben hinzu, zu denen man noch die Hautfarbe (R13  nachgestellt nach europäischem Teint (Munsell 5 YR 8/4)) und Blattgrün R14 addierte. So ganz nach Frühling sieht das gewählte Blattgrün nicht aus. Die letzte Testfarbe, Blattgrün, zeigt deutlich, was diesem System gefehlt hat. Es gibt selten eine Farbe, die unsere Umwelt prägt. Eine Lampe konnte also volle 100 Punkte bekommen, ohne dass sie Blattgrün wiedergeben konnte.

Wo die Methode krankte

Die Methode 1965 krankte zum einen daran, dass zwei unterschiedliche Lichtquellen (Normlichtart A und Normlichtart C/D65 einen Höchstwert von 100 erreichen konnten. Dies lesen bis heute viele so, dass die Zahl 100 eine Prozentzahl wäre. Und eine 100-prozentige Farbwiedergabe? Perfekt! Es kann nicht besser gehen. Ein Ra = 100 heißt nur, dass jemand berechnet hat, dass die 8 Testfarben gut wiedergegeben werden sollen. Beleuchtungen mit der Glühlampe und D65 ergeben sehr unterschiedliche Farbumgebungen. Aber für beide gilt CRI = 100.

Die Berechnung wird meines Wissens nicht nachgeprüft. Obwohl ich im Laufe meiner Karriere viele Jahre im Lichtlabor verbracht habe, vier Semester Farbenlehre studiert und im Farblabor gearbeitet habe und rund einem Drittel der großen Namen der Branche persönlich begegnet bin, habe ich nie einen Menschen erlebt, der den Farbwiedergabeindex für eine Lampe berechnet.

Die Angabe von Zahlenwerten, die mit 100 enden, suggeriert, dass es sich um eine Art Skala handele, die sich von der simplen Nominalskala unterschiedet. Eine Nominalskala kategorisiert die Objekte der Betrachtung (z.B. in Rot, Grün, Blau). Folgt diese Kategorisierung einem Wertesystem, spricht man von einer Ordinal-Skala. Bei dem Beispiel von Rot, Grün und Blau kann man die Einordnung nach der Wellenlänge des Lichts vornehmen und die Aufzählung als Blau (kürzeste Wellenlänge), Grün und Rot (längste Wellenlänge) aufsetzen.Beide Skalenformen rechtfertigen eine Angabe von Zahlen nicht, weil diese in die Irre führen. Skalen mit echten Zahlenwerten sind zum einen Intervall-Skalen, bei denen der Abstand zwischen Punkten (1 und 2 oder 3 und 4) gleich ist. Das gilt z.B. für die Celsius-Skala für Temperaturen. Eine Differenz von 2 °C bleibt stets gleich.

Die höchste Skalenform ist die Verhältnisskala. Sie hat einen echten Nullpunkt und immer gleiche Abstände. Sie kann positive wie negative Werte einnehmen, wie bei Höhen. Da man bei einer Farbwiedergabe einen negativen Index nicht deuten kann, erwartet man einen Nullpunkt. Dies stimmt leider nicht, CRI kann auch – 44 betragen (Natriumdampflampe). Warum man je einen CRI von 0 berechnen sollte, wüsste ich nicht, außer dass die Lampe kein Licht abgibt. Eine Kerze hat einen CRI von fast 100, obwohl man bei Kerzenschein blaue Socken kaum von schwarzen unterscheiden kann. Eine Lampe kann einen stolzen CRI von 90 haben, aber eine Tomate trotzdem braun aussehen lassen, weil das wichtige R9 (gesättigtes Rot) nicht Teil der Berechnung ist. Man hat sich nur darauf geeinigt, bei 0 die Grenze für die Vermarktung zu ziehen, weil „CRI - 40“ im Baumarkt schwer zu verkaufen wäre.

Der CRI bestraft jede Abweichung von der Referenz – egal in welche Richtung. Eine LED, die Obst knackiger aussehen lässt als das echte Sonnenlicht, kriegt einen schlechteren CRI als eine LED, die Farben einfach nur stumpf wiedergibt. Schlicht gesagt: Die Skalenqualität des Farbwiedergabeindexs ist sehr fragwürdig. Wenn es nur dabei bliebe! Obwohl die CIE bereits 1964 ihre Normlichtart C ohne UV-Anteil abschaffen musste, weil Produkte, deren Farbe unter diesem Standardlicht geurteilt wurde, nicht allzu viel Ähnlichkeit mit ihrer Farbe unter realen Bedingungen hatten, wird auch heute noch der allgemeine Farbwiedergabeindex Ra von 1965 mit 8 Testfarben angegeben. D.h., das Testen von Produkten wie Autos oder Textilien findet unter dem Einfluss von UV-Licht statt. Die Fähigkeit von Lampen, Farben wiederzugeben, gibt man aber wie am ersten Tag ohne UV an.

Zu guter Letzt: die Benutzung des Wortes Tageslicht für eine fiktive Normlichart. Erstens gibt es mehrere Normlichtarten, deren Name mit D wie daylight anfängt. Zweitens – und das ist schlimmer – schließt die Definition des Tageslichts durch die CIE die Tageslicht genannten Normlichtarten aus: Licht bedeutet (e-ilv Begriff 17-21-013) Strahlung in dem Spektralbereich der sichtbaren Strahlung (= optische Strahlung, die in der Lage ist, eine Sehempfindung direkt hervorzurufen). Tageslicht bedeutet (e-ilv Begriff 17-29-105) Teil der globalen Sonnenstrahlung, die in der Lage ist, eine Sehempfindung hervorzurufen.

Somit wird als Tageslicht etwas definiert, das in der Natur nicht existiert. Dieses Tageslicht entspricht nicht der Normlichtart, die als Tageslicht angegeben wird.

Das „wahre“ Tageslicht wird im normalen Leben Tageslicht genannt, wo man natürliche Strahlung wahrnimmt. Bei Gebäuden gilt dies auf beiden Seiten von Fenstern. Überall, wo man Innenräume mit natürlicher Strahlung beleuchtet, wird sie Tageslichtbeleuchtung genannt. In Wirklichkeit handelt es sich im Innenraum um sehr stark gefiltertes Licht. Während der allgemeine Glaube herrscht. Glas sei lichtdurchlässig, also transparent, ist die Situation sehr intransparent, ohne dass relevante Leute wie Architekten dies immer merken. Das untere Bild zeigt die Filterwirkung von einigen Gläsern im Vergleich mit einer einfachen Verglasung. Eine Verglasung, die das Licht nur schwächt, aber farblich unbeeinflusst lässt, würde eine horizontale Gerade ergeben. Dies entspricht etwa der einfachen Verglasung, die rund 90% des Lichts hineinlässt. Alle anderen abgebildeten Gläser sind nicht farbneutral.

Nach dem Standard ISO/TR 9241-610 kann die Verglasung von Gebäuden im Minimum die Lichtmenge um 8% reduzieren. Maximalwerte für verschiedene moderne Gläser liegen zwischen 69% und 29%. Hierbei wird das Licht so gefiltert, dass CRI maximal 97 beträgt, d.h. die Verglasung reduziert die Güte der Farbwiedergabe etwas. Die Reduktion kann bis CRI = 77 erfolgen. Eine Lampe mit dieser Qualität der Farbwiedergabe darf in der EU nicht für Innenräume verkauft werden. Das bedeutet schlicht, dass das natürliche Tageslicht in Innenräumen nicht nur in der Größenordnung von etwa 1% ihrer natürlichen Intensität ankommt, sondern auch spektral erheblich verfälscht werden kann.

Hierbei ist noch nicht berücksichtigt, dass das Glas mittlerweile die gesamte UV-Strahlung wegfiltert. D.h., ein schönes Weiß, das erst mit Hilfe von optischen Aufhellern erzeugt wird, sieht man in Innenräumen nicht mehr. Es sieht aus, als wäre der Gilb drin.

Fazit und Aussichten

Das hier besprochene Phantom verdient eigentlich die Bezeichnung Zombie, zumal seine Fehler bereits in den 1970ern erkannt worden waren. Obwohl Korrekturen erfolgten (CIE 13.2 1974  und CIE 13.3 1995) blieb es bei der Größe Ra, die nunmehr in der neuesten Beleuchtungsnorm der CIE ISO/CIE 8995-1:2025 für die Beschreibung der Farbwiedergabe herangezogen wird. Da die Überarbeitung dieser Norm über 20 Jahre gedauert hat, die letzte Version war 2002, wird es keine baldige Änderung geben.

CIE hat 2017 mit CIE 224 CIE Technical Report Colour Fidelity Index for Scientific Use eine verbesserte Methode vorgelegt. Allerdings soll sie nur für „wissenschaftliche“ Anwendung gelten, was immer das sein mag. Zuvor hatte die US-amerikanische IES mit IES TM-30-15 Method for Evaluating Light Source Color Rendition, Illuminating Engineering Society eine Alternative vorgelegt. Danach folgten aber noch IES TM-30-18 Method for Evaluating Light Source Color Rendition, 2018 und IES TM-30-20 Method for Evaluating Light Source Color Rendition, 2019.

Diese plötzliche Eile hat viel mit der LED als Leuchtmittel zu tun. LEDs haben ein völlig anderes Spektrum als Glühlampen. Sie können bei den 8 Standardfarben super abschneiden, aber bei gesättigten Farben (besonders Rot, bekannt als R9) kläglich versagen. Auf der anderen Seite können LED sehr gute Spektren erreichen, ohne dafür an Effizienz einzubüßen.[1] Mit IES TM-30-15 kam der Gamechanger. Das war kein simpler Index, sondern ein komplexes System mit 99 Testfarben statt nur 8, einem neuen Fidelity Index Rf, der den Unterschied zwischen Licht und Referenzlicht angibt. Hinzu kam noch ein Rg wie Gamut, der beschreibt, wie intensiv oder gesättigt die Farben unter einer Lichtquelle erscheinen. Der Gamut ist die Gesamtheit aller Farben, die ein System (eine Lampe, ein Monitor oder ein Drucker) darstellen kann. Rg > 100: Die Farben wirken gesättigter und kräftiger. Ein Apfel sieht unter diesem Licht „roter“ aus, als er eigentlich ist. Das wirkt oft brillant und attraktiv. Rg <100: Die Farben wirken blasser oder „entsättigt“. Das Licht wirkt flach und lässt Oberflächen oft etwas grau oder leblos erscheinen.

Somit haben wir eine Methode, die nicht nur angibt, ob die Farbe “richtig” ist. Bei hoher Fidelity und einem Gamut von 100 werden die Farben “naturgetreu” wiedergegeben, was z.B. für Museen oder Kleidung wichtig ist. Bei Gamut über 100 wirken Farben frisch und lebendig. So etwas lässt die Obstauslagen im Supermarkt oder modische Artikel in Boutiquen anziehender erscheinen. LEDs mit einem Gamut-Wert unter 90 lassen die Farben müde und gräulich wirken. Die findet man häufig in Büros, bei denen sich die Lichttechnik nicht gerade viel Mühe macht.

Die letztere Methode (IES TM-30-20) soll die Zukunft bedeuten. Sie wurde 2020 aktualisiert, die besagte Beleuchtungsnorm ISO/CIE 8995-1 von 2025 hat sie noch nicht wahrgenommen.

Merkmal CRI (CIE 13.3) IES TM-30-20
Anzahl Testfarben 8 (Pastelltöne) 99 (reale Objekte, Natur, Haut)
Farbraum Veraltet (1964) Modern und präzise (CAM02-UCS)
Aussagekraft Nur Genauigkeit Genauigkeit + Sättigung + visuelle Grafik
LED-Optimierung Mangelhaft (R9-Problem) Exzellent für moderne LED-Spektren

[1] Bei Leuchtstofflampen war die Güte des Spektrums mit einem höheren Energieverbrauch für den gleichen Lichtstrom verbunden. So konnte eine Beleuchtung mit einem Vollspektrum bis 60% mehr Energie bei der gleichen Beleuchtungsstärke verbrauchen wie eine vergleichbare Dreibandenlampe.

[1] Ein Farbraum ist im Grunde ein mathematisches Koordinatensystem, das dazu dient, Farben messbar und vergleichbar zu machen. In diesem Raum wird jeder Farbe eine Adresse zugewiesen. Die meisten Farbräume basieren auf drei Achsen (Dimensionen), da das menschliche Auge drei Arten von Farbrezeptoren hat. Je nachdem, wie man diese Achsen definiert, entstehen unterschiedliche Modelle. Manche dieser Modelle sind technikorientiert. In der Wissenschaft ist der Farbraum wahrnehmungsorientiert und unabhängig von der Technik.

[2] So ganz intuitiv wurde die Skala dennoch nicht. Da musste man etwas nachhelfen. So gilt der Bereich CRI 90 – 100 als 1A. CRI zwischen 80 und 89 wurde 1B genannt, damit die Dreibandenlampe nicht zweitklassig erscheint. Danach kommt 2A (CRI 70 – 79).

[1] In 1965 war die Leuchtstofflampe nicht neu. Sie hatte sich aber weitgehend durchgesetzt, so dass die Glühlampe in Arbeitsbereichen weitgehend abgelöst wurde.

.