Wie verdient man sich einen schlechten Ruf? Fallstudien aus der Praxis I

Die Technik liefert uns die Werkzeuge,
aber die Weisheit, sie zu gebrauchen,
hinkt eine Generation hinterher.

William F. Ogburn in Cultural Lag

In dieser Reihe beschreibe ich in lockerer Folge die Entstehung des Gefühls bei den Benutzern, dass ein Arbeitsraum ohne künstliche Lichtquellen die beste Arbeitsumgebung wäre (Ergebnis einer LinkedIn-Studie). Diesen Ruf hat die Beleuchtungstechnik in enger Zusammenarbeit mit der Architektur redlich verdient. Manchmal war auch die Politik sehr hilfreich dabei …

Alte und neue Technologien

Dieser Beitrag untersucht anhand historischer und aktueller Fallstudien, wie bestimmte Handlungsweisen bei der künstlichen Beleuchtung ihren schlechten Ruf bei Nutzern erzeugten. Im Mittelpunkt stehen technische Fehlentwicklungen, ignorierte Nutzerbedürfnisse und politisch-industrielle Fehlentscheidungen. Beginnend bei den frühen Leuchtstofflampen mit Glimmstarter beschreibe ich, wie das störende Flackern und eine bestimmte Unzuverlässigkeit dieser Technik über Jahrzehnte hinweg trotz existierender Lösungen bestehen blieben. Anschließend beschreibe ich die Entstehung und Vermarktung der Kompaktleuchtstofflampe (KLL)– einschließlich der Probleme durch langsame Startzeiten, mangelhafte Lichtqualität, erhöhte Ausfallraten sowie die ökologisch umstrittene Verwendung von Quecksilber. Politische Entscheidungen und Industriekampagnen, die diese Technologie trotz ihrer Defizite als ökologische Innovation propagierten, verstärkten die Akzeptanzprobleme zusätzlich. Der Beitrag zeigt, wie wiederholtes Ignorieren von Nutzererwartungen und Umweltaspekten über Jahrzehnte hinweg zu einem nachhaltigen Vertrauensverlust in bestimmte Lichttechnologien führte – und wie moderne LED-Technik diesen Ruf inzwischen teilweise rehabilitiert. 

In der guten alten Zeit, als der Glimmstarter regierte …

Edison hatte Wort gehalten und eine Lampe gebaut, die beim Drehen des Schalters sofort Licht gab. Das ist bis heute so geblieben: Niemand möchte stundenlang warten, bis Licht kommt. Genauer gesagt, es handelt sich um wenige Sekunden, die niemand abwarten will. Der einzige Unterschied zu 1890 ist, dass wir keinen Drehschalter mehr haben, jedenfalls in modernen Bauten. Dort geht es auf Knopfdruck.

Die so verwöhnten Menschen wurden an deren Arbeitsplatz mit einer Technik konfrontiert, die das Licht nach Meinung der Techniker “wirtschaftlich” lieferte, aber nicht sofort. In den frühen Tagen der Leuchtstofflampe (ca. 1930er/40er Jahre) war das Starten ein mechanischer Prozess. Der klassische Starter ist im Grunde eine kleine Glimmlampe mit einem Bimetall-Kontakt. Diesen fand die Technik wohl nicht so störend, dass eine meiner ersten Forschungsarbeiten dazu diente, bessere Glimmstarter auszusuchen, die die Lampe nicht mehr mehrfach flackern ließen.

Das war etwa 30 Jahre, nachdem mein Vater sich über die neue Beleuchtung in seinem Büro beschwert hatte. Er war nach Hause gekommen und hatte berichtet von der neuen Beleuchtung mit Leuchtstofflampen und seinen Kopfschmerzen. Es war üblich, solche Beschwerden ins Reich der Fabel zu verweisen und die Beschwerdeführer zum Nörgler zu erklären.

Dabei war die Lösung des Problems der flackernden Lampe längst bekannt, als ich Ende der 1960er die Starter untersuchte. Denn die Ingenieure wollten dieses unzuverlässige mechanische Bauteil (den Starter) schon immer loswerden. Der Starter war nämlich oft das erste Teil, das kaputtging. Nicht nur das. Wer damals den falschen Starter kaufte, stand zuweilen im Dunkeln oder erlebte eine Röhre, die nur an den Enden glühte, aber nie zündete. Ein Starter hielt zudem oft nur ein paar tausend Schaltvorgänge. Wenn er festklebte, glühten die Wendeln der Röhre dauerhaft durch, bis sie verbrannten. Deswegen hatte man die Rapidstartlampe erfunden. In den USA brachte die Firma General Electric (GE) im Jahr 1952 das erste kommerziell erfolgreiche Rapidstart-System auf den Markt.

Das Motiv der GE-Ingenieure war buchstäblich sehr einleuchtend: Das Startverhalten der Leuchtstofflampe war das größte Hindernis für die Akzeptanz im Wohnbereich und in gehobenen Büros. Das ständige Flackern der Glimmstarter (Preheat-Systeme) wurde als "billig" und unzuverlässig wahrgenommen. Und GE war das größte Unternehmen der Welt, was das künstliche Licht anbelangte. Dennoch dauerte die Flackerei bis in das neue Jahrhundert. Es wurde im Laufe der Zeit seltener.

Als ich mich mit den Glimmstartern beschäftigte, war mein Zimmernachbar an einer Technologie daran, die später Epoche machen würde, das elektronische Vorschaltgerät (EVG). Er bastelte an einem der ersten Exemplare. Das ist aber eine andere Geschichte, die ein andermal erzählt werden soll. Hier geht es um ein Ignorieren des Nutzerverhaltens, das auch dann griff, als das mächtigste Unternehmen der Branche die Lösung längst präsentiert hatte.

Neuauflage des Ignorierens des Startverhaltens einer Lampengattung

Die gemeinte Lampengattung ist mit der Firma verbunden, von der oben die Rede ist. Ihre Geschichte beginnt bei General Electric (GE) in den USA. Mitten in der ersten großen Ölkrise sucht man verzweifelt nach Wegen, Strom zu sparen. Der Ingenieur Edward E. Hammer biegt eine lange, dünne Glasröhre in eine enge Spiralform, damit sie in die Größe einer normalen Glühlampe passt. GE entschied sich gegen die Produktion. Die Maschinen zur Herstellung der gebogenen Glasröhren wären zu teuer gewesen (geschätzte 25 Millionen Dollar). So legt GE das Patent auf Eis.

Während GE zögerte, sahen die Europäer ihre Chance. Philips präsentierte 1980 die erste marktreife Kompaktleuchtstofflampe: die Philips SL*. Sie sah aus wie eine klobige Marmeladenglas-Konstruktion. Sie war schwer (wegen des eingebauten magnetischen Vorschaltgeräts), groß und unhandlich. Dennoch wurde sie eine Sensation, weil sie 80% weniger Strom verbrauchte und 10-mal länger hielt.

Die Designer bei Osram und Philips entwickelten die "U-Form" (die typischen Finger-Röhren), die leichter zu produzieren waren als Hammers Spirale. In den späten 80ern ersetzten kleine Platinen die schweren, brummenden Kupferspulen. Die Lampen wurden leichter, flackerten beim Start nicht mehr und leuchteten sofort heller.

Dabei bedeutete sofort leider nicht gleich. Viele Modelle brauchten 1–2 Minuten, um ihre volle Helligkeit zu erreichen ("Geduldslicht"). Volle Helligkeit hieß leider immer noch nicht die geplante Lichtqualität. Wenn man um das Jahr 2007 eine solche Lampe im Labor messen wollte, musste sie volle 24 Stunden warm werden, damit ihre Daten stabil blieben. Dass sie zuvor noch zwei Wochen eingebrannt werden musste, bis sie ihre Eigenschaften einigermaßen festigte, gehört noch dazu.

Da die Lampen wegen ihrer meist schlechten Lichtfarbe (grünlich-gelb) und noch schlechteren Farbwiedergabe (mit erheblicher Mühe bei der Bewertung auf Ra 80 getrimmt) meist nur in Garagen oder Kellern zu Hause waren, hat vermutlich niemand die Kompaktleuchtstofflampe (KLL) mit ihrem labormäßigen Erscheinungsbild gesehen. Für professionelle Anwendungen gab es andere KLL mit externem elektronischem Vorschaltgerät, die man an dem Stecksockel erkennen konnte.  Die hier gemeinten KLL waren solche mit integriertem Vorschaltgerät, das im Sockel saß.

Als die Debatte um das Glühlampenverbot der EU 2007 begann, wurde die KLL zur Energiesparlampe hochbefördert. Und zwar nicht die Technologie, sondern die Form mit dem integrierten Vorschaltgerät. Es half nicht, dass die Gegner argumentierten, man könne eine ökologische Revolution, die in der Ökodesign-Richtlinie von 2008 kulminieren sollte, Verordnung (EG) Nr. 244/2009, mit einer Technik vorantreibt, die massensweise Elektroschrott produziert. Denn der neue Stern am ökologischen Himmel, die KLL mit integriertem Vorschaltgerät, ging schneller kaputt, weil sich der Sockel erwärmte, was der Elektronik selten guttut. Und die Elektronik war selten hochwertig, weil die Energiesparlampe mit der Glühlampe konkurrieren sollte.

War der Vorwurf der Förderung des Elektronikschrotts noch relativ harmlos, verstießen die Freunde der auf den Thron der Ökologie gesetzten Lampe gegen eine der wichtigsten ökologischen Grundlagen: das Verbot von Quecksilber. Diese Substanz, von der man zwar gerne, aber sehr schwer Abschied nahm, ist praktisch in allen Lebenslagen verboten bzw. geächtet, seit man Mitte der 1950er Jahre in der Minimata-Bucht in Japan schreckliche Entdeckungen gemacht hatte. Besonders grausam war die Entdeckung, dass Methylquecksilber die Plazentaschranke durchbricht. Mütter, die selbst kaum Symptome zeigten, brachten Kinder mit schwersten Fehlbildungen und geistigen Behinderungen zur Welt. Dies bewies, dass Quecksilber direkt in die Gehirnentwicklung von Ungeborenen eingreift. Und nun sollte die ökologische Revolution der EU mit einer Technologie beginnen, die auf eben diesem Material beruhte.

In dieser Situation wirkte die Argumentation der Industrie besonders perfide. Als der Umweltminister Gabriel mit der Energiesparlampe Wahlkampf betrieb (z.B. hier) und sein Vorgänger Jürgen Trittin ihm beistand, half ihm die Industrie mit dem Argument, die Wunderlampe würde Energie sparen und so ein kleines Kohlekraftwerk einsparen helfen. So erfuhr die Öffentlichkeit, dass Kraftwerke immer Quecksilber über das Land streuen. (zu lesen unter z.B. Quecksilber hin, Quecksilber her oder Quecksilber - noch einmal aus den Jahren 2009 und 2010)

Wenn die Politik solche Hämmer ignoriert und einer Technologie den Vorrang einräumt, die auf einem äußerst giftigen Material beruht, wie ernst mag man denn die Unannehmlichkeit des Anlaufs einer Lampe beim Einschalten nehmen? (Hier hilft unsere Studie zur Ökologie der Energiesparlampe Download weiter) Der EU bliebe allerdings die Peinlichkeit erspart geblieben, die Energiesparlampe aus dem Verkehr zu ziehen, weil sie keine Energiesparlampe war. Seit 1. September 2021 dürfen keine klassischen Energiesparlampen mit Schraubgewinde (E27/E14) in den Verkehr gebracht  werden. (s. Energiesparlampen verboten, weil nicht energieeffizient). Somit wurde die Energiesparlampe lange vor mancher Halogenglühlampe aus dem Verkehr gezogen.

Heute gehen die Lichter wieder sofort an wie zu Zeiten Edisons. Sie werden häufig in E27-Sockeln geschraubt, auch wie zu Zeiten Edisons. Allerdings hat das neue Licht mit den früheren Versionen nur noch wenig zu tun. Was neu ist und wie es dazu kam, habe ich in dem Kapitel Epochen der Kunst der Lichtmacher dargelegt. Wer Interesse hat, zu wissen, was mit der neuen LED-Technologie möglich ist, was früher nicht denkbar war, sollte sich alles angucken, was alles auf der Basis dieser Technologie möglich ist. Das kleinste Objekt, das mir einfällt, ist eine winzige LED, deren Licht hilft, Tumorzellen zu töten. Das bislang Größte war ein Display, das eine ganze Straße in Las Vegas überdacht.

Dazwischen liegen solche Objekte wie auf diesem Foto, das den Ruf der künstlichen Beleuchtung erklärt. Es gehört zu meinen liebsten Aufnahmen, weil viele “Gewerke” für dieses Erscheinungsbild verantwortlich sind. Wer alles da beteiligt war, habe ich in einem anderen Beitrag erläutert: Wie kommt das Grauen in deutsche Büros?.

Ist LED-Beleuchtung effizienter als die Glühlampenbeleuchtung? Eine physiologische Betrachtung

Zahlen sind hervorragende Diener,
aber miserable Wegweiser
Anonymus

Kurzfassung

LED‑Beleuchtung gilt als energieeffizient, weil sie fast ausschließlich Licht im sichtbaren Bereich erzeugt – üblicherweise zwischen 380 und 650 nm. Glühlampen und Sonnenlicht hingegen strahlen über ein viel breiteres Spektrum (300–2500 nm), das auch UV‑ und vor allem Infrarotanteile umfasst.

Eine aktuelle Studie von Barrett & Jeffery (2026) zeigt, dass diese Spektralverengung bei LEDs negative Auswirkungen auf die Mitochondrien und damit auf Stoffwechsel, Alterung und visuelle Leistungsfähigkeit haben kann. Insbesondere kurze Wellenlängen (420–450 nm), die bei LEDs dominieren, unterdrücken die mitochondriale Atmung, während längere Wellenlängen (670–900 nm) diese verbessern.

Insgesamt argumentiert dieser Beitrag, dass die Beurteilung von Lichtquellen nicht nur auf ihrer Lichtausbeute in Lumen/Watt basieren sollte: Die gesundheitlichen und visuellen Auswirkungen des Spektrums sind mindestens ebenso entscheidend.

Was ist die visuelle Effizienz?

Die Effizienz von Lichtquellen wird sinnvollerweise daran gemessen, welchen Gegenwert man für die Energie erhält, die man in die Lampe steckt. Die Größe, die man hierzu heranzieht, ist üblicherweise die Lichtausbeute in Lumen/Watt. Lumen ist die Einheit des Lichtstroms, den ein Leuchtmittel erzeugt. Dieser gilt als die erwünschte Nutzwirkung.

Die Rechnung geht dann ohne Einschränkung auf, wenn das so berechnete Licht für die erzeugte Sehleistung allein maßgeblich ist. Man nimmt im Allgemeinen an, das sei der Fall, weil der Lichtstrom auf der Basis der Definition von Licht nach CIE (V(λ)-Kurve) erfolgt, die alle Strahlung berücksichtigt, die eine Sehempfindung hervorruft. Die hier besprochene Beziehung ist die Grundlage für den Handel mit Licht und Lichtprodukten.

Während die Glühlampe als sehr ineffizient galt und deswegen von der EU verboten wurde, wurde die LED-Technologie insbesondere wegen der Energieeffizienz gefördert. Der Unterschied ist immens. Während die Allgebrauchsglühlampe etwa bei 15 lm/W lag, erreichen weiße LEDs mittlerweile Werte bei 140 lm/W.

Die wahre Rechnung wäre, wenn man die durch die Beleuchtung erzeugte Sehleistung dem Energieverbrauch gegenüberstellen würde. Dies ist allein deswegen nicht möglich, weil es keine vernünftige Definition von Sehleistung gibt. (mehr dazu z.B. hier Vom Elend, ein Lichtplaner in Deutschland zu sein oder da Halbe oder doppelte Beleuchtungsstärke bei Tageslicht?) Welche Definition man auch heranziehen mag, eine der wichtigsten Leistungen des Auges, Farben zu erkennen, gehört nicht zur Sehleistung.

Woher kommt der Effizienzunterschied zwischen Leuchtmitteln

Da ein Leuchtmittel weder Energie erzeugen noch vernichten kann, strahlt es alle Energie, die man in sie hineinsteckt, wieder ab. Dies kann bei Stralungsquellen, die zur Lichterzeugung verwendet werden, in drei Bereichen erfolgen: Wellenlänge < 380 nm (UV) , 380 nm – 780 nm (Licht) und über 780 nm (IR). Der gesamte Bereich wird optische Strahlung genannt, weil man sie mit optischen Instrumenten messen kann.

LEDs kann man so bauen, dass ihre gesamte Strahlung als Licht erzeugt wird. Daher die große Effizienz. Die allergrößte Effizienz würde eine LED erreichen, die alles Licht bei 555 nm abstrahlt. Allerdings kann man mit diesem Licht keine Beleuchtung betreiben. Deswegen erfolgt die Effizienzbetrachtung nur für weißes Licht.

Schwachstelle der Betrachtungsweise

Die Schwachstelle dieser allgemein üblichen Betrachtungsweise sehen Forschende darin, dass die Hellempfindung nicht den gesamten Sehvorgang erfasst. Sie gehen davon aus, dass sich das menschliche Leben unter einer Strahlung mit Wellenlängen von 300 nm bis 2500 nm entwickelt hat. Hingegen würden die LED-Beleuchtungen sich auf den Bereich von 380 bis 650 nm beschränken. Daher wäre die Lichtausbeute nur scheinbar hoch.

In Nature wurde in Januar eine Studie von E. M. Barrett und G. Jeffrey veröffentlicht, die nachweist, dass die LED-Beleuchtung mit diesem schmalen Frequenzband die Sehleistung gegenüber Sonnenlicht verschlechtert.

Barrett, E.M., Jeffery, G. LED lighting (350-650nm) undermines human visual performance unless supplemented by wider spectra (400-1500nm+) like daylight. Sci Rep 16, 3061 (2026). https://doi.org/10.1038/s41598-026-35389-6

Ergebnis der Nature-Studie)

Nachfolgend die Kurzfassung der Autoren übersetzt durch deepl (Absätze von mir eingefügt, um das Lesen zu erleichtern.. Die benutzten Daten können bei Glenn Jefffrey mit einer Begründung abgerufen werden: g.jeffery@ucl.ac.uk

Das Leben hat sich unter breitspektralem Sonnenlicht entwickelt, das von Ultraviolett bis Infrarot (300–2500 nm) reicht. Dieses spektral ausgewogene Licht hat die Physiologie und den Stoffwechsel des Lebens geprägt. In der modernen Beleuchtung dominieren jedoch seit kurzem Leuchtdioden mit eingeschränktem Spektrum (350–650 nm).

Das Fehlen längerer Wellenlängen bei LEDs und die Dominanz kurzer Wellenlängen wirken sich auf die Physiologie aus und beeinträchtigen die normale mitochondriale Atmung, die den Stoffwechsel, Krankheiten und den Alterungsprozess reguliert. Mitochondrien sind lichtempfindlich.

Das in LEDs vorherrschende Licht im Bereich von 420–450 nm unterdrückt die Atmung, während tiefes Rot/Infrarot (670–900 nm) die Atmung bei Alterungsprozessen und einigen Krankheiten, einschließlich der Blutzuckerregulation, steigert. Hier ergänzen wir LED-Licht zwei Wochen lang durch Breitbandlicht (400–1500 nm+) und testen die Farbkontrastempfindlichkeit. Wir zeigen eine signifikante Verbesserung dieses Messwerts, die auch nach dem Wegfall der zusätzlichen Beleuchtung noch 2 Monate anhält.

Mitochondrien kommunizieren im gesamten Körper und haben systemische Auswirkungen nach regionaler Lichtexposition. Dies beinhaltet wahrscheinlich veränderte Muster der Serum-Zytokin-Expression, was die Möglichkeit weiterer negativer Auswirkungen von LEDs auf die menschliche Gesundheit nahelegt, insbesondere bei älteren Menschen oder in klinischen Umgebungen, in denen Personen geschwächt sind. Eine Änderung der Beleuchtung in diesen Umgebungen könnte ein äußerst kostengünstiger Weg zur Verbesserung der öffentlichen Gesundheit sein.

Diskussion durch die Autoren (nicht editiert)

Wir zeigen, dass sich die Sehleistung von Personen, die unter Standard-LED-Beleuchtung arbeiten, durch die Einwirkung von Glühlampenlicht, dessen Spektrum dem Tageslicht ähnelt und eine umfangreiche Infrarotkomponente aufweist, deutlich verbessert. Diese Daten stimmen mit der Hypothese überein, dass LED-Beleuchtung die Sehleistung des Menschen beeinträchtigt. Dieses Ergebnis steht im Einklang mit Laborversuchen, bei denen bestimmte von LEDs erzeugte Rot-/Infrarot-Wellenlängenbereiche genutzt wurden, um die Sehfunktion bei Tieren und Menschen auf konservative Weise zu verbessern. Es gibt jedoch drei entscheidende Unterschiede zu diesen früheren Studien. Erstens haben wir lediglich die Umgebungsbeleuchtung in einer Arbeitsumgebung mit Bewegungsfreiheit verändert. Zweitens haben wir signifikante, ausgewogene Verbesserungen sowohl im Protan- als auch im Tritan-Bereich erzielt. Zuvor führte die Exposition gegenüber einem begrenzten experimentellen 670-nm-Licht zu Verbesserungen, die stark zugunsten der Tritan-Funktion verzerrt waren. Daher führt die Exposition gegenüber Vollspektrum-Beleuchtung zu einem ausgewogenen Muster der Verbesserung der Sehleistung. Drittens haben wir gezeigt, dass Verbesserungen der Sehfunktion nach der Exposition gegenüber Glühlampenlicht bis zu 6 Wochen und möglicherweise darüber hinaus anhalten, während die Vorteile von rotem Licht mit eingeschränktem Spektrum aus einer einzelnen LED auf etwa 5 Tage begrenzt waren. Diese drei Merkmale verändern die Art und Weise, wie langwelliges Licht zur Verbesserung der menschlichen Physiologie eingesetzt werden kann, indem es in normalen Umgebungen mit anhaltenden, ausgewogenen Effekten bereitgestellt wird. Diese Ergebnisse sind neuartig und könnten Auswirkungen auf die öffentliche Gesundheit haben.

Die Evolution des Lebens auf der Erde erstreckt sich über 4 Milliarden Jahre, die des Menschen über etwa 4 bis 5 Millionen Jahre seit dem letzten gemeinsamen Vorfahren der Primaten. All dies fand unter Sonnenlicht statt, dessen Spektralbereich etwa 300 bis 2500 nm+ umfasst, wobei innerhalb dieses Bereichs stets ein Gleichgewicht zwischen kurzen und längeren Wellenlängen herrschte. Die Nutzung des Feuers durch den Menschen vor 1–2 Millionen Jahren ergänzte das Sonnenlicht, als dieser Afrika verließ, da dessen Spektrum ähnlich ist und einen hohen Infrarotanteil aufweist. Ebenso wies die bis etwa zum Jahr 2000 verbreitete Edison-Glühfadenlampe ein dem Sonnenlicht ähnliches Spektrum auf. Um 2010 herum setzte sich jedoch die LED-Beleuchtung mit ihrem stark eingeschränkten Spektrum (350–650 nm) und ihren energiesparenden Eigenschaften durch, was zu einem Verlust an Infrarotlicht in der bebauten Umwelt führte.

Die Physiologie von Lebewesen ist in einem über die Arten hinweg hochkonservierten Muster an das natürliche Umgebungslicht angepasst. Licht beeinflusst die Mitochondrienfunktion, die ein zentraler Regulator des Stoffwechsels und des Alterungsprozesses bei Tieren ist. Wenn sich das Gleichgewicht zwischen kurzen und langen Wellenlängen verschiebt, hat dies Auswirkungen auf die Mitochondrien. Bei vorherrschender Exposition gegenüber kürzeren Wellenlängen, wie bei LED-Beleuchtung, nimmt die Mitochondrienfunktion ab. Die Proteine der Mitochondrienkomplexe werden abgebaut, und die ATP-Produktion ist verringert. Mit einem verringerten Glukosebedarf der Mitochondrien kommt es zu einer Gewichtszunahme und zu Störungen der Serumzytokine. Folglich besteht, im Einklang mit der mitochondrialen Theorie des Alterns, eine erhöhte Wahrscheinlichkeit für das Altern und den Tod von Zellen bzw. Organismen. Es wird vermutet, dass dies teilweise darauf zurückzuführen ist, dass Licht im Bereich von 420–450 nm, das bei LEDs vorherrscht, von Porphyrin absorbiert wird und die daraus resultierende Produktion von Sauerstoffsingulett-Radikalen Entzündungen fördert.

Umgekehrt wird die Exposition gegenüber längeren Wellenlängen mit einem erhöhten mitochondrialen Membranpotenzial und einer erhöhten Konzentration von Proteinen der mitochondrialen Komplexe in Verbindung gebracht, deren Gehalt mit zunehmendem Alter und bei Erkrankungen abnimmt. Dies wiederum geht mit einem erhöhten ATP-Spiegel, einer verminderten Entzündungsreaktion und einer verlängerten durchschnittlichen Lebenserwartung einher. Die experimentelle Anwendung längerer Wellenlängen in solchen Situationen wird gemeinhin als Photobiomodulation bezeichnet.

Die Netzhaut weist den höchsten Stoffwechsel im Körper sowie eine hohe Mitochondrienkonzentration auf. Der Stoffwechsel der Netzhaut nimmt mit zunehmendem Alter ab, was jedoch bei verschiedenen Spezies durch langwelliges Licht teilweise ausgeglichen werden kann. Beim Menschen verbessert eine einzige 3-minütige Bestrahlung mit 670 nm das Farbsehen innerhalb von 3 Stunden, wobei dieser Effekt fast eine Woche lang anhält. Was die Autoren dieser Studie jedoch nicht berücksichtigten, war, dass dies in einer Population geschah, die hauptsächlich unter LED-Belechtung arbeitete und lebte, was ihre Ausgangswerte möglicherweise verfälscht hat. Hier haben wir keinen Versuch unternommen, die Lichtexposition oder die Bewegungen der Probanden zu kontrollieren, wie es bei Laborversuchen der Fall wäre. Vielmehr war es unser Ziel, breitbandiges Langwellenlicht in eine Arbeitsumgebung einzubringen, um die menschliche Leistungsfähigkeit durch mitochondriale Manipulation in einem translationalen Schritt zu verbessern.

Es gibt zahlreiche Hinweise darauf, dass die Einwirkung längerer Wellenlängen systemische Auswirkungen hat. Durieux et al. stellten im Zusammenhang mit Experimenten an C.elegans fest: „Wir haben festgestellt, dass eine Störung der Mitochondrien in einem Gewebe vom mitochondrialen Stressreaktionsweg in einem entfernten Gewebe wahrgenommen und darauf reagiert wird.“ Bei Mäusen zeigen sich signifikante, deutliche Veränderungen der Serumzytokin-Expression bei Expositionen sowohl gegenüber kurzwelligem als auch langwelligem Licht. In ähnlicher Weise senkt die Exposition der Körperoberfläche (mit Ausnahme der Augen) gegenüber langwelligem Licht den Blutzuckerspiegel beim Menschen signifikant und erhöht den Sauerstoffverbrauch. Dies liegt wahrscheinlich daran, dass eine mitochondriale Hochregulation den Kohlenhydratbedarf erhöht, um die gesteigerte ATP-Produktion zu unterstützen. Weitere systemische Auswirkungen lassen sich bei experimentell induziertem Parkinson bei Primaten beobachten und sind dort deutlich erkennbar. Licht, das durch Implantate gezielt auf die Substantia nigra gerichtet wird, ist wirksam bei der Linderung der Symptome, aber ebenso wirksam ist Licht, das auf distale Stellen gerichtet wird.

Einzelne 3-minütige Bestrahlungen bei 670 nm bleiben etwa 5 Tage lang wirksam. Wir zeigen jedoch, dass sie bei einem breiteren Spektrum 6 Wochen lang wirksam bleiben, obwohl wir das Ende der Wirkung nicht feststellen konnten. An dieser Stelle lohnt es sich, mögliche Wirkmechanismen zu betrachten, die nach wie vor umstritten sind. Historisch gesehen wurde angenommen, dass Verbesserungen durch rotes Licht auf die Lichtabsorption durch Cytochrom C in der Atmungskette zurückzuführen sind. Positive Effekte werden jedoch in vitro auch in Abwesenheit dieses Cytochroms festgestellt. Folglich wurde vermutet, dass längere Wellenlängen die Viskosität des Wassers um die rotierenden ATP-Pumpen herum verringern, wodurch der Rotor an Geschwindigkeit zunehmen kann. Dies kann die anhaltenden Auswirkungen der Lichtexposition nicht erklären, da dieser Effekt relativ vorübergehend sein müsste, da die Viskosität nach Entzug des Lichts rasch ansteigen würde. Ein wesentliches Merkmal der Absorption von Licht mit langer Wellenlänge ist jedoch die erhöhte Proteinsynthese in der Atmungskette. Diese Proteine unterliegen im Laufe des Tages Schwankungen, und Komplex IV wird nach Bestrahlung mit rotem Licht hochreguliert. Während rotes Licht also zunächst die Drehzahl der Rotorpumpen erhöhen mag, folgt darauf rasch eine Steigerung der Proteinsynthese, die zu einer höheren Kapazität der Atmungskette führen könnte. Die Lebensdauer dieser Proteine könnte dann die Dauer der Wirkung bestimmen.

Bei der mitochondrialen Proteinsynthese werden lediglich dreizehn Polypeptide gebildet. Dieser Prozess verlangsamt sich wahrscheinlich mit zunehmendem Alter und trägt vermutlich zum altersbedingten Rückgang der Mitochondrienfunktion bei. Entscheidend ist jedoch, dass wir weder die Geschwindigkeit der mitochondrialen Proteinsynthese noch die Lebensdauer dieser Proteine noch das Tempo ihres Abbaus kennen. Wir vermuten, dass dies entscheidende Faktoren für die Dauer der Auswirkungen von Lichteinwirkung sein könnten.

LED-Beleuchtung hat eindeutig das Potenzial, die Sehleistung zu beeinträchtigen, wahrscheinlich durch eine verminderte mitochondriale Funktion. Da sich gezeigt hat, dass lichtinduzierte Veränderungen der mitochondrialen Leistungsfähigkeit systemische Auswirkungen haben, könnten die hier aufgezeigten Auswirkungen von LEDs weitreichender sein als ursprünglich angenommen. Angesichts der weit verbreiteten Nutzung von LEDs könnte dies ein wichtiges Thema für die öffentliche Gesundheit und klinische Umgebungen darstellen, wo eine Anpassung der Beleuchtungsmuster unter Berücksichtigung dieses Aspekts zu bedeutenden positiven Ergebnissen führen kann.

Angesichts unserer Ergebnisse stellt sich die Frage, welche Lösungen zur Verbesserung der Gesundheit im Hinblick auf die Beleuchtung in der bebauten Umwelt gefunden werden können. Glühlampen, die, wie wir hier zeigen, einen deutlich positiveren Einfluss haben als herkömmliche LEDs, werden aus Gründen der Energieeffizienz weltweit aus dem Verkehr gezogen, wobei der Fokus ausschließlich auf dem erzeugten sichtbaren Licht liegt.

Eine Lösung könnte in der Entwicklung von Beleuchtungskörpern mit mehreren LEDs längerer Wellenlänge liegen, um einen größeren Bereich des nahen Infrarots abzudecken. Unsere Versuche in dieser Hinsicht waren jedoch nur begrenzt erfolgreich. Mehrere eng beieinander liegende Spektralpeaks erzeugen keine gleichmäßige Spektralstrahlung, wie sie bei Glühlampen und Sonnenlicht zu finden ist, was für die Funktionsverbesserung problematisch ist und bislang noch keine Ergebnisse gebracht hat. Dies könnte möglicherweise durch eine größere Anzahl von Spektralpeaks mit engerem Abstand überwunden werden. Dies wirft jedoch eine Reihe anderer Probleme hinsichtlich der Kosten und des erhöhten Energieverbrauchs auf, wodurch diese Lösung im Hinblick auf die ökologische Nachhaltigkeit nicht besser ist als die Beibehaltung von Glühlampen.

Entscheidend bei diesem Thema ist die Frage, wie viel Infrarotstrahlung erforderlich ist, um eine verbesserte Funktion aufrechtzuerhalten. Infrarotstrahlung wird in der bebauten Umgebung von relativ wenigen Materialien absorbiert, und aktuellen Studien zufolge muss der Umgebung nur relativ wenig hinzugefügt werden, um eine Wirkung zu erzielen. Eine praktikable Option besteht jedoch darin, eine Glühlampe bei einer niedrigeren Temperatur zu betreiben, was sowohl zu Energieeinsparungen als auch zu einer längeren Lebensdauer des Geräts führt und zudem das spektrale Leistungsmaximum in Richtung längerer Wellenlängen verschiebt.

Wird dies mit einer Halogenlampe durchgeführt, bei der es sich um eine Art Glühlampe mit Wolframfaden handelt, hält der Faden länger, da sich verdampftes Wolfram wieder auf dem Faden ablagert, anstatt das Lampenglas zu schwärzen. Daher ist die Verwendung einer Halogenlampe bei niedrigerer Spannung eine realistische Alternative in Bezug auf Gesundheit und Energieverbrauch.

Anm.: Halogenlampen funktionieren bei niedrigen Temperaturen nicht. Aber auch eine normale Glühlampe kann bei halber Betriebsspannung praktisch unendlich leben.

Links und Literatur

Die Studie ist in vollem Umfang online erhältlich. Für Interessierte füge ich einen Download-Link bei.

Die Autoren zitieren 29 Studien. Hiervon scheinen mir einige besonders interessant:

Jeffery, G. et al. Longer wavelengths in sunlight pass through the human body and have a systemic impact which improves vision. Sci. Rep. 2025 July;15(1);24435. https://doi.org/10.1038/s41598-025-09785-3

Begum, R. et al. Near-infrared light increases ATP, extends lifespan and improves mobility in aged Drosophila melanogaster. Biol.Lett. ;11(3):20150073. (2015). https://pubmed.ncbi.nlm.nih.gov/25788488/ PMID: 25788488.

Powner, M. B. & Jeffery, G. Light stimulation of mitochondria reduces blood glucose levels. J.Biophotonics. ;17(5):e202300521. (2024). https://pubmed.ncbi.nlm.nih.gov/38378043/. PMID: 38378043.

Shore-Lorenti, C. et al. Shining the light on Sunshine: a systematic review of the influence of sun exposure on type 2 diabetes mellitus-related outcomes. Clin. Endocrinol. ;81(6):799–811. (2014). https://pubmed.ncbi.nlm.nih.gov/25066830/ PMID: 25066830.

Sivapathasuntharam, C., Sivaprasad, S., Hogg, C. & Jeffery, G. Aging retinal function is improved by near infrared light (670 nm) that is associated with corrected mitochondrial decline. Neurbiol. Aging 2017 Apr:52:66–70. https://pubmed.ncbi.nlm.nih.gov/28129566/ PMID: 28129566.

Erinnerung an die Zukunft von einst

Das in diesem Artikel in Nature vor zwei Monaten veröffentlichte Argument war im Zuge der Diskussion eines Glühlampenverbots zu Beginn des Jahrhunderts mehrfach vorgebracht worden. Der Grundstein zum Verbot wurde mit der Verabschiedung der ersten Ökodesign-Richtlinie (2005/32/EG) im Juli 2005 gelegt. Diese Richtlinie schuf den Rahmen, um Mindestanforderungen an die Energieeffizienz von Produkten festzulegen. Damals wurde die Glühbirne noch nicht namentlich verboten, aber sie rückte als ineffizienter "Energiefresser" (da rechnerisch bis 95 % der Energie in Wärme statt Licht umgewandelt werden) ins Visier der Experten.

Der wichtigste Protagonist in Deutschland war Alexander Wunsch, der die Argumentation mit dem evolutionsbegleitenden Spektrum jüngst in Licht 1/26 präzisiert hat. Der Beitrag ist hier abrufbar:  Rückkehr der verbotenen Lampe. Wunsch führte in einem Beitrag von 2009 die Rolle des Infrarotanteils für die Funktion der Mitochondrien an: “Der Nahinfrarot-Anteil der Glühlampe stärkt die Funktion der Mitochondrien (Zellkraftwerke).“  Auch das Argument mit besserem Sehen wurde vorgebracht: „Durch die niedrigen Blauanteile erleichtert das Licht der Glühlampe den Sehvorgang, Kontrast und Sehschärfe werden um bis zu 50% erhöht.”

Sein damaliges Fazit lautete: “Aus ganzheitsmedizinischer Sicht käme das Verbot der Verwendung von Glühlampen einer staatlich verordneten KÖRPERVERLETZUNG gleich, solange kein gleichwertiges Leuchtmittel zur Verfügung steht!” (abrufbar unter Creative Commons Lizenz hier

Phantome, die unser Wissen beherrschen IX

Die größte Gefahr für die Erkenntnis ist
nicht das Unwissen, sondern die Faulheit,
die sich hinter Fachbegriffen versteckt
Anonymus

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Phantom Lambertscher Strahler

Der Beitrag erläutert, warum das Lambertsche Gesetz – ein mathematisches Modell für ideal diffuse Reflexion – in der realen Beleuchtungspraxis häufig zu Fehlinterpretationen führt. Ein Lambert Strahler würde in alle Richtungen gleich hell erscheinen, doch kein reales Material verhält sich exakt so. Trotzdem wird dieser Idealzustand in vielen Normen und Berechnungen vorausgesetzt. Viele Normen und Regelwerke (z. B. DIN-Normen zu Arbeitsstätten, Sportstättenbeleuchtung, Bildschirmarbeitsplätzen) basieren auf Annahmen, die physikalisch nicht zutreffen. Sogar eine Grundgröße wie die Beleuchtungsstärke oder eine wichtige Größe wie der Reflexionsgrad machen nur Sinn, wenn man von einer Lambertschen Reflexion ausgeht.
Vorschriften zur Leuchtenanordnung und zum Arbeitsraum führten zu teils absurden Anforderungen (z. B. ausschließlich matte Oberflächen, stark eingeschränkte Raumzonen für Arbeitsplätze). Viele Anforderungen sind praktisch nicht erfüllbar und werden daher ignoriert – zu Lasten der Benutzer. Man hätte besser mehr diffuses Licht statt direkter Beleuchtung vorsehen sollen, entspiegelte Bildschirme statt Vorschriften zu deren Aufstellung. Man muss anerkennen, dass das Lambert-Modell ein hilfreiches Ideal ist, aber keine reale Grundlage für praktische Normen.

Zur Geschichte des Phantoms

Dieses Phantom kennen nur Fachleute unter seinem Namen, den dessen Erfinder ihm gegeben hat, Johann Heinrich Lambert, seines Zeichens schweizerisch-elsässischer Mathematiker, Logiker, Physiker, Astronom und Philosoph der Aufklärung, der u. a. die Irrationalität der Zahl Pi bewies. Die Folgen des großzügigen Umgangs mit dem Phantom kann man in allen Lebenslagen erfahren.

Wenn man eine genaue Erklärung für Lamberts Kosinus-Gesetz aus dem 18. Jahrhundert braucht, kommt meistens etwas zusammen, dass auch manche Fachleute rätseln müssen, was das denn sein soll. Hier ist ein gutes Beispiel für (k)eine gute Visualisierung:

Anschaulicher stellt das Lambertsche Gesetz Wikipedia dar du sagt dazu: „…Wenn eine Fläche dem Lambertschen Gesetz folgt und die Strahldichte der Fläche konstant ist, so ergibt sich eine kreisförmige Verteilung der Strahlstärke.

Legende: Winkelabhängigkeit der Strahlstärke bei einem Lambert-Strahler.
I: Strahlstärke; S: Quelle oder Reflexionsfläche

Allerdings kann auch diese Abbildung nicht allzu viel helfen, das Thema zu verstehen, weil sie zwar simpel ausschaut, aber trotzdem sehr technisch ist. Für den in diesem Beitrag verfolgten Zweck ist eine verbale Beschreibung viel erhellender: Ein Objekt, das dem Lambertschen Gesetz genügt, sieht aus allen Richtungen gesehen gleich hell aus, egal ob es selbst strahlt oder fremdes Licht reflektiert. Bei der Reflexion ist es vollkommen gleichgültig, ob das Licht aus einem einzigen  Punkt kommt (z.B. von der Sonne, von einer Lampe) oder aus einer gleichmäßig leuchtenden Halbkugel um das Objekt herum. Dieses Verhalten zeigt das Bild unten. Das aus einer einzigen Richtung einfallende Licht wird so gestreut, dass man aus jeder Richtung die gleiche Helligkeit sieht.

Es geht genau um die mit den kleinen blauen Pfeilen angedeutete Verteilung des reflektierten Lichts. Es gibt nämlich überhaupt kein Material, dessen Oberfläche so reflektieren kann. Das Problem entsteht dadurch, dass man in der Beleuchtungstechnik so tut, als ob dies (fast) immer gelten würde. Das macht ein perfektes mathematisches Modell zum Phantom. Viele Irrungen und Wirrungen in der Beleuchtungstechnik lassen sich auf Missverständnisse zurückführen.

Wo es überall kneift und schwitzt

Was es in etwa bedeutet, kann man an diesem Bild erkennen, das einen Tisch zeigt, dessen Oberfläche nicht ganz dem Gesetz entspricht, was man an den Schatten erkennen kann. Auf dem Bild sind mehrere Objekte abgebildet, deren Reflexionsvermögen sehr unterschiedlich ist.

Auf dem Tisch befindet sich ein Computer, dessen Bildschirm stark von dem Lambertschen Gesetz abweicht. Davor sieht man ein bedrucktes Blatt Büropapier, das dem Lambertschen Ideal recht nahekommt. Während der Monitor neben der beabsichtigten Information alles Mögliche noch zeigt, z.B. den Kopf des Benutzers und die Nachbargebäude, scheint das Papier frei von Reflexionen aller Art.

Das Bild, vollkommen unbearbeitet, zeigt trotzdem nicht die „Wahrheit“, also ein physikalische Gegebenheit. Der abgebildete Monitor ist für dessen Benutzer hervorragend entspiegelt, sieht aber wie ein perfekter Spiegel aus. Der Benutzer sieht aber nichts von allem, was das die Monitoroberfläche gespiegelt abbildet. Das matte Papier ist matt nur für weitgehend gestreutes Licht. Die darauf gedruckte Schrift glänzt noch etwas, je nachdem, wie der Drucker sie fixiert hat.

Im übelsten Fall, streifendes Licht, kann ein passables Bild (s. unten, links) zu einem katastrophalen werden (unten, Mitte). Der Kontrast kann sich sogar umkehren (unten, rechts)

Mit einfachen Worten, die Abweichung der realen Reflexionsbedingungen kann bis zu einer fast vollständigen Verfälschung eines gegebenen Bildes führen. Daher macht es Sinn, anzusehen, wo überall in unserer Denke und Praxis das Phantom zuschlägt.

Die Größe Beleuchtungsstärke macht Sinn, wenn …

Der Begriff Beleuchtungsstärke stammt aus dem Labor und gilt genau genommen nur in der Art, wie sie dort benutzt wird. Beleuchtungsstärke ist der an einem Punkt ankommende Lichtstrom (rechts im Bild). Wenn dort ein Photometer hängt, liest man den Wert ab. Wenn dort ein Objekt hängt, das so reflektiert wie nach dem Lambertschen Gesetz, entsteht eine Leuchtdichte

L = ρ • E
Wobei L für Leuchtdichte steht und ρ für den Reflexionsgrad.

Dieselbe Formel verwendet man aber auch, um die Leuchtdichte des Papiers anzugeben, das z.B. unter sehr verschiedenen Beleuchtungen liegt, die unten skizziert sind.

Wenn man die Beleuchtungsstärke an einem Punkt links oder rechts im Bild misst und dort einen Wert X liest, rechnet man mal die Leuchtdichte eines dort befindlichen Objekts nach diesem Wert. Das ist aber nur dann zulässig, wenn das Objekt richtungsunabhängig reflektiert. Ansonsten kann der abgelesene Wert alles Mögliche bedeuten, nur nicht die errechnete Leuchtdichte.

Man liegt mit der Bewertung einer Beleuchtungsstärke umso weiter daneben, je weiter sich die Beleuchtung von einer idealen Halbkugel mit gleicher Abstrahlung unterscheidet. Der eklatanteste praktische Fall liegt bei älteren Sportstätten vor, die mit vier Masten beleuchtet werden. Bei diesen hat die auf dem Feld gemessene Beleuchtungsstärke mit der tatsächlich relevanten Leuchtdichte (Richtung zur Hauptkamera des Fernsehens) so gut wie nichts zu tun. Dies habe ich 1973 mit simultanen Messungen der Beleuchtungsstärke und Leuchtdichte in einem Stadion nachgewiesen. Kurz gesagt: An 13 von 100 Messpunkten versagt die Größe der Beleuchtungsstärke bei der Angabe der gemessenen Leuchtdichte. Stand heute gelten aber die “Anforderungen an die horizontale Beleuchtungsstärke nach Sportarten gemäß DIN EN 12193:2008-04

Wenn man das Licht aus diesen vier Masten an einer bestimmten Stelle des Spielfeldes zusammenzählen  will, um daraus eine sinnvolle Größe für die Leuchtdichte zu erhalten, die für die Kameras und Menschen relevant ist, muss der Rasen ein Lambert-Strahler sein. Dass er das bestimmt nicht ist, kann man als Fussballfan ein paar Mal in jeder Woche am Fernseher erleben. Wie der Rasen in einem Stadion wirklich reflektiert, ist hier skizziert:

Dieser Effekt ist seit etwa 60 Jahren bekannt und gehört mittlerweile zum Erscheinungsbild eines Fussballstadions. Er wird mit Hilfe von besonderen Einrichtungen hergestellt.

Dass die Horizontalbeleuchtungsstärke bei Sportarten wie Fussball nicht nur wenig Bedeutung hat, war dem deutschen Fernsehen in den 1960ern bekannt. Deswegen verlangte es für die Olympiasportstätten in München Vertikalbeleuchtungsstärken. Dennoch blieb es bis heute nicht nur bei den unsinnigen Anforderungen. Die Praxis liegt noch schlimmer daneben.

Die Annahme, dass eine Horizontalbeleuchtungsstärke bei den vorliegenden Lichtverteilungen Sinn mache, der die Vorstellung einer Lambertschen Reflexion zugrunde liegt, enthebt die Notwendigkeit, sich Gedanken über die Ebene zu machen, in der das Licht einfällt. Das untere Bild zeigt einen Ball, der von zwei Seiten beleuchtet wird.

Die beiden Scheinwerfer links und rechts werden in der Berechnung ihrer Wirkung einfach zusammengezählt. Wenn ein Mensch oder eine Kamera diesen Ball von links aufnimmt, nützt ihnen der Lichteinfall von rechts garantiert nicht. Somit ist der Kontrast des Balls zu seinem Hintergrund halb so hoch wie berechnet.

Das scheinbar unlösbare Problem der Bildschirmreflexionen

Reflexionen auf Bildschirmen sind seit ihrer Einführung im Büro in den 1960ern ein Thema. Ein Nachweis dafür, dass sie auch heute relevant sind, liefert ein Blick in die Arbeitsstättenverordnung, bei der ein ganzes Kapitel der Gestaltung und dem Betrieb von Bildschirmarbeitsplätzen gewidmet ist.  Wie die Beleuchtung von Arbeitsstätten damit erfolgreich umgehen könnte, steht in DIN EN 12464-1: “EN ISO 9241-307 enthält Anforderungen an die visuellen Eigenschaften von Displays bezüglich unerwünschter Reflexionen.”

Offenbar hat aber niemand einen Blick in ISO 9241-307 geworfen. Denn dort stehen keine Anforderungen. Anforderungen können auch nicht dort stehen, was man am Titel der Norm erkennen kann: „DIN EN ISO 9241-307:2009-06  Ergonomie der Mensch-System-Interaktion - Teil 307: Analyse- und Konformitätsverfahren für elektronische optische Anzeigen” .

Tatsächlich sollte die gesamte Normenreihe ISO 9241-30X dazu dienen, die ergonomischen Eigenschaften von Monitoren zu normen. Der Teil ISO 9241-303 heißt dieser Aufgabe entsprechend “Ergonomie der Mensch-System-Interaktion - Teil 303: Anforderungen an elektronische optische Anzeigen”. Doch die Autoren dieser Norm sind in die gleiche Falle getappt wie die Autoren der Norm für die Beleuchtung von Sportstätten. Sie gingen davon aus, dass sich eine Beleuchtung durch die Horizontalbeleuchtungsstärke charakterisieren lasse. Sie rechneten diese Größe lediglich in die Ebene des Bildschirms um. So gelten 2026 die Anforderungen an elektronische optische Anzeigen” für eine bestimmte Beleuchtungsstärke im Büro, z.B. 300 lx oder 500 lx. Wenn die Norm anwendbar wäre, wären Monitore für diese Beleuchtungsstärken zertifiziert worden. Ein Monitor, der nur in Räumen ordentlich funktioniert, deren Beleuchtungsstärke 500 lx oder weniger beträgt?

Reflexionen auf optischen Anzeigen gibt es aber immer. Ob sie für den Benutzer überhaupt relevant sind, hängt von seiner Position und von den Leuchtdichten der Flächen ab, die der Benutzer gespiegelt sehen kann. So wird der Benutzer des zu Beginn des Kapitels abgebildeten Computers auch bei 5000 lx seinen Bildschirm gut lesen können. Wenn er 50 cm daneben sitzt, wird das Bild ihn stören, auch wenn die Beleuchtungsstärke nur 100 lx beträgt.

Ein Foto eines kleinen Monitors (< 25 cm in der Breite) mit Reflexionen darauf zeigt, dass die Beleuchtungsstärke im Raum gegenüber der Verteilung von Leuchtdichten fast völlig irrelevant ist.

Eigentlich braucht es keine Bilder, um zu wissen, dass die Beleuchtungsstärke nur eine geringe Rolle spielt. Wäre dem so, würde kein Navigationsgerät in Autos tagüber funktionieren, auch kein großes Display, wie es heute in allen Autos der Fall ist. Denn tagsüber liegt die Beleuchtungsstärke in Fahrzeugen weit jenseits von den Werten in Büroräumen. Man benutzt aber in beiden Fällen eine ähnliche Technik.

Das ist nur ein Beispiel, wie eine Vorstellung, die auf der Lambertschen Reflexionscharakteristik  beruht, einen ganzen Normenausschuss in die Irre geführt hat.[1]

Anordnung der Leuchtenreihen in Arbeitsstätten

Die Gründe, warum man in Deutschland (aber auch in vielen anderen Ländern) die Leuchten in Arbeitsräumen in Reihen parallel zur Fensterfront hängt, sind längst vergessen. Man macht es seit mindestens 40 Jahren so.

Was würde sich ändern, wenn ,man sich nicht daran hielte? Man kann sich den Spaß erlauben und einen kleinen Büroraum (Breite 3,60 m, 3 Modulmaße a 1,20 m) mit zwei Leuchtenreihen senkrecht zur Fensterfront anordnen. Dann würde das, was man auf den nächsten Bildern sieht, um 90° gedreht in zweifacher Ausfertigung über die ganze Breite des Arbeitsplatzes möglich sein und sich bei jeder Körperbewegung in Richtung des Monitors mitbewegen.

Um solche Effekte zu vermeiden, geben die Beleuchtungsnormen immer vor, bestimmte Maßnahmen zur Verminderung der Reflexblendung zu treffen. Deren Aufzählung begann in der ältesten mir vorliegenden Norm, DIN 5035-1:1962 (Entwurf) so: “Blendung hervorgerufen durch Spiegelung von Leuchten in beleuchteten Gegenständen (Reflexblendung) kann im allgemeinen durch geeignete Wahl der Lichteinfallsrichtung, in manchen Fällen durch entsprechende Behandlung der Oberfläche (mattes Papier, matter Kopierstift, Tasten von Schreibmaschinen aus nicht speigelndem Material und dergleichen vermieden werden.” Wenn man sich nicht auf dergleichen verlassen wollte, konnte man dem Rat der Norm folgen, der da hieß: “Allgemein kann Reflexblendung durch Erhöhung des diffusen Anteils der Beleuchtung gemildert werden.”

Da man sich 1962 schon auf die kommende Änderung des Bürohausbaus freute – man dachte , 1980 würden alle Büroarbeitsplätze im Großraumbüro angesiedelt sein -, war die Sache mit der Lichteinfallsrechnung nicht gerade der große Hit. Eine “durch Erhöhung des diffusen Anteils der Beleuchtung”  wäre problemlos und effizient, indem man Indirektbeleuchtung einführte. Aber gegen diese hatte die Lichttechnik immer was. So blieb die einzige beherzigte Empfehlung “entsprechende Behandlung der Oberfläche (mattes Papier, matter Kopierstift, Tasten von Schreibmaschinen aus nicht speigelndem Material und dergleichen” übrig. Man verordnete allen alle Tischoberflächen, Arbeitsgeräte und Materialien matt zu machen. Mattes Papier kann man kaufen, auch wenn man nicht selten glänzendes braucht. Wie soll ein Arbeitgeber aber Schreibmaschinen kaufen, die der Beleuchtung passen?

Im Entwurf von DIN 5035-1:1969 war nicht viel anderes zu lesen: “Reflexblendung lässt sich durch Festlegen einer geeigneten Lichteinfallsrichtung, Erhöhung des diffusen Anteils der Beleuchtung oder durch Anwendung großer Leuchtflächen verringern. Ferner sollen Arbeitsflächen, Papier, Schriften, Tasten von Schreibmaschinen und dergleichen möglichst matte Oberflächen haben.

Als die Norm 1972 erschien, wurden die diffusen Anteile nicht größer, sondern kleiner, weil man statt Plexiglasabdeckungen (= Diffusoren) nunmehr Raster verwendete. Da die Lampen auch effizienter wurden, wuchs die Leuchtdichte der Reflexe. Insgesamt wurden die leuchtenden Teile kleiner, somit die Blendung stärker.

In der letzten Ausgabe der DIN 5035-1:1990 war die Vermeidung der Reflexblendung zu einem längeren Abschnitt geworden. Auch hier beginnt die Aufzählung der Maßnahmen mit “Anordnung von Leuchten und Arbeitsplätzen”: “Durch geeignete Anordnung sind Leuchten und Arbeitsplätze einander so zuzuordnen, daß für den arbeitenden Menschen möglichst keine störenden Lichtreflexe auf dem Sehobjekt entstehen können. Für ebene, waagerecht liegende Sehobjekte ist dies bei seitlicher Lichteinfalssrichtung gegeben.” Und die Sehobjekte, die nicht matt flach vor einem liegen? “Oberflächen, in denen sich Leuchten spiegeln können, sollen matt oder entspiegelt gestaltet sein.” Solche Oberflächen sind nach der Norm Oberflächen von Arbeitsplätzen, Papier, Schreibmaterialien wie Tinte, Tusche usw., Tasten von Schreibmaschinen, EDV-Terminals usw., Bildschirmgeräte.

Kurz gesagt, um eine störungsfreie Beleuchtung zu genießen, müssen die gesamte Umwelt und alle Geräte matt gestaltet sein. Wer das nicht schafft, ist selber schuld. Was ist, wenn Computerhersteller “glossy” Displays anbieten, die heute bei drei von vier Handys hübsch glänzen?

Die Lichttechnik wollte aber auch selber etwas tun und gab dies vor: “Leuchten, die für den arbeitenden Menschen Lichtreflexe auf dem Sehobjekt erzeugen können, sollen für die kritischen Ausstrahlungsrichtungen niedrige Leuchtdichten haben.” Das würde unter zwei Bedingungen helfen:

  1. Man berücksichtigt alle Richtungen, die störanfällig sind.
  2. Man misst die Leuchtdichte, die die Störung verursacht.

Leider ist beides nicht geschehen. Die Normer postulierten, nur der Bereich zwischen 20° und 30° von der Vertikalen unter der Leuchte wäre störend, als würden die arbeitenden Menschen in Normhaltungen unter den Leuchten sitzen. Und die Messung der Leuchtdichte ist fehlerhaft. Man misst die Lichtstärke in einer gegebenen Richtung und berechnet daraus die mittlere Leuchtdichte unter der Annahme, dass die gesamte Leuchtenfläche Licht abstrahlt. Das gilt für Spiegelrasterleuchten nicht.

Zu guter Letzt war, bei einem etwa gleichbleibenden Katalog an Methoden, die Leuchtdichte der benutzten Lampen durch den Fortschritt der Technik in einem unvorstellbaren Maß gewachsen. Hier ein Vergleich der Lampendurchmesser, wobei die Leuchtdichte in dem Maße wächst, wie der Lampenquerschnitt geschrumpft ist (gelbe Fläche gegen die rote)

Der wahre Hammer kam aber mit DIN 5035-7:1988. Obwohl die Autoren dieser Norm teilweise die gesamte Geschichte der Normenreihe DIN 5035 kannten, weil sie sie selbst geschrieben hatten, war die “Begrenzung der Reflexblendung” mittlerweile auf zwei Seiten angewachsen, beschrieben wurde aber auf diesen zwei Seiten akribisch, wie man dem neuen Gütekriterium dient, das da hieß: “Vermeidung störender Spiegelungen heller Flächen auf dem Bildschirm”. Und das, was man seit Jahrzehnten immer wieder neu formuliert, aber weitgehend beibehalten hatte, war plötzlich fast zu einer Fußnote geschrumpft. Weil es so schön aussieht, zeige ich die in Faximile.

Reflexblendung muss begrenzt werden. Basta! Es gibt nur ein Problem, und dies hatte der Initiator dieser Norm sogar selbst veröffentlicht. Wenn jemand die Norm DIN 5035-7 anwendet, kann man die Reflexblendung auf dem Bildschirm vielleicht mindern, aber die auf allen anderen Oberflächen, Tastaturen, Tischen, Telefonen wird stärker. Das ist unvermeidbar, weil diese Norm eine Beleuchtung mit tiefstrahlenden Leuchten vorschrieb, die jegliche diffuse Beleuchtung unterdrückte. Da die Raumflächen auch abgedunkelt werden sollten, wurde der diffuse Anteil an der Beleuchtung noch geringer.

Auf die Idee, den Bildschirm zu entspiegeln, statt die ganze Beleuchtung und den Raum umzugestalten, kam man wundersamerweise nicht. Diese Lösung war aber allen Autoren der Norm aus einem Forschungsbericht des Arbeitsministeriums aus dem Jahr 1978 bekannt, den ich geschrieben hatte. Diese Arbeit sollte als Grundlage der Normung der Bildschirmarbeitsplätze dienen und ist praktisch in jedes Regelwerk eingeflossen, das seitdem zu diesem Bereich entstanden ist, auch in viele ausländische regelwerke. Den Anfang machten die “Sicherheitsregeln für Bildschirmarbeitsplätze im Bürobereich” der deutschen Berufsgenossenschaften im Jahr 1980. Im Jahr 1990 kam die europäische Bildschirmrichtlinie dazu, die die Sicherheit und Gesundheit des arbeitenden Menschen zum Ziel hat. Diese wurde in Deutschland 1996 in die Bildschirmarbeitsverordnung umgesetzt. Im Jahr 2016 wurde sie in die Arbeitsstättenverordnung umgesetzt. Die diesbezügliche Anforderung hieß

  • Der Bildschirm muß so ausgeführt sein, daß Spiegelungen und Reflexionen weitgehend vermieden werden und sich nicht mehr störend bemerkbar machen. (1980)
  • Der Bildschirm muss frei von Reflexen und Spiegelungen sein, die den Benutzer stören können. (1990)
  • Der Bildschirm muß frei von störenden Reflexionen und Blendungen sein. (1996)
  • Bildschirme müssen frei und leicht dreh- und neigbar sein sowie über reflexionsarme Oberflächen verfügen. Bildschirme, die über reflektierende Oberflächen verfügen, dürfen nur dann betrieben werden, wenn dies aus zwingenden aufgabenbezogenen Gründen erforderlich ist. (2016 – heute)

Hätte man also das Wissen um die Lambertsche Reflexion richtig gewertet und angewandt, hätte man sich den ganzen Unsinn mit der Beleuchtung zum Entspiegeln der Bildschirme ersparen können. Das sonderbare Gütekriterium “Vermeidung störender Spiegelungen heller Flächen auf dem Bildschirm” wäre uns auch erspart geblieben.

Das alles ist aber nicht so schlimm wie eine weitere Konsequenz, die im nächsten Abschnitt dargestellt wird.

Wenn große Teile des Arbeitsraums leer stehen müssen …

Dieses Thema wird im Kapitel Wenn nur ein Wenn man die störenden Elemente aus dem Bild links entfernt, sieht man deutlich den Anteil der Raumfläche, der besiedelbar wäre, wenn man eine Allgemeinbeleuchtung realisiert. des Arbeitsraums benutzbar ist ausführlich diskutiert. Hier erfolgt eine kurze Erwähnung. Wenn man die seit Jahrzehnten propagierte Maßnahme zur Vermeidung der Reflexblendung, Anordnung der Arbeitsplätze, erweitert, wie in DIN 5035-7:1988 geschehen, um auch die Entspiegelung der Bildschirme in die Betrachtungen einzubeziehen, musste man sehr viel mehr berücksichtigen als nur die Anordnung flacher Tische. Man musste nicht weniger als die empfohlene Beleuchtungsart ändern. Wurde seit 1972 die Allgemeinbeleuchtung als Regel empfohlen, musste man jetzt auch die arbeitsplatzorientierte Allgemeinbeleuchtung als gleichwertig zulassen.[2]

Weiterhin mussten die Bildschirmarbeitsplätze in das Rauminnere verbannt werden, was das untere Bild verdeutlicht. Einen besseren Beweis dafür, dass das Konzept während des Tages schlecht aufgeht, gibt es kaum: diese Empfehlung. Sie wirkt nur dann, wenn die dominierende Beleuchtung künstlich ist. Das ist in den meisten deutschen Büros zwischen Ende März und Anfang Oktober nicht der Fall. Wenn ein Raum ordentlich gebaut ist, braucht man in diesem Zeitraum zu 90% der Zeit kein künstliches Licht.

Die – angeblich – erforderlichen Bedingungen für einen störungsfreien Betrieb würden dann realisiert, wenn die Arbeitsplätze in einem engen Bereich aufgestellt würden.

Die Bestimmung dieses Bereichs sollte in Abhängigkeit von der Röhrenkrümmung erfolgen, die man auch für die Abstrahlcharakteristik von Leuchten heranzog.

Bilder wie diese aus DIN 5035-7 verschleiern etwas Wichtiges durch die Eintragung der Leuchtenreihen. Entfernt man sie aus solchen Bildern, wird der Unsinn, der hinter solchen Ideen steckt, sehr deutlich. Dies habe ich in dem unteren Bild dargestellt.

Links sieht man einen Raum mit diversen Einträgen, die man in Natura nicht sieht, rechts ist der Raum von allen Elementen befreit. Wenn man die störenden Elemente aus dem Bild links entfernt, sieht man deutlich den Anteil der Raumfläche, der besiedelbar wäre, wenn man eine Allgemeinbeleuchtung realisiert. Kein Unternehmen kann sich leisten, einen solchen Unsinn umzusetzen. Sollte es doch eine Firma geben, die die Kosten tragen will, wird die Belegschaft nicht mitspielen. Niemand will auf einsamen Inseln in einem fast leeren Raum arbeiten.

Wenn sich der übermäßige Flächenverbrauch zu den weiteren unerfüllbaren Anforderungen wie von Tinte bis zum Computer alle Gegenstände im Arbeitsraum matt zu gestalten hinzukommt, können die Betriebe nur eins: ignorieren. Und dies geht zu Lasten der arbeitenden Menschen. Denn die durch die Beleuchtung vorgeblich zu lösenden Probleme sind real, nur die Lösungen sind untauglich.

Wenn man Meldungen wie diese in der Zeitung liest, sollte man immer wieder an das Licht denken:

In einer Umfrage, bei der sich 78% der Befragten mit ihrem Raum zufrieden zeigten, wollte nur 1% (!) im Großraum arbeiten.

Noch heftiger fällt das Urteil von deutschen Managern aus. Nach ihrem wichtigsten Kriterium für ihren Arbeitsplatz gefragt, wünschen sich 37% einen Arbeitsplatz frei von künstlichen Lichtquellen. Das größte Problem der Büromenschen nach ergonomischen Studien, Lärm im Büro, kommt weit abgeschlagen auf Platz 2.

Wie hätte man denn agieren müssen?

Arbeitsplätze mit Problemen, für die es keine oder mäßig erfolgreiche Lösungen gibt, sind nicht selten. Das liegt manchmal an den Problemen, manchmal an dem lieben Geld. Zuweilen liegt es sogar daran, dass die störende Wirkung Folge einer erwünschten Lösung ist. So gibt es für Problem Nummer 1 im Büro, Lärm, eine einfache Lösung: Einzelzimmer. Diese Büroform ist aber nicht die beliebteste, sondern das Doppelzimmer. Aber in keiner anderen Büroform kann es nach akustischen Messungen lauter werden. Das Doppelzimmer ist aus verschiedenen Gründen beliebt.

Daher sollte man mit Lösungen vorsichtig sein, wenn Fachleute nicht zu denen greifen. Aus diesem Grunde habe ich einige Jahrzehnte mit Beleuchtung experimentiert, bis ich mir eine finale Meinung gebildet habe.

Hätte man der Reflexblendung mit dem Wissen begegnet, das 1962 in der Beleuchtungsnorm gestanden hat, Erhöhung des diffusen Anteils an Beleuchtungsstärke hilft, wären die meisten Probleme nicht entstanden. Wir haben dies in der Studie Licht und Gesundheit bis 1990 mit Untersuchungen an 2.000 Arbeitsplätzen und Befragungen von ca. 900 Personen ermittelt. Anschließend haben wir 1.500 Arbeitsplätze mit neu entwickelter Beleuchtung ausgestattet, um den Nachweis zu führen, dass die Verbesserungen tatsächlich auf die Eigenschaften der Beleuchtung zurückzuführen sind.

Man kann die notwendige Maßnahme mit Indirektbeleuchtung oder mit (teilweise) leuchtenden Decken realisieren. Das Entscheidende ist, dass die leuchtenden Flächen eine geringe Leuchtdichte besitzen. Wer eine vernünftige Indirektbeleuchtung realisiert, braucht keine Anforderungen an die Aufstellung der Arbeitsplätze, die kaum jemand erfüllen kann außer auf Zeichnungen. Vor allem muss man nicht fordern, dass von der Tinte bis zum Computerterminal alles matt sein soll. Wer soll denn das realisieren?

Man hätte einfach einsehen müssen, dass das Lambertsche Gesetz ein mathematisches Konstrukt ist, dem die wenigsten physikalischen Materialien bzw. deren Oberflächen genügen. Von betrieben Dinge zu verlangen, die sie nicht realisieren können, kann nur Scheinlösungen hervorbringen.

Was die Bildschirme angeht, hätte man unter Beachtung ihrer Reflexionscharakteristika feststellen können, dass ihr Verhalten so weit von einer Lambertschen Reflexion abweicht, dass eine Lösung auf der Basis einer fest installierten Beleuchtung nicht gefunden werden kann. Die einzig gangbare Lösung, Bildschirme zu entspiegeln und Reflexe zusätzlich durch einen hellen Hintergrund relativ unsichtbar zu machen, war 1975 von mir formuliert und 1980 vom Arbeitsschutz akzeptiert worden. Warum musste ein Jahrzehnt später eine „lichttechnische“ Lösung gesucht werden?

Wann werden wir das Phantom los?

Ein mathematisches Modell kann man leider nicht loswerden. Wenn es eine gute Lösung beschreibt, kann man versuchen, sich dem Ideal anzunähern. Mir schwebt in dieser Hinsicht das Beispiel der Kugel vor. Diese ist mathematisch absolut rund in allen Richtungen. Reale Kugeln sind nicht rund, sie weichen etwas vom Ideal ab. Mit üblichen Kugeln kann man hinreichend gute Kugellager bauen. Will man sehr leise Kugellager bauen, müssen die Kugeln runder sein. Diese kann man auch fertigen. Es wird nur teurer. Braucht man Kugeln, die sehr nahe an die mathematische Form der Kugel kommen, muss man sie selektieren. Ähnlich verfährt man heute auch bei LEDs. Früher war das Vorgehen bei Transistoren üblich.

Was wir loswerden müssen, ist, dass man Beleuchtungen normt oder erstellt, die nur unter unerfüllbaren Bedingungen gut funktionieren. Zwar ist jeder Hersteller frei, die Einsatzbedingungen seines Produktes vorzugeben. Wenn man allerdings zu viel voraussetzt, kann es sein, dass die Anwender zu einfachen Mitteln greifen. So herrscht heute bei Standard-LED-Leuchtmitteln (Retrofits) ein extremer Preisdruck durch asiatische Massenware. Wenn man sich nach einer langen Planung eh Ärger einhandelt, greift man gleich zu Billigware.

Zudem ziehen viele Menschen vor, möglichst selten im Büro zu weilen. Die Unternehmen müssen ihre Mitarbeitenden mit einer angenehmen Umgebung ins Büro locken. Trotz aller Bemühungen haben wir in Deutschland derzeit ca. 8 % Büroleerstand. Wenn man sich die Bürokonzepte anguckt, mit denen man das Bürohaus für die arbeitenden Menschen schmackhaft machen will, liest man sehr häufig „Stehleuchten, Tischlampen statt Deckenlicht“, „keine Deckenbeleuchtung“ oder „keine Neonlampen an der Decke“. Was sich Menschen wünschen, habe ich unter Licht für New Work  dargelegt.

[1] Da diese Normenreihe zwar nicht anwendbar ist, aber dennoch in Deutschland aus rechtlichen Gründen angewendet werden muss, hat mein Ausschuss für den Gebrauch der Prüfstellen in Deutschland einen Standard produzieren müssen, der eine Prüfung dennoch möglich macht.

[2] Zu dem Begriff Allgemeinbeleuchtung ist zu bedenken, dass es diese ohnehin nicht gegeben hat. Wenn man Allgemeinbeleuchtung definiert als eine Beleuchtung, die an allen Stellen des Raums etwa gleich gute Sehbedingungen schafft und gleichzeitig empfiehlt, Arbeitsplätze der Anordnung der Leuchten entsprechend zu platzieren, gesteht man, dass es keine Allgemeinbeleuchtung gibt.

 

Phantome, die unser Wissen beherrschen VIII

Daten-Yoga: Wir biegen uns die Zahlen
so zurecht, bis sie entspannt aussehen
Anonymus

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Allgemeiner Farbwiedergabeindex Ra

Der klassische Farbwiedergabeindex CRI/Ra basiert auf nur 8 blassen Testfarben und einem veralteten Farbraum. Er bildet reale Farbwahrnehmung schlecht ab, besonders gesättigte Farben wie Rot (R9). Moderne Lichtquellen wie LEDs können dadurch trotz hohen CRI schlechte Farbwiedergabe haben.

Neue Methoden wie IES TM‑30‑20 mit 99 Testfarben, Rf (Fidelity) und Rg (Gamut) liefern wesentlich präzisere und realistischere Ergebnisse. TM-30 zeigt realitätsnahe und differenzierte Ergebnisse – wichtig für Museen, Handel, Architektur und LED-Technik. Dennoch bleibt CRI in vielen Normen, einschließlich ISO/CIE 8995-1:2025, weiterhin vorgeschrieben. Das Phantom kann man eher als Zombie beschreiben.

Zur Geschichte des Phantoms

Den genauen Zeitpunkt, an dem das Phantom geboren wurde, kann ich nicht angeben. Aber es ist feststellbar, wann die Bedeutung einer guten Farbwiedergabe erkannt wurde. Es war Matthew Luckiesh, der postulierte, dass die menschliche Wahrnehmung auf das Tageslicht angewiesen wäre, weil nur das Tageslicht die Farben gut wiedergeben könne. Das war im Jahre 1926.

Es dauerte eine gute Weile, bis ein offizielles Verfahren entstand. Dessen Geburtsstunde kam 1965, als die erste offizielle Empfehlung für ein Verfahren zur Messung und Kennzeichnung der Farbwiedergabe veröffentlicht wurde. Damals wurde das Verfahren entwickelt, um die neuen[1] Leuchtstofflampen mit klassischen Glühlampen und dem Tageslicht vergleichbar zu machen. Die Methode (CIE 13) entwickelte sinnvollerweise die CIE, um eine weltweit gültige Basis zu erstellen.

Dass man sich damit so viel Zeit lassen konnte, war der Glühlampe zu verdanken, die große Bereiche dominierte, bis die Leuchtstofflampe sie in der Arbeitswelt ablöste. Zuvor galt die Farbwiedergabe der Glühlampe als "natürlich".  Sie sieht ja dem Sonnenuntergang ähnlich aus. Dass es in der Natur viele andere Lichtfarben gibt, ändert nichts an der Tatsache, dass man der Glühlampe Naturnähe nachsagt.

Die heute verwendete Methode (CIE 13.2) stammt aus dem Jahr 1974. Die Version von 1974 ist im Wesentlichen das, was wir heute noch als Standard verwenden. Dabei wurden die Testfarben präzisiert, auf denen die Berechnung des Ra-Wertes basiert.

Wie die Methode (nicht) funktioniert

Da es keine „absoluten“ Farben geben kann, beruht die Methode immer auf einer Referenzlichtquelle mit einem bestimmten Spektrum, die ausgewählte Farbmuster beleuchtet. Man legte fest, dass eine Lampe immer mit einer "idealen" Lichtquelle derselben Farbtemperatur verglichen wird (die war z. B. eine Glühlampe bei 2700 K).

Man wählte aus naheliegenden Gründen zwei Referenzlichtquellen, die Glühlampe und das Tageslicht. Wenn eine Testfarbe unter der neuen Lampe genau so aussah wie unter der Referenz, gab es 100 Punkte. Jede Abweichung führte zu einem Punktabzug.

Während man die Glühlampe sehr gut mit ihrer Farbtemperatur kennzeichnen kann, ist es mit dem „Tageslicht“ nicht so einfach. Wenn man über die Farbwiedergabe (CRI) spricht, ist das "Tageslicht" nicht einfach nur Sonnenschein, sondern eine mathematisch präzise definierte Referenzlichtquelle.

Dieses Tageslicht war zunächst die Normlichtart C. Das war eine echte Lampe mit einem speziellen Blaufilter. Wenn man die Wiedergabe von Farben mit dieser Normlichtart zur Grundlage macht, kann man die Bezeichnung Tageslicht gleich vergessen. Denn das Spektrum der Normlichtart C endete bei 380 nm, wo für die CIE Licht beginnt. Es entsprach auch nicht der natürlichen Strahlungsverteilung des Himmels.  Wer Farben bei diesem künstlichen Tageslicht betrachtet, wird nicht selten den falschen Eindruck bekommen, weil das Un-Licht (UV-Strahlung) fehlt. Diese gehört aber zur Farbwiedergabe vieler Objekte (Textilien, Papier, Wandfarben, Makeup), weil deren Farbwirkung erheblich von optischen Aufhellern bestimmt wird. Deswegen musste die CIE wider die eigene Definition des Lichts handeln und ein neues Tageslicht festlegen, die Reihe DXX. Hierbei steht D (=daylight) für Tageslicht und XX für die Farbtemperatur (D65 = Tageslicht mit der Farbtemperatur 6504 K). Die in 1964 eingeführten Spektren der neuen Tageslicht(er) sehen so aus. Was man sehr deutlich erkennt, ist, dass die Lichtkurve (V(λ)-Kurve) in allen Fällen das Licht im kurzwelligen Bereich (links bis 450 nm) sehr schlecht bewertet. Was dieses Bild aber (fast) verschweigt, ist in der Abbildung darunter hervorgehoben, die UV-Strahlung unter 380 nm.

Die hier abgebildete Strahlung erzeugt den Effekt der optischen Aufheller, ohne den eine Farbprüfung keinen Sinn macht.

Die Farbwiedergabequalität, die mit dem Index R gekennzeichnet wird, wird nicht etwa durch einen Vergleich eines bekannten Objektes, z.B. eines Orientteppichs, unter dem Referenzlicht und der zu prüfenden Lampe bestimmt. Das wäre viel zu unwissenschaftlich. Obwohl der Orientteppich aus farbechten Fasern besteht, die ihre Farbtreue über Jahrhunderte bewiesen haben, wird mit einem Satz von 8 Prüfmustern (R1 … R8) aus dem Munsell-Farben-Spektrum rechnerisch geprüft.

Um von einem wirren Spektrum (unten, rechts) zu einer sauberen Zahl wie Ra = 83 zu kommen, brauchte man 1965 ein mehrstufiges Rezept. Zuerst berechnete man für jede der acht Testfarben, wie stark sie sich unter der Testlampe im Vergleich zur Referenz verschiebt. Man nutzt dafür den CIE 1960 UCS-Farbraum. Danach wurde diese Verschiebung in eine Punktzahl zwischen 0 und 100 umgewandelt. Die Formel lautet:

Ri = 100 - 4,6 • ΔEi

Wobei ΔEi aus dem Farbraum[1] berechnet wird. Wie kommt man aber auf den Faktor 4,6? Das ist der "Skalierungsfaktor". Die CIE hat diesen Wert so gewählt, dass eine damals handelsübliche Standard-Leuchtstofflampe (Typ "Warmweiß") genau einen Wert von 50 erhält. Man wollte eine Skala konstruieren, die für den Nutzer intuitiv sein soll.[2]

Danach rechnet man die Werte für die 8 Testfarben zusammen und mittelt. So entsteht der CRI-Wert, den man 2026 auf jeder Lampenverpackung liest. Denn CRI ist eine relevante Größe, die auch im Marketing eine große Rolle spielt. Deswegen muss der entsprechende Wert angegeben werden. Die Energiekennzeichnungsverordnung (EU) 2019/2015 macht die Angabe von Ra oder CRI zur Pflicht. Der Hersteller ist gesetzlich verpflichtet, den genauen CRI-Wert in die europäische Produktdatenbank (EPREL) einzutragen. Über den QR-Code auf der Packung muss dieser Wert für dich als Verbraucher jederzeit abrufbar sein.

Die oben angegebene Berechnungsmethode nach 8 Testfarben ist aber längst Geschichte.

Das ist der Moment, in dem die Mathematik auf die physikalische Realität trifft. Um zu verstehen, warum das 1965er-System heute "schwitzt", muss man sich ansehen, wie unterschiedlich diese Lampen ihr Licht zusammenmischen. So sieht z.B. das Spektrum einer Lampe im Vergleich mit echtem Tageslicht aus, deren Farbwiedergabeindex besser ist als in allen Beleuchtungsnormen gefordert. Das Spektrum der Lampe hat mehr Lücken als Fleisch.

Frühere Leuchtstofflampen (Halophosphat-Lampen) funktionierten wie ein schlechtes Orchester, das nur drei Töne spielt, aber behauptet, eine Sinfonie zu spielen. Deren Spektrum bestand aus extrem hohen, schmalen Spitzen. Zwischen diesen Spitzen gab es riesige Lücken. Wenn eine der acht Testfarben genau in eine solche Lücke fiel, sah sie unter der Lampe völlig grau oder verfälscht aus. Die Hersteller optimierten ihre Gase und Leuchtstoffe oft genau so, dass sie die acht Testfarben (R1–R8) der CIE perfekt trafen, während andere Farbtöne dazwischen völlig vernachlässigt wurden.

Ein Experte, der die Leute gut kannte, die die 8 Testfarben aussuchten, sagte seinerzeit: “Da habt ihr aber ganz gut hin- und hergeschoben, bis eure Lampen nicht drittklassig wurden.

Da die acht CIE-Testfarben von 1965 allesamt eher blasse Pastelltöne sind, bemerken sie das Fehlen von sattem Rot kaum. Eine Lampe kann also einen CRI von 85 haben, aber die Tomaten in der Küche sehen trotzdem blass und unappetitlich aus, weil das gesättigte Rot im Spektrum einfach fehlt. Das waren die 8 Testfarben von 1965.

Ich denke, ein Blick auf #6 Himmelblau genügt, mit was für einer Gesamtqualität man rechnen konnte. Man merkte schnell, dass die Pastelltöne wie Altrosa oder Fliederviolett nicht ausreichten, um die Qualität von Lichtquellen für gesättigte Farben oder spezielle Objekte (wie Haut oder Pflanzen) zu bewerten. Die acht Standardfarben von 1965 wurden mathematisch so gewählt, dass sie den gesamten Farbkreis abdecken sollten, aber sie sind alle wenig gesättigt. So musste 1974 nachgebessert werden. Es kamen vier gesättigte Farben hinzu, zu denen man noch die Hautfarbe (R13  nachgestellt nach europäischem Teint (Munsell 5 YR 8/4)) und Blattgrün R14 addierte. So ganz nach Frühling sieht das gewählte Blattgrün nicht aus. Die letzte Testfarbe, Blattgrün, zeigt deutlich, was diesem System gefehlt hat. Es gibt selten eine Farbe, die unsere Umwelt prägt. Eine Lampe konnte also volle 100 Punkte bekommen, ohne dass sie Blattgrün wiedergeben konnte.

Wo die Methode krankte

Die Methode 1965 krankte zum einen daran, dass zwei unterschiedliche Lichtquellen (Normlichtart A und Normlichtart C/D65 einen Höchstwert von 100 erreichen konnten. Dies lesen bis heute viele so, dass die Zahl 100 eine Prozentzahl wäre. Und eine 100-prozentige Farbwiedergabe? Perfekt! Es kann nicht besser gehen. Ein Ra = 100 heißt nur, dass jemand berechnet hat, dass die 8 Testfarben gut wiedergegeben werden sollen. Beleuchtungen mit der Glühlampe und D65 ergeben sehr unterschiedliche Farbumgebungen. Aber für beide gilt CRI = 100.

Die Berechnung wird meines Wissens nicht nachgeprüft. Obwohl ich im Laufe meiner Karriere viele Jahre im Lichtlabor verbracht habe, vier Semester Farbenlehre studiert und im Farblabor gearbeitet habe und rund einem Drittel der großen Namen der Branche persönlich begegnet bin, habe ich nie einen Menschen erlebt, der den Farbwiedergabeindex für eine Lampe berechnet.

Die Angabe von Zahlenwerten, die mit 100 enden, suggeriert, dass es sich um eine Art Skala handele, die sich von der simplen Nominalskala unterschiedet. Eine Nominalskala kategorisiert die Objekte der Betrachtung (z.B. in Rot, Grün, Blau). Folgt diese Kategorisierung einem Wertesystem, spricht man von einer Ordinal-Skala. Bei dem Beispiel von Rot, Grün und Blau kann man die Einordnung nach der Wellenlänge des Lichts vornehmen und die Aufzählung als Blau (kürzeste Wellenlänge), Grün und Rot (längste Wellenlänge) aufsetzen.Beide Skalenformen rechtfertigen eine Angabe von Zahlen nicht, weil diese in die Irre führen. Skalen mit echten Zahlenwerten sind zum einen Intervall-Skalen, bei denen der Abstand zwischen Punkten (1 und 2 oder 3 und 4) gleich ist. Das gilt z.B. für die Celsius-Skala für Temperaturen. Eine Differenz von 2 °C bleibt stets gleich.

Die höchste Skalenform ist die Verhältnisskala. Sie hat einen echten Nullpunkt und immer gleiche Abstände. Sie kann positive wie negative Werte einnehmen, wie bei Höhen. Da man bei einer Farbwiedergabe einen negativen Index nicht deuten kann, erwartet man einen Nullpunkt. Dies stimmt leider nicht, CRI kann auch – 44 betragen (Natriumdampflampe). Warum man je einen CRI von 0 berechnen sollte, wüsste ich nicht, außer dass die Lampe kein Licht abgibt. Eine Kerze hat einen CRI von fast 100, obwohl man bei Kerzenschein blaue Socken kaum von schwarzen unterscheiden kann. Eine Lampe kann einen stolzen CRI von 90 haben, aber eine Tomate trotzdem braun aussehen lassen, weil das wichtige R9 (gesättigtes Rot) nicht Teil der Berechnung ist. Man hat sich nur darauf geeinigt, bei 0 die Grenze für die Vermarktung zu ziehen, weil „CRI - 40“ im Baumarkt schwer zu verkaufen wäre.

Der CRI bestraft jede Abweichung von der Referenz – egal in welche Richtung. Eine LED, die Obst knackiger aussehen lässt als das echte Sonnenlicht, kriegt einen schlechteren CRI als eine LED, die Farben einfach nur stumpf wiedergibt. Schlicht gesagt: Die Skalenqualität des Farbwiedergabeindexs ist sehr fragwürdig. Wenn es nur dabei bliebe! Obwohl die CIE bereits 1964 ihre Normlichtart C ohne UV-Anteil abschaffen musste, weil Produkte, deren Farbe unter diesem Standardlicht geurteilt wurde, nicht allzu viel Ähnlichkeit mit ihrer Farbe unter realen Bedingungen hatten, wird auch heute noch der allgemeine Farbwiedergabeindex Ra von 1965 mit 8 Testfarben angegeben. D.h., das Testen von Produkten wie Autos oder Textilien findet unter dem Einfluss von UV-Licht statt. Die Fähigkeit von Lampen, Farben wiederzugeben, gibt man aber wie am ersten Tag ohne UV an.

Zu guter Letzt: die Benutzung des Wortes Tageslicht für eine fiktive Normlichart. Erstens gibt es mehrere Normlichtarten, deren Name mit D wie daylight anfängt. Zweitens – und das ist schlimmer – schließt die Definition des Tageslichts durch die CIE die Tageslicht genannten Normlichtarten aus: Licht bedeutet (e-ilv Begriff 17-21-013) Strahlung in dem Spektralbereich der sichtbaren Strahlung (= optische Strahlung, die in der Lage ist, eine Sehempfindung direkt hervorzurufen). Tageslicht bedeutet (e-ilv Begriff 17-29-105) Teil der globalen Sonnenstrahlung, die in der Lage ist, eine Sehempfindung hervorzurufen.

Somit wird als Tageslicht etwas definiert, das in der Natur nicht existiert. Dieses Tageslicht entspricht nicht der Normlichtart, die als Tageslicht angegeben wird.

Das „wahre“ Tageslicht wird im normalen Leben Tageslicht genannt, wo man natürliche Strahlung wahrnimmt. Bei Gebäuden gilt dies auf beiden Seiten von Fenstern. Überall, wo man Innenräume mit natürlicher Strahlung beleuchtet, wird sie Tageslichtbeleuchtung genannt. In Wirklichkeit handelt es sich im Innenraum um sehr stark gefiltertes Licht. Während der allgemeine Glaube herrscht. Glas sei lichtdurchlässig, also transparent, ist die Situation sehr intransparent, ohne dass relevante Leute wie Architekten dies immer merken. Das untere Bild zeigt die Filterwirkung von einigen Gläsern im Vergleich mit einer einfachen Verglasung. Eine Verglasung, die das Licht nur schwächt, aber farblich unbeeinflusst lässt, würde eine horizontale Gerade ergeben. Dies entspricht etwa der einfachen Verglasung, die rund 90% des Lichts hineinlässt. Alle anderen abgebildeten Gläser sind nicht farbneutral.

Nach dem Standard ISO/TR 9241-610 kann die Verglasung von Gebäuden im Minimum die Lichtmenge um 8% reduzieren. Maximalwerte für verschiedene moderne Gläser liegen zwischen 69% und 29%. Hierbei wird das Licht so gefiltert, dass CRI maximal 97 beträgt, d.h. die Verglasung reduziert die Güte der Farbwiedergabe etwas. Die Reduktion kann bis CRI = 77 erfolgen. Eine Lampe mit dieser Qualität der Farbwiedergabe darf in der EU nicht für Innenräume verkauft werden. Das bedeutet schlicht, dass das natürliche Tageslicht in Innenräumen nicht nur in der Größenordnung von etwa 1% ihrer natürlichen Intensität ankommt, sondern auch spektral erheblich verfälscht werden kann.

Hierbei ist noch nicht berücksichtigt, dass das Glas mittlerweile die gesamte UV-Strahlung wegfiltert. D.h., ein schönes Weiß, das erst mit Hilfe von optischen Aufhellern erzeugt wird, sieht man in Innenräumen nicht mehr. Es sieht aus, als wäre der Gilb drin.

Fazit und Aussichten

Das hier besprochene Phantom verdient eigentlich die Bezeichnung Zombie, zumal seine Fehler bereits in den 1970ern erkannt worden waren. Obwohl Korrekturen erfolgten (CIE 13.2 1974  und CIE 13.3 1995) blieb es bei der Größe Ra, die nunmehr in der neuesten Beleuchtungsnorm der CIE ISO/CIE 8995-1:2025 für die Beschreibung der Farbwiedergabe herangezogen wird. Da die Überarbeitung dieser Norm über 20 Jahre gedauert hat, die letzte Version war 2002, wird es keine baldige Änderung geben.

CIE hat 2017 mit CIE 224 CIE Technical Report Colour Fidelity Index for Scientific Use eine verbesserte Methode vorgelegt. Allerdings soll sie nur für „wissenschaftliche“ Anwendung gelten, was immer das sein mag. Zuvor hatte die US-amerikanische IES mit IES TM-30-15 Method for Evaluating Light Source Color Rendition, Illuminating Engineering Society eine Alternative vorgelegt. Danach folgten aber noch IES TM-30-18 Method for Evaluating Light Source Color Rendition, 2018 und IES TM-30-20 Method for Evaluating Light Source Color Rendition, 2019.

Diese plötzliche Eile hat viel mit der LED als Leuchtmittel zu tun. LEDs haben ein völlig anderes Spektrum als Glühlampen. Sie können bei den 8 Standardfarben super abschneiden, aber bei gesättigten Farben (besonders Rot, bekannt als R9) kläglich versagen. Auf der anderen Seite können LED sehr gute Spektren erreichen, ohne dafür an Effizienz einzubüßen.[1] Mit IES TM-30-15 kam der Gamechanger. Das war kein simpler Index, sondern ein komplexes System mit 99 Testfarben statt nur 8, einem neuen Fidelity Index Rf, der den Unterschied zwischen Licht und Referenzlicht angibt. Hinzu kam noch ein Rg wie Gamut, der beschreibt, wie intensiv oder gesättigt die Farben unter einer Lichtquelle erscheinen. Der Gamut ist die Gesamtheit aller Farben, die ein System (eine Lampe, ein Monitor oder ein Drucker) darstellen kann. Rg > 100: Die Farben wirken gesättigter und kräftiger. Ein Apfel sieht unter diesem Licht „roter“ aus, als er eigentlich ist. Das wirkt oft brillant und attraktiv. Rg <100: Die Farben wirken blasser oder „entsättigt“. Das Licht wirkt flach und lässt Oberflächen oft etwas grau oder leblos erscheinen.

Somit haben wir eine Methode, die nicht nur angibt, ob die Farbe “richtig” ist. Bei hoher Fidelity und einem Gamut von 100 werden die Farben “naturgetreu” wiedergegeben, was z.B. für Museen oder Kleidung wichtig ist. Bei Gamut über 100 wirken Farben frisch und lebendig. So etwas lässt die Obstauslagen im Supermarkt oder modische Artikel in Boutiquen anziehender erscheinen. LEDs mit einem Gamut-Wert unter 90 lassen die Farben müde und gräulich wirken. Die findet man häufig in Büros, bei denen sich die Lichttechnik nicht gerade viel Mühe macht.

Die letztere Methode (IES TM-30-20) soll die Zukunft bedeuten. Sie wurde 2020 aktualisiert, die besagte Beleuchtungsnorm ISO/CIE 8995-1 von 2025 hat sie noch nicht wahrgenommen.

Merkmal CRI (CIE 13.3) IES TM-30-20
Anzahl Testfarben 8 (Pastelltöne) 99 (reale Objekte, Natur, Haut)
Farbraum Veraltet (1964) Modern und präzise (CAM02-UCS)
Aussagekraft Nur Genauigkeit Genauigkeit + Sättigung + visuelle Grafik
LED-Optimierung Mangelhaft (R9-Problem) Exzellent für moderne LED-Spektren

[1] Bei Leuchtstofflampen war die Güte des Spektrums mit einem höheren Energieverbrauch für den gleichen Lichtstrom verbunden. So konnte eine Beleuchtung mit einem Vollspektrum bis 60% mehr Energie bei der gleichen Beleuchtungsstärke verbrauchen wie eine vergleichbare Dreibandenlampe.

[1] Ein Farbraum ist im Grunde ein mathematisches Koordinatensystem, das dazu dient, Farben messbar und vergleichbar zu machen. In diesem Raum wird jeder Farbe eine Adresse zugewiesen. Die meisten Farbräume basieren auf drei Achsen (Dimensionen), da das menschliche Auge drei Arten von Farbrezeptoren hat. Je nachdem, wie man diese Achsen definiert, entstehen unterschiedliche Modelle. Manche dieser Modelle sind technikorientiert. In der Wissenschaft ist der Farbraum wahrnehmungsorientiert und unabhängig von der Technik.

[2] So ganz intuitiv wurde die Skala dennoch nicht. Da musste man etwas nachhelfen. So gilt der Bereich CRI 90 – 100 als 1A. CRI zwischen 80 und 89 wurde 1B genannt, damit die Dreibandenlampe nicht zweitklassig erscheint. Danach kommt 2A (CRI 70 – 79).

[1] In 1965 war die Leuchtstofflampe nicht neu. Sie hatte sich aber weitgehend durchgesetzt, so dass die Glühlampe in Arbeitsbereichen weitgehend abgelöst wurde.

.

 

Phantome, die unser Wissen beherrschen VII

Wichtige Dinge brauchen Weile,
damit die Seele hinterherkommt
Anonymus

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Tageslichtquotient als Maß für das Tageslicht

Der Tageslichtquotient (D) beschreibt das Verhältnis zwischen der Beleuchtungsstärke im Innenraum und derjenigen im Freien unter einem komplett bedeckten Himmel. Entwickelt wurde das Konzept Ende des 19. Jahrhunderts von Alexander Pelham Trotter, um Innenraumbeleuchtung trotz ständig wechselnder Tageslichtbedingungen vergleichbar zu machen.

Obwohl der Ansatz seit 1895 nahezu unverändert existiert und in vielen Regelwerken weiterhin genutzt wird (z. B. DIN 5034, ASR A3.4, DGNB, LEED, BREEAM), ist er aus heutiger Sicht stark veraltet.

Zur Geschichte des Phantoms

Dass dieses Phantom schon tot sei, erzählte mein Doktorvater, als ich noch Student war. Das war so etwa 1969. Prof. Krochmann, einer der besten Tageslichttechniker, erzählte in seiner Vorlesung zu Tageslichttechnik, wir sollten den Begriff Tageslichtquotient nicht mehr benutzen, weil dieser unbrauchbar wäre. Seitdem sind fast sechs Jahrzehnte vergangen, ohne dass sich etwas Besseres eingebürgert hätte.

Dieses Phantom gehört zu den ältesten „Altlasten“ der Lichttechnik und wurde einst von einem Elektrotechniker, Alexander Pelham Trotter, „erfunden“. Alexander Pelham Trotter, ein britischer Elektroingenieur, hat Ende des 19. und Anfang des 20. Jahrhunderts Pionierarbeit auf dem Gebiet der Beleuchtungstechnik geleistet. Er gilt als einer der Gründerväter des Konzepts des Tageslichtquotienten (engl. Daylight Factor). Vor Trotters Arbeit war es extrem schwierig, die Innenraumbeleuchtung objektiv zu bewerten, da sich das Tageslicht ständig ändert. Trotter erkannte, dass man nicht die absolute Helligkeit (Beleuchtungsstärke) messen sollte, sondern das Verhältnis zwischen innen und außen. Zu dieser Ansicht war Trotter durch umfangreiche Messungen in verschiedenen Gebäuden gekommen.

Der Tageslichtquotient (D) beschreibt das Verhältnis der Beleuchtungsstärke an einem Punkt im Innenraum (Ep) zur Beleuchtungsstärke im Freien bei unverbauter Himmelskugel (Ea). Seit der besagten Vorlesung 1969 hat sich daran nur die Bezeichnung geändert, früher hieß „D“ anders, man schrieb es als „T“. Trotter bemerkte, dass die absolute Helligkeit in einem Raum (gemessen in Lux oder damals Foot-candles) wertlos war, um die Qualität der Architektur zu beurteilen, da sie sich minütlich mit dem Wetter änderte. In seinem Vortrag "The Physics of Artificial Lighting" (und ergänzenden Arbeiten) im Jahr 1895 legte er dar, dass das Verhältnis zwischen Innen- und Außenlicht eine Konstante der Architektur sei. Über ein Jahrzehnt später wurde seine Methode durch das britische National Physical Laboratory (NPL) offiziell für die Planung von Schulen und Fabriken übernommen. Somit wurde das Tageslicht planbar und messbar.

Ansonsten blieb es bei der Bedeutung: Da sich beide Werte bei wechselnder Bewölkung proportional ändern, bleibt der Quotient weitgehend konstant. Das macht den Tageslichtquotient zu einer verlässlichen Messgröße für die architektonische Qualität eines Raumes. Allerdings so lange der Raum so bleibt, wie er ist und nicht etwa durch einen Baum verschattet wird, der später gepflanzt wurde. Die Sache mit der unverbauten Himmelskugel ist wirklich auch so eine Sache. Was sie bedeutet, merkt man, wenn man D tatsächlich gerichtsfest messen muss.

Seit 1895 bis zur Norm DIN EN 17037:2019 hat sich der Begriff, also das Konzept, gehalten. Nur die Anforderungen haben sich geändert.

Was alles an dem Konzept Bauchweh verursacht

Das Problem des "Grauen Himmels"

Der Tageslichtquotient basiert per Definition auf dem CIE-Standardhimmel (vollständig bedeckt). Es gibt keine direkte Sonne, das Licht ist absolut gleichmäßig verteilt. Zu diesem Problem habe ich meine Kommentare in dem Beitrag „Warum ist unser Himmel so grau? erläutert.

Die Realität zeigt ein anderes Bild: In Regionen mit viel Sonnenschein (z. B. Südeuropa oder an klaren Wintertagen) liefert der Quotient völlig falsche Werte, da er die enorme Leuchtdichte der direkten Sonne ignoriert.

Die Problematik hat eine Lichtplanerin, Paulina Villalobos, die aus Chile stammt, wunderbar bildhaft dargestellt. Dieses Land erstreckt sich zwischen dem 17. Breitengrad fast bis zur Antarktis über 4200 km. Es reicht also von den Tropen in die Polarregion. Sie hat den Höchstsand der Sonne in verschiedenen Städten der Welt wie unten abgebildet.

Was dies bedeutet, habe ich mit Hilfe dieses Bildes illustriert:

Das Bild zeigt deutlich, dass die architektonische Qualität eines Raums allenfalls sehr mäßig durch den Tageslichtquotienten beschrieben werden kann.

Ignoranz gegenüber der Dynamik

Ein Gebäude steht 365 Tage im Jahr in verschiedenen Lichtsituationen. Der D ist ein fester Prozentwert. Er sagt nichts darüber aus, wie viele Stunden am Tag es im Raum tatsächlich hell genug ist, um ohne Kunstlicht zu arbeiten. Der Tageslichtquotient gilt auch in der Nacht, obwohl man dann mit der Bestimmung noch mehr Probleme hätte. So gesehen, entspricht D eher der Vorstellung von Architekten, wenn sie von einem gut belichteten Raum sprechen. Zwar ändert sich die Beleuchtungsstärke wie die Lichtqualität über den ganzen Tag, aber man weiß, was ein „heller“ Raum ist.

Die Ignoranz kommt an anderer Stelle zur Geltung. So versuchen Lichttechniker, möglichst hohe Beleuchtungsstärken im Raum über einen möglichst langen Teil des Tages zu erreichen, indem sie das Licht aus dem Teil des Himmels in den Raum holen, der am längsten gleich hell bleibt. Das ist das blaue Himmelslicht. Dass es im Innenraum eher grau gesehen wird, wurde hier erklärt: Künstliche Beleuchtung bildet das Tageslicht nach

Wie man das Licht des Himmels in den Raum führt, zeigt ein Bild von Bartenbach

Dieses Bild verschleiert bewusst die reale Physik. Zum einen wird niemand in der angegebenen Position in Fensterrichtung sitzen. Wenn überhaupt, ist der wahrscheinlichste Punkt etwa 4 m im Rauminneren, wo früher der Azubi saß. Wenn jemand wirklich so sitzt, wie der Augpunkt eingezeichnet ist, sieht der Raum wie unten aus, wo ich die ganzen Spiegel eingetragen habe, die das Licht lenken. Im oberen Teil des Fensters sind die Prismen angebracht, die das Himmelslicht holen. Dicht über dem Kopf des Mannes ragt ein sog. Lichtschwert etwa 1 m in den Raum hinein. Dort darf man nicht stehen.

Das Bild ist ein prägnantes Beispiel dafür, wie man Unmögliches für Fortschritt verkauft. Mehrere Jahrzehnte vor Erscheinen dieses Bildes war diese Blickrichtung für Arbeitsräume ausgeschlossen worden. Sie macht erst recht keinen Sinn, wenn einer mit einem Bildschirm arbeitet. Wenn ein Arbeitgeber jemanden zwingt, in dieser Sitzposition zu arbeiten, verstößt er gegen den Arbeitsschutz. Der Kommentar des Protagonisten dieser Szene zu seinem gesamten Wirken in einer Zeitschrift wirkt da besonders lustig:

Abgesehen vom Arbeitsschutz: Was ist das für eine Raumästhetik, wenn die Decke voller Spiegel hängt? Und die gesamte Fensterfront mit einem Spiegel in  etwa Stehhöhe versehen ist, der in den Raum hineinragt?

Zu demselben Trick mit dem Nordlicht griffen früher Maler, die ihre Ateliers in Nordzimmern hatten. Dort ist die Dynamik des Tages am geringsten. Dummerweise hilft dies nur deswegen, weil man damit möglichst konstante Verhältnisse schaffen wollte. Wie sein Bild unter realen Verhältnissen ausschaut, muss sich der Maler selbst ausmalen.

Bei der Tageslichtbeleuchtung zählt die Dynamik zu den Qualitätsmerkmalen. Gleichbleibendes Licht mit stets gleichen Eigenschaften erzeugt man besser elektrisch, wenn es gebraucht wird.

Vernachlässigung der Orientierung

Für den klassischen Tageslichtquotienten ist es egal, ob ein Fenster nach Norden oder nach Süden zeigt. In der Berechnung nach Trotter liefern beide Himmelsrichtungen das gleiche Ergebnis (da man ja vom trüben Standardhimmel ausgeht). Jeder Bewohner weiß jedoch, dass ein Südzimmer eine völlig andere Lichtcharakteristik und Wärmelast hat als ein Nordzimmer.

Das Konzept ergibt für alle Jahreszeiten den gleichen Wert. Ob die Qualität eines Raums vom 21. Dezember die gleiche ist wie die vom 21. Juni? Man vergleiche die Daten, z.B. den Höchststand der Sonne am Mittag (14° gegen 61°) oder die Tageslänge.

Wo steht das Phantom noch hoch im Kurs?

Die Frage lässt sich nicht zuverlässig beantworten, ohne jedes Regelwerk im Detail abzuprüfen. Trotzdem kann man davon ausgehen, dass relevante Regelwerke wie DIN 5034-1: 2021-08 den Tageslichtquotienten nicht nur definieren, sondern auch mit Anforderungen verbinden.

Auf jeden Fall wird D in der ASR A3.4 von 2023 definiert und mit einer Anforderung (5.1 Ausreichendes Tageslicht) verbunden. Das Gebäudezertifizierungssystem DGNB nennt die neueste Norm zur Tageslichtbeleuchtung (DIN EN 17037) in Verbindung mit D ≥ 1,0 bis 2,0 für diverse Typen von Bauten. Nach der Bewertung nach LEED (USA) werden unter Daylight (Indoor Environmental Quality) Werte für D angeführt, um Punkte zu erhalten. Auch BREEAM führt unter Daylighting D als eine Alternative zu moderneren Methoden an.

Das Deutsche Architektenblatt hebt bei der Vorstellung der neuen Norm zu Tageslicht in Innenräumen ebenfalls auf den Tageslichtquotient ab. (hier) Allerdings geben die Architekten selbst nicht allzu viel auf den Tageslichtquotient. Denn bei den Regelwerken, die die Qualität der Architektur in Deutschland am stärksten bestimmen, den Landesbauordnungen, steht nichts davon. Stattdessen liest man z.B. in der Muster-LBO: “Aufenthaltsräume müssen ausreichend belüftet und mit Tageslicht belichtet werden können. Sie müssen Fenster mit einem Rohbaumaß der Fensteröffnungen von mindestens 1/8 der Netto-Raumfläche des Raumes einschließlich der Netto-Raumfläche verglaster Vorbauten und Loggien haben.“ Die LBO sprechen nicht einmal von Beleuchtung, sondern von Belichtung. Allerdings scheint die Betrachtungsweise der LBO nicht unbedingt logischer. Denn jedes Zimmer mit einer identischen Fenstergröße in Burj Khalifa (828 Meter hoch, 163 Etagen) in einer der 163 Etagen ist nach dieser Denke gleich mit Tageslicht belichtet. Dabei gilt das nicht einmal für drei Etagen eines freistehenden Einfamilienhauses in Deutschland.

Totgesagte leben lange. So wird dem Phantom Tageslichtquotient unter allen lichttechnischen Begriffen möglicherweise das längste Leben zuteil. Geboren 1895, immer noch wichtig in einer Arbeitsschutzvorschrift in 2023 – das muss man können.

Wer kann das Phantom beerben?

Es gibt eine Reihe methodischer Ansätze, die das starre System des Tageslichtquotienten ablösen können. So wird in DIN EN 17037 auch die geografische Lage eines Gebäudes einbezogen. Es wird geprüft, ob an einer bestimmten Anzahl von Stunden (z. B. 2.190 Stunden pro Jahr) eine Zielbeleuchtungsstärke erreicht wird. Dabei werden reale Klimadaten des Standorts (EPW-Dateien) verwendet, sodass ein Gebäude in Madrid anders bewertet wird als ein identisches Gebäude in Oslo.

Zunehmend werden klimabasierte Tageslichtmodellierungen (kurz CBDM für Climate-Based Daylight Modelling) benutzt. Im Gegensatz zu statischen Methoden nutzt CBDM sogenannte Meteorologische Datensätze (z. B. EPW-Dateien). Diese enthalten für einen spezifischen Standort (z. B. Berlin oder München) stündliche Informationen über die direkte Sonneneinstrahlung, diffuse Himmelsstrahlung und Sonnenstand.

So neu ist diese Denke nicht. Wir haben auf diese Art und Weise die Belichtung der Münchner Olympia-Sportstätten berechnen müssen. Das war allerdings seinerzeit in 1968-1969 ein wissenschaftlicher Akt. Heute kann man auf fertige Methoden und verlässliche Zahlen zurückgreifen.

Phantome, die unser Wissen beherrschen VI

Wo das Licht am hellsten ist,
ist der Schatten am tiefsten.

J.W.v. Goethe

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Sonnenlicht ist gesund

Der Beitrag beschreibt das „Phantom“, die bis heute verbreitete Vorstellung, dass Sonnenlicht grundsätzlich gesund sei. Diese Idee entstand im Zuge der Industriellen Revolution, als Städte im Dunkel von Smog lagen und Menschen das Bedürfnis nach Licht hatten. Lichttechniker nutzten dies für künstliches „Tageslicht“, während Reformbewegungen wie die Progressiven versuchten, natürliche Helligkeit in Städte und Wohngebiete zu bringen. Dadurch wandelte sich weltweit das Schönheitsideal: Gebräunte Haut wurde zum Zeichen von Wohlstand.

Heute besteht ein Spannungsfeld zwischen den Vorteilen und Gefahren der Sonne. UV-Strahlung ist lebenswichtig für die Vitamin‑D‑Produktion, kann aber gleichzeitig schädlich wirken und Haut- sowie Augenerkrankungen auslösen. Besonders im Sommer führt übermäßige Sonnenexposition zu akuten Belastungen wie Sonnenbrand, Hitzeerschöpfung oder Sonnenstich. Arbeitgeber müssen Beschäftigte vor UV-Strahlen schützen.

Zur Geschichte des Phantoms

Dieses Phantom ist vermutlich so alt wie die Geschichte der menschlichen Zivilisation. In vielen alten Religionen galt die Sonne sogar als Gottheit. Seine heutige Ausprägung verdanken wir der Industriellen Revolution, die die Zentren der wichtigsten Industriestaaten derart in Finsternis hüllte, dass man den Tag kaum von der Nacht unterscheiden konnte. Dadurch setzte eine Pilgerfahrt zur Sonne ein bzw. eine Flucht aus den Industriezentren. Wer nicht verreisen konnte, wollte wenigstens die heilenden Strahlen der Sonne ins Haus holen. Selbst Reisebusse und Bahnzüge wurden mit UV-durchlässigen Fenstern ausgestattet, damit der Mensch den Segen der Natur empfangen konnte. Man erfand komplexe Lampen, die die heilenden Strahlen der Sonne gleich in der Wohnung produzieren sollten.

Den Beginn der Entstehung des Sonnenwahns erzählt das Kapitel Krankheiten der Finsternis – Geschichten aus New York und Chicago. Bei diesen Ereignissen spielten zwei Gruppen eine besondere Rolle. Zum einen waren es die Lichttechniker, die geschickt die historische Strömung für ihr Geschäft nutzten. Wenn Sonnenlicht gesund ist, aber leider nicht immer und nicht überall verfügbar ist, dann  erzeugen wir es eben elektrisch. Und wir machen es besser als die Natur. Deswegen wimmelt es in der Geschichte von Lichttechnik nur so von Tageslichtlampen. Licht mit einer Farbe, die einem das Blut in den Adern gefrieren lässt, heißt auch noch tageslichtweiß. Das gesamte Buch Genesis 2.0 – Schöpfung der elektrischen Sonne dient eigentlich der Erklärung dieses Narrativs der Techniker.

Eine andere Gruppe, die Progressiven, wollten das Licht der Natur in die Siedlungen und Häuser der Menschen holen. Ihrem Bestreben verdanken wir z.B. die Gartenstädte dieser Welt. In dem Buch werden die Bemühungen der US-amerikanischen Progressiven dargelegt, die nicht wenig von deren Kollegen und Weggefährten aus Deutschland profitierten. Was in Deutschland in dieser Richtung passierte, erzählt das Kapitel Meanwhile in Old Germany …

All dies führte zu einer Änderung des Schönheitsideals weltweit. Hat einst der Adel die blasse Haut stolz getragen, um zu demonstrieren, dass er nicht arbeiten muss wie die armen Bauern, deren Haut die Sonne gerbt, wurde die gebräunte Haut zum Symbol der neuen Reichen, des gehobenen Bürgertums. Die neue Hautfarbe signalisierte, dass man nicht zu den armen Schichten gehörte, die den Sonnentag bei der Arbeit verbringen und den Rest ihres Lebens in lichtarmen Behausungen. Tan wurde nicht etwa in den Adelsstand erhoben, sondern gleich zu den Gottheiten gezählt: Great God Tan!

Vor und in den 1920ern kehrte sich diese Vorstellung aufgrund der hier dargestellten Vorgänge ins Gegenteil um. Was einst nobel und edel aussah, sah jetzt eher wie ein Opfer der Schwindsucht aus. Irgendwie erinnert das Ganze an Effi Briest, eine junge Adlige vom Land, die in Berlin an einer „diffusen“ Krankheit stirbt, die ihr Arzt Dr. Rummschüttel als Schwindsucht bezeichnet. Ein halbes Jahrhundert vor Fontanes Protagonistin war „Die Kameliendame“ von Alexandre Dumas d. J. aus der Welt geschieden, einer anderen Welt in Paris, aber an derselben Malaise.

Nicht nur Effie Briest und die Kameliendame verblassten ohne Sonne. Auch das indigene Mädchen Wildflower siechte dahin, bis eine Krähe sie rettete, indem sie ein Loch in den Himmel pickte. Die himmlische Medizin („The Great Sky Medicine“) verhinderte das Welken der armen Wildblume. Der Spruch der Autorin Elisabeth Jenkins zum Abschluss der Geschichte der Wildflower liest sich beinah herzzerreißend: „Jedes kleine Mädchen, das dahinsiecht und verblasst, wie es die Wildblume tat, kann gesund und glücklich gemacht werden durch die Große Himmlische Medizin, die große, warme und wundervolle Sonne.“

Auf zur Sonne? Brüder, zur Sonne, zur Freiheit – Die deutsche Version des russischen Lieds wurde etwa zur gleichen Zeit gesungen, als die Wildflower-Story erschien.

Ist das Sonnenlicht etwa nicht gesund?

Ein Jahrhundert danach, in unserer Zeit, besteht immer noch dieselbe Vorstellung, die sich damals entwickelt hat. Allerdings herrscht heute ein gnadenloser Kampf zwischen denen, die die Vorteile der UV-Strahlung hervorheben, und jenen, die immer wieder mit dem kommenden Frühling beginnend vor den Gefahren der Sonne warnen. Man hat nämlich in der Zwischenzeit gelernt, dass die UV-Strahlung ein „Agens“ ist, was so viel bedeutet wie ein Krankheiten hervorrufender Faktor.[i]

Eigentlich ist ein Agens „eine treibende Kraft“ oder „einwirkendes Prinzip“. Woraus sich die Rolle der UV-Strahlung bestens erklärt: Zu Urzeiten verhinderte sie die Entwicklung des Lebens überhaupt, weshalb es sich deswegen im Wasser entfalten musste. Später war sie durch Erzeugung von Mutationen an der Evolution beteiligt. Für den Menschen ist sie aufgrund der Vitamin-D-Produktion lebenswichtig. Ebenso kann sie für Organismen schädlich bis tödlich sein und wird seit Langem zur Desinfektion und Entkeimung eingesetzt. Zu Beginn der Evolution war die UV-Strahlung der Sonne tödlich, bis sich die Ozonschicht in der Atmosphäre ausbildete. Eine Schicht aus tödlichem Gas, die dem Leben auf der Erde die Freiheit zur Entfaltung schenkte.

Das Melatonin, von dem in diesen Tagen viel die Rede ist, ist vermutlich in diesen Urzeiten entstanden, die etwa 3 Milliarden Jahre zurückliegen. Es ist das Langzeitgedächtnis des Lebens, das in jenen Zeiten das Signal gab, sich vor der Sonne zu verstecken. Dass es beim heutigen Menschen das Startsignal für die Ruhezeit gibt, ist kein Paradox. Lebewesen beginnen mit der Melatoninproduktion am Ende des Tages. Die tagaktiven Wesen leiten daraus ab, dass sie sich auf die Ruhe vorbereiten sollen, die nachtaktiven verstehen das Gegenteil. So fehlt dem Menschen heute scheinbar die Warnung vor dem Licht. Der Mensch als Lichtwesen (homo diurnus) strebt nach dem Hellen. Und das Helle kommt von der Sonne.

Allerdings hat die Evolution des Menschen nicht in offenen Wüstenlandschaften oder Prärien stattgefunden, wo er große Teile des Tages der Sonne ausgesetzt war. Die Empfindlichkeitskurve des menschlichen Auges, die genau bei den Wellenlängen am höchsten ist, bei denen die Pflanzen das meiste Licht abweisen oder durchlassen, lässt vermuten, dass der Mensch unter dem Blätterdach von Bäumen entstanden sein muss. In solchen Umgebungen herrschen keine 100.000 lx Beleuchtungsstärke. Man ist auch nicht ungefiltertem UV-Licht ausgesetzt, außer durch den natürlichen Filter der Atmosphäre.

Wenn man gesund mit den Bedingungen der Evolution in Harmonie versteht, kann man daraus nur ableiten, dass das Sonnenlicht bei geringen Intensitäten mit Sicherheit gesund ist. Und ohne Dauerbestrahlung.

Heute empfängt die Mittelmeerregion jährlich etwa 360 bis 440 Millionen internationale Gäste, meist aus nördlicheren Ländern. Das entspricht rund einem Drittel aller Touristen weltweit. Great God Tan heißt, sich in die Sonne zu knallen, um möglichst schnell die “gesunde” Bräune zu erwerben. Was sich viele dabei unabsichtlich erwerben, bezeichnen Dermatologen als Acne aestivalis, a.k.a. Mallorca-Akne. Die Sonne ist auch an der Salzwasser-Dermatitis beteiligt. Wenn Salzwasser auf der Haut trocknet, können die Salzkristalle wie kleine Brenngläser wirken und die Haut reizen oder austrocknen.

Eine Erkrankung, mit der Dermatologen einem häufig Angst machen, Hautkrebs, lasse ich lieber weg. Hierzu gibt es erstens genügend Warnungen. Und zweitens, stehen bestimmte Hautschäden auch ohne Krebsentstehung auf dem Plan. UVB-Strahlen verursachen den Sonnenbrand und direkte DNA-Schäden. UVA-Strahlen dringen tiefer ein, sorgen für Hautalterung und bilden freie Radikale, die indirekt Krebs fördern.

Das Sonnenlicht belastet den Körper allein durch den sichtbaren Anteil von etwa 45% der Gesamtenergie. Wenn man unbeschattet in der Sonne steht, kommt etwa dieselbe Energiemenge (48%) hinzu. Bei den Temperaturen, die in der Ferienzeit in Mittelmeerländern herrschen, stellt die direkte Bestrahlung allein eine große Belastung dar. Auswirkungen von einer solchen Belastung können sein:

  • Flüssigkeitsmangel (auch ohne Durstgefühl)
  • Unwohlsein (Hitzeerschöpfung)
  • Sonnenstich
  • Hitzekollaps bis zum lebensbedrohlichen Hitzschlag.

 

Arbeitgeber müssen ihre nicht freiwillig in der Sonne weilenden Mitarbeitenden vor Strahlung schützen. Das gilt selbst für die Verglasung von Fahrzeugen. Seit 2019 ist heller Hautkrebs als Berufskrankheit anerkannt. Was das Sonnenlicht sonst an Sachäden verursachen kann, wird in der DGUV-I 203-085 “Arbeiten unter der Sonne” wie folgt aufgelistet:

Unmittelbar auftretende Schäden sind beispielsweise:

  • Sonnenbrand (Rötung bis zur Blasenbildung)
  • Allergien, die durch Sonne mitausgelöst oder verstärkt werden, phototoxische und photoallergische Reaktionen (Photodermatosen)
  • Augenschäden wie Binde- und Hornhautentzündung

 

Chronische Schäden (Spätfolgen) können sein:

  • Hautkrebs einschließlich Frühstadien, z. B. aktinische Keratosen
  • Linsentrübung des Auges (Grauer Star)
  • Vorzeitige Hautalterung (u. a. übermäßige Faltenbildung, Altersflecken)

Das Sonnenlicht ist die ursprüngliche Quelle allen Lebens. Wie diese Darstellungen zeigen, kann es jedoch auch als Gefahr angesehen werden. Die Natur ist weder gut noch böse.

Mittelbare Schäden durch Schutzmaßnahmen

Immer zu dieser Jahreszeit erscheinen in der ganzen Presse Artikel mit Warnungen vor den Gefahren der Sonne, die meist von der einschlägigen Industrie  „gesponsert“ werden. Häufig werden sie von besorgten Dermatologen verfasst oder stammen aus Berufsverbänden wie der Deutschen Dermatologischen Gesellschaft. Sie kulminieren in Empfehlungen, wie man sich im Sommer täglich mehrmals mit einem Lichtschutzfaktor 50 schützen müsse. Es drohe sonst Hautkrebsgefahr.

Andere Leute halten solche Warnungen für eine Aufforderung zum Selbstmord in Raten, weil man damit die Axt an eine vitale Funktion der Haut legt: an die Vitamin-D-Produktion. Diese Substanz ist kein Vitamin, sondern ein Hormon. Dessen Produktion erfolgt in der Haut unter dem Einfluss der UV-Strahlung. Vitamine kann der Körper nicht selbst produzieren. Man muss sie einnehmen. Vitamin D kann man auch durch die Nahrung aufnehmen. Das ist aber nicht sehr effizient.

Das Vitamin D steuert biochemische Reaktionen im gesunden Körper. Es unterstützt den Aufbau von Knochen und Muskulatur, stärkt das Immunsystem, hat eine Schutzfunktion für die Nervenzellen des Gehirns und des Herz-Kreislauf-Systems, senkt den Blutdruck und schützt auch vor Krebserkrankungen. Die Aufnahme von Vitamin D erfolgt zu 90 Prozent über die Sonne, nämlich mithilfe der UV-B-Strahlung, zu 10 Prozent über die Ernährung. Lebensmittel, die besonders viel Vitamin D enthalten, sind beispielsweise Seefische wie Lachs oder Makrele. Man müsste aber schon sehr viel Fisch essen, um Ihren Vitamin-D-Haushalt aufrechtzuerhalten. Besser ist es, viel Sonne zu tanken.

Eine Langzeitfolge des Vitamin-D-Mangels ist Osteoporose. Hierdurch werden die Knochen porös und brüchig. Schon einfache Stürze können dann zu schweren Brüchen führen (besonders Oberschenkelhals oder Wirbelkörper). Ein Oberschenkelhalsbruch in hohem Alter bedeutet meist ein Todesurteil. Vitamin D wirkt nicht nur auf den Knochen selbst, sondern ist auch entscheidend für die Muskelfunktion. Ein Mangel führt zu Muskelschwäche und Gangunsicherheit. Schwache Muskeln können den Körper schlechter stabilisieren ➩ das Sturzrisiko steigt  ➩ die bereits geschwächten Knochen brechen schneller.

Vitamin D  spielt eine entscheidende Rolle bei den Reizübertragungen der Nervenzellen:

Schutz der Myelinschicht (die Isolierung): Nervenleitungen funktionieren wie elektrische Kabel. Damit der Impuls schnell und ohne Verluste ans Ziel kommt, sind sie mit einer Isolierschicht umhüllt, dem Myelin. Vitamin D regt die Produktion von Proteinen an, die für die Bildung und Reparatur dieser Myelinschicht verantwortlich sind. Eine beschädigte Myelinschicht führt dazu, dass Nervensignale langsamer oder fehlerhaft übertragen werden.

Kalzium-Haushalt in der Nervenzelle: Damit eine Nervenzelle einen Impuls abfeuern kann, müssen Ionen (vor allem Kalzium) durch die Zellmembran fließen. Vitamin D reguliert die Kalziumkanäle in den Neuronen. Ist zu wenig Vitamin D vorhanden, gerät das elektrische Gleichgewicht der Zelle durcheinander. Dies kann sich in Missempfindungen wie Kribbeln („Ameisenlaufen“), Taubheitsgefühlen oder Muskelzucken äußern.

Produktion von Neurotransmittern: Vitamin D beeinflusst Enzyme, die für die Herstellung wichtiger Botenstoffe zuständig sind, darunter Dopamin & Serotonin (Stimmung und Signalübertragung im Gehirn) und Acetylcholin, der Hauptbotenstoff für die Steuerung von Muskelbewegungen.

Nervenschutz (Neuroprotektion): Vitamin D wirkt antioxidativ und entzündungshemmend im Nervengewebe. Es hilft dabei, Neurotrophine zu bilden – das sind körpereigene Lockstoffe, die Nervenzellen beim Überleben helfen und das Wachstum neuer Nervenverbindungen fördern.

Rezeptoren für Vitamin D finden sich fast im gesamten Gehirn, besonders in Regionen, die für die Planung von Bewegungen und die Gedächtnisbildung zuständig sind (wie der Hippocampus).

Die lange Aufzählung der Funktionen von Vitamin D sollte verständlich machen, wovor man in jedem Frühling gewarnt wird. Man kann sogar solche Statements lesen: “Tatsächlich zeigen die vorherrschenden Studien, dass Menschen, die täglich Sonnenschutzmittel verwenden, ihren Vitamin-D-Spiegel aufrechterhalten können.” Dumm nur, dass man in Mitteleuropa im Winter auch ohne Sonnenschutzmittel seinen Vitamin-D-Spiegel nicht halten kann.

Das Thema ist höchst umstritten, seit die Vorstellung entstanden ist, dass UV-Licht für das Leben wichtig ist. So wurde auch das Buch von Luckiesh und Pacini Light and Health bereits bei Erscheinen 1926 heftig kritisiert, und zwar von keinem Geringeren als Emery R. Hayhurst, der als Pionier auf dem Gebiet der Arbeitsmedizin (Industrial Hygiene) gilt.

Der Rezensent stellt, wie hier erkennbar, in Frage, ob UV überhaupt so wichtig für ein gesundes Leben sei, wenn die Inder im Schnitt 25 Jahre alt werden, während der Durchschnittsamerikaner 55 wird. Ergo? Wenn es nach dem Rezensenten ginge, sollte man die Quintessenz des Buches gar nicht zur Kenntnis nehmen. Rayhurst fand das Buch dennoch höchst interessant, weil darin die Entstehung des Menschen mit der Sonnenstrahlung erklärt wurde: “Die Sonnenstrahlung war ein wichtiger Umweltfaktor in der Evolution des Lebens, die schließlich in dem Menschen gipfelte. Offenbar sind Strahlungen bestimmter Wellenlängen für die Gesundheit biologischer Wesen, einschließlich des Menschen, ebenso wichtig wie Sauerstoff.” [1]

Es blieb meist nicht bei dezenter Kritik. Dem großen Protagonisten Michael Holick wurde infolge eines solchen Streits auch seine Professur in der Dermatologie entzogen. Dieser war Professor an der Boston University in der Dermatologie-Abteilung. Holick veröffentlichte das Buch „The UV Advantage“, in dem er „maßvolles Sonnenbaden“ (ca. 5 bis 15 Minuten mehrmals pro Woche ohne Sonnenschutz) empfahl, um die Vitamin-D-Produktion anzuregen. In der Welt der Dermatologie, die konsequente Sonnenvermeidung zur Vorbeugung von Hautkrebs predigt, galt dies als „Häresie“. Die damalige Leiterin der Dermatologie, Dr. Barbara Gilchrest, warf ihm vor, die öffentliche Gesundheit zu gefährden, und verglich seine Empfehlungen sogar damit, das Rauchen zur Entspannung zu bewerben. Holick musste die Dermatologie verlassen.

Seit dem Eklat um Michael Holick im Jahr 2004 hat sich die wissenschaftliche Sicht auf Vitamin D dennoch massiv gewandelt. Man hat erkannt, dass er mit der Bedeutung des "Sonnenvitamins" recht hatte. die Debatte um die richtige Dosierung und den Sonnenschutz bleibt jedoch bis heute ein Drahtseilakt.

Fazit

Dieses Phantom, das wir den Umweltfolgen der Industriellen Revolution verdanken, wird uns wohl sehr lange begleiten. Das liegt an dem “Täter”, der Sonne, der wir alles Leben verdanken. In Maßen genossen, gibt es nichts Besseres als ihr Licht für Leib und Seele. Sie kann aber auch schädlich bis zerstörerisch werden.

Zu dem Thema hat sich 1926 der Pionier der Arbeitsmedizin gemeldet, als das Buch Light and Health eines Lichttechnikers erschien. Im Jahre 2026 haben 5 der 17 Beiträge des Symposiums Licht und Gesundheit sich vornehmlich mit UV beschäftigt. Auf den 84 Seiten der Dokumentation der Veranstaltung erscheint “UV” 96-mal.

[1] Emery R. Hayhurst, Rezension in The American Journal of Public Health, S. 635, 1926

[i] Zum Begriff agens siehe Begriffsbestimmung hier . Ein Agens kann eine wirksame Substanz sein, aber auch negativ beladen. Die neutrale Auffassung entspricht eher der Rolle von Stoffen und Strahlung in der Natur. Luft und Wasser, beide unerlässlich für Leben, können u.U. einen schnellen Tod verursachen. UV kann Zellen angreifen und Mutationen bewirken, Und Mutationen sind nach der Vererbungslehre Grundstein für die Entwicklung der Natur.

Über den Wolken muss das Licht unendlich sein

Wissenschaftliche Durchbrüche
bestehen oft darin, dass man alte Weisheiten
endlich in Tabellenform gepresst hat.

Anonymus

Zu diesem Artikel

Vor 5 Jahren überraschte die internationale Elite der Chronobiologen die Lichtwelt mit einer Erklärung[1]. Damit niemand auf die Idee kam, dass sie heimlich anderweitigen Interessen dient, haben alle ihre möglichen Interessenkonflikte dargelegt. Und zwar derart ausführlich, dass die Erklärung länger war als der Inhalt des Papiers. Diese sehr auffällige Erklärung habe ich damals in voller Schönheit kommentiert, z.B. Konflikte von Autoren mit Interessen.

Der Inhalt war eine Erklärung, wie man die Beleuchtung in Innenräumen gestaltet, damit der Mensch im Innenraum in Harmonie mit seinem circadianen Rhythmus leben kann. Die Pundits haben angegeben, tagsüber müsse im Innenraum eine melanopische Beleuchtungsstärke von 250 lx MEDI herrschen. Die jetzt existierenden Beleuchtungen wären dazu nicht in der Lage. (s. hierzu Minimale melanopische Beleuchtungsstärke für Jedermann ). Was die Damen und Herren für erforderlich halten, macht die Skizze deutlich

In diesem Beitrag geht es um die melanopische Beleuchtungsstärke am Tage. Um die Körperrhythmen gesund und munter zu halten, muss zwischen 06:00 morgens und 19:00 abends eine mel-EDI von 250 lx überschritten werden. (Anm.: mel-EDI wird auch mal MEDI oder mEDI geschrieben. Um die Normung der Schreibweise kümmern wir uns, wenn wir mit dem Rest fertig sind.)

Diese Beleuchtungsstärke unterscheidet sich von ihrer berühmteren Cousine durch mehrere Eigenschaften:

  • Sie ist vertikal, d.h. es zählt nur das horizontal fliegende Licht.
  • Sie ist abhängig von der Lichtfarbe bzw. vom Spektrum.
  • Sie ist vom Alter des Betrachters abhängig.

 

Man kann mel-EDI aus der in der Planung angegebenen Horizontalbeleuchtungsstärke überschlägig als ein Drittel des Planungswertes berechnen, also etwa 33%.Dazu kommt ein Abschlag, wenn das Spektrum vom Tageslicht D65 abweicht. Für „normale“ Leuchtstofflampen mit der Lichtfarbe neutralweiß beträgt der Abschlag rund 50 %. Somit hätten wir bei 500 lx Planungswert eine mel-EDI von 82,5 lx für einen 32-jährigen Beobachter. Bei einem angehenden Rentner muss der Wert noch halbiert werden. Der 65-jährige Beobachter erhält bei gleicher Lampe nämlich nur noch ca. 40 % der biologischen Dosis eines jungen Menschen.

Um die gewünschte Wirkung zu erzielen, muss die Beleuchtung also mindestens um den Faktor 3 erhöht werden. Rechnerisch müsste sie etwa bei dem 6-fachen Wert liegen. Das ist mit künstlichem Licht schlecht machbar. Helfen tut das Tageslicht. Da es durch die Fenster horizontal einfällt, fällt der Faktor 0,33 erst einmal weg. Dann hat es auch noch das gewünschte Spektrum, wenn nicht besser. Also müssten wir die aus medizinischer Sicht erforderliche melanopisch wirksame Beleuchtung in Innenräumen mit Tageslicht lässig erreichen können.

Genau dies untersucht eine Gruppe Forschender in dem EU-Projekt MeLiDos (Metrology for wearable light loggers and op­tical radiation dosimeters).[2] Sie erheben hochaufgelöste persönliche Lichtexpositionsdaten unter Alltagsbedingungen an neun Standorten zwischen dem Äquator und Skandinavien (Schweden, Niederlande, Deutschland, Spanien, Türkei, Costa Rica und Ghana). Deren Sensoren messen die melanopische Bestrahlungsstärke direkt auf Augenhöhe, was wesentlich genauer ist als eine statische Berechnung am Schreibtisch.

In einem Beitrag zum 13. Symposium Licht und Gesundheit 2026, mit dem Titel “Wie viel Licht erreicht uns wirklich? Erkenntnisse aus der Dortmunder MeLiDos-Studie”, stellten Kai Broszio, Johannes Zauner und Manuel Spitschan vor, wie die melanopische Beleuchtungswirkung am Standort Dortmund aussieht.

Es wurden drei Größen betrachtet:

  • melanopische Beleuchtungsstärken (mel-EDI, lx)
  • Time-Above-Threshold-Metriken (TAT, Werte über 500 lx und 1000 lx in h/d)
  • zeitliche Lage der Lichtexposition (mittlerer Zeitpunkt der Exposition oberhalb 250 lx).

 

Die Anforderung der Chronobiologen hieße >TAT250 von 06:00 bis 19:00 Uhr.

Der Beitrag stellt die Messperiode Sommer-Herbst dar, wo die theoretisch mögliche Photoperiode in Dortmund ca. 10,5–16,5 h beträgt.

Das Ergebnis fällt sehr ernüchternd aus.

Melanopische Beleuchtungsstärken (mel-EDI)
Tageszeit 08:00–18:00 ca. 90 lx – 130 lx
Mittagsfenster 11:00–14:00 ca. 120 lx – 180 lx
Abend 18:00–22:00 ca. 5 lx – 15 lx

Der Grenzwert von 250 lx wurde 0,8 h – 1,4 h/Tag (Median) überschritten. Melanopische Beleuchtungsstärken von über 1000 lx sahen die Probanden 0,2 h/Tag. An den meisten Arbeitstagen wurden 1000 lx nie überschritten.

Die zeitliche Verteilung ergab ein weiteres ernüchterndes Ergebnis. Die Exposition oberhalb 250 lx war stark auf die Mittagsstunden konzentriert und weist eine geringe zeitliche Breite auf. Frühmorgendliche hohe Lichtreize, die für eine biologische Wirkung besonders wirksam wären, traten selten auf.

Das Ergebnis werten die Autoren wie folgt:

Die Dortmunder Daten belegen exemplarisch ein urbanes Lichtparadox: Trotz langer Sommertage bleibt die persönliche melanopische Tageslichtexposition niedrig, während abendliche Lichtquellen präsent sind. Die resultierende Lichtprofil – „dim days, bright evenings“ – gilt als Risikofaktor für circadiane Instabilität, Schlafverkürzung und langfristige Gesundheitsfolgen (Lunn et al. 2017; Blume et al. 2019; Haus und Smolensky 2013; Abbott et al. 2020).

Die Ergebnisse zeigen ferner, dass Photoperiode allein kein verlässlicher Prädiktor für individuelle Lichtdosen ist. Entscheidend sind verhaltens- und umgebungsbedingte Faktoren, insbesondere Arbeitsorganisation und Innenraumaufenthalte.“

Warum war dieses Ergebnis zu erwarten?

Frühere Messungen

Im Rahmen des PLACAR-Projektes hatte Dr. Dieter Kunz von der Charité ähnliche Dosismessungen an Berliner Studierenden vorgenommen. Zwar waren die Messmethoden bei Weitem nicht so verfeinert wie heute. Aber Kunz’ Ergebnisse waren schockierend genug: junge Studenten, die ihre hellichten Tage im Dunkeln verbringen. Das Schlagwort biologische Nacht machte schon damals die Runde.

Bei dem damaligen Vortrag wurde das Ergebnis auch mit dem Verhalten der Probanden begründet. Niemand hält die Studenten davon ab, erhebliche Teile des Tages draußen zu verbringen. Ihre Situation ist nicht vergleichbar mit der der Arbeitnehmer, deren Arbeitsstunden nicht zufällig mit dem hellen Tag zusammenfallen. Wenn sie Schicht arbeiten, verbringen sie einen Teil des Tages mit Schlafen.

Wenn sich Studierende mit mehr Freiheiten als Arbeitnehmer auch an hellichten Tagen ihre Zeit lieber in dunklen Umgebungen verbringen, warum sollte es mit der Bevölkerung von Dortmund anders sein. Einen möglichen Grund kann man dem unteren Bild entnehmen, das jüngere Menschen an einem wunderbaren Sonnentag mittags bei ihrer Lieblingsbeschäftigung zeigt.

 

Physik der Beleuchtung

In meinen Blogs wird häufig dargestellt, dass die Beleuchtung in Arbeitsstätten anders “organisiert” ist als in Wohnräumen. Der Tageslichteinfall an einen Arbeitsplatz findet – wenn überhaupt – seitlich aus einer Richtung statt. Die Arbeitsplätze sind parallel zu dieser angeordnet, weil das Tageslicht sonst blendet. Ein Mensch, der im Freien sitzt oder steht, wird sich bei moderaten Lichtverhältnissen von 10.000 lx bis 20.000 lx selten geblendet fühlen. Anders, wenn er durch relativ dunkle Wände eingegrenzt wird. Aus diesem Grund sind die Arbeitsplätze im Prinzip etwa so angeordnet wie in diesem Bild dargestellt.

Wenn man die Beleuchtungsstärke in Richtung des Auges der in diesen Räumen sitzend arbeitenden Personen misst, wird man bei weniger als der Hälfte des Lichts aus der Fensterrichtung landen. Woher soll bei den abgebildeten Arbeitsplätzen eine mel-EDI von 250 lx in Richtung des Auges kommen?

Wenn bei deutschen Büroräumen von Tageslicht die Rede ist, kann man davon ausgehen, dass sie nach DIN 5034-1 gebaut worden sind. Diese verlangte, dass etwa in Raummitte ein Tageslichtquotient (Verhältnis der Beleuchtungsstärke außen und innen) von 0,9 % herrschen möge. Das ist bei Außenbeleuchtungsstärken von 10.000 bis 20.000 lx gerade mal 90 lx bis 180 lx. Die mickrigen Werte kommen aus dem Licht aus allen Einfallsrichtungen zusammen. Da das Licht aus der Fensterseite dominiert, in die die Mitarbeitenden nicht gucken, liegt der wahre Wert weit darunter.

Mit dem Anteil der künstlichen Beleuchtung sieht es auch nicht besser aus. In Arbeitsstätten fällt das Licht meist von der Decke und wurde immer auf Horizontalbeleuchtungsstärke getrimmt. Eine vertikale Komponente entsteht rechnerisch durch eine aus physiologischer Sicht  fragwürdige Aufspaltung in zwei Komponenten[3] oder durch die innere Reflexion. Diese wird in modernen Büros durch große Bildschirme oder Akustikpaneele am Arbeitsplatz erheblich behindert.

Wie die Helligkeitsverteilung in einem Gesamtraum aussehen müsste, wurde in einem Bild der lichttechnischen Industrie (licht.de) skizziert. Wie man  sie sich vor rund 30 Jahren vorstellte, war es genau umgekehrt.

Das linke Bild zeigt das einstige Ideal, das jetzt millionenfach die Bürohäuser besiedelt, das rechte die physiologisch günstigste Verteilung. Wenn man hier aber etwa eine Angleichung an den Himmel der Natur erkennen will, der irrt. Wie im Kapitel Falsche Vorbilder – Die Sonne und der Himmel dargelegt, ist der Himmel eher ein schlechtes Vorbild, wenn man ihn  nicht so hell machen kann wie in der Natur. Leuchtende Decken, die unten auf den Tischen Beleuchtungsstärken um 500 lx erzeugen, sehen immer grau aus. Ein blauer Himmel weist typischerweise Werte zwischen 2.000 cd/m2 und 10.000 cd/m2 auf (je nach Winkel zur Sonne). Ein trüber Berliner Wintertag hat eine recht gleichmäßige Leuchtdichte von etwa 1.000 cd/m² bis 2.000 cd/m². Solche Werte werden in Innenräumen schlecht erreicht.

Wer tagsüber einen Himmel erlebt, der auf der Erde etwa 5000 lx erzeugt, denkt nicht an einen schönen Tag, sondern an ein nahendes Gewitter. Wenn der Himmel nur 500 lx erzeugen kann, bricht das Gewitter über einem zusammen.

So könnte man statt einer “physiologisch-anregenden” Beleuchtung eine realisieren, die wegen ihres grauen Aussehens für eine einschläfernde Atmosphäre sorgt.

Das schlimmste Hindernis ist aber das Konzept der künstlichen Beleuchtung selber. Man beleuchtete Umgebungen seit Menschengedenken, damit sie sichtbar werden. Es kam also stets auf das reflektierte Licht an. Bis zum Jahr 2011 war Beleuchtung auch technisch so definiert. Eine Umdefinition einer fundamentalen Funktion der Beleuchtung, die nicht einmal die Fachleute bemerkt haben, ändert nichts an der Physik. Und diese Funktion bestand seit der Erfindung der künstlichen Beleuchtung in der Eiszeit.

Hingegen wurde das Licht, das das Auge trifft, ohne es der Beleuchtung eines Gegenstandes zu dienen, als Blendung bezeichnet. Der Beleuchtungstechniker versucht in der Regel, die Blendung zu minimieren, während die “Nutzwirkung”, die Beleuchtung der Arbeitsebene, maximiert wird.

In einem Büro wird jede Erhöhung einer Vertikalbeleuchtungsstärke dazu führen, dass die Leuchten direkt blenden und indirekt über die Reflexion auf den Bildschirmen.  Beide Effekte werden geringer, wenn die Leuchtdichten der Störquellen niedrig sind. Diese wurden aber bei Lichtplanungen entweder gar nicht oder nur teilweise indirekt berücksichtigt.[4] (Eine Abhandlung über die Bedeutung der Leuchtdichte findet sich in dem Kapitel Ein unmöglicher Umgang mit der wichtigsten Größe – Leuchtdichte) Die meisten heute existierenden Beleuchtungen sind ohne jegliche Berücksichtigung der realen Leuchtdichte unter der Leuchte geplant und erstellt worden. Dem Lichtplaner stehen für seine Arbeit Lichtstärkewerte zur Verfügung. Für Blendungen aller Art, psychologische Blendung, Reflexblendung, Kontrastblendung, sind aber Leuchtdichten maßgeblich. Daher ist es angemessen, wenn man die Erhöhung der Vertikalbeleuchtungsstärke mit der Blendung assoziiert.

Ausrichtung der Augen

Die Ausrichtung der Augen bei der Arbeit ist hinderlich für das Erreichen höherer biologisch wirksamer Beleuchtungsstärken. Zwar arbeiten viele Forschende mit der “vertikalen” Beleuchtungsstärke, aber der Mensch kann sie nicht sehen. Das folgende Bild zeigt, wie man sich die melanopisch wirksame Beleuchtung vorstellt.

Nach diesem Bild hat die Größe, nach der man seit Jahrzehnten geplant hat, Lichteinfall 90°, also die Horizontalbeleuchtungsstärke, keine Wirkung. Wenn man das Auge in die wahre Arbeitsposition dreht, bleibt nur noch ein kleiner Schlitz von 10° übrig, aus dem das melanopisch wirksame Licht ins Auge fallen kann. Nach ergonomischen Erkenntnissen liegt nämlich die Blickrichtung 35° unter der Horizontalen.

Hier habe ich bewusst ein altes Bild genommen, um auf das Alter dieser Erkenntnis hinzuweisen. Es sitzen aber nicht alle so vorbildlich wie die hier idealisiert abgebildete Dame. Viele Menschen sahen, als dieses Bild entstand, bei der Arbeit so aus wie links im unteren Bild, das 1976 aufgenommen wurde. Rechts sieht man ein Bild aus einer Broschüre einer Krankenkasse, die ich gestern bekam. Wer so guckt, auf den wird die Vertikalbeleuchtungsstärke keine melanopische Wirkung ausüben können.

Eine Arbeit, unter deren Autoren auch Kai Broszio war, hatte im Jahr 2017 festgestellt, dass übliche Bürobeleuchtungen nicht allzu viel Licht i.S. einer melanopischen Wirkung erzeugen können.[5] Diese Arbeit wurde in Kann die Bürobeleuchtung eine circadiane Wirkung entfalten kommentiert. Warum das so ist, kann man einfach aus der Physik ableiten. Warum es schlimmer aussieht als aus der Physik erwartbar, kann man an der Sitzhaltung ablesen.

Fazit

Leider scheint es so, dass die Dortmunder trotz Tageslichts nicht einmal in die Nähe der 250 lx mel-EDI kommen. Wie sind die Chronobiologen aber auf 250 lx gefolgt von 10 lx am Abend und 0 lx in der Nacht überhaupt gekommen? Wie ich in dem Beitrag Gnadenlos global darstellte, müsste man die Spanier wohl das halbe Jahr in abgedunkelte Räume stecken, weil draußen zu viel Licht ist. Wer kann sich einem solchen Schlaf-/Wach-Rhythmus unterwerfen? Wie realistisch ist dieser Rhythmus z.B. für Dortmund mit echten vier Jahreszeiten?

Das Konzept hat gleich fünf fundamentale Schönheitsfehler;

  • Der vorgegebene Tag existiert in unseren Breitengraden bestenfalls ein paar Mal im Frühling und im Herbst
  • Ein erheblicher Teil der Arbeitskräfte leistet Nacht- und Schichtarbeit, ein noch größerer Teil verbringt den Abend vor dem Fernseher, im Theater, bei Freunden oder in Lokalen.
  • In Deutschland bereiten sich allenfalls Kleinkinder ab 19:00 Uhr auf den Schlaf vor.
  • Die Bildschirme, die man gerne abends benutzt (Fernseher, Computer, Tablets), produzieren fast genauso viel Licht wie die Beleuchtung am Tage.
  • Man muss die vorhandene Beleuchtung tagsüber um ein Mehrfaches erhöhen.

 

Gerüchte sagen, die Vorstellungen kommen nicht von ungefähr. Sie sind wohl auf der ISS ermittelt worden. Tatsächlich wurde das Papier der Chronobiologen zum ersten Mal von einem amerikanischen Professor präsentiert, der seit 1987 für die NASA forscht. Seine Schäfchen sind keine Normalbürger in deutschen Fabriken und Büros, sondern Astronauten, die man fit machen will für die lange Reise zum Mars. Diese sind keine Normalbürger oder Arbeitnehmer, sondern menschliche Versuchskaninchen, die ständig unter gesundheitlicher Kontrolle stehen. Auf der ISS gibt es keine Jahreszeiten und der Tag ist etwa 1,5 Stunden lang. Man kann ihn künstlich auf 24 h trimmen, indem man Teile verdunkelt.

Bei solchen Menschen und ihren Arbeitsverhältnissen kann man den propagierten Tagesrhythmus lässig einhalten. Auch die 250 lx mel-EDI. Über den Wolken gibt es viel Licht. Man muss eigentlich nur für Abdunkelung sorgen. Was empfehlen die Forschenden den Dortmundern, die nur geringe Chancen für einen Aufenthalt auf der ISS haben?

Ich zitiere wörtlich:

"Tageslicht als Gesundheitsressource

  • Erhöhung von TAT250 lx durch gezielte Außenaufenthalte
  • Tageslichtorientierte Arbeitsplatz- und Pausenkonzepte"

Wer also eine Beleuchtung erleben möchte, die ihn mit der Außenwelt in Harmonie halten soll, kann dies nur im Außenraum erreichen. Warum man Tageslichtorientierte Arbeitsplatz- und Pausenkonzepte braucht, hatten wir mit unserer Forschungsarbeit zu Licht und Gesundheit nachgewiesen. (Endbericht von 1998 download). Zuvor hatte das Tageslicht als Beleuchtung im deutschen Arbeitsschutz schlicht nicht existiert.

Ich müsste diesen Beitrag meinen Lehrern widmen, die meine Schulkameraden und mich in den 1950ern in jeder Pause gnadenlos auf den Hof jagten, außer bei heftigem Regen. Vermutlich hatten sie die Weisheit von ihren Lehrern geerbt.

Wer die wahren Quellen finden will, liegt hier richtig: Meanwhile in Old Germany …

[1] Timothy M. Brown, George C. Brainard, Christian Cajochen, Charles A. Czeisler, John P. Hanifin, Steven W. Lockley, Robert J. Lucas, Mirjam Münch, John B. O’Hagan, Stuart N. Peirson, Luke L. A. Price, Till Roenneberg, Luc J.M. Schlangen, Debra J. Skene, Manuel Spitschan, Céline Vetter, Phyllis C. Zee, Kenneth P. Wright Jr Recommendations for healthy daytime, evening, and night-time indoor light exposure

[2] MeLiDos ist ein EURAMET-Projekt und wird kofinanziert durch Horizon EU, Projekt Nummer: 22NRM05

[3] Die Berechnung einer vertikalen und einer horizontalen Komponente aus einer Lichtrichtung geht nur auf bei diffus reflektierenden Oberflächen wie beim Büropapier. Sowohl für die Modellierungswirkung des Lichteinfalls als auch für die nicht-visuelle Wirkung ist die tatsächliche Einfallsrichtung maßgeblich.

[4] Die Daten von Leuchten, mit denen ein Lichtplaner arbeitet, enthalten keine Leuchtdichten. Diese fließen in die Berechnung der Blendung ein. Allerdings sind die hierzu benutzten Daten keine Messwerte, sondern nur mit Hilfe der Lichtstärke errechnete „mittlere“ Leuchtdichten.

[5] Kai Broszio, Mathias Niedling, Martine Knoop und Stephan Völker: Nicht-visuelle Beleuchtung: Reichen integrale Messgrößen aus?, Lux Junior 2017, Dörnfeld

 

Auswirkungen dynamischer Arbeitsplatzbeleuchtung auf chronischen Stress bei Schichtarbeitern: Eine longitudinale Interventionsstudie

Wissenschaft ist die Kunst,
sich von einem Irrtum zum nächsten zu irren,
bis man Heureka sagen darf.
Anonymus

Zu diesem Artikel

Der kommentierte Beitrag ist die Kurzfassung eines Vortrags beim 13. Symposium Licht und Gesundheit der BAuA gemeinsam mit der TU Berlin. Die Autoren sind Sophie Schümann, Robert Herold, Katarzyna Burek, Dirk Pallapies, Thomas Brüning, Thomas Behrens, Volker Harth, Sylvia Rabstein, vom Zentralinstitut für Arbeitsmedizin und Maritime Medizin (ZfAM), Universitätsklinikum Hamburg-Eppendorf (UKE), Hamburg, und Institut für Prävention und Arbeitsmedizin der Deutschen Gesetzlichen Unfallversicherung, Institut der Ruhr-Universität Bochum (IPA), Bochum. Zu diesem Projekt gibt es eine vollständige Beschreibung auf der DGUV-Homepage (Project No. FF-FP 0444). Mehr zum Hintergrund dieser Studie hier zum Download.

Zielsetzung

Das Ziel dieser Arbeit ist der Nachweis von behaupteten biologischen Wirkungen  von dynamischer Beleuchtung statt einer statisch gleichbleibenden. Dieser Nachweis sollte bei der Schichtarbeit erbracht werden, die allgemein als Stressfaktor gilt, weil sie die circadiane Rhythmik des Menschen durcheinanderbringt. Da die Arbeit auch die sozialen Beziehungen des Menschen durcheinanderwirft, wäre ein solcher Nachweis enorm bedeutsam.

Schichtarbeit und atypische Arbeitszeiten stören den Tagesrhythmus und können zu erhöhtem chronischem Stress führen. Da Licht ein wichtiger Regulator des Tagesrhythmus ist, können gezielte Maßnahmen zur Beleuchtung am Arbeitsplatz dazu beitragen, solche negativen Auswirkungen zu mildern. Diese Studie untersuchte, ob dynamische Beleuchtung am Arbeitsplatz den langfristigen physiologischen Stress beeinflusst, gemessen anhand der Cortisolkonzentration im Haar (HCC) als Biomarker für chronischen Stress bei Schichtarbeitern.

Methoden

Die gewählte Methode wird in der Praxis selten angewandt, weil sie aufwendig ist. Dies betrifft insbesondere den Zeitaufwand. Es wurde eine nicht randomisierte komparative Längsschnittstudie unter Schichtarbeitern eines deutschen Herstellers durchgeführt. Zwei Montagehallen wurden mit unterschiedlichen dynamischen Beleuchtungsszenarien ausgestattet: eine im Zwei-Schicht-System (Früh- und Spätschicht) mit erhöhter melanopischer Tageslichtäquivalentbeleuchtungsstärke (MEDI) am Morgen und reduzierter MEDI am Abend, und eine weitere im Drei-Schicht-System (Früh-, Spät- und Nachtschicht) mit dynamischer Nachtbeleuchtung, die die MEDI in der ersten Hälfte der Nachtschicht erhöhte und in der zweiten Hälfte reduzierte. Die Teilnehmer der Vergleichsgruppe wurden aus verschiedenen Abteilungen des Unternehmens rekrutiert, in denen keine Beleuchtungsänderungen vorgenommen wurden.

Nach der Basisuntersuchung T0 (10/2021–11/2021) wurde die Beleuchtung im Dezember 2021 umgestellt. Im Vergleich zur Ausgangssituation wurde in der Montagehalle 1 die melanopische Tageslichtäquivalenz (MEDI) morgens durch Variation der Lichtfarbe und des Lichtstroms dynamisch erhöht und gegen Abend wieder gesenkt. In der Montagehalle 2 wurde die Beleuchtung in der ersten Hälfte der Nachtschicht dynamisch erhöht und ab der Mitte der Nachtschicht wieder reduziert. Für die Analyse der kurzfristigen Auswirkungen wurden die Basis-T0-Messungen mit den ersten Folge-T1-Messungen (01/2022-02/2022) verglichen. Die längerfristigen Auswirkungen wurden mit weiteren Feldphasen ein Jahr nach T0 und T1 (T2: 11/2022, T3: 01/2023) untersucht.

Nach T1 wurden weitere Teilnehmer für die Vergleichsgruppe rekrutiert. Aus allen Teilnehmern der Vergleichsgruppe wurde eine randomisierte Untergruppe gebildet, um die Wirkung individueller Beleuchtungsempfehlungen in der Freizeit zu untersuchen, wobei T2 als Ausgangsbasis und T3 als Follow-up dienten. Die Empfehlungen wurden nach T2 und in T3 individuell über Studienhandys und andere Methoden kommuniziert. Die gesundheitlichen Endpunkte wurden sowohl anhand objektiver Messungen (Aktigraphie, Hormonspiegel in Speichel und Haaren, psychomotorische Wachsamkeit in der Mitte der Schicht) als auch anhand subjektiver Messungen (Schläfrigkeit, individuelle Wahrnehmung der Beleuchtung) bewertet. Darüber hinaus wurden photometrische Messungen am Arbeitsplatz sowie individuelle Lichtmessungen durchgeführt. Die statistischen Analysen umfassten die Verwendung von Algorithmen zur Ableitung der Endpunkte, multiple Imputationsmethoden und deskriptive Analysen. Je nach Endpunkt umfasste die orientierende Modellierung gemischte Modelle unter Berücksichtigung der wiederholten Messungen pro Person und der Anpassung für wichtige Störfaktoren.

Als Stressmarker wurde die Konzentration von Kortisol im Haar (HCC) als potenzieller biologischer Marker für chronischen Stress untersucht. HCC wurde bei anderen Untersuchungen als geeigneter Marker eingestuft, z.B. hier1M. Heming, P. Angerer, UM Nater, N. Skoluda, J. Weber : Selbstberichteter Stress und Haarkortisol bei Medizinstudierenden in Deutschland – eine Querschnittsstudie, https://pmc.ncbi.nlm.nih.gov/articles/PMC11248595/

Insgesamt wurden zwischen November 2021 und Februar 2023 173 Haarproben von 47 Teilnehmern an vier Messpunkten gesammelt. Der HCC-Wert wurde mittels Immunoassay bestimmt. Lineare gemischte Modelle (LMMs) der logarithmisch transformierten HCC-Werte wurden verwendet, um die Auswirkungen der dynamischen Beleuchtung und der Zeit zu bewerten, wobei Geschlecht, Alter, Body-Mass-Index, vorherrschendes Schichtsystem, Führungsposition und Arbeitsanforderungen berücksichtigt wurden.

Ergebnisse

Eine dynamische Beleuchtung am Arbeitsplatz veränderte zwar die melanopische Lichtexposition wirksam, führte jedoch nicht zu messbaren Veränderungen des langfristigen physiologischen Stresses bei Schichtarbeitern. Der allgemeine Rückgang des HCC könnte kontextuelle Einflüsse widerspiegeln, wie beispielsweise die Lockerung der Pandemie-Beschränkungen und damit verbundene Stressfaktoren.

Bewertung

Die Forschenden scheinen nach der eigenen Bewertung nicht sehr glücklich mit dem Ergebnis zu sein: "Die ersten Ergebnisse deuten darauf hin, dass die Interventionen keine negativen Einflüsse auf die Gesundheit haben. In Teilaspekten gibt es Hinweise auf eine positive Wirkung. " Das muss man allerdings an der Schwere der Aufgabe messen, die da Schichtarbeit heißt. Man sollte das Endergebnis lesen, wie es ist: Es ist nicht gelungen, den Nachweis zu führen, dass eine dynamische Beleuchtung die Folgen der Nachtarbeit ausgleichen kann.

 

 

Wie kommt das Grauen in deutsche Büros?

Gedeckte Farben im Büro sind wichtig –
falls die Arbeit stockt,
kann man sich wenigstens
harmonisch langweilen..

Anonymus

Historisches

Ein Artikel von mir mit diesem Titel erschien in Mensch und Büro, einem ehemaligen Lifestyle-Magazin für das gehobene Büro zu Beginn der 1990er-Jahre. Danach durfte ich in gewissen Abständen ähnliche Artikel schreiben, die die Farblosigkeit von Büros thematisierten. Sie beruhten auf zahlreichen Betriebsstudien und Recherchen, die ich anstellte, weil ich nicht glauben wollte, dass das Grau systematische Ursachen hatte.

Die untersuchten Ursachen reichten in die 1950er-Jahre zurück, als das Bürowesen und die Beleuchtungstechnik neu geordnet wurden. Die DIN 4549 wurde erstmals im März 1954 herausgegeben. Sie trug den Titel "Schreibtische für Büro und Verwaltung" und legte die Grundlagen für das, was wir heute als Standard-Büromöbel kennen. Sie diente dem Zweck, die Maße (Höhe, Breite, Tiefe) zu vereinheitlichen, um Schreibtische mit genormten Schubladenelementen und Aktenordnern (DIN 476/ISO 216) kompatibel zu machen. Dies sollte sich erst wieder 1982 grundsätzlich ändern. Der Anlass war die Computerisierung der Bürowelt.

Auch die Beleuchtungstechnik wurde 1953 mit DIN 5035 Innenraumbeleuchtung mit künstlichem Licht neu geordnet. Auch hierzu folgte die relevante Änderung mit DIN 5035-7 im Jahr 1988. Zum grauen Look verhalf ebenso eine Technik, die schwer mit Normen regelbar ist: die Informatik. Diese beherrschte mit Beginn in den 1960ern zunehmend die Szene: Fernschreiber, Computerterminals, Drucker, Kopierer, PCs…

Der Vierte im Bunde war ein Werkstoff: Beton. Nicht als Material der Skelette, die später die Büros aufnahmen, sondern das Gesicht des Brutalismus, béton brut. Die Epoche des Brutalismus ist eine der markantesten und zugleich umstrittensten Phasen der modernen Architektur. Sie entwickelte sich ab den 1950er Jahren und prägte das Stadtbild weltweit bis in die Mitte der 1970er Jahre. Beton hat diverse gute Eigenschaften, aber eine schlechte: Er sieht immer grau aus, zementgrau, silbergrau oder anthrazit. Bei der Farbgebung spielt sogar die Herstellung eine Rolle, die Verschalung der Form verewigt sich durch den Beitrag des Schalöls zur Farbe der Fassade.

Exakt in diesem Zeitraum (Mitte der 1970er) wurden die Computer in den Büros sichtbar, und zwar in den Großraumbüros, die die prominentesten Artefakte des Brutalismus waren. Dahinter steckte eine gewisse Systematik, die man später nur schwer verstehen konnte. Die damaligen Benutzer der Computer kamen in den Genuss des zweifelhaften Vergnügens, die Großraumbüros zu besiedeln, weil man glaubte, Menschen mit repetitiven Tätigkeiten könne man in solche Räume stecken, während Personen mit höheren Aufgaben Einzel- oder Doppelzimmer geniessen durften.

Die damaligen Büros waren aus einem anderen Grund kompakt gebaut, den man heute sehr gerne vergisst: Die maximale Entfernung zwischen einem Computer und einem Terminal, an dem der Mensch sitzt, durfte maximal 30 m sein. Die Terminals wurden mit einem Koaxialkabel mit dem Computer verbunden, das nahtlos sein musste. Kompakt heißt auch, ohne viel Tageslicht. Der Ersatz, das Kunstlicht, konnte Farben nur schlecht wiedergeben, weil Lampen mit sehr guter Farbwiedergabe sehr viel mehr Strom brauchten.

Beitrag der Entwicklungen zum Grauen

Wenn ein solcher Beitrag in einem Lichtblog erscheint, liegt die Annahme nahe, dass Licht die Hauptrolle spielen würde. Das ist aber falsch, weil eine Eigenschaft der Beleuchtung zwischen 1953 und 2026 keinerlei grundsätzliche Änderungen erfahren hat: Alles Licht, das für allgemeine Beleuchtungszwecke dient, ist (mehr oder weniger) weiß. Zwar wird ein Farbfachmann Weiß immer als eine Graustufe sehen. Dem ist es aber nicht so. Denn man sieht kein Licht, sondern nur dessen Reflexion. So wird eine Fläche mit roten Pigmenten bei weißem Licht eben rot aussehen. Die Lichtqualität bestimmt, wie rot man sie sieht. Es sei denn, Rot fehlt in dem Spektrum wie z.B. tief im Wasser, dann sieht alles Rote schwarz aus. Entscheidend sind also die Reflexionseigenschaften der Möbel, der Geräte und der Wände im Innenraum.

Die Einführung der Computer war da sehr wirksam für die Farbgebung. Dies fing mit einem Forschungsvorhaben an, das ich mit drei Kollegen ausführte.[1] Der Auftraggeber der Studie war der Bundesminister für Arbeit und sorgte dafür, dass die Ergebnisse in die Praxis einflossen. Noch wirksamer war der Wunsch der deutschen Arbeitgeber, die Diskussion über die gesundheitliche Belastung der Computerarbeit zu kontrollieren. Diese bewirkten die Erarbeitung einer Sicherheitsregel für Bildschirmarbeitsplätze.[2] Am mächtigsten wirkte ein Urteil des Bundesarbeitsgerichts vom 6. Dezember 1983.

Das sogenannte Nikolaus-Urteil des Bundesarbeitsgerichts (BAG) vom 6. Dezember 1983 (Az. 1 ABR 43/81) ist ein Meilenstein der deutschen Arbeitsrechtsgeschichte. Es markiert den Zeitpunkt, an dem der Betriebsrat nach Meinung vieler eine echte Mitspracherechte bei der Einführung moderner Computertechnik erhielt. Die Gewerkschaften sahen in dem Urteil aber eine Katastrophe, weil das Urteil eine Gesundheitsgefährdung nur dann sah, wenn die Gestaltung des Arbeitsplatzes von den Sicherheitregeln abwich. Also musste alles nach diesen Regeln gestaltet werden, um ein Mitbestimmungsrecht des Betriebsrats auszuschließen. Nunmehr hatte der Betriebsrat allerdings das Recht, alle Änderungen im Büro prüfen zu lassen, ob sie denn den Sicherheitsregeln genügten. Ein Pyrrhussieg, wie er im Buche steht.

In den Regeln stand die Erläuterung dazu: “Bildschirm-Arbeitsplätze im Bürobereich sind Arbeitsplätze mit Einrichtungen, die grundsätzlich den Festlegungen der "Sicherheitsregeln für Büro-Arbeitsplätze" (ZH 1/535) entsprechen müssen. ... Unfall- und Gesundheitsgefahren können nach dem derzeitigen Erkenntnisstand vermieden werden, wenn die Arbeitsmittel am Bildschirm-Arbeitsplatz und die Arbeitsplatzumgebung den Festlegungen dieser Sicherheitsregeln entsprechen.“

Wie das Grauen seinen Lauf nahm

Damit war eine lichttechnische Größe im Arbeitsrecht angekommen: Reflexionsgrad.  Zwar stand in den Sicherheitsregeln nichts von Grau, aber dies: „Die farbliehe Gestaltung muss einem Reflexionswert zwischen 15 und 75 % entsprechen. Empfohlen werden mittlere Werte zwischen 20 und 50%.“

Das Grauen folgte erst später durch die Interpretation, insbesondere bei der IBM. Diese Firma verfolgt stets das Prinzip, in keinem Land der Erde gegen die örtlichen Gesetze zu verstoßen. Dazu gehören auch die Normen des Landes. IBM wollte erstens in Deutschland sichergehen, und zweitens in allen Ländern, die dem Beispiel Deutschlands folgen könnten. So gab man den Designern Order, alle Geräteoberflächen mit einem Reflexionsgrad von 0,45 zu versehen. Tatsächlich konnte ich fast immer und überall an IBM-Geräten 0,43 messen, was in der Messunsicherheit liegt. In der Welt der Farben und Architektur gilt dieser Wert als mittlere Helligkeit. Er liegt fast exakt im Zentrum der Skala zwischen Schwarz (0) und Weiß ( 1 bzw. 100%).[3]

In dem besagten Bereich liegen die Farben „Betongrau“ oder „Steingrau“, aber auch viele Salbeigreens, Terracotta-Nuancen oder kräftige Beigetöne. Die Presse nannte die neue “Standardfarbe” verächtlich Computerschmuddelgrau, während die amerikanischen Hersteller von Humbug-Gray sprachen. Humbug war abgeleitet von Hamburg, dem Sitz der Berufsgenossenschaft, die die Sicherheitsregeln erlassen hatte.

Ein weiterer Großkonzern, die Siemens AG, hatte diesbezügliche Anweisungen an die Designer aus einem ähnlichen Grund erlassen. Sie hatte festgestellt, dass ihre Fernschreiber in ca. 200 Ländern eingesetzt wurden, in denen jeweils andere Vorstellungen von Farben und Farbgebungen herrschten. Um nirgendwo anzuecken, sollten die Geräte unbunt sein. Damit sie trotzdem ein Gesicht hatten, sollte Kontrast hinein. Daher waren die Siemens-Geräte Schwarz/Grau oder Grau/Schwarz gewesen. Als dann die Sache mit den Sicherheitsregeln kam, wurden sie Beige, aber nicht so kräftig, damit sie nicht auffielen.

Ein weiterer Konzern, genau gesagt der Besitzer des Konzerns, hatte es mit der Unauffälligkeit. Heinz Nixdorf befahl seinen Designern, nur graue und kleine Geräte zu bauen, weil er meinte, die Menschen würden Computer nicht mit offenen Armen empfangen. Hersteller wie HP, Dell oder Canon folgten später willig dem Trend, denn wenn man nur eine Gehäusefarbe produziert, sinken die Logistik- und Lagerkosten drastisch.

Die ganze Sache erwischte die Hersteller von Büromöbeln auf dem falschen Fuss. Diese wollten das alte Eichehell ihrer Tische mit Farben aufpeppen und so einen Kontrast zu den Sichtbetonflächen der Büros setzen. Die Büros waren daher gegen Ende der 1960er Jahre sehr bunt geworden. Nunmehr kam die Kehrtwende, die durch die Erfahrungen der Büroplaner beschleunigt wurde. Wenn man ein gutes Farbkonzept realisiert hat, kann man später davon nicht ein wenig abweichen. Entweder bleibt man dem Konzept treu oder man macht alles neu. Das Letztere ist jedem Kaufmann zuwider, aber auch jedem Menschen, der rational denkt.

Sehr hilfreich erwies sich dabei die (Wieder-)Entdeckung von Melamin als Tischoberfläche. Als Resopal hatte es den Nierentischchen der 1950er Jahre gedient und die Küchen gepflastert. Jetzt waren die Büros dran. Und zwar passend zum Computerschmuddelgrau und fast mit dem gleichen Reflexionsgrad. Ein grauer Drucker passt zu einem grauen Laptop von einem völlig anderen Hersteller. Grau „beißt“ sich mit nichts.

Die einzigen Hersteller, die mit Farben experimentierten, waren die Bürostuhlhersteller. Leider sieht es niemand, wenn alle Stühle besetzt sind.

Für alle sollte später eine Anforderung der DIN 5035-7:1988 gelten: Größere Flächen, die sich im Bildschirm spiegeln könnten, wozu alle Wände gehören, müssen einen Reflexionsgrad zwischen 0,3 und 0,5 haben. Ich weiß nicht, ob jemand schon einmal einen Raum mit Wänden mit einem Reflexionsgrad von 0,3 gesehen hat? So etwas gibt es z.B. in Etablissements, wo man vieles besser nicht sieht, oder in Mahagoni-getäfelten Kabinetts, wo man sich zum Zigarrenrauchen zurückzieht. Mit dieser Norm wurde alles, was sich in einem Bildschirm reflektieren könnte, zum Problem erklärt. Dazu gehörte selbst die helle Oberbekleidung. Zum Glück hat die Norm nicht versucht, Bekleidungsvorschriften am Bildschirm zu etablieren. Bei wortgetreuer Anwendung war die Norm aber geeignet, jeden Arbeitsraum zu einem Ort des Grauens zu gestalten. Die naheliegende Lösung, die bereits in den besagten Sicherheitsregeln schon 1980 eingearbeitet worden war, Bildschirme optisch zu entspiegeln und mit einem hellen Hintergrund zu versehen, war für die lichttechnische Industrie zu effizient.

Des Grauens Ende?

Manchem designorientierten Hersteller geht das Ganze gehörig auf den Senkel. Zwar hatten skandinavische Hersteller bereits in den 1950ern auf Farbe gesetzt (Facit aus Schweden). Die Farben waren aber sehr dezent, z.B. helles Lindgrün. Einen gewaltigen Paukenschlag setzte es 1998: Der erste iMac – offiziell der iMac G3 – war der Befreiungsschlag für Apple und markierte 1998 das Ende der „grau-beigen Ära“, über die ich gerade bei den Bürogeräten schrieb. Die erste Ausgabe erschien in Bondi Blue (einem blau-grünen Transparent-Look), benannt nach dem Wasser am Bondi Beach in Australien. Es folgten fünf weitere Farbkonzepte, die Apple flavor nannte, also Geschmacksrichtung, Strawberry, Blueberry, Grape, Lime und Tangerine – ein direkter Angriff auf das triste Einheitsgrau der IT-Welt. Der direkte farbliche Partner des Bondi Blue kam 2000 mit dem MacOS X auch auf die Bildschirme: Aqua. Es war die radikale Abkehr vom grauen, flachen „Fenster-Design“ der 90er Jahre und ein Meilenstein des Skeuomorphismus (Design, das reale Materialien nachahmt).

Der iMac rettete Apple vor dem fast sicheren Bankrott. Die Geräte waren fast so bunt wie das damalige Apple-Logo. Dies war wohl das ikonischste Logo, entworfen von Rob Janoff. Es sollte den Apple II bewerben, der als einer der ersten Computer Farben auf dem Monitor darstellen konnte. Die Farben waren (von oben nach unten) Grün, Gelb, Orange, Rot, Violett, Blau.

Damit war aber bald Schluss, auch mit den Flavors von Apple. Die Farbkonzepte zu beliefern hatte sich zu einem logistischen Alptraum entwickelt. Das konnte sich nicht einmal die Firma Apple leisten, die sich von einer Pleitefirma (1988) zum wertvollsten Unternehmen der Welt gemausert hat. Das Produkt, das nicht nur Apple veränderte, das iPhone, kam mit einem gebürsterten Metall-Look (Skeuomorphismus). Hat der einstige Pionier des Computers mit dem Regenbogen  Menschlichkeit, Benutzerfreundlichkeit, Farbgrafik-Pionierarbeit ausdrücken wollen, will er seitdem Präzision, Hochwertigkeit, zeitlose Eleganz ausstrahlen.

Bleibt am Ende doch alles Grau?

Unermesslich grau, damit man seine Ruhe hat?

Im neuen Jahrhundert hat sich eine an sich erfreuliche Folge der Computerisierung zu einer Pest entwickelt: Moderne Büros sind unheimlich leise geworden, weil die lärmenden Maschinen fehlen. Das hat sich zwar bereits in den 1970ern angekündigt. Aber man dachte damals, das Problem beträfe nur wenige. Tatsächlich gab es in vielen Büros noch “Lärmquellen” wie raschelndes Papier oder Tastaturen, die angeblich mit Pieptönen besser funktionierten. Hier und da hantierte jemand noch mit einem Locher, der zum Inventar des Beamtendreikamps gehörte. Auch die weiteren Gerätschaften, die diesem Arsenal zugezählt werden, Bumser und Heftordner, haben die Szene verlassen.

Sie sind alle einem neuen “Werkzeug” gewichen, der menschlichen Stimme. Diese ist praktisch die einzige Lärmquelle, die übriggeblieben ist. Dummerweise ist sie auch das Werkzeug, mit dem man arbeitet. Anders als alle anderen Lärmquellen, die uns stören, greift die menschliche Sprache direkt in den Arbeitsablauf ein. Alle Menschen, die denken, schreiben, lesen oder tippen, werden von der inneren Stimme geleitet, die sehr störempfindlich ist.

So werden immer mehr Büros mit Schallpaneelen ausgestattet. Obwohl diese eigentlich jede Farbe haben können, greift das vollkommen ungeschriebene Gesetz, das hinter diesem Beitrag steckt: Grau beißt sich mit nichts! Ergo sehen immer häufiger Büros aus wie in diesem Bild

Die Farben dieses Bildes geben noch nicht alles wieder, was die bessere Akustik uns kostet. Wie in dem Beitrag Beleuchtungsstärke(n) dargestellt, ist die Vertikalbeleuchtungsstärke (bzw. alternativ die zylindrische) verantwortlich für die visuelle Kommunikation zwischen den Menschen in einem Raum. Diese Beleuchtungsstärken entstehen weitgehend durch Reflexionen  an den Wänden und auf den Möbeln. Sie können  in dem abgebildeten Raum gar nicht entstehen.

Selbst wenn es diese Beleuchtungsstärken physikalisch gäbe, würde man den Kollegen oder die Kollegin nur seitlich sehen, weil die Paneele nicht nur grau, sondern auch noch intransparent sind. Man blickt, wenn überhaupt, in Gesichter, auf die ein fahles graues Licht fällt, das von den Akustikschirmen reflektiert wird.

Die Akustikpaneele machen nicht nur die Arbeit des Lichtplaners zunichte. Sie verhindern auch die Ausbreitung des Tageslichts. Wenn man sie ungünstig anbringt, stören sie auch die Luftzirkulation.

Warum keine farbigen Schallschirme?

Man kann Schallschirme nicht nur in jeder Farbe kaufen, sondern sogar mit Gemälden darauf. Aber auch für sie gilt, woran selbst Apple gescheitert ist, Logistik. So kann man farbige Akustikpaneele nur auf Bestellung produzieren. Was man nicht kann, ist auch den bunten Büromöbeln zum Verhängnis geworden: Man kann die Farben später nicht mehr ändern. Entweder bleibt man seinem Farbkonzept treu oder macht alles neu. Allzu eng darf man mit dem Farbkonzept auch nicht sehen, denn die Struktur der Oberfläche von Schallschirmen kann man nicht frei wählen. Diese wird durch die erwünschte Funktion vorgegeben.

Bei diesen Objekten muss man noch dazu auf ihre Funktionalität achten. Schallschirme, die vor der Sprache schützen sollen, wirken nur, wenn sie vor der sprechenden Person platziert werden. Wer möchte die nächsten 10 oder 20 Jahre auf dasselbe Bild gucken?

Es gehört zwar nicht in ein Büro. Aber man kann sich ein Bild daraus machen, was passiert, wenn man der lieben Akustik zuliebe sichtbare Flächen anders formt, als man in freier Wahl tun würde. Dieses Bild stammt aus der Elphi in Hamburg. Die Wände und manche Deckenteile verdanken ihre Form der Akustik. Für mich eine erhebliche Einschränkung der Formgebung.

Bürodesign heute

Das Grau der 1990er ist heute passé. Der moderne Büroplaner greift zu Greige. Greige? Das ist Grau und Beige zusammen. Die 1980er sind wohl noch nicht ganz vorbei. Wer herausstechen will, nimmt sogar Weiß. Allerdings kann man bei Bürokonzepten wie Recimercial Design nicht auf Weiß setzen, Cremeweiß & Buttergelb oder Salbeigrün & Waldgrün sind in. Auch die ursprünglichen Resopaloberflächen strahlen heute in Eiche & Nussbaum, so auch zuweilen in Echtholz.

Neo-Mint gefällig, ein sehr helles, fast futuristisches Grün, das Frische und Technologie verbindet. Oder ein sanftes Koralle? Soll Optimismus in Team-Bereiche bringen, ohne die Augen zu überfordern. Möglicherweise nicht in alle Team-Bereiche.

Wenn es einem allzu bunt wird, ist zwar das alte Grauen weg, aber manchem Innenarchitekten graut es aus anderen Gründen.

[1] Cakir, A. et al Untersuchungen zur Anpassung von Bildschirmarbeitsplätzen an die physische und psychische Funktionsweise des Menschen, BMAS, Bonn, 1978

[2] ZH1/618 „Sicherheitsregeln für Bildschirmarbeitsplätze im Bürobereich“, VBG, Hamburg, 1980

[3] Die Angaben von Reflexionsgraden in der Lichttechnik entsprechen nicht der Helligkeitswirkung

Beleuchtungsstärke(n)

Wer nur eine Saite kennt,
sollte besser nicht behaupten,
er beherrsche das Instrument.

Anonymus

Zusammenfassung

Beleuchtungsstärke ist mehr als nur der oft genannte Wert von 500 lx ohne Richtungsangabe – je nach Anwendung gibt es verschiedene Arten, wie die horizontal, vertikal, halbräumlich, raumbezogen, halb-zylindrisch und zylindrisch gemessene Beleuchtungsstärke. Die Art, wie die Messung hängt vom jeweiligen Einsatzgebiet ab: Im Büro zählt meist die Horizontalbeleuchtungsstärke, für Pflanzen oder spezielle Sehaufgaben werden andere Messungen benötigt. Moderne Normen fordern oft zylindrische Werte, besonders bei visueller Kommunikation. Lichtmessgeräte unterscheiden sich je nach Sensor und Bewertung des Lichtspektrums, weshalb nicht jeder Wert in Lux vergleichbar ist. Die korrekte Beleuchtungsstärkeangabe richtet sich immer nach der Aufgabe und dem richtigen Licht für den jeweiligen Zweck.

Beleuchtungsstärken - Welche hätten Sie denn gerne?

Wer viel über Licht und Beleuchtung liest, kann sich nicht des Gefühls erwehren, dass es nur eine Beleuchtungsstärke gäbe und diese die Stärke von exakt 500 lx hätte. Dieser Wert mag gut sein für den Büromenschen, aber auch für seine Zimmerpflanzen? Ein gewisser Jürgen Hermannsdörfer, seines Zeichens Vorstand des Fachverbands Raumbegrünung und Hydrokultur in Berlin, hat einen ikonischen Satz losgelassen, der die Frage beantwortet.

Ihm pflichteten damals sogar leibhaftige Professoren bei. Indes, solche Herren meinen, wenn sie von 500 lx reden, zumindest in einer Hinsicht etwas völlig anderes als Leute, die vom Büro reden. Sie könnten zwar alle von 500 lx sprechen, aber in mehr als einer Hinsicht etwas anderes meinen.

Das liegt an der “Beleuchtungsstärke”, die sie für ihre Tätigkeit brauchen. Dass andere alles Mögliche verstehen, liegt daran, dass nur Fachleute wissen, was gemeint ist. Reden und schreiben diese Leute aber selten. Daher dieser Beitrag.

Wenn ein Fachkundiger, z.B. ein Architekt, nach dem Begriff Beleuchtungsstärke sucht, wird er im Angebot von BauNetz, wo notwendiges Fachwissen für ihn zusammengetragen ist, nur eine Beleuchtungsstärke finden. Dort steht zu lesen:

Die wichtigste Einheit aus einer Reihe von Begriffen zur Lichtplanung ist die Beleuchtungsstärke. Alle gesetzlichen Vorschriften, z.B. über die Beleuchtung von Arbeitsplätzen oder anderen Aufenthaltsorten, beziehen sich im Wesentlichen auf sie. Die Beleuchtungsstärke ist der Quotient aus dem auf eine Fläche auftreffenden Lichtstrom (lm) und der beleuchteten Fläche.”

Diese Beleuchtungsstärke hat zwar eine Quantität, aber ihr fehlt die Richtung. Diese muss man dazu denken. Und sie steht einsam in der Landschaft. Der Architekt darf sich beschweren, denn er wird fehlgeleitet. Es gibt mehrere Beleuchtungsstärken, die der Architekt intuitiv kennt.

Beleuchtungstärke, zum Ersten

Die meistgenannte Beleuchtungsstärke wird in einer Ebene gemessen, so auch diejenige, die das BauNetz Wissen kennt. Diese Ebene kann sich beliebig im Raum befinden und schneidet diesen in zwei Teile. Die eine ist die Seite, aus der das Licht einfällt. Es wird nur in diese Richtung reflektiert und kann nur aus dieser Seite gesehen werden. Fast alle Planungen erfolgen für eine horizontale Ebene, die fiktiv seit 1913 in 0,85 m Höhe liegt. Weil diese Ebene horizontal liegt, heißt die dort gemessene Beleuchtungsstärke Horizontalbeleuchtungsstärke und nicht etwa horizontale Beleuchtungsstärke, wie man häufig lesen kann. Die Ebene nennt sich Arbeitshöhe. Bei der ersten gesetzlichen Festlegung der Beleuchtung von Arbeitsstätten wurde diese Größe allein vorgeschrieben.[1]

Dass diese Größe einst eingeführt wurde, verdanken wir den Schreibtischen, die die Blätter aufnehmen, auf denen der Büromensch liest. Die Ausrichtung ist nicht etwa optimal fürs Lesen, wie man alten Schultischen entnehmen kann, die geneigte Oberflächen hatten wie die Lesepulte im Mittelalter. Leider sind die alten Pulte  sehr unpraktisch, da alles Richtung Erde rollt, wenn man es loslässt. Daher bürgerte sich der horizontale Tisch ein und mit dem die Horizontalbeleuchtungsstärke. Würde man an einem Bürotisch nur lesen, wären beide Unsinn. Aber man benutzt das gute Ding für viele andere Zwecke, z.B. zum Aufstellen von Kaffeetassen, die in keinem Büro fehlen dürfen. Blumenvasen oder Bildschirme stehen auch dort.

Für manche Sehaufgaben, so etwa zum Lesen von Buchrücken in Regalen oder den Warenetiketten in Hochregalen, ist die Horizontalbeleuchtungsstärke sehr unpraktisch. Deswegen gibt es die Vertikalbeleuchtungsstärke, die auch in einer Ebene gemessen wird. Diese steht vertikal, deswegen muss das Licht parallel zur Decke fliegen, um sie zu erzeugen. Früher war sie nur wegen der Zeichentische und Bücherregale wichtig,. Seit der Lichttechniker den Mediziner gibt, dient diese Beleuchtungsstärke als die Messlatte für das gesunde Licht. Die sogenannte melanopische Wirkung wird vertikal gemessen. Da sie aber nicht den ganzen Tag gebraucht wird - melanopisch soll Licht tagsüber wirken und sich abends möglichst zurückziehen - ähnelt ihre Bedeutung eher Yin und Yang als eine physikalische Größe.

Beleuchtungstärke, zum Zwoten

Bestimmte Berufe können mit den beiden Beleuchtungsstärken kaum was anfangen, weil diese räumlich nach einer Cosinusfunktion bewertet werden. Diese Funktion habe ich in einem Bild visualisiert, das deutlich macht, dass das schräg einfallende Licht weniger stark bewertet wird. Wer eine Tafel ablichten will, kann mit dieser Beleuchtungsstärke etwas anfangen, aber nicht alle. Diese brauchen zwar Licht aus einem Halbraum, aber kein cos-bewertetes.

Die einfachste Lösung ist eine halbräumlich unbewertete (halbsphärische) Beleuchtungsstärke die symbolisiert so aussieht

Beleuchtungstärke, zum Dritten

Während die halbräumliche Beleuchtungsstärke davon ausgeht, dass der Lichteinfall und die Beobachtung aus derselben Hälfte des Raums erfolgen, brauchen manche nur ein Maß für das einfallende Licht, egal  wo es herkommt. Diese Beleuchtungstärke heißt Raumbeleuchtungsstärke, weil sie den gesamten Raum erfasst. Der Messkopf für diese Beleuchtungsstärke sieht aus wie eine Leuchtkugel, die alles Licht auf den Sensor lenkt, egal woher es einfällt. Diese Größe brauchen z.B. die Meteorologen oder Spinatzüchter, die mit Blättern zu tun haben, deren Ausrichtung man schlecht normieren kann.

Beleuchtungstärke, zum Vierten

Eine besondere Art der Beleuchtungsstärke nennt sich halb-zylindrisch. Bei der Messung wird alles Licht aus einem Halbraum bewertet auf den Mantel eines fiktiven Zylinders. Das Bild macht deutlich, wofür man diese Größe braucht. Sie ist eine Zusammenrechnung der Vertikalbeleuchtungsstärken.

Beleuchtungstärke, zum Fünften

Wenn man das obige Bild durch eine weitere Hälfte ergänzt, erhält man eine zylindrische Beleuchtungsstärke. Diese wird in neueren Beleuchtungsnormen gefordert, wenn es insbesondere auf menschliche Gesichter ankommt. Wer allerdings im Lexikon von licht.de danach sucht, wird nicht fündig. Man findet dort die halbzylindrische mit einem ähnlichen Bild wie oben. Die Messung erfolgt mit einem durchscheinenden optischen Zylinder, der das Licht aus allen vertikalen Einfalssrichtungen einsammelt.

Die zylindrische Beleuchtungsstärke erschien auf der Bühne des Arbeitsschutzes mit BGI 856 Beleuchtung im Büro – Hilfen für die Planung der künstlichen Beleuchtung in Büroräumen in 2003. Dort war als Hilfe für die Planung angegeben, dass die zylindrische Beleuchtungsstärke visueller Kommunikation dient.

Mittlerweile ist das Papier als DGUV-Info 215-442 in Juli 2020 erschienen. Dort ist die zylindrische Beleuchtungsstärke nicht mehr für die visuelle Kommunikation erforderlich. Es reicht die vertikale. Aber die zylindrische Beleuchtungsstärke wird immer noch genannt.

Die neuesten Normen (ISO/CIE 8995-1: 2025 und EN 12464-1:2021) geben zu jedem Arbeitsplatz einen erforderlichen Wert für die zylindrische Beleuchtungsstärke an. Die muss also sehr bedeutsam sein. Warum dies das BauNetz Wissen nicht mitgekriegt hat, verstehe ich nicht. Etwas pikanter klingt. Dass auch das Lichtlexikon von licht.de nur die halbzylindrische kennt, obwohl ansonsten die zylindrische Beleuchtungsstärke in den Beiträgen von licht.de häufig vorkommt. Vorsichtshalber füge ich einen Screenshot vom 4. März 2026 bei, der den dargelegten Umstand dokumentieren soll.

Die zylindrische Beleuchtungsstärke benutzt man immer dann, wenn man nicht weiß, aus welcher Richtung das Licht einfällt und aus welcher Richtung das beleuchtete Objekt gesehen werden soll. Es steht nur fest, dass der Blick horizontal erfolgt. Ob die Rechnung aufgeht, habe ich so meine Sorgen. Man stelle sich vor, ein Gesicht werde in Richtung des vorgegebenen Zylinders gesehen. Der vordere rote Pfeil zeigt die Richtung eines Lichteinfalls, der die Sichtbarkeit verbessert. Aber Ez wächst auch durch das Licht aus den anderen beiden Richtungen, die die anderen roten Pfeile anzeigen. Eigentlich müsste man das Licht aus diesen Richtungen Gegenlicht nennen. Die Rechnung kann also nur aufgehen, wenn man die Quellen dieser Lichter vor dem Auge versteckt. So etwas schaffen Bühnenbeleuchter spielend. In Büros und Arbeitsstätten befinden sich Leuchtkörper, Sehobjekte und die Betrachter in demselben Raum.

Man versuche sein Glück mit diesem Raum, der aus derselben DGUV-Info stammt. Wo müssen die Lichtquellen sitzen, damit sie auf die beiden Insassen des Raums so treffen wie in dem Bild für Ez gezeichnet. Das dürfte schwer werden, denn hinter jedem Insassen steht ein grauer Schrank, der nicht gerade viel Licht auf das Gesicht des Gegenübers wirft. Ein Lichteinfall aus der Türrichtung ist recht unwahrscheinlich. So wird jemand, der hier zylindrische Beleuchtungsstärke misst, nur das Tageslicht messen. Dafür ist die Größe wohl nicht gedacht. Wenn die Zeit kommt, zu der die künstliche Beleuchtung ihre Pracht entfaltet, schlucken die Fenster Licht, statt etwas abzustrahlen.

Unterschiede nur in der räumlichen Bewertung?

Der anfangs angeführte Vorstand des Fachverbands Raumbegrünung und Hydrokultur in Berlin mit seiner Forderung nach 500 lx wird in seinem Betrieb, wo er Blumen züchtet, kaum tatsächlich mit Luxwerten hantieren können, wenn er sich das dort benötigte Licht genauer ansieht. Ein Luxmeter alias Beleuchtungsstärkemesser misst richtig, wenn er das Spektrum des Lichts nach der V(λ)-Kurve bewertet. Die Pflanzen sehen aber nach der Umkehrung dieser Kurve, wie jeder Aquarianer kennt. Daher sieht eine Beleuchtung für Pflanzenwachstum anders aus.

Das Bild erzählt aber nur die Hälfte der Story, die Hälfte über Wachstum. Wenn die  Pflanze blühen soll, kommt es eher auf rötlicheres Licht an. In der vorherrschenden Farbe des Lichts ist eine Nachricht für die Pflanze verborgen.

Welches Spektrum bei welcher Lebensphase richtig ist, hat ein gewisser Keith J. McCree ermittelt. Deswegen heißen die Kurven McCree-Kurven. Bei professionellen Anwendungen misst man das Licht mit anders bewertenden Sensoren. Der Laie muss halt eine Lampe nehmen, die allem etwas dient.

Anpassungen an besondere Spektren sind auch bei anderen Aufgaben als bei der Pflanzenzucht sinnvoll. So wird die Bestrahlung mit blauem Licht bei der Gelbsucht von Neugeborenen als Heilmittel benutzt. Deren “Luxmeter” sind auf das Absorptionspektrum von Bilirubin eingestellt.

Jenseits 500 lx

Der Beitrag zeigt, dass Geräte mit einer Anzeige, die als Lux tituliert wird, und mit einem Messkopf für Licht bestückt sind, nicht immer dasselbe anzeigen. Manchen sieht man das auch an, weil der Messkopf anders ausschaut. Andere sehen gleich aus, messen aber unterschiedlich gefiltertes Licht. Lux darf man den Messwert nur nennen, wenn es sich um eine der fünf Beleuchtungsstärken handelt, die hier skizziert werden.

[1] Code of lighting factories, mills and other workplaces. Transactions of the Illuminating Engineering Society, Vol. 10, pp. 605-641, 1915

.