Wie verdient man sich einen schlechten Ruf? Fallstudien aus der Praxis I

Die Technik liefert uns die Werkzeuge,
aber die Weisheit, sie zu gebrauchen,
hinkt eine Generation hinterher.

William F. Ogburn in Cultural Lag

In dieser Reihe beschreibe ich in lockerer Folge die Entstehung des Gefühls bei den Benutzern, dass ein Arbeitsraum ohne künstliche Lichtquellen die beste Arbeitsumgebung wäre (Ergebnis einer LinkedIn-Studie). Diesen Ruf hat die Beleuchtungstechnik in enger Zusammenarbeit mit der Architektur redlich verdient. Manchmal war auch die Politik sehr hilfreich dabei …

Alte und neue Technologien

Dieser Beitrag untersucht anhand historischer und aktueller Fallstudien, wie bestimmte Handlungsweisen bei der künstlichen Beleuchtung ihren schlechten Ruf bei Nutzern erzeugten. Im Mittelpunkt stehen technische Fehlentwicklungen, ignorierte Nutzerbedürfnisse und politisch-industrielle Fehlentscheidungen. Beginnend bei den frühen Leuchtstofflampen mit Glimmstarter beschreibe ich, wie das störende Flackern und eine bestimmte Unzuverlässigkeit dieser Technik über Jahrzehnte hinweg trotz existierender Lösungen bestehen blieben. Anschließend beschreibe ich die Entstehung und Vermarktung der Kompaktleuchtstofflampe (KLL)– einschließlich der Probleme durch langsame Startzeiten, mangelhafte Lichtqualität, erhöhte Ausfallraten sowie die ökologisch umstrittene Verwendung von Quecksilber. Politische Entscheidungen und Industriekampagnen, die diese Technologie trotz ihrer Defizite als ökologische Innovation propagierten, verstärkten die Akzeptanzprobleme zusätzlich. Der Beitrag zeigt, wie wiederholtes Ignorieren von Nutzererwartungen und Umweltaspekten über Jahrzehnte hinweg zu einem nachhaltigen Vertrauensverlust in bestimmte Lichttechnologien führte – und wie moderne LED-Technik diesen Ruf inzwischen teilweise rehabilitiert. 

In der guten alten Zeit, als der Glimmstarter regierte …

Edison hatte Wort gehalten und eine Lampe gebaut, die beim Drehen des Schalters sofort Licht gab. Das ist bis heute so geblieben: Niemand möchte stundenlang warten, bis Licht kommt. Genauer gesagt, es handelt sich um wenige Sekunden, die niemand abwarten will. Der einzige Unterschied zu 1890 ist, dass wir keinen Drehschalter mehr haben, jedenfalls in modernen Bauten. Dort geht es auf Knopfdruck.

Die so verwöhnten Menschen wurden an deren Arbeitsplatz mit einer Technik konfrontiert, die das Licht nach Meinung der Techniker “wirtschaftlich” lieferte, aber nicht sofort. In den frühen Tagen der Leuchtstofflampe (ca. 1930er/40er Jahre) war das Starten ein mechanischer Prozess. Der klassische Starter ist im Grunde eine kleine Glimmlampe mit einem Bimetall-Kontakt. Diesen fand die Technik wohl nicht so störend, dass eine meiner ersten Forschungsarbeiten dazu diente, bessere Glimmstarter auszusuchen, die die Lampe nicht mehr mehrfach flackern ließen.

Das war etwa 30 Jahre, nachdem mein Vater sich über die neue Beleuchtung in seinem Büro beschwert hatte. Er war nach Hause gekommen und hatte berichtet von der neuen Beleuchtung mit Leuchtstofflampen und seinen Kopfschmerzen. Es war üblich, solche Beschwerden ins Reich der Fabel zu verweisen und die Beschwerdeführer zum Nörgler zu erklären.

Dabei war die Lösung des Problems der flackernden Lampe längst bekannt, als ich Ende der 1960er die Starter untersuchte. Denn die Ingenieure wollten dieses unzuverlässige mechanische Bauteil (den Starter) schon immer loswerden. Der Starter war nämlich oft das erste Teil, das kaputtging. Nicht nur das. Wer damals den falschen Starter kaufte, stand zuweilen im Dunkeln oder erlebte eine Röhre, die nur an den Enden glühte, aber nie zündete. Ein Starter hielt zudem oft nur ein paar tausend Schaltvorgänge. Wenn er festklebte, glühten die Wendeln der Röhre dauerhaft durch, bis sie verbrannten. Deswegen hatte man die Rapidstartlampe erfunden. In den USA brachte die Firma General Electric (GE) im Jahr 1952 das erste kommerziell erfolgreiche Rapidstart-System auf den Markt.

Das Motiv der GE-Ingenieure war buchstäblich sehr einleuchtend: Das Startverhalten der Leuchtstofflampe war das größte Hindernis für die Akzeptanz im Wohnbereich und in gehobenen Büros. Das ständige Flackern der Glimmstarter (Preheat-Systeme) wurde als "billig" und unzuverlässig wahrgenommen. Und GE war das größte Unternehmen der Welt, was das künstliche Licht anbelangte. Dennoch dauerte die Flackerei bis in das neue Jahrhundert. Es wurde im Laufe der Zeit seltener.

Als ich mich mit den Glimmstartern beschäftigte, war mein Zimmernachbar an einer Technologie daran, die später Epoche machen würde, das elektronische Vorschaltgerät (EVG). Er bastelte an einem der ersten Exemplare. Das ist aber eine andere Geschichte, die ein andermal erzählt werden soll. Hier geht es um ein Ignorieren des Nutzerverhaltens, das auch dann griff, als das mächtigste Unternehmen der Branche die Lösung längst präsentiert hatte.

Neuauflage des Ignorierens des Startverhaltens einer Lampengattung

Die gemeinte Lampengattung ist mit der Firma verbunden, von der oben die Rede ist. Ihre Geschichte beginnt bei General Electric (GE) in den USA. Mitten in der ersten großen Ölkrise sucht man verzweifelt nach Wegen, Strom zu sparen. Der Ingenieur Edward E. Hammer biegt eine lange, dünne Glasröhre in eine enge Spiralform, damit sie in die Größe einer normalen Glühlampe passt. GE entschied sich gegen die Produktion. Die Maschinen zur Herstellung der gebogenen Glasröhren wären zu teuer gewesen (geschätzte 25 Millionen Dollar). So legt GE das Patent auf Eis.

Während GE zögerte, sahen die Europäer ihre Chance. Philips präsentierte 1980 die erste marktreife Kompaktleuchtstofflampe: die Philips SL*. Sie sah aus wie eine klobige Marmeladenglas-Konstruktion. Sie war schwer (wegen des eingebauten magnetischen Vorschaltgeräts), groß und unhandlich. Dennoch wurde sie eine Sensation, weil sie 80% weniger Strom verbrauchte und 10-mal länger hielt.

Die Designer bei Osram und Philips entwickelten die "U-Form" (die typischen Finger-Röhren), die leichter zu produzieren waren als Hammers Spirale. In den späten 80ern ersetzten kleine Platinen die schweren, brummenden Kupferspulen. Die Lampen wurden leichter, flackerten beim Start nicht mehr und leuchteten sofort heller.

Dabei bedeutete sofort leider nicht gleich. Viele Modelle brauchten 1–2 Minuten, um ihre volle Helligkeit zu erreichen ("Geduldslicht"). Volle Helligkeit hieß leider immer noch nicht die geplante Lichtqualität. Wenn man um das Jahr 2007 eine solche Lampe im Labor messen wollte, musste sie volle 24 Stunden warm werden, damit ihre Daten stabil blieben. Dass sie zuvor noch zwei Wochen eingebrannt werden musste, bis sie ihre Eigenschaften einigermaßen festigte, gehört noch dazu.

Da die Lampen wegen ihrer meist schlechten Lichtfarbe (grünlich-gelb) und noch schlechteren Farbwiedergabe (mit erheblicher Mühe bei der Bewertung auf Ra 80 getrimmt) meist nur in Garagen oder Kellern zu Hause waren, hat vermutlich niemand die Kompaktleuchtstofflampe (KLL) mit ihrem labormäßigen Erscheinungsbild gesehen. Für professionelle Anwendungen gab es andere KLL mit externem elektronischem Vorschaltgerät, die man an dem Stecksockel erkennen konnte.  Die hier gemeinten KLL waren solche mit integriertem Vorschaltgerät, das im Sockel saß.

Als die Debatte um das Glühlampenverbot der EU 2007 begann, wurde die KLL zur Energiesparlampe hochbefördert. Und zwar nicht die Technologie, sondern die Form mit dem integrierten Vorschaltgerät. Es half nicht, dass die Gegner argumentierten, man könne eine ökologische Revolution, die in der Ökodesign-Richtlinie von 2008 kulminieren sollte, Verordnung (EG) Nr. 244/2009, mit einer Technik vorantreibt, die massensweise Elektroschrott produziert. Denn der neue Stern am ökologischen Himmel, die KLL mit integriertem Vorschaltgerät, ging schneller kaputt, weil sich der Sockel erwärmte, was der Elektronik selten guttut. Und die Elektronik war selten hochwertig, weil die Energiesparlampe mit der Glühlampe konkurrieren sollte.

War der Vorwurf der Förderung des Elektronikschrotts noch relativ harmlos, verstießen die Freunde der auf den Thron der Ökologie gesetzten Lampe gegen eine der wichtigsten ökologischen Grundlagen: das Verbot von Quecksilber. Diese Substanz, von der man zwar gerne, aber sehr schwer Abschied nahm, ist praktisch in allen Lebenslagen verboten bzw. geächtet, seit man Mitte der 1950er Jahre in der Minimata-Bucht in Japan schreckliche Entdeckungen gemacht hatte. Besonders grausam war die Entdeckung, dass Methylquecksilber die Plazentaschranke durchbricht. Mütter, die selbst kaum Symptome zeigten, brachten Kinder mit schwersten Fehlbildungen und geistigen Behinderungen zur Welt. Dies bewies, dass Quecksilber direkt in die Gehirnentwicklung von Ungeborenen eingreift. Und nun sollte die ökologische Revolution der EU mit einer Technologie beginnen, die auf eben diesem Material beruhte.

In dieser Situation wirkte die Argumentation der Industrie besonders perfide. Als der Umweltminister Gabriel mit der Energiesparlampe Wahlkampf betrieb (z.B. hier) und sein Vorgänger Jürgen Trittin ihm beistand, half ihm die Industrie mit dem Argument, die Wunderlampe würde Energie sparen und so ein kleines Kohlekraftwerk einsparen helfen. So erfuhr die Öffentlichkeit, dass Kraftwerke immer Quecksilber über das Land streuen. (zu lesen unter z.B. Quecksilber hin, Quecksilber her oder Quecksilber - noch einmal aus den Jahren 2009 und 2010)

Wenn die Politik solche Hämmer ignoriert und einer Technologie den Vorrang einräumt, die auf einem äußerst giftigen Material beruht, wie ernst mag man denn die Unannehmlichkeit des Anlaufs einer Lampe beim Einschalten nehmen? (Hier hilft unsere Studie zur Ökologie der Energiesparlampe Download weiter) Der EU bliebe allerdings die Peinlichkeit erspart geblieben, die Energiesparlampe aus dem Verkehr zu ziehen, weil sie keine Energiesparlampe war. Seit 1. September 2021 dürfen keine klassischen Energiesparlampen mit Schraubgewinde (E27/E14) in den Verkehr gebracht  werden. (s. Energiesparlampen verboten, weil nicht energieeffizient). Somit wurde die Energiesparlampe lange vor mancher Halogenglühlampe aus dem Verkehr gezogen.

Heute gehen die Lichter wieder sofort an wie zu Zeiten Edisons. Sie werden häufig in E27-Sockeln geschraubt, auch wie zu Zeiten Edisons. Allerdings hat das neue Licht mit den früheren Versionen nur noch wenig zu tun. Was neu ist und wie es dazu kam, habe ich in dem Kapitel Epochen der Kunst der Lichtmacher dargelegt. Wer Interesse hat, zu wissen, was mit der neuen LED-Technologie möglich ist, was früher nicht denkbar war, sollte sich alles angucken, was alles auf der Basis dieser Technologie möglich ist. Das kleinste Objekt, das mir einfällt, ist eine winzige LED, deren Licht hilft, Tumorzellen zu töten. Das bislang Größte war ein Display, das eine ganze Straße in Las Vegas überdacht.

Dazwischen liegen solche Objekte wie auf diesem Foto, das den Ruf der künstlichen Beleuchtung erklärt. Es gehört zu meinen liebsten Aufnahmen, weil viele “Gewerke” für dieses Erscheinungsbild verantwortlich sind. Wer alles da beteiligt war, habe ich in einem anderen Beitrag erläutert: Wie kommt das Grauen in deutsche Büros?.

Ist LED-Beleuchtung effizienter als die Glühlampenbeleuchtung? Eine physiologische Betrachtung

Zahlen sind hervorragende Diener,
aber miserable Wegweiser
Anonymus

Kurzfassung

LED‑Beleuchtung gilt als energieeffizient, weil sie fast ausschließlich Licht im sichtbaren Bereich erzeugt – üblicherweise zwischen 380 und 650 nm. Glühlampen und Sonnenlicht hingegen strahlen über ein viel breiteres Spektrum (300–2500 nm), das auch UV‑ und vor allem Infrarotanteile umfasst.

Eine aktuelle Studie von Barrett & Jeffery (2026) zeigt, dass diese Spektralverengung bei LEDs negative Auswirkungen auf die Mitochondrien und damit auf Stoffwechsel, Alterung und visuelle Leistungsfähigkeit haben kann. Insbesondere kurze Wellenlängen (420–450 nm), die bei LEDs dominieren, unterdrücken die mitochondriale Atmung, während längere Wellenlängen (670–900 nm) diese verbessern.

Insgesamt argumentiert dieser Beitrag, dass die Beurteilung von Lichtquellen nicht nur auf ihrer Lichtausbeute in Lumen/Watt basieren sollte: Die gesundheitlichen und visuellen Auswirkungen des Spektrums sind mindestens ebenso entscheidend.

Was ist die visuelle Effizienz?

Die Effizienz von Lichtquellen wird sinnvollerweise daran gemessen, welchen Gegenwert man für die Energie erhält, die man in die Lampe steckt. Die Größe, die man hierzu heranzieht, ist üblicherweise die Lichtausbeute in Lumen/Watt. Lumen ist die Einheit des Lichtstroms, den ein Leuchtmittel erzeugt. Dieser gilt als die erwünschte Nutzwirkung.

Die Rechnung geht dann ohne Einschränkung auf, wenn das so berechnete Licht für die erzeugte Sehleistung allein maßgeblich ist. Man nimmt im Allgemeinen an, das sei der Fall, weil der Lichtstrom auf der Basis der Definition von Licht nach CIE (V(λ)-Kurve) erfolgt, die alle Strahlung berücksichtigt, die eine Sehempfindung hervorruft. Die hier besprochene Beziehung ist die Grundlage für den Handel mit Licht und Lichtprodukten.

Während die Glühlampe als sehr ineffizient galt und deswegen von der EU verboten wurde, wurde die LED-Technologie insbesondere wegen der Energieeffizienz gefördert. Der Unterschied ist immens. Während die Allgebrauchsglühlampe etwa bei 15 lm/W lag, erreichen weiße LEDs mittlerweile Werte bei 140 lm/W.

Die wahre Rechnung wäre, wenn man die durch die Beleuchtung erzeugte Sehleistung dem Energieverbrauch gegenüberstellen würde. Dies ist allein deswegen nicht möglich, weil es keine vernünftige Definition von Sehleistung gibt. (mehr dazu z.B. hier Vom Elend, ein Lichtplaner in Deutschland zu sein oder da Halbe oder doppelte Beleuchtungsstärke bei Tageslicht?) Welche Definition man auch heranziehen mag, eine der wichtigsten Leistungen des Auges, Farben zu erkennen, gehört nicht zur Sehleistung.

Woher kommt der Effizienzunterschied zwischen Leuchtmitteln

Da ein Leuchtmittel weder Energie erzeugen noch vernichten kann, strahlt es alle Energie, die man in sie hineinsteckt, wieder ab. Dies kann bei Stralungsquellen, die zur Lichterzeugung verwendet werden, in drei Bereichen erfolgen: Wellenlänge < 380 nm (UV) , 380 nm – 780 nm (Licht) und über 780 nm (IR). Der gesamte Bereich wird optische Strahlung genannt, weil man sie mit optischen Instrumenten messen kann.

LEDs kann man so bauen, dass ihre gesamte Strahlung als Licht erzeugt wird. Daher die große Effizienz. Die allergrößte Effizienz würde eine LED erreichen, die alles Licht bei 555 nm abstrahlt. Allerdings kann man mit diesem Licht keine Beleuchtung betreiben. Deswegen erfolgt die Effizienzbetrachtung nur für weißes Licht.

Schwachstelle der Betrachtungsweise

Die Schwachstelle dieser allgemein üblichen Betrachtungsweise sehen Forschende darin, dass die Hellempfindung nicht den gesamten Sehvorgang erfasst. Sie gehen davon aus, dass sich das menschliche Leben unter einer Strahlung mit Wellenlängen von 300 nm bis 2500 nm entwickelt hat. Hingegen würden die LED-Beleuchtungen sich auf den Bereich von 380 bis 650 nm beschränken. Daher wäre die Lichtausbeute nur scheinbar hoch.

In Nature wurde in Januar eine Studie von E. M. Barrett und G. Jeffrey veröffentlicht, die nachweist, dass die LED-Beleuchtung mit diesem schmalen Frequenzband die Sehleistung gegenüber Sonnenlicht verschlechtert.

Barrett, E.M., Jeffery, G. LED lighting (350-650nm) undermines human visual performance unless supplemented by wider spectra (400-1500nm+) like daylight. Sci Rep 16, 3061 (2026). https://doi.org/10.1038/s41598-026-35389-6

Ergebnis der Nature-Studie)

Nachfolgend die Kurzfassung der Autoren übersetzt durch deepl (Absätze von mir eingefügt, um das Lesen zu erleichtern.. Die benutzten Daten können bei Glenn Jefffrey mit einer Begründung abgerufen werden: g.jeffery@ucl.ac.uk

Das Leben hat sich unter breitspektralem Sonnenlicht entwickelt, das von Ultraviolett bis Infrarot (300–2500 nm) reicht. Dieses spektral ausgewogene Licht hat die Physiologie und den Stoffwechsel des Lebens geprägt. In der modernen Beleuchtung dominieren jedoch seit kurzem Leuchtdioden mit eingeschränktem Spektrum (350–650 nm).

Das Fehlen längerer Wellenlängen bei LEDs und die Dominanz kurzer Wellenlängen wirken sich auf die Physiologie aus und beeinträchtigen die normale mitochondriale Atmung, die den Stoffwechsel, Krankheiten und den Alterungsprozess reguliert. Mitochondrien sind lichtempfindlich.

Das in LEDs vorherrschende Licht im Bereich von 420–450 nm unterdrückt die Atmung, während tiefes Rot/Infrarot (670–900 nm) die Atmung bei Alterungsprozessen und einigen Krankheiten, einschließlich der Blutzuckerregulation, steigert. Hier ergänzen wir LED-Licht zwei Wochen lang durch Breitbandlicht (400–1500 nm+) und testen die Farbkontrastempfindlichkeit. Wir zeigen eine signifikante Verbesserung dieses Messwerts, die auch nach dem Wegfall der zusätzlichen Beleuchtung noch 2 Monate anhält.

Mitochondrien kommunizieren im gesamten Körper und haben systemische Auswirkungen nach regionaler Lichtexposition. Dies beinhaltet wahrscheinlich veränderte Muster der Serum-Zytokin-Expression, was die Möglichkeit weiterer negativer Auswirkungen von LEDs auf die menschliche Gesundheit nahelegt, insbesondere bei älteren Menschen oder in klinischen Umgebungen, in denen Personen geschwächt sind. Eine Änderung der Beleuchtung in diesen Umgebungen könnte ein äußerst kostengünstiger Weg zur Verbesserung der öffentlichen Gesundheit sein.

Diskussion durch die Autoren (nicht editiert)

Wir zeigen, dass sich die Sehleistung von Personen, die unter Standard-LED-Beleuchtung arbeiten, durch die Einwirkung von Glühlampenlicht, dessen Spektrum dem Tageslicht ähnelt und eine umfangreiche Infrarotkomponente aufweist, deutlich verbessert. Diese Daten stimmen mit der Hypothese überein, dass LED-Beleuchtung die Sehleistung des Menschen beeinträchtigt. Dieses Ergebnis steht im Einklang mit Laborversuchen, bei denen bestimmte von LEDs erzeugte Rot-/Infrarot-Wellenlängenbereiche genutzt wurden, um die Sehfunktion bei Tieren und Menschen auf konservative Weise zu verbessern. Es gibt jedoch drei entscheidende Unterschiede zu diesen früheren Studien. Erstens haben wir lediglich die Umgebungsbeleuchtung in einer Arbeitsumgebung mit Bewegungsfreiheit verändert. Zweitens haben wir signifikante, ausgewogene Verbesserungen sowohl im Protan- als auch im Tritan-Bereich erzielt. Zuvor führte die Exposition gegenüber einem begrenzten experimentellen 670-nm-Licht zu Verbesserungen, die stark zugunsten der Tritan-Funktion verzerrt waren. Daher führt die Exposition gegenüber Vollspektrum-Beleuchtung zu einem ausgewogenen Muster der Verbesserung der Sehleistung. Drittens haben wir gezeigt, dass Verbesserungen der Sehfunktion nach der Exposition gegenüber Glühlampenlicht bis zu 6 Wochen und möglicherweise darüber hinaus anhalten, während die Vorteile von rotem Licht mit eingeschränktem Spektrum aus einer einzelnen LED auf etwa 5 Tage begrenzt waren. Diese drei Merkmale verändern die Art und Weise, wie langwelliges Licht zur Verbesserung der menschlichen Physiologie eingesetzt werden kann, indem es in normalen Umgebungen mit anhaltenden, ausgewogenen Effekten bereitgestellt wird. Diese Ergebnisse sind neuartig und könnten Auswirkungen auf die öffentliche Gesundheit haben.

Die Evolution des Lebens auf der Erde erstreckt sich über 4 Milliarden Jahre, die des Menschen über etwa 4 bis 5 Millionen Jahre seit dem letzten gemeinsamen Vorfahren der Primaten. All dies fand unter Sonnenlicht statt, dessen Spektralbereich etwa 300 bis 2500 nm+ umfasst, wobei innerhalb dieses Bereichs stets ein Gleichgewicht zwischen kurzen und längeren Wellenlängen herrschte. Die Nutzung des Feuers durch den Menschen vor 1–2 Millionen Jahren ergänzte das Sonnenlicht, als dieser Afrika verließ, da dessen Spektrum ähnlich ist und einen hohen Infrarotanteil aufweist. Ebenso wies die bis etwa zum Jahr 2000 verbreitete Edison-Glühfadenlampe ein dem Sonnenlicht ähnliches Spektrum auf. Um 2010 herum setzte sich jedoch die LED-Beleuchtung mit ihrem stark eingeschränkten Spektrum (350–650 nm) und ihren energiesparenden Eigenschaften durch, was zu einem Verlust an Infrarotlicht in der bebauten Umwelt führte.

Die Physiologie von Lebewesen ist in einem über die Arten hinweg hochkonservierten Muster an das natürliche Umgebungslicht angepasst. Licht beeinflusst die Mitochondrienfunktion, die ein zentraler Regulator des Stoffwechsels und des Alterungsprozesses bei Tieren ist. Wenn sich das Gleichgewicht zwischen kurzen und langen Wellenlängen verschiebt, hat dies Auswirkungen auf die Mitochondrien. Bei vorherrschender Exposition gegenüber kürzeren Wellenlängen, wie bei LED-Beleuchtung, nimmt die Mitochondrienfunktion ab. Die Proteine der Mitochondrienkomplexe werden abgebaut, und die ATP-Produktion ist verringert. Mit einem verringerten Glukosebedarf der Mitochondrien kommt es zu einer Gewichtszunahme und zu Störungen der Serumzytokine. Folglich besteht, im Einklang mit der mitochondrialen Theorie des Alterns, eine erhöhte Wahrscheinlichkeit für das Altern und den Tod von Zellen bzw. Organismen. Es wird vermutet, dass dies teilweise darauf zurückzuführen ist, dass Licht im Bereich von 420–450 nm, das bei LEDs vorherrscht, von Porphyrin absorbiert wird und die daraus resultierende Produktion von Sauerstoffsingulett-Radikalen Entzündungen fördert.

Umgekehrt wird die Exposition gegenüber längeren Wellenlängen mit einem erhöhten mitochondrialen Membranpotenzial und einer erhöhten Konzentration von Proteinen der mitochondrialen Komplexe in Verbindung gebracht, deren Gehalt mit zunehmendem Alter und bei Erkrankungen abnimmt. Dies wiederum geht mit einem erhöhten ATP-Spiegel, einer verminderten Entzündungsreaktion und einer verlängerten durchschnittlichen Lebenserwartung einher. Die experimentelle Anwendung längerer Wellenlängen in solchen Situationen wird gemeinhin als Photobiomodulation bezeichnet.

Die Netzhaut weist den höchsten Stoffwechsel im Körper sowie eine hohe Mitochondrienkonzentration auf. Der Stoffwechsel der Netzhaut nimmt mit zunehmendem Alter ab, was jedoch bei verschiedenen Spezies durch langwelliges Licht teilweise ausgeglichen werden kann. Beim Menschen verbessert eine einzige 3-minütige Bestrahlung mit 670 nm das Farbsehen innerhalb von 3 Stunden, wobei dieser Effekt fast eine Woche lang anhält. Was die Autoren dieser Studie jedoch nicht berücksichtigten, war, dass dies in einer Population geschah, die hauptsächlich unter LED-Belechtung arbeitete und lebte, was ihre Ausgangswerte möglicherweise verfälscht hat. Hier haben wir keinen Versuch unternommen, die Lichtexposition oder die Bewegungen der Probanden zu kontrollieren, wie es bei Laborversuchen der Fall wäre. Vielmehr war es unser Ziel, breitbandiges Langwellenlicht in eine Arbeitsumgebung einzubringen, um die menschliche Leistungsfähigkeit durch mitochondriale Manipulation in einem translationalen Schritt zu verbessern.

Es gibt zahlreiche Hinweise darauf, dass die Einwirkung längerer Wellenlängen systemische Auswirkungen hat. Durieux et al. stellten im Zusammenhang mit Experimenten an C.elegans fest: „Wir haben festgestellt, dass eine Störung der Mitochondrien in einem Gewebe vom mitochondrialen Stressreaktionsweg in einem entfernten Gewebe wahrgenommen und darauf reagiert wird.“ Bei Mäusen zeigen sich signifikante, deutliche Veränderungen der Serumzytokin-Expression bei Expositionen sowohl gegenüber kurzwelligem als auch langwelligem Licht. In ähnlicher Weise senkt die Exposition der Körperoberfläche (mit Ausnahme der Augen) gegenüber langwelligem Licht den Blutzuckerspiegel beim Menschen signifikant und erhöht den Sauerstoffverbrauch. Dies liegt wahrscheinlich daran, dass eine mitochondriale Hochregulation den Kohlenhydratbedarf erhöht, um die gesteigerte ATP-Produktion zu unterstützen. Weitere systemische Auswirkungen lassen sich bei experimentell induziertem Parkinson bei Primaten beobachten und sind dort deutlich erkennbar. Licht, das durch Implantate gezielt auf die Substantia nigra gerichtet wird, ist wirksam bei der Linderung der Symptome, aber ebenso wirksam ist Licht, das auf distale Stellen gerichtet wird.

Einzelne 3-minütige Bestrahlungen bei 670 nm bleiben etwa 5 Tage lang wirksam. Wir zeigen jedoch, dass sie bei einem breiteren Spektrum 6 Wochen lang wirksam bleiben, obwohl wir das Ende der Wirkung nicht feststellen konnten. An dieser Stelle lohnt es sich, mögliche Wirkmechanismen zu betrachten, die nach wie vor umstritten sind. Historisch gesehen wurde angenommen, dass Verbesserungen durch rotes Licht auf die Lichtabsorption durch Cytochrom C in der Atmungskette zurückzuführen sind. Positive Effekte werden jedoch in vitro auch in Abwesenheit dieses Cytochroms festgestellt. Folglich wurde vermutet, dass längere Wellenlängen die Viskosität des Wassers um die rotierenden ATP-Pumpen herum verringern, wodurch der Rotor an Geschwindigkeit zunehmen kann. Dies kann die anhaltenden Auswirkungen der Lichtexposition nicht erklären, da dieser Effekt relativ vorübergehend sein müsste, da die Viskosität nach Entzug des Lichts rasch ansteigen würde. Ein wesentliches Merkmal der Absorption von Licht mit langer Wellenlänge ist jedoch die erhöhte Proteinsynthese in der Atmungskette. Diese Proteine unterliegen im Laufe des Tages Schwankungen, und Komplex IV wird nach Bestrahlung mit rotem Licht hochreguliert. Während rotes Licht also zunächst die Drehzahl der Rotorpumpen erhöhen mag, folgt darauf rasch eine Steigerung der Proteinsynthese, die zu einer höheren Kapazität der Atmungskette führen könnte. Die Lebensdauer dieser Proteine könnte dann die Dauer der Wirkung bestimmen.

Bei der mitochondrialen Proteinsynthese werden lediglich dreizehn Polypeptide gebildet. Dieser Prozess verlangsamt sich wahrscheinlich mit zunehmendem Alter und trägt vermutlich zum altersbedingten Rückgang der Mitochondrienfunktion bei. Entscheidend ist jedoch, dass wir weder die Geschwindigkeit der mitochondrialen Proteinsynthese noch die Lebensdauer dieser Proteine noch das Tempo ihres Abbaus kennen. Wir vermuten, dass dies entscheidende Faktoren für die Dauer der Auswirkungen von Lichteinwirkung sein könnten.

LED-Beleuchtung hat eindeutig das Potenzial, die Sehleistung zu beeinträchtigen, wahrscheinlich durch eine verminderte mitochondriale Funktion. Da sich gezeigt hat, dass lichtinduzierte Veränderungen der mitochondrialen Leistungsfähigkeit systemische Auswirkungen haben, könnten die hier aufgezeigten Auswirkungen von LEDs weitreichender sein als ursprünglich angenommen. Angesichts der weit verbreiteten Nutzung von LEDs könnte dies ein wichtiges Thema für die öffentliche Gesundheit und klinische Umgebungen darstellen, wo eine Anpassung der Beleuchtungsmuster unter Berücksichtigung dieses Aspekts zu bedeutenden positiven Ergebnissen führen kann.

Angesichts unserer Ergebnisse stellt sich die Frage, welche Lösungen zur Verbesserung der Gesundheit im Hinblick auf die Beleuchtung in der bebauten Umwelt gefunden werden können. Glühlampen, die, wie wir hier zeigen, einen deutlich positiveren Einfluss haben als herkömmliche LEDs, werden aus Gründen der Energieeffizienz weltweit aus dem Verkehr gezogen, wobei der Fokus ausschließlich auf dem erzeugten sichtbaren Licht liegt.

Eine Lösung könnte in der Entwicklung von Beleuchtungskörpern mit mehreren LEDs längerer Wellenlänge liegen, um einen größeren Bereich des nahen Infrarots abzudecken. Unsere Versuche in dieser Hinsicht waren jedoch nur begrenzt erfolgreich. Mehrere eng beieinander liegende Spektralpeaks erzeugen keine gleichmäßige Spektralstrahlung, wie sie bei Glühlampen und Sonnenlicht zu finden ist, was für die Funktionsverbesserung problematisch ist und bislang noch keine Ergebnisse gebracht hat. Dies könnte möglicherweise durch eine größere Anzahl von Spektralpeaks mit engerem Abstand überwunden werden. Dies wirft jedoch eine Reihe anderer Probleme hinsichtlich der Kosten und des erhöhten Energieverbrauchs auf, wodurch diese Lösung im Hinblick auf die ökologische Nachhaltigkeit nicht besser ist als die Beibehaltung von Glühlampen.

Entscheidend bei diesem Thema ist die Frage, wie viel Infrarotstrahlung erforderlich ist, um eine verbesserte Funktion aufrechtzuerhalten. Infrarotstrahlung wird in der bebauten Umgebung von relativ wenigen Materialien absorbiert, und aktuellen Studien zufolge muss der Umgebung nur relativ wenig hinzugefügt werden, um eine Wirkung zu erzielen. Eine praktikable Option besteht jedoch darin, eine Glühlampe bei einer niedrigeren Temperatur zu betreiben, was sowohl zu Energieeinsparungen als auch zu einer längeren Lebensdauer des Geräts führt und zudem das spektrale Leistungsmaximum in Richtung längerer Wellenlängen verschiebt.

Wird dies mit einer Halogenlampe durchgeführt, bei der es sich um eine Art Glühlampe mit Wolframfaden handelt, hält der Faden länger, da sich verdampftes Wolfram wieder auf dem Faden ablagert, anstatt das Lampenglas zu schwärzen. Daher ist die Verwendung einer Halogenlampe bei niedrigerer Spannung eine realistische Alternative in Bezug auf Gesundheit und Energieverbrauch.

Anm.: Halogenlampen funktionieren bei niedrigen Temperaturen nicht. Aber auch eine normale Glühlampe kann bei halber Betriebsspannung praktisch unendlich leben.

Links und Literatur

Die Studie ist in vollem Umfang online erhältlich. Für Interessierte füge ich einen Download-Link bei.

Die Autoren zitieren 29 Studien. Hiervon scheinen mir einige besonders interessant:

Jeffery, G. et al. Longer wavelengths in sunlight pass through the human body and have a systemic impact which improves vision. Sci. Rep. 2025 July;15(1);24435. https://doi.org/10.1038/s41598-025-09785-3

Begum, R. et al. Near-infrared light increases ATP, extends lifespan and improves mobility in aged Drosophila melanogaster. Biol.Lett. ;11(3):20150073. (2015). https://pubmed.ncbi.nlm.nih.gov/25788488/ PMID: 25788488.

Powner, M. B. & Jeffery, G. Light stimulation of mitochondria reduces blood glucose levels. J.Biophotonics. ;17(5):e202300521. (2024). https://pubmed.ncbi.nlm.nih.gov/38378043/. PMID: 38378043.

Shore-Lorenti, C. et al. Shining the light on Sunshine: a systematic review of the influence of sun exposure on type 2 diabetes mellitus-related outcomes. Clin. Endocrinol. ;81(6):799–811. (2014). https://pubmed.ncbi.nlm.nih.gov/25066830/ PMID: 25066830.

Sivapathasuntharam, C., Sivaprasad, S., Hogg, C. & Jeffery, G. Aging retinal function is improved by near infrared light (670 nm) that is associated with corrected mitochondrial decline. Neurbiol. Aging 2017 Apr:52:66–70. https://pubmed.ncbi.nlm.nih.gov/28129566/ PMID: 28129566.

Erinnerung an die Zukunft von einst

Das in diesem Artikel in Nature vor zwei Monaten veröffentlichte Argument war im Zuge der Diskussion eines Glühlampenverbots zu Beginn des Jahrhunderts mehrfach vorgebracht worden. Der Grundstein zum Verbot wurde mit der Verabschiedung der ersten Ökodesign-Richtlinie (2005/32/EG) im Juli 2005 gelegt. Diese Richtlinie schuf den Rahmen, um Mindestanforderungen an die Energieeffizienz von Produkten festzulegen. Damals wurde die Glühbirne noch nicht namentlich verboten, aber sie rückte als ineffizienter "Energiefresser" (da rechnerisch bis 95 % der Energie in Wärme statt Licht umgewandelt werden) ins Visier der Experten.

Der wichtigste Protagonist in Deutschland war Alexander Wunsch, der die Argumentation mit dem evolutionsbegleitenden Spektrum jüngst in Licht 1/26 präzisiert hat. Der Beitrag ist hier abrufbar:  Rückkehr der verbotenen Lampe. Wunsch führte in einem Beitrag von 2009 die Rolle des Infrarotanteils für die Funktion der Mitochondrien an: “Der Nahinfrarot-Anteil der Glühlampe stärkt die Funktion der Mitochondrien (Zellkraftwerke).“  Auch das Argument mit besserem Sehen wurde vorgebracht: „Durch die niedrigen Blauanteile erleichtert das Licht der Glühlampe den Sehvorgang, Kontrast und Sehschärfe werden um bis zu 50% erhöht.”

Sein damaliges Fazit lautete: “Aus ganzheitsmedizinischer Sicht käme das Verbot der Verwendung von Glühlampen einer staatlich verordneten KÖRPERVERLETZUNG gleich, solange kein gleichwertiges Leuchtmittel zur Verfügung steht!” (abrufbar unter Creative Commons Lizenz hier

Phantome, die unser Wissen beherrschen IX

Die größte Gefahr für die Erkenntnis ist
nicht das Unwissen, sondern die Faulheit,
die sich hinter Fachbegriffen versteckt
Anonymus

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Phantom Lambertscher Strahler

Der Beitrag erläutert, warum das Lambertsche Gesetz – ein mathematisches Modell für ideal diffuse Reflexion – in der realen Beleuchtungspraxis häufig zu Fehlinterpretationen führt. Ein Lambert Strahler würde in alle Richtungen gleich hell erscheinen, doch kein reales Material verhält sich exakt so. Trotzdem wird dieser Idealzustand in vielen Normen und Berechnungen vorausgesetzt. Viele Normen und Regelwerke (z. B. DIN-Normen zu Arbeitsstätten, Sportstättenbeleuchtung, Bildschirmarbeitsplätzen) basieren auf Annahmen, die physikalisch nicht zutreffen. Sogar eine Grundgröße wie die Beleuchtungsstärke oder eine wichtige Größe wie der Reflexionsgrad machen nur Sinn, wenn man von einer Lambertschen Reflexion ausgeht.
Vorschriften zur Leuchtenanordnung und zum Arbeitsraum führten zu teils absurden Anforderungen (z. B. ausschließlich matte Oberflächen, stark eingeschränkte Raumzonen für Arbeitsplätze). Viele Anforderungen sind praktisch nicht erfüllbar und werden daher ignoriert – zu Lasten der Benutzer. Man hätte besser mehr diffuses Licht statt direkter Beleuchtung vorsehen sollen, entspiegelte Bildschirme statt Vorschriften zu deren Aufstellung. Man muss anerkennen, dass das Lambert-Modell ein hilfreiches Ideal ist, aber keine reale Grundlage für praktische Normen.

Zur Geschichte des Phantoms

Dieses Phantom kennen nur Fachleute unter seinem Namen, den dessen Erfinder ihm gegeben hat, Johann Heinrich Lambert, seines Zeichens schweizerisch-elsässischer Mathematiker, Logiker, Physiker, Astronom und Philosoph der Aufklärung, der u. a. die Irrationalität der Zahl Pi bewies. Die Folgen des großzügigen Umgangs mit dem Phantom kann man in allen Lebenslagen erfahren.

Wenn man eine genaue Erklärung für Lamberts Kosinus-Gesetz aus dem 18. Jahrhundert braucht, kommt meistens etwas zusammen, dass auch manche Fachleute rätseln müssen, was das denn sein soll. Hier ist ein gutes Beispiel für (k)eine gute Visualisierung:

Anschaulicher stellt das Lambertsche Gesetz Wikipedia dar du sagt dazu: „…Wenn eine Fläche dem Lambertschen Gesetz folgt und die Strahldichte der Fläche konstant ist, so ergibt sich eine kreisförmige Verteilung der Strahlstärke.

Legende: Winkelabhängigkeit der Strahlstärke bei einem Lambert-Strahler.
I: Strahlstärke; S: Quelle oder Reflexionsfläche

Allerdings kann auch diese Abbildung nicht allzu viel helfen, das Thema zu verstehen, weil sie zwar simpel ausschaut, aber trotzdem sehr technisch ist. Für den in diesem Beitrag verfolgten Zweck ist eine verbale Beschreibung viel erhellender: Ein Objekt, das dem Lambertschen Gesetz genügt, sieht aus allen Richtungen gesehen gleich hell aus, egal ob es selbst strahlt oder fremdes Licht reflektiert. Bei der Reflexion ist es vollkommen gleichgültig, ob das Licht aus einem einzigen  Punkt kommt (z.B. von der Sonne, von einer Lampe) oder aus einer gleichmäßig leuchtenden Halbkugel um das Objekt herum. Dieses Verhalten zeigt das Bild unten. Das aus einer einzigen Richtung einfallende Licht wird so gestreut, dass man aus jeder Richtung die gleiche Helligkeit sieht.

Es geht genau um die mit den kleinen blauen Pfeilen angedeutete Verteilung des reflektierten Lichts. Es gibt nämlich überhaupt kein Material, dessen Oberfläche so reflektieren kann. Das Problem entsteht dadurch, dass man in der Beleuchtungstechnik so tut, als ob dies (fast) immer gelten würde. Das macht ein perfektes mathematisches Modell zum Phantom. Viele Irrungen und Wirrungen in der Beleuchtungstechnik lassen sich auf Missverständnisse zurückführen.

Wo es überall kneift und schwitzt

Was es in etwa bedeutet, kann man an diesem Bild erkennen, das einen Tisch zeigt, dessen Oberfläche nicht ganz dem Gesetz entspricht, was man an den Schatten erkennen kann. Auf dem Bild sind mehrere Objekte abgebildet, deren Reflexionsvermögen sehr unterschiedlich ist.

Auf dem Tisch befindet sich ein Computer, dessen Bildschirm stark von dem Lambertschen Gesetz abweicht. Davor sieht man ein bedrucktes Blatt Büropapier, das dem Lambertschen Ideal recht nahekommt. Während der Monitor neben der beabsichtigten Information alles Mögliche noch zeigt, z.B. den Kopf des Benutzers und die Nachbargebäude, scheint das Papier frei von Reflexionen aller Art.

Das Bild, vollkommen unbearbeitet, zeigt trotzdem nicht die „Wahrheit“, also ein physikalische Gegebenheit. Der abgebildete Monitor ist für dessen Benutzer hervorragend entspiegelt, sieht aber wie ein perfekter Spiegel aus. Der Benutzer sieht aber nichts von allem, was das die Monitoroberfläche gespiegelt abbildet. Das matte Papier ist matt nur für weitgehend gestreutes Licht. Die darauf gedruckte Schrift glänzt noch etwas, je nachdem, wie der Drucker sie fixiert hat.

Im übelsten Fall, streifendes Licht, kann ein passables Bild (s. unten, links) zu einem katastrophalen werden (unten, Mitte). Der Kontrast kann sich sogar umkehren (unten, rechts)

Mit einfachen Worten, die Abweichung der realen Reflexionsbedingungen kann bis zu einer fast vollständigen Verfälschung eines gegebenen Bildes führen. Daher macht es Sinn, anzusehen, wo überall in unserer Denke und Praxis das Phantom zuschlägt.

Die Größe Beleuchtungsstärke macht Sinn, wenn …

Der Begriff Beleuchtungsstärke stammt aus dem Labor und gilt genau genommen nur in der Art, wie sie dort benutzt wird. Beleuchtungsstärke ist der an einem Punkt ankommende Lichtstrom (rechts im Bild). Wenn dort ein Photometer hängt, liest man den Wert ab. Wenn dort ein Objekt hängt, das so reflektiert wie nach dem Lambertschen Gesetz, entsteht eine Leuchtdichte

L = ρ • E
Wobei L für Leuchtdichte steht und ρ für den Reflexionsgrad.

Dieselbe Formel verwendet man aber auch, um die Leuchtdichte des Papiers anzugeben, das z.B. unter sehr verschiedenen Beleuchtungen liegt, die unten skizziert sind.

Wenn man die Beleuchtungsstärke an einem Punkt links oder rechts im Bild misst und dort einen Wert X liest, rechnet man mal die Leuchtdichte eines dort befindlichen Objekts nach diesem Wert. Das ist aber nur dann zulässig, wenn das Objekt richtungsunabhängig reflektiert. Ansonsten kann der abgelesene Wert alles Mögliche bedeuten, nur nicht die errechnete Leuchtdichte.

Man liegt mit der Bewertung einer Beleuchtungsstärke umso weiter daneben, je weiter sich die Beleuchtung von einer idealen Halbkugel mit gleicher Abstrahlung unterscheidet. Der eklatanteste praktische Fall liegt bei älteren Sportstätten vor, die mit vier Masten beleuchtet werden. Bei diesen hat die auf dem Feld gemessene Beleuchtungsstärke mit der tatsächlich relevanten Leuchtdichte (Richtung zur Hauptkamera des Fernsehens) so gut wie nichts zu tun. Dies habe ich 1973 mit simultanen Messungen der Beleuchtungsstärke und Leuchtdichte in einem Stadion nachgewiesen. Kurz gesagt: An 13 von 100 Messpunkten versagt die Größe der Beleuchtungsstärke bei der Angabe der gemessenen Leuchtdichte. Stand heute gelten aber die “Anforderungen an die horizontale Beleuchtungsstärke nach Sportarten gemäß DIN EN 12193:2008-04

Wenn man das Licht aus diesen vier Masten an einer bestimmten Stelle des Spielfeldes zusammenzählen  will, um daraus eine sinnvolle Größe für die Leuchtdichte zu erhalten, die für die Kameras und Menschen relevant ist, muss der Rasen ein Lambert-Strahler sein. Dass er das bestimmt nicht ist, kann man als Fussballfan ein paar Mal in jeder Woche am Fernseher erleben. Wie der Rasen in einem Stadion wirklich reflektiert, ist hier skizziert:

Dieser Effekt ist seit etwa 60 Jahren bekannt und gehört mittlerweile zum Erscheinungsbild eines Fussballstadions. Er wird mit Hilfe von besonderen Einrichtungen hergestellt.

Dass die Horizontalbeleuchtungsstärke bei Sportarten wie Fussball nicht nur wenig Bedeutung hat, war dem deutschen Fernsehen in den 1960ern bekannt. Deswegen verlangte es für die Olympiasportstätten in München Vertikalbeleuchtungsstärken. Dennoch blieb es bis heute nicht nur bei den unsinnigen Anforderungen. Die Praxis liegt noch schlimmer daneben.

Die Annahme, dass eine Horizontalbeleuchtungsstärke bei den vorliegenden Lichtverteilungen Sinn mache, der die Vorstellung einer Lambertschen Reflexion zugrunde liegt, enthebt die Notwendigkeit, sich Gedanken über die Ebene zu machen, in der das Licht einfällt. Das untere Bild zeigt einen Ball, der von zwei Seiten beleuchtet wird.

Die beiden Scheinwerfer links und rechts werden in der Berechnung ihrer Wirkung einfach zusammengezählt. Wenn ein Mensch oder eine Kamera diesen Ball von links aufnimmt, nützt ihnen der Lichteinfall von rechts garantiert nicht. Somit ist der Kontrast des Balls zu seinem Hintergrund halb so hoch wie berechnet.

Das scheinbar unlösbare Problem der Bildschirmreflexionen

Reflexionen auf Bildschirmen sind seit ihrer Einführung im Büro in den 1960ern ein Thema. Ein Nachweis dafür, dass sie auch heute relevant sind, liefert ein Blick in die Arbeitsstättenverordnung, bei der ein ganzes Kapitel der Gestaltung und dem Betrieb von Bildschirmarbeitsplätzen gewidmet ist.  Wie die Beleuchtung von Arbeitsstätten damit erfolgreich umgehen könnte, steht in DIN EN 12464-1: “EN ISO 9241-307 enthält Anforderungen an die visuellen Eigenschaften von Displays bezüglich unerwünschter Reflexionen.”

Offenbar hat aber niemand einen Blick in ISO 9241-307 geworfen. Denn dort stehen keine Anforderungen. Anforderungen können auch nicht dort stehen, was man am Titel der Norm erkennen kann: „DIN EN ISO 9241-307:2009-06  Ergonomie der Mensch-System-Interaktion - Teil 307: Analyse- und Konformitätsverfahren für elektronische optische Anzeigen” .

Tatsächlich sollte die gesamte Normenreihe ISO 9241-30X dazu dienen, die ergonomischen Eigenschaften von Monitoren zu normen. Der Teil ISO 9241-303 heißt dieser Aufgabe entsprechend “Ergonomie der Mensch-System-Interaktion - Teil 303: Anforderungen an elektronische optische Anzeigen”. Doch die Autoren dieser Norm sind in die gleiche Falle getappt wie die Autoren der Norm für die Beleuchtung von Sportstätten. Sie gingen davon aus, dass sich eine Beleuchtung durch die Horizontalbeleuchtungsstärke charakterisieren lasse. Sie rechneten diese Größe lediglich in die Ebene des Bildschirms um. So gelten 2026 die Anforderungen an elektronische optische Anzeigen” für eine bestimmte Beleuchtungsstärke im Büro, z.B. 300 lx oder 500 lx. Wenn die Norm anwendbar wäre, wären Monitore für diese Beleuchtungsstärken zertifiziert worden. Ein Monitor, der nur in Räumen ordentlich funktioniert, deren Beleuchtungsstärke 500 lx oder weniger beträgt?

Reflexionen auf optischen Anzeigen gibt es aber immer. Ob sie für den Benutzer überhaupt relevant sind, hängt von seiner Position und von den Leuchtdichten der Flächen ab, die der Benutzer gespiegelt sehen kann. So wird der Benutzer des zu Beginn des Kapitels abgebildeten Computers auch bei 5000 lx seinen Bildschirm gut lesen können. Wenn er 50 cm daneben sitzt, wird das Bild ihn stören, auch wenn die Beleuchtungsstärke nur 100 lx beträgt.

Ein Foto eines kleinen Monitors (< 25 cm in der Breite) mit Reflexionen darauf zeigt, dass die Beleuchtungsstärke im Raum gegenüber der Verteilung von Leuchtdichten fast völlig irrelevant ist.

Eigentlich braucht es keine Bilder, um zu wissen, dass die Beleuchtungsstärke nur eine geringe Rolle spielt. Wäre dem so, würde kein Navigationsgerät in Autos tagüber funktionieren, auch kein großes Display, wie es heute in allen Autos der Fall ist. Denn tagsüber liegt die Beleuchtungsstärke in Fahrzeugen weit jenseits von den Werten in Büroräumen. Man benutzt aber in beiden Fällen eine ähnliche Technik.

Das ist nur ein Beispiel, wie eine Vorstellung, die auf der Lambertschen Reflexionscharakteristik  beruht, einen ganzen Normenausschuss in die Irre geführt hat.[1]

Anordnung der Leuchtenreihen in Arbeitsstätten

Die Gründe, warum man in Deutschland (aber auch in vielen anderen Ländern) die Leuchten in Arbeitsräumen in Reihen parallel zur Fensterfront hängt, sind längst vergessen. Man macht es seit mindestens 40 Jahren so.

Was würde sich ändern, wenn ,man sich nicht daran hielte? Man kann sich den Spaß erlauben und einen kleinen Büroraum (Breite 3,60 m, 3 Modulmaße a 1,20 m) mit zwei Leuchtenreihen senkrecht zur Fensterfront anordnen. Dann würde das, was man auf den nächsten Bildern sieht, um 90° gedreht in zweifacher Ausfertigung über die ganze Breite des Arbeitsplatzes möglich sein und sich bei jeder Körperbewegung in Richtung des Monitors mitbewegen.

Um solche Effekte zu vermeiden, geben die Beleuchtungsnormen immer vor, bestimmte Maßnahmen zur Verminderung der Reflexblendung zu treffen. Deren Aufzählung begann in der ältesten mir vorliegenden Norm, DIN 5035-1:1962 (Entwurf) so: “Blendung hervorgerufen durch Spiegelung von Leuchten in beleuchteten Gegenständen (Reflexblendung) kann im allgemeinen durch geeignete Wahl der Lichteinfallsrichtung, in manchen Fällen durch entsprechende Behandlung der Oberfläche (mattes Papier, matter Kopierstift, Tasten von Schreibmaschinen aus nicht speigelndem Material und dergleichen vermieden werden.” Wenn man sich nicht auf dergleichen verlassen wollte, konnte man dem Rat der Norm folgen, der da hieß: “Allgemein kann Reflexblendung durch Erhöhung des diffusen Anteils der Beleuchtung gemildert werden.”

Da man sich 1962 schon auf die kommende Änderung des Bürohausbaus freute – man dachte , 1980 würden alle Büroarbeitsplätze im Großraumbüro angesiedelt sein -, war die Sache mit der Lichteinfallsrechnung nicht gerade der große Hit. Eine “durch Erhöhung des diffusen Anteils der Beleuchtung”  wäre problemlos und effizient, indem man Indirektbeleuchtung einführte. Aber gegen diese hatte die Lichttechnik immer was. So blieb die einzige beherzigte Empfehlung “entsprechende Behandlung der Oberfläche (mattes Papier, matter Kopierstift, Tasten von Schreibmaschinen aus nicht speigelndem Material und dergleichen” übrig. Man verordnete allen alle Tischoberflächen, Arbeitsgeräte und Materialien matt zu machen. Mattes Papier kann man kaufen, auch wenn man nicht selten glänzendes braucht. Wie soll ein Arbeitgeber aber Schreibmaschinen kaufen, die der Beleuchtung passen?

Im Entwurf von DIN 5035-1:1969 war nicht viel anderes zu lesen: “Reflexblendung lässt sich durch Festlegen einer geeigneten Lichteinfallsrichtung, Erhöhung des diffusen Anteils der Beleuchtung oder durch Anwendung großer Leuchtflächen verringern. Ferner sollen Arbeitsflächen, Papier, Schriften, Tasten von Schreibmaschinen und dergleichen möglichst matte Oberflächen haben.

Als die Norm 1972 erschien, wurden die diffusen Anteile nicht größer, sondern kleiner, weil man statt Plexiglasabdeckungen (= Diffusoren) nunmehr Raster verwendete. Da die Lampen auch effizienter wurden, wuchs die Leuchtdichte der Reflexe. Insgesamt wurden die leuchtenden Teile kleiner, somit die Blendung stärker.

In der letzten Ausgabe der DIN 5035-1:1990 war die Vermeidung der Reflexblendung zu einem längeren Abschnitt geworden. Auch hier beginnt die Aufzählung der Maßnahmen mit “Anordnung von Leuchten und Arbeitsplätzen”: “Durch geeignete Anordnung sind Leuchten und Arbeitsplätze einander so zuzuordnen, daß für den arbeitenden Menschen möglichst keine störenden Lichtreflexe auf dem Sehobjekt entstehen können. Für ebene, waagerecht liegende Sehobjekte ist dies bei seitlicher Lichteinfalssrichtung gegeben.” Und die Sehobjekte, die nicht matt flach vor einem liegen? “Oberflächen, in denen sich Leuchten spiegeln können, sollen matt oder entspiegelt gestaltet sein.” Solche Oberflächen sind nach der Norm Oberflächen von Arbeitsplätzen, Papier, Schreibmaterialien wie Tinte, Tusche usw., Tasten von Schreibmaschinen, EDV-Terminals usw., Bildschirmgeräte.

Kurz gesagt, um eine störungsfreie Beleuchtung zu genießen, müssen die gesamte Umwelt und alle Geräte matt gestaltet sein. Wer das nicht schafft, ist selber schuld. Was ist, wenn Computerhersteller “glossy” Displays anbieten, die heute bei drei von vier Handys hübsch glänzen?

Die Lichttechnik wollte aber auch selber etwas tun und gab dies vor: “Leuchten, die für den arbeitenden Menschen Lichtreflexe auf dem Sehobjekt erzeugen können, sollen für die kritischen Ausstrahlungsrichtungen niedrige Leuchtdichten haben.” Das würde unter zwei Bedingungen helfen:

  1. Man berücksichtigt alle Richtungen, die störanfällig sind.
  2. Man misst die Leuchtdichte, die die Störung verursacht.

Leider ist beides nicht geschehen. Die Normer postulierten, nur der Bereich zwischen 20° und 30° von der Vertikalen unter der Leuchte wäre störend, als würden die arbeitenden Menschen in Normhaltungen unter den Leuchten sitzen. Und die Messung der Leuchtdichte ist fehlerhaft. Man misst die Lichtstärke in einer gegebenen Richtung und berechnet daraus die mittlere Leuchtdichte unter der Annahme, dass die gesamte Leuchtenfläche Licht abstrahlt. Das gilt für Spiegelrasterleuchten nicht.

Zu guter Letzt war, bei einem etwa gleichbleibenden Katalog an Methoden, die Leuchtdichte der benutzten Lampen durch den Fortschritt der Technik in einem unvorstellbaren Maß gewachsen. Hier ein Vergleich der Lampendurchmesser, wobei die Leuchtdichte in dem Maße wächst, wie der Lampenquerschnitt geschrumpft ist (gelbe Fläche gegen die rote)

Der wahre Hammer kam aber mit DIN 5035-7:1988. Obwohl die Autoren dieser Norm teilweise die gesamte Geschichte der Normenreihe DIN 5035 kannten, weil sie sie selbst geschrieben hatten, war die “Begrenzung der Reflexblendung” mittlerweile auf zwei Seiten angewachsen, beschrieben wurde aber auf diesen zwei Seiten akribisch, wie man dem neuen Gütekriterium dient, das da hieß: “Vermeidung störender Spiegelungen heller Flächen auf dem Bildschirm”. Und das, was man seit Jahrzehnten immer wieder neu formuliert, aber weitgehend beibehalten hatte, war plötzlich fast zu einer Fußnote geschrumpft. Weil es so schön aussieht, zeige ich die in Faximile.

Reflexblendung muss begrenzt werden. Basta! Es gibt nur ein Problem, und dies hatte der Initiator dieser Norm sogar selbst veröffentlicht. Wenn jemand die Norm DIN 5035-7 anwendet, kann man die Reflexblendung auf dem Bildschirm vielleicht mindern, aber die auf allen anderen Oberflächen, Tastaturen, Tischen, Telefonen wird stärker. Das ist unvermeidbar, weil diese Norm eine Beleuchtung mit tiefstrahlenden Leuchten vorschrieb, die jegliche diffuse Beleuchtung unterdrückte. Da die Raumflächen auch abgedunkelt werden sollten, wurde der diffuse Anteil an der Beleuchtung noch geringer.

Auf die Idee, den Bildschirm zu entspiegeln, statt die ganze Beleuchtung und den Raum umzugestalten, kam man wundersamerweise nicht. Diese Lösung war aber allen Autoren der Norm aus einem Forschungsbericht des Arbeitsministeriums aus dem Jahr 1978 bekannt, den ich geschrieben hatte. Diese Arbeit sollte als Grundlage der Normung der Bildschirmarbeitsplätze dienen und ist praktisch in jedes Regelwerk eingeflossen, das seitdem zu diesem Bereich entstanden ist, auch in viele ausländische regelwerke. Den Anfang machten die “Sicherheitsregeln für Bildschirmarbeitsplätze im Bürobereich” der deutschen Berufsgenossenschaften im Jahr 1980. Im Jahr 1990 kam die europäische Bildschirmrichtlinie dazu, die die Sicherheit und Gesundheit des arbeitenden Menschen zum Ziel hat. Diese wurde in Deutschland 1996 in die Bildschirmarbeitsverordnung umgesetzt. Im Jahr 2016 wurde sie in die Arbeitsstättenverordnung umgesetzt. Die diesbezügliche Anforderung hieß

  • Der Bildschirm muß so ausgeführt sein, daß Spiegelungen und Reflexionen weitgehend vermieden werden und sich nicht mehr störend bemerkbar machen. (1980)
  • Der Bildschirm muss frei von Reflexen und Spiegelungen sein, die den Benutzer stören können. (1990)
  • Der Bildschirm muß frei von störenden Reflexionen und Blendungen sein. (1996)
  • Bildschirme müssen frei und leicht dreh- und neigbar sein sowie über reflexionsarme Oberflächen verfügen. Bildschirme, die über reflektierende Oberflächen verfügen, dürfen nur dann betrieben werden, wenn dies aus zwingenden aufgabenbezogenen Gründen erforderlich ist. (2016 – heute)

Hätte man also das Wissen um die Lambertsche Reflexion richtig gewertet und angewandt, hätte man sich den ganzen Unsinn mit der Beleuchtung zum Entspiegeln der Bildschirme ersparen können. Das sonderbare Gütekriterium “Vermeidung störender Spiegelungen heller Flächen auf dem Bildschirm” wäre uns auch erspart geblieben.

Das alles ist aber nicht so schlimm wie eine weitere Konsequenz, die im nächsten Abschnitt dargestellt wird.

Wenn große Teile des Arbeitsraums leer stehen müssen …

Dieses Thema wird im Kapitel Wenn nur ein Wenn man die störenden Elemente aus dem Bild links entfernt, sieht man deutlich den Anteil der Raumfläche, der besiedelbar wäre, wenn man eine Allgemeinbeleuchtung realisiert. des Arbeitsraums benutzbar ist ausführlich diskutiert. Hier erfolgt eine kurze Erwähnung. Wenn man die seit Jahrzehnten propagierte Maßnahme zur Vermeidung der Reflexblendung, Anordnung der Arbeitsplätze, erweitert, wie in DIN 5035-7:1988 geschehen, um auch die Entspiegelung der Bildschirme in die Betrachtungen einzubeziehen, musste man sehr viel mehr berücksichtigen als nur die Anordnung flacher Tische. Man musste nicht weniger als die empfohlene Beleuchtungsart ändern. Wurde seit 1972 die Allgemeinbeleuchtung als Regel empfohlen, musste man jetzt auch die arbeitsplatzorientierte Allgemeinbeleuchtung als gleichwertig zulassen.[2]

Weiterhin mussten die Bildschirmarbeitsplätze in das Rauminnere verbannt werden, was das untere Bild verdeutlicht. Einen besseren Beweis dafür, dass das Konzept während des Tages schlecht aufgeht, gibt es kaum: diese Empfehlung. Sie wirkt nur dann, wenn die dominierende Beleuchtung künstlich ist. Das ist in den meisten deutschen Büros zwischen Ende März und Anfang Oktober nicht der Fall. Wenn ein Raum ordentlich gebaut ist, braucht man in diesem Zeitraum zu 90% der Zeit kein künstliches Licht.

Die – angeblich – erforderlichen Bedingungen für einen störungsfreien Betrieb würden dann realisiert, wenn die Arbeitsplätze in einem engen Bereich aufgestellt würden.

Die Bestimmung dieses Bereichs sollte in Abhängigkeit von der Röhrenkrümmung erfolgen, die man auch für die Abstrahlcharakteristik von Leuchten heranzog.

Bilder wie diese aus DIN 5035-7 verschleiern etwas Wichtiges durch die Eintragung der Leuchtenreihen. Entfernt man sie aus solchen Bildern, wird der Unsinn, der hinter solchen Ideen steckt, sehr deutlich. Dies habe ich in dem unteren Bild dargestellt.

Links sieht man einen Raum mit diversen Einträgen, die man in Natura nicht sieht, rechts ist der Raum von allen Elementen befreit. Wenn man die störenden Elemente aus dem Bild links entfernt, sieht man deutlich den Anteil der Raumfläche, der besiedelbar wäre, wenn man eine Allgemeinbeleuchtung realisiert. Kein Unternehmen kann sich leisten, einen solchen Unsinn umzusetzen. Sollte es doch eine Firma geben, die die Kosten tragen will, wird die Belegschaft nicht mitspielen. Niemand will auf einsamen Inseln in einem fast leeren Raum arbeiten.

Wenn sich der übermäßige Flächenverbrauch zu den weiteren unerfüllbaren Anforderungen wie von Tinte bis zum Computer alle Gegenstände im Arbeitsraum matt zu gestalten hinzukommt, können die Betriebe nur eins: ignorieren. Und dies geht zu Lasten der arbeitenden Menschen. Denn die durch die Beleuchtung vorgeblich zu lösenden Probleme sind real, nur die Lösungen sind untauglich.

Wenn man Meldungen wie diese in der Zeitung liest, sollte man immer wieder an das Licht denken:

In einer Umfrage, bei der sich 78% der Befragten mit ihrem Raum zufrieden zeigten, wollte nur 1% (!) im Großraum arbeiten.

Noch heftiger fällt das Urteil von deutschen Managern aus. Nach ihrem wichtigsten Kriterium für ihren Arbeitsplatz gefragt, wünschen sich 37% einen Arbeitsplatz frei von künstlichen Lichtquellen. Das größte Problem der Büromenschen nach ergonomischen Studien, Lärm im Büro, kommt weit abgeschlagen auf Platz 2.

Wie hätte man denn agieren müssen?

Arbeitsplätze mit Problemen, für die es keine oder mäßig erfolgreiche Lösungen gibt, sind nicht selten. Das liegt manchmal an den Problemen, manchmal an dem lieben Geld. Zuweilen liegt es sogar daran, dass die störende Wirkung Folge einer erwünschten Lösung ist. So gibt es für Problem Nummer 1 im Büro, Lärm, eine einfache Lösung: Einzelzimmer. Diese Büroform ist aber nicht die beliebteste, sondern das Doppelzimmer. Aber in keiner anderen Büroform kann es nach akustischen Messungen lauter werden. Das Doppelzimmer ist aus verschiedenen Gründen beliebt.

Daher sollte man mit Lösungen vorsichtig sein, wenn Fachleute nicht zu denen greifen. Aus diesem Grunde habe ich einige Jahrzehnte mit Beleuchtung experimentiert, bis ich mir eine finale Meinung gebildet habe.

Hätte man der Reflexblendung mit dem Wissen begegnet, das 1962 in der Beleuchtungsnorm gestanden hat, Erhöhung des diffusen Anteils an Beleuchtungsstärke hilft, wären die meisten Probleme nicht entstanden. Wir haben dies in der Studie Licht und Gesundheit bis 1990 mit Untersuchungen an 2.000 Arbeitsplätzen und Befragungen von ca. 900 Personen ermittelt. Anschließend haben wir 1.500 Arbeitsplätze mit neu entwickelter Beleuchtung ausgestattet, um den Nachweis zu führen, dass die Verbesserungen tatsächlich auf die Eigenschaften der Beleuchtung zurückzuführen sind.

Man kann die notwendige Maßnahme mit Indirektbeleuchtung oder mit (teilweise) leuchtenden Decken realisieren. Das Entscheidende ist, dass die leuchtenden Flächen eine geringe Leuchtdichte besitzen. Wer eine vernünftige Indirektbeleuchtung realisiert, braucht keine Anforderungen an die Aufstellung der Arbeitsplätze, die kaum jemand erfüllen kann außer auf Zeichnungen. Vor allem muss man nicht fordern, dass von der Tinte bis zum Computerterminal alles matt sein soll. Wer soll denn das realisieren?

Man hätte einfach einsehen müssen, dass das Lambertsche Gesetz ein mathematisches Konstrukt ist, dem die wenigsten physikalischen Materialien bzw. deren Oberflächen genügen. Von betrieben Dinge zu verlangen, die sie nicht realisieren können, kann nur Scheinlösungen hervorbringen.

Was die Bildschirme angeht, hätte man unter Beachtung ihrer Reflexionscharakteristika feststellen können, dass ihr Verhalten so weit von einer Lambertschen Reflexion abweicht, dass eine Lösung auf der Basis einer fest installierten Beleuchtung nicht gefunden werden kann. Die einzig gangbare Lösung, Bildschirme zu entspiegeln und Reflexe zusätzlich durch einen hellen Hintergrund relativ unsichtbar zu machen, war 1975 von mir formuliert und 1980 vom Arbeitsschutz akzeptiert worden. Warum musste ein Jahrzehnt später eine „lichttechnische“ Lösung gesucht werden?

Wann werden wir das Phantom los?

Ein mathematisches Modell kann man leider nicht loswerden. Wenn es eine gute Lösung beschreibt, kann man versuchen, sich dem Ideal anzunähern. Mir schwebt in dieser Hinsicht das Beispiel der Kugel vor. Diese ist mathematisch absolut rund in allen Richtungen. Reale Kugeln sind nicht rund, sie weichen etwas vom Ideal ab. Mit üblichen Kugeln kann man hinreichend gute Kugellager bauen. Will man sehr leise Kugellager bauen, müssen die Kugeln runder sein. Diese kann man auch fertigen. Es wird nur teurer. Braucht man Kugeln, die sehr nahe an die mathematische Form der Kugel kommen, muss man sie selektieren. Ähnlich verfährt man heute auch bei LEDs. Früher war das Vorgehen bei Transistoren üblich.

Was wir loswerden müssen, ist, dass man Beleuchtungen normt oder erstellt, die nur unter unerfüllbaren Bedingungen gut funktionieren. Zwar ist jeder Hersteller frei, die Einsatzbedingungen seines Produktes vorzugeben. Wenn man allerdings zu viel voraussetzt, kann es sein, dass die Anwender zu einfachen Mitteln greifen. So herrscht heute bei Standard-LED-Leuchtmitteln (Retrofits) ein extremer Preisdruck durch asiatische Massenware. Wenn man sich nach einer langen Planung eh Ärger einhandelt, greift man gleich zu Billigware.

Zudem ziehen viele Menschen vor, möglichst selten im Büro zu weilen. Die Unternehmen müssen ihre Mitarbeitenden mit einer angenehmen Umgebung ins Büro locken. Trotz aller Bemühungen haben wir in Deutschland derzeit ca. 8 % Büroleerstand. Wenn man sich die Bürokonzepte anguckt, mit denen man das Bürohaus für die arbeitenden Menschen schmackhaft machen will, liest man sehr häufig „Stehleuchten, Tischlampen statt Deckenlicht“, „keine Deckenbeleuchtung“ oder „keine Neonlampen an der Decke“. Was sich Menschen wünschen, habe ich unter Licht für New Work  dargelegt.

[1] Da diese Normenreihe zwar nicht anwendbar ist, aber dennoch in Deutschland aus rechtlichen Gründen angewendet werden muss, hat mein Ausschuss für den Gebrauch der Prüfstellen in Deutschland einen Standard produzieren müssen, der eine Prüfung dennoch möglich macht.

[2] Zu dem Begriff Allgemeinbeleuchtung ist zu bedenken, dass es diese ohnehin nicht gegeben hat. Wenn man Allgemeinbeleuchtung definiert als eine Beleuchtung, die an allen Stellen des Raums etwa gleich gute Sehbedingungen schafft und gleichzeitig empfiehlt, Arbeitsplätze der Anordnung der Leuchten entsprechend zu platzieren, gesteht man, dass es keine Allgemeinbeleuchtung gibt.

 

Phantome, die unser Wissen beherrschen VIII

Daten-Yoga: Wir biegen uns die Zahlen
so zurecht, bis sie entspannt aussehen
Anonymus

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Allgemeiner Farbwiedergabeindex Ra

Der klassische Farbwiedergabeindex CRI/Ra basiert auf nur 8 blassen Testfarben und einem veralteten Farbraum. Er bildet reale Farbwahrnehmung schlecht ab, besonders gesättigte Farben wie Rot (R9). Moderne Lichtquellen wie LEDs können dadurch trotz hohen CRI schlechte Farbwiedergabe haben.

Neue Methoden wie IES TM‑30‑20 mit 99 Testfarben, Rf (Fidelity) und Rg (Gamut) liefern wesentlich präzisere und realistischere Ergebnisse. TM-30 zeigt realitätsnahe und differenzierte Ergebnisse – wichtig für Museen, Handel, Architektur und LED-Technik. Dennoch bleibt CRI in vielen Normen, einschließlich ISO/CIE 8995-1:2025, weiterhin vorgeschrieben. Das Phantom kann man eher als Zombie beschreiben.

Zur Geschichte des Phantoms

Den genauen Zeitpunkt, an dem das Phantom geboren wurde, kann ich nicht angeben. Aber es ist feststellbar, wann die Bedeutung einer guten Farbwiedergabe erkannt wurde. Es war Matthew Luckiesh, der postulierte, dass die menschliche Wahrnehmung auf das Tageslicht angewiesen wäre, weil nur das Tageslicht die Farben gut wiedergeben könne. Das war im Jahre 1926.

Es dauerte eine gute Weile, bis ein offizielles Verfahren entstand. Dessen Geburtsstunde kam 1965, als die erste offizielle Empfehlung für ein Verfahren zur Messung und Kennzeichnung der Farbwiedergabe veröffentlicht wurde. Damals wurde das Verfahren entwickelt, um die neuen[1] Leuchtstofflampen mit klassischen Glühlampen und dem Tageslicht vergleichbar zu machen. Die Methode (CIE 13) entwickelte sinnvollerweise die CIE, um eine weltweit gültige Basis zu erstellen.

Dass man sich damit so viel Zeit lassen konnte, war der Glühlampe zu verdanken, die große Bereiche dominierte, bis die Leuchtstofflampe sie in der Arbeitswelt ablöste. Zuvor galt die Farbwiedergabe der Glühlampe als "natürlich".  Sie sieht ja dem Sonnenuntergang ähnlich aus. Dass es in der Natur viele andere Lichtfarben gibt, ändert nichts an der Tatsache, dass man der Glühlampe Naturnähe nachsagt.

Die heute verwendete Methode (CIE 13.2) stammt aus dem Jahr 1974. Die Version von 1974 ist im Wesentlichen das, was wir heute noch als Standard verwenden. Dabei wurden die Testfarben präzisiert, auf denen die Berechnung des Ra-Wertes basiert.

Wie die Methode (nicht) funktioniert

Da es keine „absoluten“ Farben geben kann, beruht die Methode immer auf einer Referenzlichtquelle mit einem bestimmten Spektrum, die ausgewählte Farbmuster beleuchtet. Man legte fest, dass eine Lampe immer mit einer "idealen" Lichtquelle derselben Farbtemperatur verglichen wird (die war z. B. eine Glühlampe bei 2700 K).

Man wählte aus naheliegenden Gründen zwei Referenzlichtquellen, die Glühlampe und das Tageslicht. Wenn eine Testfarbe unter der neuen Lampe genau so aussah wie unter der Referenz, gab es 100 Punkte. Jede Abweichung führte zu einem Punktabzug.

Während man die Glühlampe sehr gut mit ihrer Farbtemperatur kennzeichnen kann, ist es mit dem „Tageslicht“ nicht so einfach. Wenn man über die Farbwiedergabe (CRI) spricht, ist das "Tageslicht" nicht einfach nur Sonnenschein, sondern eine mathematisch präzise definierte Referenzlichtquelle.

Dieses Tageslicht war zunächst die Normlichtart C. Das war eine echte Lampe mit einem speziellen Blaufilter. Wenn man die Wiedergabe von Farben mit dieser Normlichtart zur Grundlage macht, kann man die Bezeichnung Tageslicht gleich vergessen. Denn das Spektrum der Normlichtart C endete bei 380 nm, wo für die CIE Licht beginnt. Es entsprach auch nicht der natürlichen Strahlungsverteilung des Himmels.  Wer Farben bei diesem künstlichen Tageslicht betrachtet, wird nicht selten den falschen Eindruck bekommen, weil das Un-Licht (UV-Strahlung) fehlt. Diese gehört aber zur Farbwiedergabe vieler Objekte (Textilien, Papier, Wandfarben, Makeup), weil deren Farbwirkung erheblich von optischen Aufhellern bestimmt wird. Deswegen musste die CIE wider die eigene Definition des Lichts handeln und ein neues Tageslicht festlegen, die Reihe DXX. Hierbei steht D (=daylight) für Tageslicht und XX für die Farbtemperatur (D65 = Tageslicht mit der Farbtemperatur 6504 K). Die in 1964 eingeführten Spektren der neuen Tageslicht(er) sehen so aus. Was man sehr deutlich erkennt, ist, dass die Lichtkurve (V(λ)-Kurve) in allen Fällen das Licht im kurzwelligen Bereich (links bis 450 nm) sehr schlecht bewertet. Was dieses Bild aber (fast) verschweigt, ist in der Abbildung darunter hervorgehoben, die UV-Strahlung unter 380 nm.

Die hier abgebildete Strahlung erzeugt den Effekt der optischen Aufheller, ohne den eine Farbprüfung keinen Sinn macht.

Die Farbwiedergabequalität, die mit dem Index R gekennzeichnet wird, wird nicht etwa durch einen Vergleich eines bekannten Objektes, z.B. eines Orientteppichs, unter dem Referenzlicht und der zu prüfenden Lampe bestimmt. Das wäre viel zu unwissenschaftlich. Obwohl der Orientteppich aus farbechten Fasern besteht, die ihre Farbtreue über Jahrhunderte bewiesen haben, wird mit einem Satz von 8 Prüfmustern (R1 … R8) aus dem Munsell-Farben-Spektrum rechnerisch geprüft.

Um von einem wirren Spektrum (unten, rechts) zu einer sauberen Zahl wie Ra = 83 zu kommen, brauchte man 1965 ein mehrstufiges Rezept. Zuerst berechnete man für jede der acht Testfarben, wie stark sie sich unter der Testlampe im Vergleich zur Referenz verschiebt. Man nutzt dafür den CIE 1960 UCS-Farbraum. Danach wurde diese Verschiebung in eine Punktzahl zwischen 0 und 100 umgewandelt. Die Formel lautet:

Ri = 100 - 4,6 • ΔEi

Wobei ΔEi aus dem Farbraum[1] berechnet wird. Wie kommt man aber auf den Faktor 4,6? Das ist der "Skalierungsfaktor". Die CIE hat diesen Wert so gewählt, dass eine damals handelsübliche Standard-Leuchtstofflampe (Typ "Warmweiß") genau einen Wert von 50 erhält. Man wollte eine Skala konstruieren, die für den Nutzer intuitiv sein soll.[2]

Danach rechnet man die Werte für die 8 Testfarben zusammen und mittelt. So entsteht der CRI-Wert, den man 2026 auf jeder Lampenverpackung liest. Denn CRI ist eine relevante Größe, die auch im Marketing eine große Rolle spielt. Deswegen muss der entsprechende Wert angegeben werden. Die Energiekennzeichnungsverordnung (EU) 2019/2015 macht die Angabe von Ra oder CRI zur Pflicht. Der Hersteller ist gesetzlich verpflichtet, den genauen CRI-Wert in die europäische Produktdatenbank (EPREL) einzutragen. Über den QR-Code auf der Packung muss dieser Wert für dich als Verbraucher jederzeit abrufbar sein.

Die oben angegebene Berechnungsmethode nach 8 Testfarben ist aber längst Geschichte.

Das ist der Moment, in dem die Mathematik auf die physikalische Realität trifft. Um zu verstehen, warum das 1965er-System heute "schwitzt", muss man sich ansehen, wie unterschiedlich diese Lampen ihr Licht zusammenmischen. So sieht z.B. das Spektrum einer Lampe im Vergleich mit echtem Tageslicht aus, deren Farbwiedergabeindex besser ist als in allen Beleuchtungsnormen gefordert. Das Spektrum der Lampe hat mehr Lücken als Fleisch.

Frühere Leuchtstofflampen (Halophosphat-Lampen) funktionierten wie ein schlechtes Orchester, das nur drei Töne spielt, aber behauptet, eine Sinfonie zu spielen. Deren Spektrum bestand aus extrem hohen, schmalen Spitzen. Zwischen diesen Spitzen gab es riesige Lücken. Wenn eine der acht Testfarben genau in eine solche Lücke fiel, sah sie unter der Lampe völlig grau oder verfälscht aus. Die Hersteller optimierten ihre Gase und Leuchtstoffe oft genau so, dass sie die acht Testfarben (R1–R8) der CIE perfekt trafen, während andere Farbtöne dazwischen völlig vernachlässigt wurden.

Ein Experte, der die Leute gut kannte, die die 8 Testfarben aussuchten, sagte seinerzeit: “Da habt ihr aber ganz gut hin- und hergeschoben, bis eure Lampen nicht drittklassig wurden.

Da die acht CIE-Testfarben von 1965 allesamt eher blasse Pastelltöne sind, bemerken sie das Fehlen von sattem Rot kaum. Eine Lampe kann also einen CRI von 85 haben, aber die Tomaten in der Küche sehen trotzdem blass und unappetitlich aus, weil das gesättigte Rot im Spektrum einfach fehlt. Das waren die 8 Testfarben von 1965.

Ich denke, ein Blick auf #6 Himmelblau genügt, mit was für einer Gesamtqualität man rechnen konnte. Man merkte schnell, dass die Pastelltöne wie Altrosa oder Fliederviolett nicht ausreichten, um die Qualität von Lichtquellen für gesättigte Farben oder spezielle Objekte (wie Haut oder Pflanzen) zu bewerten. Die acht Standardfarben von 1965 wurden mathematisch so gewählt, dass sie den gesamten Farbkreis abdecken sollten, aber sie sind alle wenig gesättigt. So musste 1974 nachgebessert werden. Es kamen vier gesättigte Farben hinzu, zu denen man noch die Hautfarbe (R13  nachgestellt nach europäischem Teint (Munsell 5 YR 8/4)) und Blattgrün R14 addierte. So ganz nach Frühling sieht das gewählte Blattgrün nicht aus. Die letzte Testfarbe, Blattgrün, zeigt deutlich, was diesem System gefehlt hat. Es gibt selten eine Farbe, die unsere Umwelt prägt. Eine Lampe konnte also volle 100 Punkte bekommen, ohne dass sie Blattgrün wiedergeben konnte.

Wo die Methode krankte

Die Methode 1965 krankte zum einen daran, dass zwei unterschiedliche Lichtquellen (Normlichtart A und Normlichtart C/D65 einen Höchstwert von 100 erreichen konnten. Dies lesen bis heute viele so, dass die Zahl 100 eine Prozentzahl wäre. Und eine 100-prozentige Farbwiedergabe? Perfekt! Es kann nicht besser gehen. Ein Ra = 100 heißt nur, dass jemand berechnet hat, dass die 8 Testfarben gut wiedergegeben werden sollen. Beleuchtungen mit der Glühlampe und D65 ergeben sehr unterschiedliche Farbumgebungen. Aber für beide gilt CRI = 100.

Die Berechnung wird meines Wissens nicht nachgeprüft. Obwohl ich im Laufe meiner Karriere viele Jahre im Lichtlabor verbracht habe, vier Semester Farbenlehre studiert und im Farblabor gearbeitet habe und rund einem Drittel der großen Namen der Branche persönlich begegnet bin, habe ich nie einen Menschen erlebt, der den Farbwiedergabeindex für eine Lampe berechnet.

Die Angabe von Zahlenwerten, die mit 100 enden, suggeriert, dass es sich um eine Art Skala handele, die sich von der simplen Nominalskala unterschiedet. Eine Nominalskala kategorisiert die Objekte der Betrachtung (z.B. in Rot, Grün, Blau). Folgt diese Kategorisierung einem Wertesystem, spricht man von einer Ordinal-Skala. Bei dem Beispiel von Rot, Grün und Blau kann man die Einordnung nach der Wellenlänge des Lichts vornehmen und die Aufzählung als Blau (kürzeste Wellenlänge), Grün und Rot (längste Wellenlänge) aufsetzen.Beide Skalenformen rechtfertigen eine Angabe von Zahlen nicht, weil diese in die Irre führen. Skalen mit echten Zahlenwerten sind zum einen Intervall-Skalen, bei denen der Abstand zwischen Punkten (1 und 2 oder 3 und 4) gleich ist. Das gilt z.B. für die Celsius-Skala für Temperaturen. Eine Differenz von 2 °C bleibt stets gleich.

Die höchste Skalenform ist die Verhältnisskala. Sie hat einen echten Nullpunkt und immer gleiche Abstände. Sie kann positive wie negative Werte einnehmen, wie bei Höhen. Da man bei einer Farbwiedergabe einen negativen Index nicht deuten kann, erwartet man einen Nullpunkt. Dies stimmt leider nicht, CRI kann auch – 44 betragen (Natriumdampflampe). Warum man je einen CRI von 0 berechnen sollte, wüsste ich nicht, außer dass die Lampe kein Licht abgibt. Eine Kerze hat einen CRI von fast 100, obwohl man bei Kerzenschein blaue Socken kaum von schwarzen unterscheiden kann. Eine Lampe kann einen stolzen CRI von 90 haben, aber eine Tomate trotzdem braun aussehen lassen, weil das wichtige R9 (gesättigtes Rot) nicht Teil der Berechnung ist. Man hat sich nur darauf geeinigt, bei 0 die Grenze für die Vermarktung zu ziehen, weil „CRI - 40“ im Baumarkt schwer zu verkaufen wäre.

Der CRI bestraft jede Abweichung von der Referenz – egal in welche Richtung. Eine LED, die Obst knackiger aussehen lässt als das echte Sonnenlicht, kriegt einen schlechteren CRI als eine LED, die Farben einfach nur stumpf wiedergibt. Schlicht gesagt: Die Skalenqualität des Farbwiedergabeindexs ist sehr fragwürdig. Wenn es nur dabei bliebe! Obwohl die CIE bereits 1964 ihre Normlichtart C ohne UV-Anteil abschaffen musste, weil Produkte, deren Farbe unter diesem Standardlicht geurteilt wurde, nicht allzu viel Ähnlichkeit mit ihrer Farbe unter realen Bedingungen hatten, wird auch heute noch der allgemeine Farbwiedergabeindex Ra von 1965 mit 8 Testfarben angegeben. D.h., das Testen von Produkten wie Autos oder Textilien findet unter dem Einfluss von UV-Licht statt. Die Fähigkeit von Lampen, Farben wiederzugeben, gibt man aber wie am ersten Tag ohne UV an.

Zu guter Letzt: die Benutzung des Wortes Tageslicht für eine fiktive Normlichart. Erstens gibt es mehrere Normlichtarten, deren Name mit D wie daylight anfängt. Zweitens – und das ist schlimmer – schließt die Definition des Tageslichts durch die CIE die Tageslicht genannten Normlichtarten aus: Licht bedeutet (e-ilv Begriff 17-21-013) Strahlung in dem Spektralbereich der sichtbaren Strahlung (= optische Strahlung, die in der Lage ist, eine Sehempfindung direkt hervorzurufen). Tageslicht bedeutet (e-ilv Begriff 17-29-105) Teil der globalen Sonnenstrahlung, die in der Lage ist, eine Sehempfindung hervorzurufen.

Somit wird als Tageslicht etwas definiert, das in der Natur nicht existiert. Dieses Tageslicht entspricht nicht der Normlichtart, die als Tageslicht angegeben wird.

Das „wahre“ Tageslicht wird im normalen Leben Tageslicht genannt, wo man natürliche Strahlung wahrnimmt. Bei Gebäuden gilt dies auf beiden Seiten von Fenstern. Überall, wo man Innenräume mit natürlicher Strahlung beleuchtet, wird sie Tageslichtbeleuchtung genannt. In Wirklichkeit handelt es sich im Innenraum um sehr stark gefiltertes Licht. Während der allgemeine Glaube herrscht. Glas sei lichtdurchlässig, also transparent, ist die Situation sehr intransparent, ohne dass relevante Leute wie Architekten dies immer merken. Das untere Bild zeigt die Filterwirkung von einigen Gläsern im Vergleich mit einer einfachen Verglasung. Eine Verglasung, die das Licht nur schwächt, aber farblich unbeeinflusst lässt, würde eine horizontale Gerade ergeben. Dies entspricht etwa der einfachen Verglasung, die rund 90% des Lichts hineinlässt. Alle anderen abgebildeten Gläser sind nicht farbneutral.

Nach dem Standard ISO/TR 9241-610 kann die Verglasung von Gebäuden im Minimum die Lichtmenge um 8% reduzieren. Maximalwerte für verschiedene moderne Gläser liegen zwischen 69% und 29%. Hierbei wird das Licht so gefiltert, dass CRI maximal 97 beträgt, d.h. die Verglasung reduziert die Güte der Farbwiedergabe etwas. Die Reduktion kann bis CRI = 77 erfolgen. Eine Lampe mit dieser Qualität der Farbwiedergabe darf in der EU nicht für Innenräume verkauft werden. Das bedeutet schlicht, dass das natürliche Tageslicht in Innenräumen nicht nur in der Größenordnung von etwa 1% ihrer natürlichen Intensität ankommt, sondern auch spektral erheblich verfälscht werden kann.

Hierbei ist noch nicht berücksichtigt, dass das Glas mittlerweile die gesamte UV-Strahlung wegfiltert. D.h., ein schönes Weiß, das erst mit Hilfe von optischen Aufhellern erzeugt wird, sieht man in Innenräumen nicht mehr. Es sieht aus, als wäre der Gilb drin.

Fazit und Aussichten

Das hier besprochene Phantom verdient eigentlich die Bezeichnung Zombie, zumal seine Fehler bereits in den 1970ern erkannt worden waren. Obwohl Korrekturen erfolgten (CIE 13.2 1974  und CIE 13.3 1995) blieb es bei der Größe Ra, die nunmehr in der neuesten Beleuchtungsnorm der CIE ISO/CIE 8995-1:2025 für die Beschreibung der Farbwiedergabe herangezogen wird. Da die Überarbeitung dieser Norm über 20 Jahre gedauert hat, die letzte Version war 2002, wird es keine baldige Änderung geben.

CIE hat 2017 mit CIE 224 CIE Technical Report Colour Fidelity Index for Scientific Use eine verbesserte Methode vorgelegt. Allerdings soll sie nur für „wissenschaftliche“ Anwendung gelten, was immer das sein mag. Zuvor hatte die US-amerikanische IES mit IES TM-30-15 Method for Evaluating Light Source Color Rendition, Illuminating Engineering Society eine Alternative vorgelegt. Danach folgten aber noch IES TM-30-18 Method for Evaluating Light Source Color Rendition, 2018 und IES TM-30-20 Method for Evaluating Light Source Color Rendition, 2019.

Diese plötzliche Eile hat viel mit der LED als Leuchtmittel zu tun. LEDs haben ein völlig anderes Spektrum als Glühlampen. Sie können bei den 8 Standardfarben super abschneiden, aber bei gesättigten Farben (besonders Rot, bekannt als R9) kläglich versagen. Auf der anderen Seite können LED sehr gute Spektren erreichen, ohne dafür an Effizienz einzubüßen.[1] Mit IES TM-30-15 kam der Gamechanger. Das war kein simpler Index, sondern ein komplexes System mit 99 Testfarben statt nur 8, einem neuen Fidelity Index Rf, der den Unterschied zwischen Licht und Referenzlicht angibt. Hinzu kam noch ein Rg wie Gamut, der beschreibt, wie intensiv oder gesättigt die Farben unter einer Lichtquelle erscheinen. Der Gamut ist die Gesamtheit aller Farben, die ein System (eine Lampe, ein Monitor oder ein Drucker) darstellen kann. Rg > 100: Die Farben wirken gesättigter und kräftiger. Ein Apfel sieht unter diesem Licht „roter“ aus, als er eigentlich ist. Das wirkt oft brillant und attraktiv. Rg <100: Die Farben wirken blasser oder „entsättigt“. Das Licht wirkt flach und lässt Oberflächen oft etwas grau oder leblos erscheinen.

Somit haben wir eine Methode, die nicht nur angibt, ob die Farbe “richtig” ist. Bei hoher Fidelity und einem Gamut von 100 werden die Farben “naturgetreu” wiedergegeben, was z.B. für Museen oder Kleidung wichtig ist. Bei Gamut über 100 wirken Farben frisch und lebendig. So etwas lässt die Obstauslagen im Supermarkt oder modische Artikel in Boutiquen anziehender erscheinen. LEDs mit einem Gamut-Wert unter 90 lassen die Farben müde und gräulich wirken. Die findet man häufig in Büros, bei denen sich die Lichttechnik nicht gerade viel Mühe macht.

Die letztere Methode (IES TM-30-20) soll die Zukunft bedeuten. Sie wurde 2020 aktualisiert, die besagte Beleuchtungsnorm ISO/CIE 8995-1 von 2025 hat sie noch nicht wahrgenommen.

Merkmal CRI (CIE 13.3) IES TM-30-20
Anzahl Testfarben 8 (Pastelltöne) 99 (reale Objekte, Natur, Haut)
Farbraum Veraltet (1964) Modern und präzise (CAM02-UCS)
Aussagekraft Nur Genauigkeit Genauigkeit + Sättigung + visuelle Grafik
LED-Optimierung Mangelhaft (R9-Problem) Exzellent für moderne LED-Spektren

[1] Bei Leuchtstofflampen war die Güte des Spektrums mit einem höheren Energieverbrauch für den gleichen Lichtstrom verbunden. So konnte eine Beleuchtung mit einem Vollspektrum bis 60% mehr Energie bei der gleichen Beleuchtungsstärke verbrauchen wie eine vergleichbare Dreibandenlampe.

[1] Ein Farbraum ist im Grunde ein mathematisches Koordinatensystem, das dazu dient, Farben messbar und vergleichbar zu machen. In diesem Raum wird jeder Farbe eine Adresse zugewiesen. Die meisten Farbräume basieren auf drei Achsen (Dimensionen), da das menschliche Auge drei Arten von Farbrezeptoren hat. Je nachdem, wie man diese Achsen definiert, entstehen unterschiedliche Modelle. Manche dieser Modelle sind technikorientiert. In der Wissenschaft ist der Farbraum wahrnehmungsorientiert und unabhängig von der Technik.

[2] So ganz intuitiv wurde die Skala dennoch nicht. Da musste man etwas nachhelfen. So gilt der Bereich CRI 90 – 100 als 1A. CRI zwischen 80 und 89 wurde 1B genannt, damit die Dreibandenlampe nicht zweitklassig erscheint. Danach kommt 2A (CRI 70 – 79).

[1] In 1965 war die Leuchtstofflampe nicht neu. Sie hatte sich aber weitgehend durchgesetzt, so dass die Glühlampe in Arbeitsbereichen weitgehend abgelöst wurde.

.

 

Über den Wolken muss das Licht unendlich sein

Wissenschaftliche Durchbrüche
bestehen oft darin, dass man alte Weisheiten
endlich in Tabellenform gepresst hat.

Anonymus

Zu diesem Artikel

Vor 5 Jahren überraschte die internationale Elite der Chronobiologen die Lichtwelt mit einer Erklärung[1]. Damit niemand auf die Idee kam, dass sie heimlich anderweitigen Interessen dient, haben alle ihre möglichen Interessenkonflikte dargelegt. Und zwar derart ausführlich, dass die Erklärung länger war als der Inhalt des Papiers. Diese sehr auffällige Erklärung habe ich damals in voller Schönheit kommentiert, z.B. Konflikte von Autoren mit Interessen.

Der Inhalt war eine Erklärung, wie man die Beleuchtung in Innenräumen gestaltet, damit der Mensch im Innenraum in Harmonie mit seinem circadianen Rhythmus leben kann. Die Pundits haben angegeben, tagsüber müsse im Innenraum eine melanopische Beleuchtungsstärke von 250 lx MEDI herrschen. Die jetzt existierenden Beleuchtungen wären dazu nicht in der Lage. (s. hierzu Minimale melanopische Beleuchtungsstärke für Jedermann ). Was die Damen und Herren für erforderlich halten, macht die Skizze deutlich

In diesem Beitrag geht es um die melanopische Beleuchtungsstärke am Tage. Um die Körperrhythmen gesund und munter zu halten, muss zwischen 06:00 morgens und 19:00 abends eine mel-EDI von 250 lx überschritten werden. (Anm.: mel-EDI wird auch mal MEDI oder mEDI geschrieben. Um die Normung der Schreibweise kümmern wir uns, wenn wir mit dem Rest fertig sind.)

Diese Beleuchtungsstärke unterscheidet sich von ihrer berühmteren Cousine durch mehrere Eigenschaften:

  • Sie ist vertikal, d.h. es zählt nur das horizontal fliegende Licht.
  • Sie ist abhängig von der Lichtfarbe bzw. vom Spektrum.
  • Sie ist vom Alter des Betrachters abhängig.

 

Man kann mel-EDI aus der in der Planung angegebenen Horizontalbeleuchtungsstärke überschlägig als ein Drittel des Planungswertes berechnen, also etwa 33%.Dazu kommt ein Abschlag, wenn das Spektrum vom Tageslicht D65 abweicht. Für „normale“ Leuchtstofflampen mit der Lichtfarbe neutralweiß beträgt der Abschlag rund 50 %. Somit hätten wir bei 500 lx Planungswert eine mel-EDI von 82,5 lx für einen 32-jährigen Beobachter. Bei einem angehenden Rentner muss der Wert noch halbiert werden. Der 65-jährige Beobachter erhält bei gleicher Lampe nämlich nur noch ca. 40 % der biologischen Dosis eines jungen Menschen.

Um die gewünschte Wirkung zu erzielen, muss die Beleuchtung also mindestens um den Faktor 3 erhöht werden. Rechnerisch müsste sie etwa bei dem 6-fachen Wert liegen. Das ist mit künstlichem Licht schlecht machbar. Helfen tut das Tageslicht. Da es durch die Fenster horizontal einfällt, fällt der Faktor 0,33 erst einmal weg. Dann hat es auch noch das gewünschte Spektrum, wenn nicht besser. Also müssten wir die aus medizinischer Sicht erforderliche melanopisch wirksame Beleuchtung in Innenräumen mit Tageslicht lässig erreichen können.

Genau dies untersucht eine Gruppe Forschender in dem EU-Projekt MeLiDos (Metrology for wearable light loggers and op­tical radiation dosimeters).[2] Sie erheben hochaufgelöste persönliche Lichtexpositionsdaten unter Alltagsbedingungen an neun Standorten zwischen dem Äquator und Skandinavien (Schweden, Niederlande, Deutschland, Spanien, Türkei, Costa Rica und Ghana). Deren Sensoren messen die melanopische Bestrahlungsstärke direkt auf Augenhöhe, was wesentlich genauer ist als eine statische Berechnung am Schreibtisch.

In einem Beitrag zum 13. Symposium Licht und Gesundheit 2026, mit dem Titel “Wie viel Licht erreicht uns wirklich? Erkenntnisse aus der Dortmunder MeLiDos-Studie”, stellten Kai Broszio, Johannes Zauner und Manuel Spitschan vor, wie die melanopische Beleuchtungswirkung am Standort Dortmund aussieht.

Es wurden drei Größen betrachtet:

  • melanopische Beleuchtungsstärken (mel-EDI, lx)
  • Time-Above-Threshold-Metriken (TAT, Werte über 500 lx und 1000 lx in h/d)
  • zeitliche Lage der Lichtexposition (mittlerer Zeitpunkt der Exposition oberhalb 250 lx).

 

Die Anforderung der Chronobiologen hieße >TAT250 von 06:00 bis 19:00 Uhr.

Der Beitrag stellt die Messperiode Sommer-Herbst dar, wo die theoretisch mögliche Photoperiode in Dortmund ca. 10,5–16,5 h beträgt.

Das Ergebnis fällt sehr ernüchternd aus.

Melanopische Beleuchtungsstärken (mel-EDI)
Tageszeit 08:00–18:00 ca. 90 lx – 130 lx
Mittagsfenster 11:00–14:00 ca. 120 lx – 180 lx
Abend 18:00–22:00 ca. 5 lx – 15 lx

Der Grenzwert von 250 lx wurde 0,8 h – 1,4 h/Tag (Median) überschritten. Melanopische Beleuchtungsstärken von über 1000 lx sahen die Probanden 0,2 h/Tag. An den meisten Arbeitstagen wurden 1000 lx nie überschritten.

Die zeitliche Verteilung ergab ein weiteres ernüchterndes Ergebnis. Die Exposition oberhalb 250 lx war stark auf die Mittagsstunden konzentriert und weist eine geringe zeitliche Breite auf. Frühmorgendliche hohe Lichtreize, die für eine biologische Wirkung besonders wirksam wären, traten selten auf.

Das Ergebnis werten die Autoren wie folgt:

Die Dortmunder Daten belegen exemplarisch ein urbanes Lichtparadox: Trotz langer Sommertage bleibt die persönliche melanopische Tageslichtexposition niedrig, während abendliche Lichtquellen präsent sind. Die resultierende Lichtprofil – „dim days, bright evenings“ – gilt als Risikofaktor für circadiane Instabilität, Schlafverkürzung und langfristige Gesundheitsfolgen (Lunn et al. 2017; Blume et al. 2019; Haus und Smolensky 2013; Abbott et al. 2020).

Die Ergebnisse zeigen ferner, dass Photoperiode allein kein verlässlicher Prädiktor für individuelle Lichtdosen ist. Entscheidend sind verhaltens- und umgebungsbedingte Faktoren, insbesondere Arbeitsorganisation und Innenraumaufenthalte.“

Warum war dieses Ergebnis zu erwarten?

Frühere Messungen

Im Rahmen des PLACAR-Projektes hatte Dr. Dieter Kunz von der Charité ähnliche Dosismessungen an Berliner Studierenden vorgenommen. Zwar waren die Messmethoden bei Weitem nicht so verfeinert wie heute. Aber Kunz’ Ergebnisse waren schockierend genug: junge Studenten, die ihre hellichten Tage im Dunkeln verbringen. Das Schlagwort biologische Nacht machte schon damals die Runde.

Bei dem damaligen Vortrag wurde das Ergebnis auch mit dem Verhalten der Probanden begründet. Niemand hält die Studenten davon ab, erhebliche Teile des Tages draußen zu verbringen. Ihre Situation ist nicht vergleichbar mit der der Arbeitnehmer, deren Arbeitsstunden nicht zufällig mit dem hellen Tag zusammenfallen. Wenn sie Schicht arbeiten, verbringen sie einen Teil des Tages mit Schlafen.

Wenn sich Studierende mit mehr Freiheiten als Arbeitnehmer auch an hellichten Tagen ihre Zeit lieber in dunklen Umgebungen verbringen, warum sollte es mit der Bevölkerung von Dortmund anders sein. Einen möglichen Grund kann man dem unteren Bild entnehmen, das jüngere Menschen an einem wunderbaren Sonnentag mittags bei ihrer Lieblingsbeschäftigung zeigt.

 

Physik der Beleuchtung

In meinen Blogs wird häufig dargestellt, dass die Beleuchtung in Arbeitsstätten anders “organisiert” ist als in Wohnräumen. Der Tageslichteinfall an einen Arbeitsplatz findet – wenn überhaupt – seitlich aus einer Richtung statt. Die Arbeitsplätze sind parallel zu dieser angeordnet, weil das Tageslicht sonst blendet. Ein Mensch, der im Freien sitzt oder steht, wird sich bei moderaten Lichtverhältnissen von 10.000 lx bis 20.000 lx selten geblendet fühlen. Anders, wenn er durch relativ dunkle Wände eingegrenzt wird. Aus diesem Grund sind die Arbeitsplätze im Prinzip etwa so angeordnet wie in diesem Bild dargestellt.

Wenn man die Beleuchtungsstärke in Richtung des Auges der in diesen Räumen sitzend arbeitenden Personen misst, wird man bei weniger als der Hälfte des Lichts aus der Fensterrichtung landen. Woher soll bei den abgebildeten Arbeitsplätzen eine mel-EDI von 250 lx in Richtung des Auges kommen?

Wenn bei deutschen Büroräumen von Tageslicht die Rede ist, kann man davon ausgehen, dass sie nach DIN 5034-1 gebaut worden sind. Diese verlangte, dass etwa in Raummitte ein Tageslichtquotient (Verhältnis der Beleuchtungsstärke außen und innen) von 0,9 % herrschen möge. Das ist bei Außenbeleuchtungsstärken von 10.000 bis 20.000 lx gerade mal 90 lx bis 180 lx. Die mickrigen Werte kommen aus dem Licht aus allen Einfallsrichtungen zusammen. Da das Licht aus der Fensterseite dominiert, in die die Mitarbeitenden nicht gucken, liegt der wahre Wert weit darunter.

Mit dem Anteil der künstlichen Beleuchtung sieht es auch nicht besser aus. In Arbeitsstätten fällt das Licht meist von der Decke und wurde immer auf Horizontalbeleuchtungsstärke getrimmt. Eine vertikale Komponente entsteht rechnerisch durch eine aus physiologischer Sicht  fragwürdige Aufspaltung in zwei Komponenten[3] oder durch die innere Reflexion. Diese wird in modernen Büros durch große Bildschirme oder Akustikpaneele am Arbeitsplatz erheblich behindert.

Wie die Helligkeitsverteilung in einem Gesamtraum aussehen müsste, wurde in einem Bild der lichttechnischen Industrie (licht.de) skizziert. Wie man  sie sich vor rund 30 Jahren vorstellte, war es genau umgekehrt.

Das linke Bild zeigt das einstige Ideal, das jetzt millionenfach die Bürohäuser besiedelt, das rechte die physiologisch günstigste Verteilung. Wenn man hier aber etwa eine Angleichung an den Himmel der Natur erkennen will, der irrt. Wie im Kapitel Falsche Vorbilder – Die Sonne und der Himmel dargelegt, ist der Himmel eher ein schlechtes Vorbild, wenn man ihn  nicht so hell machen kann wie in der Natur. Leuchtende Decken, die unten auf den Tischen Beleuchtungsstärken um 500 lx erzeugen, sehen immer grau aus. Ein blauer Himmel weist typischerweise Werte zwischen 2.000 cd/m2 und 10.000 cd/m2 auf (je nach Winkel zur Sonne). Ein trüber Berliner Wintertag hat eine recht gleichmäßige Leuchtdichte von etwa 1.000 cd/m² bis 2.000 cd/m². Solche Werte werden in Innenräumen schlecht erreicht.

Wer tagsüber einen Himmel erlebt, der auf der Erde etwa 5000 lx erzeugt, denkt nicht an einen schönen Tag, sondern an ein nahendes Gewitter. Wenn der Himmel nur 500 lx erzeugen kann, bricht das Gewitter über einem zusammen.

So könnte man statt einer “physiologisch-anregenden” Beleuchtung eine realisieren, die wegen ihres grauen Aussehens für eine einschläfernde Atmosphäre sorgt.

Das schlimmste Hindernis ist aber das Konzept der künstlichen Beleuchtung selber. Man beleuchtete Umgebungen seit Menschengedenken, damit sie sichtbar werden. Es kam also stets auf das reflektierte Licht an. Bis zum Jahr 2011 war Beleuchtung auch technisch so definiert. Eine Umdefinition einer fundamentalen Funktion der Beleuchtung, die nicht einmal die Fachleute bemerkt haben, ändert nichts an der Physik. Und diese Funktion bestand seit der Erfindung der künstlichen Beleuchtung in der Eiszeit.

Hingegen wurde das Licht, das das Auge trifft, ohne es der Beleuchtung eines Gegenstandes zu dienen, als Blendung bezeichnet. Der Beleuchtungstechniker versucht in der Regel, die Blendung zu minimieren, während die “Nutzwirkung”, die Beleuchtung der Arbeitsebene, maximiert wird.

In einem Büro wird jede Erhöhung einer Vertikalbeleuchtungsstärke dazu führen, dass die Leuchten direkt blenden und indirekt über die Reflexion auf den Bildschirmen.  Beide Effekte werden geringer, wenn die Leuchtdichten der Störquellen niedrig sind. Diese wurden aber bei Lichtplanungen entweder gar nicht oder nur teilweise indirekt berücksichtigt.[4] (Eine Abhandlung über die Bedeutung der Leuchtdichte findet sich in dem Kapitel Ein unmöglicher Umgang mit der wichtigsten Größe – Leuchtdichte) Die meisten heute existierenden Beleuchtungen sind ohne jegliche Berücksichtigung der realen Leuchtdichte unter der Leuchte geplant und erstellt worden. Dem Lichtplaner stehen für seine Arbeit Lichtstärkewerte zur Verfügung. Für Blendungen aller Art, psychologische Blendung, Reflexblendung, Kontrastblendung, sind aber Leuchtdichten maßgeblich. Daher ist es angemessen, wenn man die Erhöhung der Vertikalbeleuchtungsstärke mit der Blendung assoziiert.

Ausrichtung der Augen

Die Ausrichtung der Augen bei der Arbeit ist hinderlich für das Erreichen höherer biologisch wirksamer Beleuchtungsstärken. Zwar arbeiten viele Forschende mit der “vertikalen” Beleuchtungsstärke, aber der Mensch kann sie nicht sehen. Das folgende Bild zeigt, wie man sich die melanopisch wirksame Beleuchtung vorstellt.

Nach diesem Bild hat die Größe, nach der man seit Jahrzehnten geplant hat, Lichteinfall 90°, also die Horizontalbeleuchtungsstärke, keine Wirkung. Wenn man das Auge in die wahre Arbeitsposition dreht, bleibt nur noch ein kleiner Schlitz von 10° übrig, aus dem das melanopisch wirksame Licht ins Auge fallen kann. Nach ergonomischen Erkenntnissen liegt nämlich die Blickrichtung 35° unter der Horizontalen.

Hier habe ich bewusst ein altes Bild genommen, um auf das Alter dieser Erkenntnis hinzuweisen. Es sitzen aber nicht alle so vorbildlich wie die hier idealisiert abgebildete Dame. Viele Menschen sahen, als dieses Bild entstand, bei der Arbeit so aus wie links im unteren Bild, das 1976 aufgenommen wurde. Rechts sieht man ein Bild aus einer Broschüre einer Krankenkasse, die ich gestern bekam. Wer so guckt, auf den wird die Vertikalbeleuchtungsstärke keine melanopische Wirkung ausüben können.

Eine Arbeit, unter deren Autoren auch Kai Broszio war, hatte im Jahr 2017 festgestellt, dass übliche Bürobeleuchtungen nicht allzu viel Licht i.S. einer melanopischen Wirkung erzeugen können.[5] Diese Arbeit wurde in Kann die Bürobeleuchtung eine circadiane Wirkung entfalten kommentiert. Warum das so ist, kann man einfach aus der Physik ableiten. Warum es schlimmer aussieht als aus der Physik erwartbar, kann man an der Sitzhaltung ablesen.

Fazit

Leider scheint es so, dass die Dortmunder trotz Tageslichts nicht einmal in die Nähe der 250 lx mel-EDI kommen. Wie sind die Chronobiologen aber auf 250 lx gefolgt von 10 lx am Abend und 0 lx in der Nacht überhaupt gekommen? Wie ich in dem Beitrag Gnadenlos global darstellte, müsste man die Spanier wohl das halbe Jahr in abgedunkelte Räume stecken, weil draußen zu viel Licht ist. Wer kann sich einem solchen Schlaf-/Wach-Rhythmus unterwerfen? Wie realistisch ist dieser Rhythmus z.B. für Dortmund mit echten vier Jahreszeiten?

Das Konzept hat gleich fünf fundamentale Schönheitsfehler;

  • Der vorgegebene Tag existiert in unseren Breitengraden bestenfalls ein paar Mal im Frühling und im Herbst
  • Ein erheblicher Teil der Arbeitskräfte leistet Nacht- und Schichtarbeit, ein noch größerer Teil verbringt den Abend vor dem Fernseher, im Theater, bei Freunden oder in Lokalen.
  • In Deutschland bereiten sich allenfalls Kleinkinder ab 19:00 Uhr auf den Schlaf vor.
  • Die Bildschirme, die man gerne abends benutzt (Fernseher, Computer, Tablets), produzieren fast genauso viel Licht wie die Beleuchtung am Tage.
  • Man muss die vorhandene Beleuchtung tagsüber um ein Mehrfaches erhöhen.

 

Gerüchte sagen, die Vorstellungen kommen nicht von ungefähr. Sie sind wohl auf der ISS ermittelt worden. Tatsächlich wurde das Papier der Chronobiologen zum ersten Mal von einem amerikanischen Professor präsentiert, der seit 1987 für die NASA forscht. Seine Schäfchen sind keine Normalbürger in deutschen Fabriken und Büros, sondern Astronauten, die man fit machen will für die lange Reise zum Mars. Diese sind keine Normalbürger oder Arbeitnehmer, sondern menschliche Versuchskaninchen, die ständig unter gesundheitlicher Kontrolle stehen. Auf der ISS gibt es keine Jahreszeiten und der Tag ist etwa 1,5 Stunden lang. Man kann ihn künstlich auf 24 h trimmen, indem man Teile verdunkelt.

Bei solchen Menschen und ihren Arbeitsverhältnissen kann man den propagierten Tagesrhythmus lässig einhalten. Auch die 250 lx mel-EDI. Über den Wolken gibt es viel Licht. Man muss eigentlich nur für Abdunkelung sorgen. Was empfehlen die Forschenden den Dortmundern, die nur geringe Chancen für einen Aufenthalt auf der ISS haben?

Ich zitiere wörtlich:

"Tageslicht als Gesundheitsressource

  • Erhöhung von TAT250 lx durch gezielte Außenaufenthalte
  • Tageslichtorientierte Arbeitsplatz- und Pausenkonzepte"

Wer also eine Beleuchtung erleben möchte, die ihn mit der Außenwelt in Harmonie halten soll, kann dies nur im Außenraum erreichen. Warum man Tageslichtorientierte Arbeitsplatz- und Pausenkonzepte braucht, hatten wir mit unserer Forschungsarbeit zu Licht und Gesundheit nachgewiesen. (Endbericht von 1998 download). Zuvor hatte das Tageslicht als Beleuchtung im deutschen Arbeitsschutz schlicht nicht existiert.

Ich müsste diesen Beitrag meinen Lehrern widmen, die meine Schulkameraden und mich in den 1950ern in jeder Pause gnadenlos auf den Hof jagten, außer bei heftigem Regen. Vermutlich hatten sie die Weisheit von ihren Lehrern geerbt.

Wer die wahren Quellen finden will, liegt hier richtig: Meanwhile in Old Germany …

[1] Timothy M. Brown, George C. Brainard, Christian Cajochen, Charles A. Czeisler, John P. Hanifin, Steven W. Lockley, Robert J. Lucas, Mirjam Münch, John B. O’Hagan, Stuart N. Peirson, Luke L. A. Price, Till Roenneberg, Luc J.M. Schlangen, Debra J. Skene, Manuel Spitschan, Céline Vetter, Phyllis C. Zee, Kenneth P. Wright Jr Recommendations for healthy daytime, evening, and night-time indoor light exposure

[2] MeLiDos ist ein EURAMET-Projekt und wird kofinanziert durch Horizon EU, Projekt Nummer: 22NRM05

[3] Die Berechnung einer vertikalen und einer horizontalen Komponente aus einer Lichtrichtung geht nur auf bei diffus reflektierenden Oberflächen wie beim Büropapier. Sowohl für die Modellierungswirkung des Lichteinfalls als auch für die nicht-visuelle Wirkung ist die tatsächliche Einfallsrichtung maßgeblich.

[4] Die Daten von Leuchten, mit denen ein Lichtplaner arbeitet, enthalten keine Leuchtdichten. Diese fließen in die Berechnung der Blendung ein. Allerdings sind die hierzu benutzten Daten keine Messwerte, sondern nur mit Hilfe der Lichtstärke errechnete „mittlere“ Leuchtdichten.

[5] Kai Broszio, Mathias Niedling, Martine Knoop und Stephan Völker: Nicht-visuelle Beleuchtung: Reichen integrale Messgrößen aus?, Lux Junior 2017, Dörnfeld

 

Auswirkungen dynamischer Arbeitsplatzbeleuchtung auf chronischen Stress bei Schichtarbeitern: Eine longitudinale Interventionsstudie

Wissenschaft ist die Kunst,
sich von einem Irrtum zum nächsten zu irren,
bis man Heureka sagen darf.
Anonymus

Zu diesem Artikel

Der kommentierte Beitrag ist die Kurzfassung eines Vortrags beim 13. Symposium Licht und Gesundheit der BAuA gemeinsam mit der TU Berlin. Die Autoren sind Sophie Schümann, Robert Herold, Katarzyna Burek, Dirk Pallapies, Thomas Brüning, Thomas Behrens, Volker Harth, Sylvia Rabstein, vom Zentralinstitut für Arbeitsmedizin und Maritime Medizin (ZfAM), Universitätsklinikum Hamburg-Eppendorf (UKE), Hamburg, und Institut für Prävention und Arbeitsmedizin der Deutschen Gesetzlichen Unfallversicherung, Institut der Ruhr-Universität Bochum (IPA), Bochum. Zu diesem Projekt gibt es eine vollständige Beschreibung auf der DGUV-Homepage (Project No. FF-FP 0444). Mehr zum Hintergrund dieser Studie hier zum Download.

Zielsetzung

Das Ziel dieser Arbeit ist der Nachweis von behaupteten biologischen Wirkungen  von dynamischer Beleuchtung statt einer statisch gleichbleibenden. Dieser Nachweis sollte bei der Schichtarbeit erbracht werden, die allgemein als Stressfaktor gilt, weil sie die circadiane Rhythmik des Menschen durcheinanderbringt. Da die Arbeit auch die sozialen Beziehungen des Menschen durcheinanderwirft, wäre ein solcher Nachweis enorm bedeutsam.

Schichtarbeit und atypische Arbeitszeiten stören den Tagesrhythmus und können zu erhöhtem chronischem Stress führen. Da Licht ein wichtiger Regulator des Tagesrhythmus ist, können gezielte Maßnahmen zur Beleuchtung am Arbeitsplatz dazu beitragen, solche negativen Auswirkungen zu mildern. Diese Studie untersuchte, ob dynamische Beleuchtung am Arbeitsplatz den langfristigen physiologischen Stress beeinflusst, gemessen anhand der Cortisolkonzentration im Haar (HCC) als Biomarker für chronischen Stress bei Schichtarbeitern.

Methoden

Die gewählte Methode wird in der Praxis selten angewandt, weil sie aufwendig ist. Dies betrifft insbesondere den Zeitaufwand. Es wurde eine nicht randomisierte komparative Längsschnittstudie unter Schichtarbeitern eines deutschen Herstellers durchgeführt. Zwei Montagehallen wurden mit unterschiedlichen dynamischen Beleuchtungsszenarien ausgestattet: eine im Zwei-Schicht-System (Früh- und Spätschicht) mit erhöhter melanopischer Tageslichtäquivalentbeleuchtungsstärke (MEDI) am Morgen und reduzierter MEDI am Abend, und eine weitere im Drei-Schicht-System (Früh-, Spät- und Nachtschicht) mit dynamischer Nachtbeleuchtung, die die MEDI in der ersten Hälfte der Nachtschicht erhöhte und in der zweiten Hälfte reduzierte. Die Teilnehmer der Vergleichsgruppe wurden aus verschiedenen Abteilungen des Unternehmens rekrutiert, in denen keine Beleuchtungsänderungen vorgenommen wurden.

Nach der Basisuntersuchung T0 (10/2021–11/2021) wurde die Beleuchtung im Dezember 2021 umgestellt. Im Vergleich zur Ausgangssituation wurde in der Montagehalle 1 die melanopische Tageslichtäquivalenz (MEDI) morgens durch Variation der Lichtfarbe und des Lichtstroms dynamisch erhöht und gegen Abend wieder gesenkt. In der Montagehalle 2 wurde die Beleuchtung in der ersten Hälfte der Nachtschicht dynamisch erhöht und ab der Mitte der Nachtschicht wieder reduziert. Für die Analyse der kurzfristigen Auswirkungen wurden die Basis-T0-Messungen mit den ersten Folge-T1-Messungen (01/2022-02/2022) verglichen. Die längerfristigen Auswirkungen wurden mit weiteren Feldphasen ein Jahr nach T0 und T1 (T2: 11/2022, T3: 01/2023) untersucht.

Nach T1 wurden weitere Teilnehmer für die Vergleichsgruppe rekrutiert. Aus allen Teilnehmern der Vergleichsgruppe wurde eine randomisierte Untergruppe gebildet, um die Wirkung individueller Beleuchtungsempfehlungen in der Freizeit zu untersuchen, wobei T2 als Ausgangsbasis und T3 als Follow-up dienten. Die Empfehlungen wurden nach T2 und in T3 individuell über Studienhandys und andere Methoden kommuniziert. Die gesundheitlichen Endpunkte wurden sowohl anhand objektiver Messungen (Aktigraphie, Hormonspiegel in Speichel und Haaren, psychomotorische Wachsamkeit in der Mitte der Schicht) als auch anhand subjektiver Messungen (Schläfrigkeit, individuelle Wahrnehmung der Beleuchtung) bewertet. Darüber hinaus wurden photometrische Messungen am Arbeitsplatz sowie individuelle Lichtmessungen durchgeführt. Die statistischen Analysen umfassten die Verwendung von Algorithmen zur Ableitung der Endpunkte, multiple Imputationsmethoden und deskriptive Analysen. Je nach Endpunkt umfasste die orientierende Modellierung gemischte Modelle unter Berücksichtigung der wiederholten Messungen pro Person und der Anpassung für wichtige Störfaktoren.

Als Stressmarker wurde die Konzentration von Kortisol im Haar (HCC) als potenzieller biologischer Marker für chronischen Stress untersucht. HCC wurde bei anderen Untersuchungen als geeigneter Marker eingestuft, z.B. hier1M. Heming, P. Angerer, UM Nater, N. Skoluda, J. Weber : Selbstberichteter Stress und Haarkortisol bei Medizinstudierenden in Deutschland – eine Querschnittsstudie, https://pmc.ncbi.nlm.nih.gov/articles/PMC11248595/

Insgesamt wurden zwischen November 2021 und Februar 2023 173 Haarproben von 47 Teilnehmern an vier Messpunkten gesammelt. Der HCC-Wert wurde mittels Immunoassay bestimmt. Lineare gemischte Modelle (LMMs) der logarithmisch transformierten HCC-Werte wurden verwendet, um die Auswirkungen der dynamischen Beleuchtung und der Zeit zu bewerten, wobei Geschlecht, Alter, Body-Mass-Index, vorherrschendes Schichtsystem, Führungsposition und Arbeitsanforderungen berücksichtigt wurden.

Ergebnisse

Eine dynamische Beleuchtung am Arbeitsplatz veränderte zwar die melanopische Lichtexposition wirksam, führte jedoch nicht zu messbaren Veränderungen des langfristigen physiologischen Stresses bei Schichtarbeitern. Der allgemeine Rückgang des HCC könnte kontextuelle Einflüsse widerspiegeln, wie beispielsweise die Lockerung der Pandemie-Beschränkungen und damit verbundene Stressfaktoren.

Bewertung

Die Forschenden scheinen nach der eigenen Bewertung nicht sehr glücklich mit dem Ergebnis zu sein: "Die ersten Ergebnisse deuten darauf hin, dass die Interventionen keine negativen Einflüsse auf die Gesundheit haben. In Teilaspekten gibt es Hinweise auf eine positive Wirkung. " Das muss man allerdings an der Schwere der Aufgabe messen, die da Schichtarbeit heißt. Man sollte das Endergebnis lesen, wie es ist: Es ist nicht gelungen, den Nachweis zu führen, dass eine dynamische Beleuchtung die Folgen der Nachtarbeit ausgleichen kann.

 

 

Wie kommt das Grauen in deutsche Büros?

Gedeckte Farben im Büro sind wichtig –
falls die Arbeit stockt,
kann man sich wenigstens
harmonisch langweilen..

Anonymus

Historisches

Ein Artikel von mir mit diesem Titel erschien in Mensch und Büro, einem ehemaligen Lifestyle-Magazin für das gehobene Büro zu Beginn der 1990er-Jahre. Danach durfte ich in gewissen Abständen ähnliche Artikel schreiben, die die Farblosigkeit von Büros thematisierten. Sie beruhten auf zahlreichen Betriebsstudien und Recherchen, die ich anstellte, weil ich nicht glauben wollte, dass das Grau systematische Ursachen hatte.

Die untersuchten Ursachen reichten in die 1950er-Jahre zurück, als das Bürowesen und die Beleuchtungstechnik neu geordnet wurden. Die DIN 4549 wurde erstmals im März 1954 herausgegeben. Sie trug den Titel "Schreibtische für Büro und Verwaltung" und legte die Grundlagen für das, was wir heute als Standard-Büromöbel kennen. Sie diente dem Zweck, die Maße (Höhe, Breite, Tiefe) zu vereinheitlichen, um Schreibtische mit genormten Schubladenelementen und Aktenordnern (DIN 476/ISO 216) kompatibel zu machen. Dies sollte sich erst wieder 1982 grundsätzlich ändern. Der Anlass war die Computerisierung der Bürowelt.

Auch die Beleuchtungstechnik wurde 1953 mit DIN 5035 Innenraumbeleuchtung mit künstlichem Licht neu geordnet. Auch hierzu folgte die relevante Änderung mit DIN 5035-7 im Jahr 1988. Zum grauen Look verhalf ebenso eine Technik, die schwer mit Normen regelbar ist: die Informatik. Diese beherrschte mit Beginn in den 1960ern zunehmend die Szene: Fernschreiber, Computerterminals, Drucker, Kopierer, PCs…

Der Vierte im Bunde war ein Werkstoff: Beton. Nicht als Material der Skelette, die später die Büros aufnahmen, sondern das Gesicht des Brutalismus, béton brut. Die Epoche des Brutalismus ist eine der markantesten und zugleich umstrittensten Phasen der modernen Architektur. Sie entwickelte sich ab den 1950er Jahren und prägte das Stadtbild weltweit bis in die Mitte der 1970er Jahre. Beton hat diverse gute Eigenschaften, aber eine schlechte: Er sieht immer grau aus, zementgrau, silbergrau oder anthrazit. Bei der Farbgebung spielt sogar die Herstellung eine Rolle, die Verschalung der Form verewigt sich durch den Beitrag des Schalöls zur Farbe der Fassade.

Exakt in diesem Zeitraum (Mitte der 1970er) wurden die Computer in den Büros sichtbar, und zwar in den Großraumbüros, die die prominentesten Artefakte des Brutalismus waren. Dahinter steckte eine gewisse Systematik, die man später nur schwer verstehen konnte. Die damaligen Benutzer der Computer kamen in den Genuss des zweifelhaften Vergnügens, die Großraumbüros zu besiedeln, weil man glaubte, Menschen mit repetitiven Tätigkeiten könne man in solche Räume stecken, während Personen mit höheren Aufgaben Einzel- oder Doppelzimmer geniessen durften.

Die damaligen Büros waren aus einem anderen Grund kompakt gebaut, den man heute sehr gerne vergisst: Die maximale Entfernung zwischen einem Computer und einem Terminal, an dem der Mensch sitzt, durfte maximal 30 m sein. Die Terminals wurden mit einem Koaxialkabel mit dem Computer verbunden, das nahtlos sein musste. Kompakt heißt auch, ohne viel Tageslicht. Der Ersatz, das Kunstlicht, konnte Farben nur schlecht wiedergeben, weil Lampen mit sehr guter Farbwiedergabe sehr viel mehr Strom brauchten.

Beitrag der Entwicklungen zum Grauen

Wenn ein solcher Beitrag in einem Lichtblog erscheint, liegt die Annahme nahe, dass Licht die Hauptrolle spielen würde. Das ist aber falsch, weil eine Eigenschaft der Beleuchtung zwischen 1953 und 2026 keinerlei grundsätzliche Änderungen erfahren hat: Alles Licht, das für allgemeine Beleuchtungszwecke dient, ist (mehr oder weniger) weiß. Zwar wird ein Farbfachmann Weiß immer als eine Graustufe sehen. Dem ist es aber nicht so. Denn man sieht kein Licht, sondern nur dessen Reflexion. So wird eine Fläche mit roten Pigmenten bei weißem Licht eben rot aussehen. Die Lichtqualität bestimmt, wie rot man sie sieht. Es sei denn, Rot fehlt in dem Spektrum wie z.B. tief im Wasser, dann sieht alles Rote schwarz aus. Entscheidend sind also die Reflexionseigenschaften der Möbel, der Geräte und der Wände im Innenraum.

Die Einführung der Computer war da sehr wirksam für die Farbgebung. Dies fing mit einem Forschungsvorhaben an, das ich mit drei Kollegen ausführte.[1] Der Auftraggeber der Studie war der Bundesminister für Arbeit und sorgte dafür, dass die Ergebnisse in die Praxis einflossen. Noch wirksamer war der Wunsch der deutschen Arbeitgeber, die Diskussion über die gesundheitliche Belastung der Computerarbeit zu kontrollieren. Diese bewirkten die Erarbeitung einer Sicherheitsregel für Bildschirmarbeitsplätze.[2] Am mächtigsten wirkte ein Urteil des Bundesarbeitsgerichts vom 6. Dezember 1983.

Das sogenannte Nikolaus-Urteil des Bundesarbeitsgerichts (BAG) vom 6. Dezember 1983 (Az. 1 ABR 43/81) ist ein Meilenstein der deutschen Arbeitsrechtsgeschichte. Es markiert den Zeitpunkt, an dem der Betriebsrat nach Meinung vieler eine echte Mitspracherechte bei der Einführung moderner Computertechnik erhielt. Die Gewerkschaften sahen in dem Urteil aber eine Katastrophe, weil das Urteil eine Gesundheitsgefährdung nur dann sah, wenn die Gestaltung des Arbeitsplatzes von den Sicherheitregeln abwich. Also musste alles nach diesen Regeln gestaltet werden, um ein Mitbestimmungsrecht des Betriebsrats auszuschließen. Nunmehr hatte der Betriebsrat allerdings das Recht, alle Änderungen im Büro prüfen zu lassen, ob sie denn den Sicherheitsregeln genügten. Ein Pyrrhussieg, wie er im Buche steht.

In den Regeln stand die Erläuterung dazu: “Bildschirm-Arbeitsplätze im Bürobereich sind Arbeitsplätze mit Einrichtungen, die grundsätzlich den Festlegungen der "Sicherheitsregeln für Büro-Arbeitsplätze" (ZH 1/535) entsprechen müssen. ... Unfall- und Gesundheitsgefahren können nach dem derzeitigen Erkenntnisstand vermieden werden, wenn die Arbeitsmittel am Bildschirm-Arbeitsplatz und die Arbeitsplatzumgebung den Festlegungen dieser Sicherheitsregeln entsprechen.“

Wie das Grauen seinen Lauf nahm

Damit war eine lichttechnische Größe im Arbeitsrecht angekommen: Reflexionsgrad.  Zwar stand in den Sicherheitsregeln nichts von Grau, aber dies: „Die farbliehe Gestaltung muss einem Reflexionswert zwischen 15 und 75 % entsprechen. Empfohlen werden mittlere Werte zwischen 20 und 50%.“

Das Grauen folgte erst später durch die Interpretation, insbesondere bei der IBM. Diese Firma verfolgt stets das Prinzip, in keinem Land der Erde gegen die örtlichen Gesetze zu verstoßen. Dazu gehören auch die Normen des Landes. IBM wollte erstens in Deutschland sichergehen, und zweitens in allen Ländern, die dem Beispiel Deutschlands folgen könnten. So gab man den Designern Order, alle Geräteoberflächen mit einem Reflexionsgrad von 0,45 zu versehen. Tatsächlich konnte ich fast immer und überall an IBM-Geräten 0,43 messen, was in der Messunsicherheit liegt. In der Welt der Farben und Architektur gilt dieser Wert als mittlere Helligkeit. Er liegt fast exakt im Zentrum der Skala zwischen Schwarz (0) und Weiß ( 1 bzw. 100%).[3]

In dem besagten Bereich liegen die Farben „Betongrau“ oder „Steingrau“, aber auch viele Salbeigreens, Terracotta-Nuancen oder kräftige Beigetöne. Die Presse nannte die neue “Standardfarbe” verächtlich Computerschmuddelgrau, während die amerikanischen Hersteller von Humbug-Gray sprachen. Humbug war abgeleitet von Hamburg, dem Sitz der Berufsgenossenschaft, die die Sicherheitsregeln erlassen hatte.

Ein weiterer Großkonzern, die Siemens AG, hatte diesbezügliche Anweisungen an die Designer aus einem ähnlichen Grund erlassen. Sie hatte festgestellt, dass ihre Fernschreiber in ca. 200 Ländern eingesetzt wurden, in denen jeweils andere Vorstellungen von Farben und Farbgebungen herrschten. Um nirgendwo anzuecken, sollten die Geräte unbunt sein. Damit sie trotzdem ein Gesicht hatten, sollte Kontrast hinein. Daher waren die Siemens-Geräte Schwarz/Grau oder Grau/Schwarz gewesen. Als dann die Sache mit den Sicherheitsregeln kam, wurden sie Beige, aber nicht so kräftig, damit sie nicht auffielen.

Ein weiterer Konzern, genau gesagt der Besitzer des Konzerns, hatte es mit der Unauffälligkeit. Heinz Nixdorf befahl seinen Designern, nur graue und kleine Geräte zu bauen, weil er meinte, die Menschen würden Computer nicht mit offenen Armen empfangen. Hersteller wie HP, Dell oder Canon folgten später willig dem Trend, denn wenn man nur eine Gehäusefarbe produziert, sinken die Logistik- und Lagerkosten drastisch.

Die ganze Sache erwischte die Hersteller von Büromöbeln auf dem falschen Fuss. Diese wollten das alte Eichehell ihrer Tische mit Farben aufpeppen und so einen Kontrast zu den Sichtbetonflächen der Büros setzen. Die Büros waren daher gegen Ende der 1960er Jahre sehr bunt geworden. Nunmehr kam die Kehrtwende, die durch die Erfahrungen der Büroplaner beschleunigt wurde. Wenn man ein gutes Farbkonzept realisiert hat, kann man später davon nicht ein wenig abweichen. Entweder bleibt man dem Konzept treu oder man macht alles neu. Das Letztere ist jedem Kaufmann zuwider, aber auch jedem Menschen, der rational denkt.

Sehr hilfreich erwies sich dabei die (Wieder-)Entdeckung von Melamin als Tischoberfläche. Als Resopal hatte es den Nierentischchen der 1950er Jahre gedient und die Küchen gepflastert. Jetzt waren die Büros dran. Und zwar passend zum Computerschmuddelgrau und fast mit dem gleichen Reflexionsgrad. Ein grauer Drucker passt zu einem grauen Laptop von einem völlig anderen Hersteller. Grau „beißt“ sich mit nichts.

Die einzigen Hersteller, die mit Farben experimentierten, waren die Bürostuhlhersteller. Leider sieht es niemand, wenn alle Stühle besetzt sind.

Für alle sollte später eine Anforderung der DIN 5035-7:1988 gelten: Größere Flächen, die sich im Bildschirm spiegeln könnten, wozu alle Wände gehören, müssen einen Reflexionsgrad zwischen 0,3 und 0,5 haben. Ich weiß nicht, ob jemand schon einmal einen Raum mit Wänden mit einem Reflexionsgrad von 0,3 gesehen hat? So etwas gibt es z.B. in Etablissements, wo man vieles besser nicht sieht, oder in Mahagoni-getäfelten Kabinetts, wo man sich zum Zigarrenrauchen zurückzieht. Mit dieser Norm wurde alles, was sich in einem Bildschirm reflektieren könnte, zum Problem erklärt. Dazu gehörte selbst die helle Oberbekleidung. Zum Glück hat die Norm nicht versucht, Bekleidungsvorschriften am Bildschirm zu etablieren. Bei wortgetreuer Anwendung war die Norm aber geeignet, jeden Arbeitsraum zu einem Ort des Grauens zu gestalten. Die naheliegende Lösung, die bereits in den besagten Sicherheitsregeln schon 1980 eingearbeitet worden war, Bildschirme optisch zu entspiegeln und mit einem hellen Hintergrund zu versehen, war für die lichttechnische Industrie zu effizient.

Des Grauens Ende?

Manchem designorientierten Hersteller geht das Ganze gehörig auf den Senkel. Zwar hatten skandinavische Hersteller bereits in den 1950ern auf Farbe gesetzt (Facit aus Schweden). Die Farben waren aber sehr dezent, z.B. helles Lindgrün. Einen gewaltigen Paukenschlag setzte es 1998: Der erste iMac – offiziell der iMac G3 – war der Befreiungsschlag für Apple und markierte 1998 das Ende der „grau-beigen Ära“, über die ich gerade bei den Bürogeräten schrieb. Die erste Ausgabe erschien in Bondi Blue (einem blau-grünen Transparent-Look), benannt nach dem Wasser am Bondi Beach in Australien. Es folgten fünf weitere Farbkonzepte, die Apple flavor nannte, also Geschmacksrichtung, Strawberry, Blueberry, Grape, Lime und Tangerine – ein direkter Angriff auf das triste Einheitsgrau der IT-Welt. Der direkte farbliche Partner des Bondi Blue kam 2000 mit dem MacOS X auch auf die Bildschirme: Aqua. Es war die radikale Abkehr vom grauen, flachen „Fenster-Design“ der 90er Jahre und ein Meilenstein des Skeuomorphismus (Design, das reale Materialien nachahmt).

Der iMac rettete Apple vor dem fast sicheren Bankrott. Die Geräte waren fast so bunt wie das damalige Apple-Logo. Dies war wohl das ikonischste Logo, entworfen von Rob Janoff. Es sollte den Apple II bewerben, der als einer der ersten Computer Farben auf dem Monitor darstellen konnte. Die Farben waren (von oben nach unten) Grün, Gelb, Orange, Rot, Violett, Blau.

Damit war aber bald Schluss, auch mit den Flavors von Apple. Die Farbkonzepte zu beliefern hatte sich zu einem logistischen Alptraum entwickelt. Das konnte sich nicht einmal die Firma Apple leisten, die sich von einer Pleitefirma (1988) zum wertvollsten Unternehmen der Welt gemausert hat. Das Produkt, das nicht nur Apple veränderte, das iPhone, kam mit einem gebürsterten Metall-Look (Skeuomorphismus). Hat der einstige Pionier des Computers mit dem Regenbogen  Menschlichkeit, Benutzerfreundlichkeit, Farbgrafik-Pionierarbeit ausdrücken wollen, will er seitdem Präzision, Hochwertigkeit, zeitlose Eleganz ausstrahlen.

Bleibt am Ende doch alles Grau?

Unermesslich grau, damit man seine Ruhe hat?

Im neuen Jahrhundert hat sich eine an sich erfreuliche Folge der Computerisierung zu einer Pest entwickelt: Moderne Büros sind unheimlich leise geworden, weil die lärmenden Maschinen fehlen. Das hat sich zwar bereits in den 1970ern angekündigt. Aber man dachte damals, das Problem beträfe nur wenige. Tatsächlich gab es in vielen Büros noch “Lärmquellen” wie raschelndes Papier oder Tastaturen, die angeblich mit Pieptönen besser funktionierten. Hier und da hantierte jemand noch mit einem Locher, der zum Inventar des Beamtendreikamps gehörte. Auch die weiteren Gerätschaften, die diesem Arsenal zugezählt werden, Bumser und Heftordner, haben die Szene verlassen.

Sie sind alle einem neuen “Werkzeug” gewichen, der menschlichen Stimme. Diese ist praktisch die einzige Lärmquelle, die übriggeblieben ist. Dummerweise ist sie auch das Werkzeug, mit dem man arbeitet. Anders als alle anderen Lärmquellen, die uns stören, greift die menschliche Sprache direkt in den Arbeitsablauf ein. Alle Menschen, die denken, schreiben, lesen oder tippen, werden von der inneren Stimme geleitet, die sehr störempfindlich ist.

So werden immer mehr Büros mit Schallpaneelen ausgestattet. Obwohl diese eigentlich jede Farbe haben können, greift das vollkommen ungeschriebene Gesetz, das hinter diesem Beitrag steckt: Grau beißt sich mit nichts! Ergo sehen immer häufiger Büros aus wie in diesem Bild

Die Farben dieses Bildes geben noch nicht alles wieder, was die bessere Akustik uns kostet. Wie in dem Beitrag Beleuchtungsstärke(n) dargestellt, ist die Vertikalbeleuchtungsstärke (bzw. alternativ die zylindrische) verantwortlich für die visuelle Kommunikation zwischen den Menschen in einem Raum. Diese Beleuchtungsstärken entstehen weitgehend durch Reflexionen  an den Wänden und auf den Möbeln. Sie können  in dem abgebildeten Raum gar nicht entstehen.

Selbst wenn es diese Beleuchtungsstärken physikalisch gäbe, würde man den Kollegen oder die Kollegin nur seitlich sehen, weil die Paneele nicht nur grau, sondern auch noch intransparent sind. Man blickt, wenn überhaupt, in Gesichter, auf die ein fahles graues Licht fällt, das von den Akustikschirmen reflektiert wird.

Die Akustikpaneele machen nicht nur die Arbeit des Lichtplaners zunichte. Sie verhindern auch die Ausbreitung des Tageslichts. Wenn man sie ungünstig anbringt, stören sie auch die Luftzirkulation.

Warum keine farbigen Schallschirme?

Man kann Schallschirme nicht nur in jeder Farbe kaufen, sondern sogar mit Gemälden darauf. Aber auch für sie gilt, woran selbst Apple gescheitert ist, Logistik. So kann man farbige Akustikpaneele nur auf Bestellung produzieren. Was man nicht kann, ist auch den bunten Büromöbeln zum Verhängnis geworden: Man kann die Farben später nicht mehr ändern. Entweder bleibt man seinem Farbkonzept treu oder macht alles neu. Allzu eng darf man mit dem Farbkonzept auch nicht sehen, denn die Struktur der Oberfläche von Schallschirmen kann man nicht frei wählen. Diese wird durch die erwünschte Funktion vorgegeben.

Bei diesen Objekten muss man noch dazu auf ihre Funktionalität achten. Schallschirme, die vor der Sprache schützen sollen, wirken nur, wenn sie vor der sprechenden Person platziert werden. Wer möchte die nächsten 10 oder 20 Jahre auf dasselbe Bild gucken?

Es gehört zwar nicht in ein Büro. Aber man kann sich ein Bild daraus machen, was passiert, wenn man der lieben Akustik zuliebe sichtbare Flächen anders formt, als man in freier Wahl tun würde. Dieses Bild stammt aus der Elphi in Hamburg. Die Wände und manche Deckenteile verdanken ihre Form der Akustik. Für mich eine erhebliche Einschränkung der Formgebung.

Bürodesign heute

Das Grau der 1990er ist heute passé. Der moderne Büroplaner greift zu Greige. Greige? Das ist Grau und Beige zusammen. Die 1980er sind wohl noch nicht ganz vorbei. Wer herausstechen will, nimmt sogar Weiß. Allerdings kann man bei Bürokonzepten wie Recimercial Design nicht auf Weiß setzen, Cremeweiß & Buttergelb oder Salbeigrün & Waldgrün sind in. Auch die ursprünglichen Resopaloberflächen strahlen heute in Eiche & Nussbaum, so auch zuweilen in Echtholz.

Neo-Mint gefällig, ein sehr helles, fast futuristisches Grün, das Frische und Technologie verbindet. Oder ein sanftes Koralle? Soll Optimismus in Team-Bereiche bringen, ohne die Augen zu überfordern. Möglicherweise nicht in alle Team-Bereiche.

Wenn es einem allzu bunt wird, ist zwar das alte Grauen weg, aber manchem Innenarchitekten graut es aus anderen Gründen.

[1] Cakir, A. et al Untersuchungen zur Anpassung von Bildschirmarbeitsplätzen an die physische und psychische Funktionsweise des Menschen, BMAS, Bonn, 1978

[2] ZH1/618 „Sicherheitsregeln für Bildschirmarbeitsplätze im Bürobereich“, VBG, Hamburg, 1980

[3] Die Angaben von Reflexionsgraden in der Lichttechnik entsprechen nicht der Helligkeitswirkung