Fundamente der Circadianen Medizin

Alles hat seine Zeit,
und jedes Vorhaben
unter dem Himmel hat seine Stunde.

Kohelet

Kurzfassung

Der Beitrag stellt die Grundlagen der circadianen Medizin (Chronomedizin) vor: Statt nur was behandelt wird, rückt wann Diagnostik, Therapie und Lebensstilmaßnahmen stattfinden, in den Mittelpunkt. Im Fokus dieses Beitrags steht das DFG-Programm TRR 418 „Fundamente der Circadianen Medizin“ (u.a. Charité, FU/HU Berlin), das personalisierte, an der inneren Uhr ausgerichtete Medizin erforschen und klinisch nutzbar machen will.

• Früher von mir beschriebene Lichttherapien (PDT/Photobiomodulation) wirken direkt; die circadiane Wirkung von Licht zielt dagegen auf indirekte Steuerung über den Tagesrhythmus.
• Circadiane Medizin nutzt Chronobiologie für präzisere Diagnostik und wirksamere, nebenwirkungsärmere Therapien durch zeitlich passgenaue Maßnahmen (z.B. Chronopharmakologie).
• Sie berücksichtigt Unterschiede zwischen sozialer Uhrzeit und biologischer Uhr sowie individuelle Chronotypen (relevant auch innerhalb Europas).
• Auch Ernährung ist zeitabhängig: Spätes Essen kann den Stoffwechsel stören; „Intervallfasten“ wird als Anwendung circadianer Prinzipien eingeordnet.
• Das Projekt zielt auf drei Richtungen: die innere Uhr messen („detecting the clock“), Rhythmen gezielt beeinflussen („targeting the clock“) und Behandlungen tageszeitlich optimieren („exploiting the clock“).
• Im Dokument werden die Teilprojekte aufgelistet; die offizielle Projektbeschreibung ist am Ende unverändert wiedergegeben.

Zu den Fundamenten einer neuen Medizin

In dem Beitrag Wunden, die Licht heilt hatte ich einige Heilmethoden wie die Krebsheilung mit Licht (PDT = Photodynamic Therapy) beschrieben. Zu solchen Methoden gehört auch die Photobiomodulation. Alle diese Methoden kann man jedoch als “klassisch” nennen, weil sie direkte Wirkungen des Lichts sind, die man durch Bestrahlung erzeugt.

Forschende aus der Berliner Charité haben sich eine mittelbare Wirkung des Lichts eingeschossen, die circadiane Wirkung. Während sich die Lichttechnik auf nicht-medizinische Wirkungen der circadianen Beeinflussung des Menschen konzentrieren muss, können Mediziner aus dem Wissen mehr machen. Sie entwickeln die Circadiane Medizin von Grund auf, deswegen heißt das Projekt Fundamente der Circadianen Medizin (DFG-Projekt Nr. TRR 418. Fundamental neu an dem Ansatz ist die Personalisierung der Medizin.

Beteiligte Institutionen sind FU Berlin und HU Berlin durch Charité - Universitätsmedizin Berlin. Mittragende sind Freie Universität BerlinHumboldt-Universität zu BerlinUniversität zu Lübeck. Weitere Beteiligte sind Ludwig-Maximilians-Universität MünchenTechnische Universität München; Université de Genève und Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE).

Die Projektbeschreibung seitens der Antragsteller findet sich am Ende dieses Beitrags. Diese will ich, wie bei allen komplexeren Sachverhalten, weder kürzen noch kommentieren, damit sich keine Fehler einschleichen. Zurzeit sind 16 Teilprojekte in Bearbeitung, die unten aufgelistet sind. Die Links führen zu den Beschreibungen der einzelnen Teilprojekte.

Was macht die Circadiane Medizin

Die circadiane Medizin (oder Chronomedizin) ist ein faszinierendes Feld, das die Erkenntnisse der Chronobiologie direkt auf die Gesundheitsvorsorge und Behandlung von Krankheiten anwendet. Vereinfacht gesagt: Es geht nicht nur darum, was wir für unsere Gesundheit tun, sondern wann wir es tun.

Praktische Anwendungen in der Medizin sind z.B. die Chronopharmakologie, die die unterschiedliche Wirkung von Medikamenten nach der Körperzeit des Individuums betrachtet. Wie man schon lange weiß, wirken Medikamente unterschiedlich stark, je nachdem, zu welcher Uhrzeit sie eingenommen werden. Die Medizin geht von der sozialen Uhrzeit aus, die überall in der EU (mit Ausnahme Portugals) gleich ist. Der biologische Rhythmus wird aber von dem Verlauf des Tages bestimmt, sodass an den beiden Enden der EU eine Differenz von mehr als zwei Stunden herrscht. Hinzukommt, dass jedes Individuum einen dazu verschobenen Rhythmus haben kann. Die Chronopharmakologie ist bestrebt, den exakten Rhythmus des Patienten zu treffen.

Selbst die zeitrichtige Ernährung fällt in diese Kategorie: Die circadiane Medizin zeigt, dass spätes Essen den Stoffwechsel stört, da die Insulinresistenz abends natürlich ansteigt. "Intervallfasten" ist im Grunde eine Anwendung circadianer Prinzipien.

Kurz zusammengefasst, liegen die Vorteile auf verschiedenen Gebieten:

Bereich Vorteil der circadianen Anpassung
Diagnose Präzisere Werte (z.B. Hormone), wenn die Uhrzeit berücksichtigt wird.
Therapie Höhere Wirksamkeit bei geringerer Dosierung von Medikamenten.
Prävention Besseres Gewichtsmanagement und erholsamerer Schlaf.

 

Circadiane Medizin = Behandlung im richtigen Timing

Sie versucht, Medizin an den natürlichen Tagesrhythmus des individuellen Körpers anzupassen, um:

  • Therapien effektiver zu machen
  • Nebenwirkungen zu verringern
  • Gesundheit langfristig zu verbessern.

Aus der nachfolgenden Aufzählung der Teilprojekte kann auf die zu erzielenden Wirkungen geschlossen werden. Die Wurzeln der circadianen Medizin liegen in den 1950ern, die molekulare Bestätigung kam in den 80ern, aber als praktische medizinische Fachrichtung etabliert sie sich erst massiv seit dem Nobelpreis für Medizin, der 2017 an Jeffrey C. Hall, Michael Rosbash und Michael W. Young für die Entdeckung der molekularen Mechanismen der circadianen Rhythmik verliehen wurde. Dies war der endgültige Ritterschlag für die circadiane Medizin als ernstzunehmendes klinisches Feld.

Teilprojekte Fundamente der Circadianen Medizin

Projektbeschreibung Fundamente der Circadianen Medizin (nicht editiert)

Die circadiane Uhr ist ein körpereigenes Zeitprogramm, das überall in der Natur zu finden ist. Sie strukturiert Physiologie und Verhalten in Abhängigkeit von der Tageszeit. In den letzten Jahrzehnten wurden die molekularen Mechanismen der circadianen Uhr aufgeklärt und die beteiligten Gene identifiziert (Nobelpreis für Medizin 2017). Es wird immer deutlicher, dass die Synchronisation zwischen endogenen circadianen Rhythmen und exogenen Umweltzyklen für die Gesundheit von entscheidender Bedeutung ist. Das moderne Leben stellt die innere Uhr jedoch vor Herausforderungen, die zu einer Störung der circadianen Koordination führen können, was mit vielen Volkskrankheiten in Verbindung gebracht wird, darunter Schlafstörungen, psychiatrische und neurodegenerative Erkrankungen, Stoffwechsel-, Herz-Kreislauf- und immunologische Erkrankungen sowie Krebs. Die Beschreibung der zugrundeliegenden Mechanismen hat jedoch gerade erst begonnen. Das übergeordnete Ziel des Konsortiums ist es, übergreifende Prinzipien und zugrundeliegende Mechanismen zu identifizieren, die circadiane Uhr und Pathologie in verschiedenen Organen und Krankheitssystemen verbinden, um evidenzbasierte Strategien der circadianen Medizin für die klinische Anwendung zu entwickeln und zu testen. Wir verfolgen drei Hauptansätze: (i) Entwicklung neuer diagnostischer Werkzeuge, die personalisierte, auf die Uhr abgestimmte Interventionen ermöglichen, um die circadiane Medizin als Teil der Präzisionsmedizin zu etablieren (detecting the clock), (ii) Stärkung und Resynchronisierung gestörter Rhythmen durch gezielte Interventionen in die Uhr (targeting the clock) und (iii) Nutzung des Wissens über physiologische Rhythmen für eine tageszeitlich angepasste Behandlung (exploiting the clock). Wir haben das Konsortium in drei Bereiche gegliedert - circadiane Immunologie, circadianer Energiestoffwechsel und circadiane Neuropsychiatrie. Dies spiegelt nicht nur die spezifische Expertise der beteiligten Standorte wider, sondern baut auch auf dem vorhandenen Wissen über die Rolle circadianer Rhythmen in diesen Organ- und Krankheitssystemen auf. Die drei Bereiche sind nicht nur auf der Ebene der standardisierten Methoden, die wir entwickeln und anwenden, miteinander verbunden, sondern auch auf der Ebene der zugrundeliegenden Mechanismen, z.B. bei der Erforschung chronoimmunologischer Prozesse bei Erkrankungen des Nervensystems. Nur durch eine disziplinübergreifende Zusammenarbeit können wir gemeinsame Prinzipien und Mechanismen aufdecken, die der circadianen Gesundheit zugrunde liegen. Langfristig gehen wir davon aus, dass das Verständnis dieser Prinzipien und der Folgen von Störungen des circadianen Rhythmus zu einer neuen Ära der personalisierten Medizin führen wird, in der die innere Uhr als wichtiger Faktor nicht nur für Behandlungsentscheidungen und -erfolge, sondern auch für die Gesundheitsförderung und Krankheitsprävention angesehen wird. Mit diesem Konsortium wollen wir die Grundlagen dafür schaffen.

 

Sehen mit den Ohren – Hören mit den Augen?

Spezialisierung ist der Prozess,
bei dem man die Welt
durch ein Schlüsselloch betrachtet und
behauptet, man sähe den ganzen Raum..

Anonymus

Kurzfassung

Der Beitrag diskutiert neuere Hinweise darauf, dass auditive Wahrnehmung durch visuelle Faktoren mitgeprägt wird, und verknüpft diese Beobachtung mit klassischer Forschung zur Wechselwirkung von Lärm und Blendung. Ausgehend von Berichten zur klanglichen „Färbung“ von Konzertsälen in Abhängigkeit von deren Farbgestaltung werden historische Befunde (u. a. Östberg sowie Untersuchungen an der TU Berlin) herangezogen, die eine wechselseitige Verstärkung sensorischer Stressoren zeigen. Im Rahmen der Handlungsregulationstheorie werden Lärm und Blendung als Regulationshindernisse beschrieben, deren kombinierte Wirkung Leistungsfähigkeit und Fehlerraten überproportional beeinflussen kann. Abschließend wird die begrenzte Erklärungsleistung rein technischer Parameter (z. B. in der Büroakustik) als Argument für eine zurückhaltendere, interdisziplinäre Gestaltungspraxis herausgestellt.

Eine Meldung aus der Welt der akustischen Kommunikation

Meine verstörenden Kenntnisse über die Funktion des Auges sind seit heute um eine Facette reicher geworden. Floris Kiezebrink beschreibt im heutigen Tagesspiegel, wie die Farben eines Konzertsaals das Hörerlebnis mitbestimmen. Um falsche Deutungen zu vermeiden, verlinke ich den Beitrag. „Raumakustik wird nicht eindimensional wahrgenommen. Wir hören, ob ein Saal eher laut oder leise, hallig oder trocken ist, aber auch, welche klangliche Färbung er hat“, sagt Stefan Weinzierl, Studienautor und Akustikforscher an der Technischen Universität Berlin. Ein Raum könne beispielsweise warm, brillant oder metallisch klingen. Und das hänge mitunter von der Farbgestaltung ab.“ (download Artikel) Der Berliner Tagesspiegel, dessen Büro zu Fuß nur 4,2 km von der TU Berlin entfernt liegt, meldete die kleine Sensation etwa zwei Monate später als die amerikanische Quelle AIP Publishing (hier)

Irgendwie erinnert mich der Artikel an die Eröffnung von Elphi, von der ich u.a. dieses Foto gemacht hatte. Als ich mein erstes Konzert dort besuchte, klang alles dröge. Hingegen höre ich in der Berliner Philharmonie anders. Vielleicht liegt es an Stefan Weinzierl, dem Autor, der, wie Prof. Cremer, der die erste Akustik der Philharmonie gestaltete, nicht nur Professor an der TU Berlin ist, sondern auch Musiker. Cremer war Violinist, Weinzierl ist Pianist. Was er sonst ist und war, kann man hier lesen. Er war als Musiker in vielen Konzerthallen unterwegs, auch als Begleitung von Größen wie Hildegard Knef.

Frühere Erkenntnisse, die nicht ganz passten

Kann man mit den Augen hören? Vor Jahren hatte ein blinder Mann in einer Fernsehsendung vorgeführt, wie man mit den Ohren sehen kann. Zwar nicht so hochauflösend wie das Auge, aber er konnte die Größe und die Form von Objekten beschreiben, die ein Geräusch produzierten. Dass man mit den Augen hört, ist hingegen recht neu.

Etwa 1975 hatte der schwedische Psychologe Olov Östberg empirisch nachgewiesen, dass Lärm die Blendung steigert, die eine Beleuchtung erzeugt. Umgekehrt lässt eine stärkere Blendung den Lärm lauter wahrnehmen, als das Lärmmessgerät es anzeigt. Östberg demonstrierte auch, dass eine Erhöhung der Blendung bei konstant gehaltener Qualität der Sehaufgabe sich in einer subjektiv höher eingeschätzten Schwierigkeit der Sehaufgabe niederschlägt.

Etwa zur gleichen Zeit fand an der TU Berlin ein Versuch statt, bei dem ein Zusammenhang zwischen Blendung und Lärmstörungen ermittelt wurde. Einer der Forschenden war Walter Volpert, der sich intensiv mit der Handlungsregulationstheorie und den Auswirkungen von Umgebungsfaktoren auf die menschliche Arbeit beschäftigt hat. Nach Volpert sind Lärm und Blendung nicht nur physische Störfaktoren, sondern Regulationshindernisse. Lärm erhöht die kognitive Last, da das Gehirn Kapazitäten aufwenden muss, um relevante Informationen (z. B. Sprache) von Störgeräuschen zu trennen. Blendung erschwert die visuelle Informationsaufnahme und führt zu einer schnelleren Ermüdung der Augenmuskulatur sowie der zentralnervösen Verarbeitung. Ein wesentlicher Aspekt dieser Forschung ist, dass Lärm und Blendung selten isoliert wirken. Volpert und Kollegen stellten fest: Wenn beide Stressoren gleichzeitig auftreten, addieren sich die negativen Effekte nicht nur, sie können sich potenzieren. Die Fehlerrate steigt bei kombinierter Belastung überproportional an, da die „psychische Energie“ zur Kompensation der Hindernisse schneller erschöpft ist. Volpert untersuchte, wie diese Faktoren den Arbeitsfluss stören:

  • Erhöhter Aufwand: Um das gleiche Leistungsniveau zu halten, muss die Testperson mehr Willensanstrengung aufbringen.
  • Verkürzung der Planung: Unter Lärm und Blendung neigen Menschen dazu, Handlungspläne zu verkürzen. Man arbeitet „gehetzter“ und weniger vorausschauend, was die Unfallgefahr erhöht.
  • Somatische Folgen: Langfristig führen diese Regulationshindernisse zu psychosomatischen Beschwerden (Kopfschmerzen, Verspannungen, Schlafstörungen).

 

Die hier skizzierten Erkenntnisse sind in diverse Vorstellungen zum Arbeitsschutz eingeflossen, die man kurz so zusammenfassen kann: Die Ressourcen eines Menschen für die Bewältigung von Belastungen sind begrenzt. Werden diese von einem Umgebungsfaktor in Anspruch genommen, wirken weitere Faktoren viel stärker aus.

Was das mit der Blendungsforschung zu tun hat …

Hier sei an das Versagen der Blendungsforschung erinnert, bei der ein Proband völlig frei von Belastungen jedweder Art in einem ruhigen Raum beurteilt, ob eine Leuchte ihn stört. (s. z.B. Blendung – Was ich schon immer wusste und nie nachfragen wollte oder Beim ersten Ziel schon die Zähne ausgebissen

Untersuchungen dieser Art, die in den 1940ern und 1950ern durchgeführt wurden, bilden die Grundlage unserer heutigen Blendungsbewertung, nach der Leuchten mit dreistelligen Zahlen gekennzeichnet werden. Dann kommt noch ein Akustiker dazu, der nachweist, dass das Hörerlebnis in einem Raum von den Farben des Raums abhängt.

Je tiefer man sich in die Wahrnehmung der Umwelt einarbeitet, desto weniger scheint man  zu wissen. Das beschränkt sich nicht auf die Lichttechnik. Für mich viel aufschlussreicher war eine VDI-Richtlinie Schallschutz und akustische Gestaltung in Büros, VDI 2569:2019. Früher hatten solche Richtlinien apodiktisch bestimmte Vorgaben gemacht, und gut war es. Die besagte Ausgabe sagt hingegen: “5 Lärmwirkung im Büro – Anspruch und Realität: … Abschließend muss erwähnt werden, dass nur zirka 30 % bis 40 % der Belästigungswirkung aus Lärm durch technisch-akustische Faktoren erklärbar sind.” So ist man seit Jahrzehnten in 60% bis 70% der Fälle einem Phantom nachgejagt, als man den Bürolärm mit Mitteln der technischen Akustik bekämpfen wollte.

Die neue Bescheidenheit spricht gegen das Expertenwesen, wonach man für eine Gestaltungsaufgabe wie ein Großraumbüro lauter Fachexperten, Akustiker, Lichttechniker und Klimatechniker heranzieht, die dann die Fach-Normen anwenden, die ihresgleichen geschrieben hatten.

 

Phantome, die unser Wissen beherrschen X

Ist das Wissenschaft,
oder eher eine sehr teure Form
der Astrologie mit besseren Grafiken?
Anonymus

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Das fundamentale Phantom

In der Lichttechnik wird Helligkeit bis heute mit einer Standardkurve (V(λ)) bewertet, die vor rund 100 Jahren aus Messungen an wenigen, jungen erwachsenen Männern abgeleitet wurde.

Diese Kurve steckt aber hinter fast allen wichtigen Lichtangaben wie Lumen und Lux – und verleitet dazu zu glauben, sie gelte für „den Menschen“ allgemein. Tatsächlich sehen ältere Menschen, Kinder, aber auch viele Tiere und Pflanzen Licht anders, sodass gleiche Messwerte in der Praxis sehr unterschiedliche Wirkungen haben können.

Neuere Kennzahlen wie „melanopische“ Beleuchtungsstärken sollen biologische Effekte des Lichts besser erfassen, sind folgerichtig von Alter und Lichtspektrum abhängig und dadurch kompliziert zu verwenden. Mit der Einführung melanopischer Kenngrößen (CIE S 026/E:2018) wurde die Problematik sichtbar verschärft: Melanopische Beleuchtungsstärken (z. B. mel-EDI) sind explizit alters- und spektralabhängig; ein Zahlenwert gilt nur für definierte Referenzbedingungen (u. a. ein Referenzalter), während herkömmliche lichttechnische Größen diese Unterschiede nicht erfassen. 

Die zentrale Botschaft ist: Lichttechnische Grundgrößen sind keine einfache „Physiologie in Zahlen“, und gute Beleuchtung muss stärker auf unterschiedliche Menschen und Anwendungsfälle abgestimmt werden. Die Voraussetzung dafür ist, dass das Licht valide gemessen wird, d.h. eine bestimmte Größe entspricht einer bestimmten Wirkung.

Zur Geschichte des Phantoms

Dieses Phantom ist die Grundlage aller lichttechnischen Größen. Dass es eigentlich längst in die Geschichte gehört, diskutierte ich noch als junger Student, als uns Professor Helwig die V(λ)-Kurve erklärte. Helwig ist schon 55 Jahre tot, das Phantom hat vor zwei Jahren quicklebendig sein erstes Jahrhundert gefeiert.

Die junge Lichttechnik zu Beginn des 20. Jahrhunderts hatte sich vorgenommen, Lichtgrößen für den Menschen zu bestimmen und Licht an dem Menschen zu messen. Damit war sie vielen Disziplinen weit voraus. Die Physik misst Licht mit ähnlichen Instrumenten wie die Lichttechnik, kommt aber zu einem anderen Ergebnis. Das liegt an der besagten V(λ)-Kurve.

Die Kurve, die sich so schick geschwungen präsentiert, sah nicht immer so aus wie hier. An ihr ist viel poliert worden.

Sie hieß einst relativ visibility und wurde, wie im Bild deutlich erkennbar, aus verschiedenen Studien zusammengestückelt. Die CIE (Commission Internationale de l'Éclairage) sammelte die Daten von etwa 50 Probanden aus verschiedenen Studien. Obwohl die Gruppe statistisch gesehen recht klein war, reichten die Daten aus, um einen Mittelwert zu bilden. So wurden die individuellen Empfindlichkeitskurven der Probanden gemittelt. Der höchste Punkt der Kurve (das Maximum) wurde auf den Wert 1 gesetzt. Dieser Punkt liegt bei einer Wellenlänge von 555 nm (gelb-grün). 1924 wurde diese gemittelte Kurve als internationaler Standard für das photopische Sehen (Tagessehen) definiert.

An sich kein großes Problem. Dumm nur, dass die Probanden in den relevanten Studien der frühen 1920er Jahre (hauptsächlich die Untersuchungen von Gibson und Tyndall sowie Coblentz und Emerson) überwiegend junge Erwachsene waren. Die meisten Teilnehmer waren zwischen 20 und 30 Jahre alt. In der entscheidenden Studie von Gibson und Tyndall (1923), die 52 Probanden umfasste, lag das Durchschnittsalter bei etwa 26 bis 27 Jahren. Noch dümmer: Viele der Probanden waren Mitarbeiter des National Bureau of Standards (NBS) (also vom Fach) oder Studenten – also eine leicht verfügbare, junge Testgruppe.

Was in den Annalen nicht steht, weil man den Fehler in der Forschung bis heute macht: Alle Probanden waren jung, gesund und irgendwie “normal”. Wer im National Bureau of Standards arbeitet, gehört zudem nicht zu Familie Doe, deren Mitglieder John und Jane unserem Max und Erika   Mustermann entsprechen. Und Studenten im Alter von 25 Jahren bildeten zu Beginn des 20. Jahrhunderts die Bevölkerung genauso wenig ab wie im Jahre 2026.

Bei diesem Beitrag geht es insbesondere um die Altersgruppe, weil die Augen von allen Lebewesen mehr oder weniger stark altern. Beim Menschen ändert sich die Lichtwahrnehmung durch rund ein Dutzend Alterungsprozesse, die relevant sind.

Bedeutung der V(λ)-Kurve

Die so definierte Kurve liegt allen lichttechnischen Größen zugrunde. Dies hat zweierlei Auswirkungen. Zum einen die beabsichtigte: Bewerten der Strahlung nach der angestrebten Wirkung, die Hellempfindung. Zum anderen verführt sie zu der Annahme, es handele sich um eine Quantifizierung einer physiologischen Wirkung. Genau dies ist falsch. Wie unten ausgeführt, beweist sogar ein Standard der CIE dies höchstpersönlich.

Die aus der Sicht der lichttechnischen Industrie wichtigste lichttechnische Grundgröße ist der Lichtstrom, also die Menge des Lichts, die ein Leuchtmittel abgibt. Daraus lässt sich z.B. die Effizienz einer Umwandlung von Energie in Licht berechnen. Auch die populärste, weil auch den Laien bekannte, lichttechnische Größe, die Beleuchtungsstärke, lässt sich daraus ableiten.

Damit kommen wir der physiologischen Wirkung näher, die man mit einer Lichtquelle erzielen will, der Sehleistung. Egal wie man diese definiert, landet die Betrachtung immer bei der Leuchtdichte, die z.B. beim Kontrast eine große Rolle spielt, die wiederum z.B. die Lesbarkeit stärker beeinflusst als die meisten anderen Größen. Auch bei der Geschwindigkeit des Erkennens kleiner Objekte spielt die Leuchtdichte die Hauptrolle.

Genau da setzen die diversen Fehlermöglichkeiten an, die sich aus dem Phantom ergeben.

Dieser Herr zeigt, wie aus dem Lichtstrom eine Leuchtdichte wird. Bereits er gehört nicht mehr der Altersgruppe an, für die die V(λ)-Kurve ermittelt worden war. Es kann aber noch schlimmer kommen, wie die beiden Personen in dem unteren Bild zeigen.

Die beiden Menschen sehen sehr unterschiedlich alt aus. Trotzdem ergibt die Beleuchtungsstärke nach der Reflexion die Leuchtdichte. Wenn man die Formel auf beiden anwendet, ist der Wert der Leuchtdichte gleich. In der Realität allerdings nicht. Was der linke junge Mann sieht, hat relativ wenig mit dem zu tun, was sich der Dame präsentiert.

Die Erklärungen der Grundgrößen durch zwei offizielle Stellen, unverkennbar Agrargenossenschaften, illustrieren einen möglicherweise größeren Fehler.

Denn die abgebildeten Beobachter sind keine jungen Männer, sondern Nutztiere. Diese besitzen wie die meisten Säugetiere nur zwei Farbempfänger im Auge (Dichromaten), während die Menschen drei Farbempfänger besitzen (Trichromaten). Wenn das obige Bild von einem Aquarianer gezeichnet werden würde, würde der einen noch größeren Fehler produzieren, weil Vögel und Fische vier Farbempfänger haben und viel mehr sehen können als Menschen. Allein der Unterschied zwischen Säugetieren und Menschen ist derart groß, dass man das Licht für beide mit zwei getrennten Geräten messen müsste.

Die Sicht auf das Licht durch das Auge eines jungen Mannes wird vollends absurd, wenn man sie auf Pflanzen anwendet. Deren „V(λ)-Kurve“ ist eher die Umkehrung der menschlichen.

Nicht nur auf der großen weiten Welt leben Menschen, Tiere und Pflanzen zusammen, sondern zuweilen in kleinen Wohnzimmern. Wenn Licht über die Augenempfindlichkeit von jungen Männern definiert wird, ergeben sich somit erhebliche Probleme.

Vor vier Jahren haben britische Forschende eine Arbeit veröffentlicht, aus der hervorgeht, dass nicht einmal die Erdüberwachungssatelliten gemerkt haben, dass der Planet nachts blauer strahlt, weil ihre Sensoren im blauen Bereich praktisch blind sind. (s. Der blauere Planet)

Dann kam die Idee mit der mel-Lux …

Mit der Entdeckung eines neuen Sensors im Auge im Jahr 2001 kam man gleich auf die Idee, deren Wirkung ebenso zu quantifizieren wie die Wirkung auf die Hellempfindung mit der V(λ)-Kurve. Die treibende Motivation beruhte auf der Erbsünde der LED, die technologiebedingt immer einen Peak im Blauen aufweist. Im Spektrum sieht das wie folgt aus:

Dass dieser Verlauf des Spektrums für die meisten LEDs gilt, zeigt ein Bild von Bodrogi, der mehrere hundert LED-Spektren gemessen und in einem Diagramm abgebildet hat.

Mit dem Standard CIE S 026/E:2018 wurde die Grundlage dafür gelegt, dass neben den herkömmlichen lichttechnischen Größen wie der Beleuchtungsstärke eine entsprechende melanopische Größe berechnet werden kann.[1] Nunmehr heißen die herkömmlichen Größen visuelle Größen. Im Gegensatz dazu werden die neuen Größen melanopisch bezeichnet, weil sie auf der Empfindlichkeit von Melanopsin beruhen. Im Internationalen Wörterbuch der Lichttechnik (e-ilv) findet sich zu jeder Größe auch eine melanopische.

Jetzt müssen die visuellen Größen mit dem Index „v“ gekennzeichnet werden, d.h. zu Leuchtdichte wird das Kürzel Lv und L angegeben, bei der Beleuchtungsstärke muss man sich viel Mühe geben, keinen Fehler zu machen. Denn Ev ist nicht einfach die visuelle Beleuchtungsstärke, weil es schon einmal eine etablierte Größe mit dieser Bezeichnung gegeben hat. Um die Sache zu verschlimmern, wurde diese Größe auch noch zur bestimmenden Wirkgröße für die melanopische Wirkung auserwählt. Deswegen muss die Vertikalbeleuchtungsstärke Ev,v genannt werden. Wenn man irgendwo nur Ev liest, muss man nachsehen, wann der Artikel veröffentlicht worden ist.

Das grundsätzliche  Problem liegt aber anderswo begraben: Die melanopischen Größen sind altersabhängig. Wenn man die Beleuchtungsstärke mel-EDI mEDI oder MEDI angibt, gilt die Angabe für 32 Jahre alte Menschen. In CIE S 026/E:2018 kann man die Altersabhängigkeit bis zum 90. Lebensjahr ablesen. Allerdings ist das Ablesen nicht nur schwer verständlich, sondern auch noch teilweise unmöglich. Das liegt daran, dass die neuen Größen einen Schritt in Richtung physiologisch gegangen sind und daher die Einflüsse des Alterns auf das Auge besser abbilden. Hinzukommt, dass die neuen Beleuchtungsstärken auch noch vom Spektrum abhängen. Das erkennt man nicht zuletzt an der Angabe einer melanopischen Beleuchtungsstärke:

Der Wert von 128 lx gilt für das Spektrum D65 und 32 Jahre alte Menschen. Für andere Menschen und Spektren muss man mit einem Korrekturfaktor arbeiten. Dieser liegt zwischen 1,052 (Alter 25 Jahre, Spektrum D65) und 0,442 (Alter 90 Jahre, Spektrum Normlichtart LED-B5).

Mit anderen Worten, die melanopische Wirkung des Lichts kann sich um den Faktor 2,38 unterscheiden, während ein Lichtmessgerät, das die Beleuchtungsstärke anzeigt, für alle Lampentypen und alle Menschen von 0 bis 100 Jahren denselben Wert angibt. Dieser Effekt hat aber mit der melanopischen Wirkung des Lichts wenig gemein, außer dass für beide die Vergilbung der Augenmedien maßgeblich ist.

Das Alterungsverhalten des Auges war bereits in der Antike bekannt. Schon im antiken Griechenland und Ägypten wusste man, dass Augen im Alter "blind" und weißlich-trüb werden können. In der Renaissance hatte man die Trübung der Linse im Fokus. Georg Bartisch veröffentlichte 1583 das erste bedeutende Werk der Augenheilkunde ("Ophthalmodouleia"). Darin beschrieb er verschiedene Formen des Stars, doch die chemische Veränderung – also die Vergilbung – blieb noch ein Rätsel.

Die Auflösung folgte im 18. Jahrhundert. Mit der Entwicklung besserer Mikroskope und der Extraktion der Linse bemerkten Ärzte, dass Linsen im Alter nicht nur trüb, sondern oft deutlich bernsteinfarben oder gelblich-braun sind. Mitte des 19. Jahrhunderts begann man zu verstehen, dass diese Gelbfärbung die Farbwahrnehmung beeinflusst (insbesondere die Absorption von kurzwelligem, blauem Licht). Die Auswirkungen dieser neuen Erkenntnisse konnte man bis in die Damenmode (Farbe der Hüte) verfolgen. Auch historische Gemälde von Künstlern im hohen Alter (wie etwa Claude Monet) haben oft einen extremen Gelbstich oder es fehlten Blautöne fast völlig: Die Künstler malten so, wie sie die Welt durch ihre vergilbten Linsen sahen.

So gesehen war die Definition des Lichts ohne Alterungseinflüsse und mit Experimenten mit jungen Männern ein bedenklicher Vorgang gewesen. Forscher wie Weston (1945) und spätere Studien zeigten, dass ein 60-Jähriger etwa dreimal so viel Licht benötigt wie ein 20-Jähriger, um die gleiche Sehaufgabe (z. B. Lesen) mit derselben Genauigkeit zu bewältigen. In den 1960er Jahren wurde nachgewiesen, dass die Netzhaut eines 60-Jährigen nur noch etwa 33 % des Lichts erhält, das die eines 20-Jährigen erreicht.

So wurde in der Lichttechnik folgerichtig gefordert, für ältere Personen höhere Lichtniveaus vorzusehen. Aber die Idee, die Bestimmung des Lichts so zu ändern, dass ein bestimmter Wert für alle Altersgruppen die gleiche Hellempfindung bedeutet, kam man aber nicht. Dies wäre ein weiterer Schritt in Richtung physiologisch richtiger Bestimmung des Lichts geworden.

Stattdessen haben sich die Beleuchtungsnormen auf die “normale” Sehkraft eingeschossen. So hieß es bei der Norm DIN 5035 (Entwurf, 1969): “Die Nennbeleuchtungsstärken nach Tabelle 1 gelten für Räume, die mit Personen unterschiedlichen Alters besetzt sind. Bei für vorwiegend ältere Menschen geplanten Allgemeinbeleuchtungsanlagen sowie bei Arbeitsplatzbeleuchtungen für den Einzelnen sind die Beleuchtungsstärken der nächsthöheren Stufe zu wählen.” Was machen die älteren Mitarbeitenden bei den Standard-Arbeitsplätzen?

In späteren Jahren verschwand die Anforderung für Räume mit vorwiegend älteren Mitarbeitenden und wurde durch etwas Schlimmeres ersetzt: „Die Zuordnung eines bestimmten Wertes der Nennbeleuchtungsstärke zu einer Sehaufgabe bezieht sich auf normalsichtige Personen.” (DIN 5035-1:1979-10). Man schrieb also Beleuchtungsnormen für normalsichtige Personen. Wer sollte das wohl sein? Das konnte man nirgendwo erklärt bekommen. Wenn eine Norm aber nicht für die gesamte Arbeitspopulation gilt, muss in derselben Norm angegeben werden, für wen sie nicht gilt.

Nach jahrelangem Studium der Beleuchtungsnormen und der sonstigen lichttechnischen Regelwerke, die seit 1924 entstanden sind, bin ich zu der Überzeugung gekommen: Die Festlegungen der Beleuchtungsnormen, die auch vom Arbeitsschutz angewendet wurden, galten für die jüngere Arbeitsbevölkerung unter 40 Jahren mit gesunden Augen. Diese muss auch noch Glück haben mit den sonstigen Eigenschaften der Beleuchtung. Denn für die Festlegung gilt: „Dabei wird vorausgesetzt, daß dieser Wert der Beleuchtungsstärke in seiner Auswirkung auf die Sehleistung nicht durch Störeinflüsse wie Direktblendung, Reflexblendung und Kontrastminderung, ungeeignete Lichtfarbe und Farbwiedergabe beeinträchtigt wird.

Wer noch viel schlimmer betroffen sein kann …

Die Gruppe junger Menschen zwischen 0 und 25 Jahren kommt bei der Bestimmung von mel-EDI gemäß CIE S 026/E:2018 nicht vor. Diese ist nicht etwa vergessen worden, sondern ohne Kommentar ignoriert. Denn man weiß nicht viel über die Reaktion jüngerer Menschen bezüglich Melatonin, auf dessen Basis man eine Berechnung durchführen könnte. Was man weiß, ist die wesentlich höhere Transparenz der Augenmedien, bevor deren Vergilbung anfängt, die eine Schutzwirkung gegen blaues Licht entfaltet. Wenn Kinder wie Erwachsene im gleichen Raum der gleichen Beleuchtung ausgesetzt werden, ist die Belastung durch Blaulicht sehr unterschiedlich.

Man hatte früher in Kitas oder Krankenhäusern nicht unbedingt darauf geachtet, dass die für die Erwachsenen geplante Beleuchtung die Augen der auf dem Rücken liegenden Babys schädigen könnte. Dabei gab es vor allem in den 1940ern bis 1960ern viele Erblindungen, die man fälschlicherweise erst nur dem Licht zuschrieb, die aber eine Kombination aus zu viel Sauerstoff und Lichtstress waren. Eines der Opfer war Stevie Wonder, dessen Erblindung zuerst auf das Licht geschoben wurde. Später wurde der Sauerstoff im Inkubator als Ursache identifiziert. Die vermutlich größte Gefährdung erfolgt vermutlich eher an südlichen Stränden, wo blonde und blauäugige Babys und Kleinkinder der Mittelmeersonne ausgesetzt werden.

Systematische Mängel

Unbekanntes Grundkonzept: Accessibility oder Design for All

Die Definition von Licht über die spektrale Empfindlichkeit der Augen junger Männer erschwert die Berücksichtigung des weitaus größeren Teils der arbeitenden Bevölkerung. Die Lichttechnik hat zwar Wörter aus der Antike wie Lux, Lumen oder Candela für ihre Größen ausgewählt und gar den Gott Apollo für den ersten Kartellvertrag der Industriegeschichte eingespannt, der die geplante Obsoleszenz[2] eingeführt hat, aber antike Konzepte wie “Der Mensch ist das Maß aller Dinge” nicht zur Kenntnis genommen.

Die moderne Form des zitierten Spruchs  des antiken Sophisten Protagoras (5. Jh. v. Chr.) trägt den Namen Accessibility. Das ist eine Politik, die der Bürgerrechtsbewegung aus den USA aus den 1960er Jahren entstammt. Sie ist durch viele Länder und auch von der UNO übernommen worden. Die ergonomische Normung wird seit mehr als 20 Jahren mit der zugänglichen Gestaltung der Arbeit und der Arbeitsstätten befasst. Die allgemeine Politik arbeitet nach dem Konzept “Design for All”. Design for All (auch bekannt als „Universal Design“) ist ein Gestaltungskonzept, das darauf abzielt, Produkte, Dienstleistungen und Umgebungen so zu entwickeln, dass sie für alle Menschen gleichermaßen nutzbar sind – unabhängig von Alter, körperlichen Fähigkeiten oder Lebenssituation. Ein solches Design ist für Menschen mit unterschiedlichen Fähigkeiten nützlich und marktfähig. Es kommt verschiedenen Vorlieben und Fähigkeiten entgegen (z. B. linkshänder-freundlich).

Die barrierefreie (accessible) Gestaltung der Beleuchtung an Arbeitsplätzen stellt sicher, dass alle Beschäftigten – unabhängig von individuellen Seheinschränkungen, Alter oder spezifischen Sehaufgaben – sicher, ergonomisch und ermüdungsarm arbeiten können. Das Problem ist, dass man das Konzept in der lichttechnischen Literatur lange suchen kann, ohne es zu finden.

Validitätsproblem – Wenn die Maße nicht stimmen

Validität ist einer der drei wichtigsten Grundpfeiler der Statistik und Forschung (die sogenannten Gütekriterien). Vereinfacht gesagt, beantwortet die Validität die Frage: „Misst der Test wirklich das, was er messen soll?“ Weiter gefasst: Was bedeutet Validität? Was bedeutet eine Messgröße?

Welche praktische Bedeutung die richtige Antwort darauf haben kann, kann man in der Historie der Kerntechnik lesen. Am 28. März 1979 bemerkten die Reaktorfahrer in Three-Mile-Island, Harrisburg, Pennsylvania, dass sie einen Unfall hatten. Pflichtgemäß pumpten sie 6.000 Kubikmeter Wasser in den Reaktor, das damit den notwendigen Wasserstand erzielte. Jedenfalls nach der Anzeige. In Wirklichkeit war kein Wasser im Reaktor. Die Anzeige hatte einen Rechenwert angezeigt, der den Wasserstand aus dem gepumpten Wasser und dem Volumen des Reaktorgefäßes errechnet hatte. Seit diesem Tag sind in den USA nur ganze zwei Reaktoren in Betrieb gegangen. Und das in 48 Jahren.

Das Thema Validierung wird in Genesis 2.0 – Schöpfung der elektrischen Sonne hier ausführlich behandelt:  So soll die Leuchtdichte der Helligkeit entsprechen. Die Lichttechnik muss sich mit sehr ernsthaften Validierungsproblemen befassen, denn alle ihre Größen sind linear, zwei Lux sind das Doppelte von ein Lux, ihre Wirkungen aber nicht, sie sind definiert nach physikalischen Entitäten. So soll die Leuchtdichte der Helligkeit entsprechen. Das tut sie nicht, weil sie das nicht kann.

Lichttechnische Grundgrößen entsprechen physikalischen Größen, die man mit Hilfe der V(λ)-Kurve umrechnet. Wenn ihre Werte etwas bedeuten sollen, müssen sie physiologischen Wirkungen entsprechen, welchen auch immer. Im einfachsten Fall sollten z.B. Reflexionsgrade wie 0,3 oder 0,6 etwa dem Helligkeitseindruck entsprechen, den Proben mit solchen Werten erreichen. Rein physikalisch gesehen reflektiert die Probe mit einem Reflexionsgrad von 0,6 tatsächlich exakt doppelt so viel Lichtenergie wie die Probe mit 0,3. Unser visuelles System arbeitet nicht linear, sondern annähernd logarithmisch. Das bedeutet: Damit wir einen Helligkeitsunterschied als gleichmäßig steigend wahrnehmen, muss die physikalische Lichtintensität exponentiell zunehmen. Das ist die Kernaussage des Weber-Fechner-Gesetzes. Das Weber-Fechner-Gesetz beschreibt den Zusammenhang zwischen der objektiven Intensität eines physikalischen Reizes und der subjektiv empfundenen Stärke dieses Reizes. Es bildet das Fundament der Psychophysik.

Jeder Lichttechniker und jeder Akustiker lernt das Gesetz, bestimmte Ingenieure gleich zweimal. Wenn sie sich auf dem Gebiet der technischen Akustik bewegen, arbeiten sie mit einer logarithmischen Größe. Als Lichttechniker müssen sie linear denken. Arbeitswissenschaftler wie ich verzweifeln zuweilen, wenn sie den Umstand Betriebsleuten vermitteln sollen.

Einfach gesagt: Es gibt keine physiologischen Entsprechungen zu lichttechnischen Größen. Man muss Lichtwirkungen mühsam mit den Beleuchtungsbedingungen in Relation bringen. Dabei wird man nicht selten durch die falsch definierten Maße in die Irre geführt.

[1] Wann die melanopischen Größen wirklich in dem Wörterbuch erschienen sind, kann ich nicht zuverlässig angeben. Die CIE hat bis zum Jahr 2021 das Zitieren der Begriffe aus ihrem Wörterbuch e-ilv im Internet nicht anerkannt. Sie bestand darauf, dass man die gedruckte Version benutzt. Diese gab es aber in keiner Bibliothek. Mir ist nicht einmal auf offiziellem Weg gelungen, ein Exemplar zu Gesicht zu bekommen. Das wird erst verständlich, wenn man berücksichtigt, dass das Wörterbuch komplett überarbeitet werden musste.

[2] Gemeint ist das Phoebus-Kartell, mit dem weltweit eine feste Dauer für die Glühlampe festgelegt wurde. (mehr hier Das Phoebus-Kartell – Gerücht - Legende – Realität) Phoebus (Phoibos) ist der Beiname von Apoll, besser bekannt als Apollon, des Olympischen Gottes des Lichts und der Heilkunst.

.

Wie verdient man sich einen schlechten Ruf? Fallstudien aus der Praxis II

Forschung ist das, was ich tue,
wenn ich nicht weiß, was ich tue.

Wernher von Braun

In dieser Reihe beschreibe ich in lockerer Folge die Entstehung des Gefühls bei den Benutzern, dass ein Arbeitsraum ohne künstliche Lichtquellen die beste Arbeitsumgebung wäre (Ergebnis einer LinkedIn-Studie). Diesen Ruf hat die Beleuchtungstechnik in enger Zusammenarbeit mit der Architektur redlich verdient. Manchmal war auch die Politik sehr hilfreich dabei … Dieser Beitrag behandelt einen Fall, bei dem die Wissenschaft wie auch Wissenschaftler einen großen Beitrag geleistet haben. 

130 Jahre Blendungsforschung und immer noch keine Ahnung

Der Beitrag analysiert das anhaltende Scheitern der Lichtforschung im Umgang mit Blendung, trotz über 130 Jahren Forschung seit Edisons Versprechen eines blendfreien künstlichen Lichts. Während der Preis für Licht durch technologischen Fortschritt dramatisch gesunken ist, blieb das Ziel der Blendungsfreiheit unerreicht. Ich mache dafür vor allem wissenschaftliche Versäumnisse verantwortlich: Weder Arbeitswissenschaften, Ergonomie noch Psychologie haben Blendung als relevante Arbeitsbelastung systematisch untersucht. Auch die Lichttechnik selbst habe konzeptionelle Fehler gemacht und mit dem Unified Glare Rating (UGR) ein Bewertungsverfahren etabliert, das methodisch unzureichend, nicht validiert und für moderne Beleuchtungssituationen – insbesondere mit LEDs und Bildschirmarbeitsplätzen – ungeeignet ist. Fehlende interdisziplinäre Zusammenarbeit, eine schwache akademische Verankerung der Lichtanwendung und industriegetriebene Scheinlösungen hätten dazu geführt, dass sich die Forschung im Kreis dreht. Das Ergebnis ist ein Bewertungsmaß, das Vertrauen zerstört und reale Blendungsprobleme eher verschärft als löst. 

Wie die Wissenschaft das Blendungsproblem nicht löste

Der geniale Ingenieur Edison ist bekannt dafür, dass er die Ziele seiner „Erfindungen“  vor Beginn seiner Arbeit klar und in wenigen Sätzen beschrieb, bevor er sich an die Arbeit machte. Deswegen war er eher ein Entwickler als ein Erfinder. Dass die meisten Kenner ihn dennoch für einen Erfinder halten, hängt damit zusammen, dass seine Erfolge nicht gerade bescheiden waren. Glühlampe, Kinetoskop, Phonograph … Edison hielt 1093 Patente.

Man kann mit Hilfe seiner Notizen ermitteln, wenn etwas nicht so funktionieren wollte, wie Edison sich das vorgenommen hatte. So durfte ich in den 1970ern analysieren, warum der Phonograph in manchen Ländern und Branchen erfolgreich war, aber in deutschen Büros trotz Bemühungen der Industrie und des Bundesrechnungshofes keinen Fuß fassen konnte. Edisons Notizen zeigen, er wollte die Kommunikation zwischen Chef und Sekretärin auf das Diktiergerät legen und damit beide entlasten. 80 Jahre später wollte man das Gerät zwischen Sachbearbeitern und großen Büros und Schreibkräften im Massenbüro verwenden. Die Analyse des Versagens hat mich ein paar Jahre Arbeit gekostet.  Gegenüber dem, was die Schreibkräfte erlitten hatten, war das aber eine Kleinigkeit. Sie bezahlten mit ihrem Gehör.

Ähnlich wie bei diesem Fall scheint es mit der Glühlampe, d.h. mit dem künstlichen Licht ergangen zu sein. Dazu hatte Edison geschrieben, er werde eine Lampe erfinden, deren Licht so billig sein wird, dass sich nur Reiche eine Kerze leisten würden. Und dieses Licht werde nicht blenden.

Das primäre Ziel, der Preis des Lichts, wurde mehr als erreicht. Die Entwicklung des Preises für Licht ist eines der beeindruckendsten Beispiele für den technologischen Fortschritt der Menschheit. Seit 1924 ist der Preis für eine Lumenstunde (die Standardeinheit für Lichtmenge über Zeit) massiv gefallen – inflationsbereinigt um weit über 99 %. In den 1920ern kaufte man für  60 Arbeitsstunden ca. 5 Monate Licht. Heute 60 Arbeitsstunden kaufen über 50 Jahre Licht.

Was mit der Blendung geworden ist, habe ich am Beispiel  von Autoscheinwerfern vorgestern erläutert : Die dümmste Erfindung, seit es Scheinwerfer gibt. In dem Buch Genesis 2.0 – Schöpfung der elektrischen Sonne zieht sich das Thema durch das ganze Buch und wird in einem getrennten Kapitel ausführlich behandelt: Blendung- Was ich schon immer wusste und nie nachfragen wollte. Hierzu genügt als Erklärung kurz, was Prof. Völker zum hundertsten Geburtstag der Lichttechnischen Gesellschaft schrieb: In seinem Beitrag Ein Rückblick über 100 Jahre Forschung steht am Ende zu lesen: „Der vorliegende Beitrag zeigt, dass es möglich scheint, die vorhandenen Blendungsbewertungsmodelle auf ein Modell zurückzuführen. Zurzeit fehlen noch einige Einflussgrößen, …”. Also sah ein Professor für Lichttechnik nach 100 Jahren Forschung Licht am Ende des Tunnels … Wenn wir noch einige Einflussgrößen bestimmt haben, werden wir sicher wissen, was Blendung ist. Ganze 133 Jahre nach Edisons Versprechen.

Wo liegt der Hund begraben?

Wenn man einen Schuldigen für das grandiose Versagen in Sachen Blendung sucht, bieten sich gleich mehrere an. In dem Buch schrieb ich viel über das (nicht hilfreiche) Wirken der lichttechnischen Industrie. Hingegen sind meine eigenen Kollegen aus der Wissenschaft zu gut weggekommen. Deswegen will ich in diesem Beitrag mit diesen anfangen. Die weiteren Verdächtigen wären nicht erfolgreich zum Zuge gekommen, wenn diese der Aufgabe gerecht werden hätten können.

Was die Wissenschaft hätte besser machen müssen …

Wer hier die Lichtwissenschaft als Erstes genannt sehen möchte, liegt falsch. Die Rede ist von Wissenschaften, die Arbeitsverhältnisse untersuchen und Arbeitsbelastungen bewerten. Die heißen auf Amerikanisch Human Factors, auf Englisch Ergonomics und auf Deutsch Arbeitswissenschaften.

Bei den amerikanischen Kollegen war ich öfter zu Besuch auf ihren Kongressen und in Normenausschusssitzungen zwischen 1981 und 2021, bei den britischen Kollegen war ich sogar Fellow über 20 Jahre. Etwas länger war ich Mitglied bei der Gesellschaft für Arbeitswissenschaft. Und beim internationalen Verband, International Ergonomics Association, IEA, gehörte ich mit zu den Veranstaltern und Referenten der Kongresse über einen längeren Zeitraum. Eine Gruppe, die ich mitgegründet habe, ist heute ein Technical Committee von IEA. Die lange Aufzählung soll dazu dienen, meine Enttäuschung über viele Jahrzehnte, dass es in all diesen Gesellschaften kaum eine Aktivität gab, was Licht und Beleuchtung betraf, zu erklären.

Was man alles hätte tun können oder müssen, sei dahingestellt. Hinsichtlich des Themas Blendung hätte man zunächst eine Methode entwickeln müssen, die besser ist als die der Lichttechniker. Denn die Lichttechnik ist nicht in der Lage, mit Arbeitsbelastungen umzugehen. Sie muss auch keine wissenschaftlichen Verfahren zur Bestimmung von Arbeitsbelastungen entwickeln. Arbeitsanalyseverfahren sind in der Ergonomie zu Hause. Nur über diese kann Blendung in Verbindung mit Arbeitsbelastungen und Stress formal annehmbar behandelt werden. Es gab aber nicht einmal Ansätze dazu.

Eine andere Gruppe von Wissenschaften, die Sozialwissenschaften, hat sich ebenso wenig um Blendung gekümmert. In der Arbeitspsychologie kann man allenfalls ein Erstaunen ernten, wenn man erzählt, es gäbe eine psychologische Blendung. Eine psychologische Belastung, mit der sich die Psychologie nur am Rande befasst … oder erst gar nicht.

Wenn man sich auf die Suche nach Psychologen begibt, die sich mit der „psychologischen“ Blendung befasst haben, findet man allerhand zu Blenderei, z.B. Paulhus & Williams: Die „Dunkle Triade“ oder Harry Frankfurt: „On Bullshit“, aber nichts über Beleuchtung. Lexika für Psychologie im Internet reagieren entweder gar nicht auf das Suchwort oder wie hier abgebildet:

Und die „Lichtwissenschaften“?

Das Wort „Lichtwissenschaften“ war mir nie ein Begriff, bis ich in Zeitschriften wie Licht auf „Lichtforschung“ stieß. Die Autoren, die den Begriff benutzen, kenne ich praktisch alle persönlich. Es scheint aber so, dass das Wort anderen kein Begriff ist. Die verstehen unter Lichtforschung: „Lichtforschung – in der Wissenschaft meist als Photonik oder Optik bezeichnet – ist ein interdisziplinäres Feld, das sich mit der Erzeugung, Ausbreitung, Manipulation und Detektion von Licht befasst.“ Tatsächlich waren die großen Lichtforscher Physiker wie Max Planck oder Einstein. Wer sollte sich heute mit Blendung als Lichtforscher beschäftigen?

Zu meiner Studentenzeit gab es in (West-)Deutschland ganze zwei Professoren für Lichttechnik, die sich mit allen Belangen der Lichtanwendung und Beleuchtung beschäftigten. Im anderen Teil Deutschlands gab es ebenfalls zwei. Hingegen gab es Tausende von Professuren für BWL. Heute entfallen rund 40% der Professuren in Rechts-, Wirtschafts- und Sozialwissenschaften auf BWL. Das macht rund 5.000 bis 6.000 Professuren für BWL bundesweit. Ihnen steht eine einstellige Zahl an Universitätsprofessuren für Licht oder Ähnlichem.

Wenn man sich auf die Suche nach Wissenschaftlern eines Fachgebiets begibt, wird man in ihren Fachzeitschriften fündig. Eine Suche nach „Fachzeitschriften für Lichtforschung“ ergibt keine einzige deutsche Publikation. Wenn man sich die englischen Titel anschaut, findet man so etwas wie Nature Photonics, von der man schreibt: „Das wohl prestigeträchtigste Journal im Bereich der Lichtforschung. Es deckt alles ab – von Lasern und Quantenoptik bis hin zu Biophotonik.“

Eine viel gelobte Publikation, Light: Science & Applications (LSA), die oft sehr praxisnahe, aber fundamental wichtige Forschung publizieren soll, habe ich mir näher angeschaut. Seit 1873 sind 164 Artikel erschienen, in denen das Wort "discomfort glare" vorkommt. Unter den 10 relevantesten Artikeln aller Zeiten sind 2 Artikel von Hopkinson aus den Jahren 1952 und 1958 aufgelistet und einer aus dem Jahre 1917 mit dem vielsagenden Titel „Protection from Glare“, auf Deutsch Schutz vor Blendung. Der äußerst interessante Beitrag fängt mit diesem Satz an: “Ein wirksamer Schutz der Augen vor Blendung ist heutzutage ein Thema von großer Bedeutung, doch leider gibt es diesbezüglich zahlreiche Missverständnisse.“ An denen leidet man wohl 109 Jahre später heute.

Was die Lichtwissenschaften in Sachen Blendung bislang geleistet haben, habe ich in dem Kapitel Warum sich die Forschung auf der Stelle dreht auseinandergesetzt. Das ist ein längeres Kapitel, das in mehrere Abschnitte unterteilt ist. Deren Titel sprechen für sich:

  • Konzeptionelle Mängel grundsätzlicher Art;
  • Fehlen eines übergeordneten Ziels, weil Vermeiden von Blendung zu wenig bedeutet;
  • Vielzahl von Erscheinungen mit demselben Effekt, die unberücksichtigt bleiben;
  • Unzureichendes Ziel der Sehleistung, das das Farberkennen ignoriert;
  • Gefährden statt nützen, wenn unsinnige Anforderungen gestellt werden;
  • Etablieren eines Gütemerkmals, das seinem eigenen Ziel widerspricht.

 

Insbesondere die letztere Aktion hat dem Ruf der Lichttechnik am meisten geschadet. Es wurde ein völlig überflüssiges und unwirksames Gütemerkmal eingeführt, das zu einer Beleuchtung führte, die mehr blendete als alle vergleichbaren Beleuchtungsarten. Nach lichttechnischen Vorstellungen von damals würde man aber eher von einer absolut blendfreien Beleuchtung sprechen. Das stand sogar in den Fachzeitungen, publiziert von angesehenen Leuten vom Fach.

Summa summarum hat sich die Lichtforschung ständig im Kreise gedreht und nicht gemerkt, dass bereits ihr Ansatz falsch war. In den 1990ern kam der finale Akt, bei dem mehrere für sich nie validierte Blendungsbewertungsverfahren auf dem Papier zusammengewürfelt und „vereinheitlicht“ zu UGR wie einheitliche Blendbewertung.[1]

Bei der empirischen Untersuchung der Blendung geht man nach wie vor sehr ähnlich vor. Man benutzt eine sehr alte Skala, deren Konstruktion fragwürdig war, damit die Ergebnisse vergleichbar sind. Aber das wichtigste Problem ist, dass man Blendung ohne Arbeitsbelastung und meist auch ohne visuelle Belastung misst. Es war aber bereits in den 1960ern bekannt, dass die Wirkung einer Belastung durch eine gleichzeitig wirkende andere Belastung unproportional erhöht wird. Der schwedische Psychologe Olov Östberg hat zudem nachgewiesen, dass z.B. eine Lärmbelastung die Blendung durch eine visuelle Umgebung erhöht, obwohl die beiden Empfindungen nichts miteinander zu tun haben. Solange man daran nichts ändert, sind alle Blendungsuntersuchungen Kandidaten für ein Versagen. Zwischen den beiden Bildern unten liegen rund 60 Jahre. Kann man annehmen, dass Menschen bei dieser Haltung und in diesem Setting „comfort“ beurteilen können?

Die Blendungsbewertung, wie sie in der Lichttechnik praktiziert wird, ist mindestens zweideutig. Die Wahrscheinlichkeit, dass sie irgendeine Aussagefähigkeit besitzt, geht gegen Null. Die experimentelle Methode, nach der sie ermittelt wurde, kann nachweislich nicht funktioniert haben. Wie Validierungsversuche gezeigt haben, hat sie auch nicht funktioniert. Hier das Ergebnis einer sorgfältigen Prüfung des UGR-Verfahrens: „Die Blendungsmodelle wurden nach fehlenden Untersuchungsbedingungen und Inkonsistenzen geprüft. Es wurden Mehrdeutigkeiten gefunden wie die Einbeziehung von kleinen und großen Blendquellen und was überhaupt eine Blendquelle in komplexen Situationen mit mehreren Leuchten ist. … Die Blendungsmodelle wurden umgerechnet, um mit den Vorhersagen von 1949 von Luckiesh und Guth verglichen zu werden. Die Modelle zeigten eine geringe Aussagekraft. Wenn man Blendung in komplexeren Situationen [mehrere Leuchten, d. Autor] bewerten will, müssen die Modelle grundsätzlich neu formuliert werden.“[2]

Da verstehe einer, dass der UGR-Wert einer Leuchte im Leuchtenkatalog dreistellig angegeben wird. Schlimmer kann man das Vertrauen in Technik nicht schädigen.

Beleuchtung ist keine akademische Disziplin!

Diesen Spruch stelle ich gesondert hervor, weil er aus einer bestimmten Ära stammt, wo die Rolle der Wissenschaft in Sachen Licht, gelinde gesagt, verwaist war. Üblicherweise zeichnen sich erfolgreiche Branchen dadurch aus, dass Industrie und Wissenschaft zusammenarbeiten, indem jeder Partner den Part übernimmt, für den er die besseren Chancen hat. So kann man in den Laboren der Industrie zwar auch Forschung betreiben, aber nicht Problemen nachgehen, die eher eine Grundlagenforschung erfordern. Diese Vorstellung wird in Deutschland in großem Stil verfolgt. Für die Grundlagenforschung sind die Institute der Max-Planck-Gesellschaft zuständig (84 Institute, 24.000 Beschäftigte, 7000 Forschende). Eine praxisnähere Forschung, aus der auch Produkte hervorgehen können, betreibt die Fraunhofer-Gesellschaft (76 Institute, 32.000 Angestellte). Deutschland unterhält noch zwei weitere Forschungseinrichtungen, Helmholtz-Gemeinschaft (48.000 Angestellte) und Leibniz-Gemeinschaft (21.000 Angestellte). Universitätsinstitute können sich von der Grundlagenforschung bis hin zur Produktentwicklung auf verschiedenen Feldern betätigen.

Auch auf dem Gebiet der Lichttechnik funktionierte eine Kooperation lange Zeit recht gut. Doch ab Mitte der 1970er Jahre merkten die Industrievertreter immer wieder, dass sie an den Universitätsinstituten wenig Gehör fanden. So hat eine Vereinigung der vier größten Unternehmen der Branche die Institute angeschrieben, um Forschungsprojekte aufzuschienen. Die Reaktion sorgte für Entsetzen. Man erfuhr schriftlich, dass Beleuchtung keine akademische Aufmerksamkeit verdiene. Sie sollten sich an die Fachhochschulen wenden. Das war ignorant gegenüber dem Anliegen der Industrie und überheblich gegenüber den Fachhochschulen.

Die Ära, in der so etwas möglich war, währte zwar nicht ewig, dauerte aber lange genug, um Schaden anzurichten. Dieser Schaden betraf insbesondere das Thema Blendung, weil die Erkenntnis, dass die vorhandenen Blendungsbewertungsverfahren (VCP in den USA, Glare Index in UK, Söllner-Kurven in Deutschland) eher zum Chaos führten, in diese Ära fiel. Dabei waren zwei der drei Verfahren von Industrieunternehmen erarbeitet worden (VCP von General Electric, Söllner-Kurven von Philips) und das dritte von einem privatisierten ehemaligen Staatsinstitut. Allen war auch mehr oder weniger bewusst, dass ihre Verfahren „nicht reproduzierbar“ waren, sprich, keine Validität hatten. Das Zeitfenster war günstig, um ein valides Verfahren zu erarbeiten, zumal man jetzt über zuverlässige Messtechnik und leistungsfähige Computer verfügte, die zur Entwicklungszeit der alten Blendungsbewertungsverfahren auch in führenden Instituten gefehlt hatten. Stattdessen wurde mit dem UGR-Verfahren eine Methode entwickelt, die bereits bei ihrem Entstehen im Jahr 1995 obsolet war. Und das in mehrfacher Hinsicht:

  • Nur für die "etwa horizontale Blickachse": Die Standard-UGR-Tabellen in den Katalogen der Hersteller basieren auf der Annahme, dass der Nutzer geradeaus nach unten schaut (Sehaufgabe unter der Horizontalen)
  • Vernachlässigung der Umgebung (Kontext-Mangel): Das UGR-Verfahren bewertet die Leuchte in einem theoretischen Standardraum. Es berücksichtigt nur unzureichend, ob der Raum dunkle, absorbierende Wände oder helle, reflektierende Oberflächen hat.
  • Ignorieren der Peripherie: Lichtquellen, die ganz am Rand des Sichtfeldes liegen, können dennoch Stress verursachen, werden aber durch die Gewichtungsfaktoren (Position Index p) in der Formel oft "weggerechnet".
  • Falsche Grundlage: Die UGR-Formel "mittelt" die Leuchtdichte über die gesamte Fläche der Leuchte, weil nicht die Leuchtdichte gemessen wird, sondern die Lichtstärke.
  • Ungültige Aussage für großflächige Leuchten: Nach Aussagen der Entwickler ist UGR nicht auf großflächige Leuchten, leuchtende Decken oder indirekte Beleuchtung anwendbar. Genau diese zeichnen sich aber durch eine geringere Blendung aus.
  • "Punktquellen-Lücke" (LED-Problematik): Die Vorgänger des UGR-Verfahrens wurden für Leuchtstofflampen mit Diffusoren entwickelt. Moderne LEDs sind jedoch oft winzige, extrem helle Lichtpunkte (Clustered LEDs). Eine LED-Leuchte mit vielen extrem hellen Einzelpunkten kann denselben UGR-Wert haben wie eine gleichmäßig leuchtende Fläche, obwohl die Einzelpunkte in der Realität viel stärker blenden. (s. hierzu den Beitrag LED-Abstände sorgen für mehr Blendungsempfindung[3]
  • Computerarbeitsplätze ignoriert: Die Vorgänger des UGR-Verfahrens wurden in einer Zeit entwickelt, als die Sehaufgabe vor einer arbeitenden Person direkt vor ihr lag. Deren Fläche war zudem recht klein. Heute arbeiten die meisten Menschen entweder vor einem großen Bildschirm oder vor zwei Displays, die in der Breite etwa einen Meter einnehmen und etwa augenhoch sind. Wer diese benutzt, guckt nicht auf ein oder zwei DIN-A4-Blätter, sondern bewegt sein Auge über die gesamte Strecke.
  • Blendfreiheit nicht angestrebt: Blendungsbegrenzung bedeutet nicht Blendfreiheit. Wenn man verwuxcht, zu ermitteln, was die Vorgabe in den Beleuchtungsnormen UGR ≤ 19 bedeutet, kann man viele Antworten bekommen. Drei Antworten durch drei Professoren für Lichttechnik lauteten, dass der Wert bedeutet VCP 65, d.h. 65% der Probanden erachten eine Beleuchtung für „gerade zulässig“. [4]

 

[1] UGR = Unified glare rating stellt eine Weiterentwicklung des CIE Glare Index dar. Das Verfahren vermengt das Verfahren nach Luckiesh und Guth (1949) mit dem früher in Deutschland üblichen Söllner-Verfahren, die sich eigentlich nicht gut vertragen. Keines der Verfahren wurde je validiert. Die Zusammenfassung (UGR) hat gar eine nur geringe Korrelation zur empfundenen Blendung (siehe Clear, Robert D.: Discomfort glare: What do we actually know? In: Lighting Research and Technology. April 2013 vol. 45 no. 2 141-158 doi:10.1177/1477153512444527 .

[2] Clear, R. D. Discomfort glare: What do we actually know?, Lighting Research and Technology, 2012, https://journals.sagepub.com/doi/abs/10.1177/1477153512444527?journalCode=lrtd

[3] Abboushi B, Miller N, Royer M, Orman A, Irvin L, Rodriguez-Feo Bermudez E. LED array spatial frequency impacts discomfort and afterimages in a simulated nighttime environmentLighting Research & Technology. 2026;0(0). doi:10.1177/14771535251400286

[4] Diss Funke, S. 19, zitiert aus Deutsche Lichttechnische Gesellschaft e.V. (Hrsg.): Das UGR-Verfahren zur Bewertung der Direktblendung der künstlichen Beleuchtung in Innenräumen, LiTG-Publikation Nr. 20:2003, LiTG: Berlin, 2003.

Wenn die Farben täuschen – Ein altes Problem mit neuer Bedeutung

Die Technik liefert uns die Werkzeuge,
aber die Weisheit, sie zu gebrauchen,
hinkt eine Generation hinterher.

William F. Ogburn in Cultural Lag

Dieser Beitrag handelt von einem Phänomen, das nicht nur die Wissenschaft beschäftigt. Es war schon immer im Alltag relevant und wurde durch den Online-Handel noch wichtiger als einst.

Kurzfassung

Metamerie bezeichnet das Phänomen, dass Farben unter bestimmten Bedingungen gleich erscheinen, obwohl sie physikalisch unterschiedlich sind. Besonders relevant ist dies bei Beleuchtungs‑Geometrie‑ und Beobachtermetamerie, bei denen sich der Farbeindruck je nach Lichtquelle, Betrachtungswinkel oder Person ändert. Im Alltag führt das häufig zu Fehlurteilen, etwa beim Kauf von Kleidung, Möbeln oder Autos, da kleine Muster, Displays und Kameras Farben verfälschen. Digitale Darstellungen können das reale Farbspektrum nicht korrekt wiedergeben und verstärken die Unsicherheit. Wirtschaftlich wirkt sich Metamerie vor allem im Onlinehandel aus, wo sie einen erheblichen Teil der Retouren verursacht. Händler versuchen gegenzusteuern, etwa durch bessere Darstellung oder virtuelle Anproben, eine vollständige Lösung gibt es jedoch nicht. 

Zum Begriff

Unter Metamerie versteht man in der Farblehre das Phänomen, dass zwei Farbmuster unter einer bestimmten Lichtquelle identisch erscheinen, obwohl sie eine unterschiedliche chemische oder physikalische Zusammensetzung (und damit unterschiedliche Reflexionseigenschaften) haben. Metamer heißt bedingt gleich.

Einfach gesagt: Die Farben sehen (unter Umständen) gleich aus, sind es aber „substanziell“ nicht.

Wo wird Metamerie relevant?

Die häufigste Form ist die Beleuchtungsmetamerie: Der Farbeindruck ändert sich beim Wechsel der Lichtquelle (z. B. von Kunstlicht zu Tageslicht). Man kauft im Laden mit hellem LED- oder Leuchtstofflampenlicht zwei Kleidungsstücke (z. B. eine dunkelblaue Hose und ein dazu passendes Sakko), die perfekt harmonieren. Sobald man jedoch ins natürliche Sonnenlicht tritt, wirkt die Hose plötzlich rötlicher oder das Sakko gräulicher. Die optische Übereinstimmung bricht zusammen.

Während man die Hose und das Sakko notfalls entsorgen kann, kommt der Metamerie bei Zahnprothesen eine große Bedeutung zu. In der Zahnmedizin arbeitet man sogar noch wissenschaftlich an der Vermeidung der Metamerie (Beispiel hier). Das dient insbesondere dazu, dass die "falschen" Zähne, die beim Zahnarzt noch wie die eigenen aussehen, im UV-Licht der Disco oder bei Kerzenschein im Restaurant als „Fremdkörper“ hervorstechen können.

Viel tückischer macht es die Geometriemetamerie: Der Farbeindruck ändert sich je nach Betrachtungswinkel oder Beleuchtungswinkel (häufig bei Metallic-Lacken oder Seidenstoffen). Die kann bei Autolacken gewollt sein, bei der Abnahme einer Druckvorlage hingegen sehr tückisch. Man prüft 5.000 Flyer gewissenhaft, ob die Farben gut gelungen sind. Schon vor der Druckerei sehen die Objekte nicht mehr so gut aus. Das Problem kann aber bereits bei der Auftragserteilung eingetreten sein, wenn der Lichteinfall bei dem Auftraggeber anders war als beim Drucker.

Eine dritte Form ist die Beobachtermetamerie: Zwei Menschen betrachten dieselbe Farbe unter demselben Licht. Aufgrund individueller Unterschiede im Auge (Dichte der Sehpigmente, Alterung der Linse) sieht Person A eine Übereinstimmung, während Person B einen Farbunterschied erkennt.

Es gibt sogar eine Theorie, wonach diese Erscheinung geschlechtspezifisch ist, Frauen sehen Farben aus genetischen Gründen anders als Männer.

Ähnlich wie Metamerie, aber (heim)tückischer …

Nicht mit der Metamerie zu verwechseln ist die Abhängigkeit der erkannten Farbe von der absoluten Größe des Musters, z.B. beim Möbel- oder Autokauf im Internet. Hierbei kommen sämtliche Gemeinheiten der falschen Farbwahrnehmung zusammen. Man glaubt, man sieht ein elegantes Anthrazit, und geliefert wird ein Wagen, der im Sonnenlicht plötzlich einen Stich ins Bräunliche oder Violette hat.

Zunächst zum Problem der Fläche. Selbst wenn alle Betrachtungsbedingungen perfekt wären, kann kaum ein Mensch von einem kleinen Farbmuster auf eine große Fläche schließen. Wenn die gesehene Fläche kleiner wird, verschwindet die Farbwirkung langsam aber sicher. Dies zeigt das nachfolgende Bild. Die dicken Striche sehen richtig rot aus. Der Farbeindruck wird blasser, je dünner der Strich wird. Etwa dasselbe passiert, wenn man sich die Farbe seines künftigen Autos aus einer Tabelle mit Farbmustern aussucht.

Wenn man das Auto auf dem Bildschirm aussucht, kommen mindestens die Qualität des Monitorpanels, die Einstellung der Wiedergabe (Farbprofil) und das Betriebssystem hinzu. Ein Bildschirm (Smartphone oder Laptop) kann physikalisch das echte Farbspektrum des Autos gar nicht anzeigen. Wobei man gleich in Frage stellen muss, ob es die echte Farbe geben kann. Denn das Bild des Autos wird unter einem bestimmten Licht erzeugt. Wenn es mit einer Handykamera aufgenommen wird, verfälscht diese wegen ihrer “Optimierung”: Wenn ein blaues Auto vor einer grauen Wand steht, korrigiert die Software den Weißabgleich so extrem, dass der Lack auf dem Foto lebendiger wirkt, als er in der Realität ist.

Die wirtschaftliche Bedeutung

Solange man wichtige Dinge wie Kleidung oder Möbel nach physikalischer Inspektion kaufte, war das Problem relativ einfach lösbar. Man ging mit der Ware kurz aus dem Laden und ließ sich vom Erscheinungsbild überzeugen. Frühere Schneider haben den Stoff, die Nähseide, die Knöpfe und Reißverschlüsse immer fein drapiert und unter der künstlichen und natürlichen Beleuchtung beurteilt. Heute kann man nicht einmal davon ausgehen, ob der Näher eines Sakkos auch dessen Knöpfe kennt, die möglicherweise in einem anderen Land angebracht werden.

Ein Großteil der gekauften Ware wird online gekauft und kommt mit der Post. Es wird häufig am Abend ausgepackt. Die Rolle der Metamerie schlägt bei Modeartikeln voll zu. Ein großer Teil der Retouren von 40% bis 60% geht vermutlich auf die Metamerie zurück. Bei Elektronikartikeln, wo die Farbe praktisch keine Rolle spielt, betragen die Retouren nur 5% bis 10%.

Einige Farben sind extrem anfällig:

Navy / Dunkelblau → kann violett oder grau wirken
Beige / Taupe → wirkt mal warm, mal kühl
Weiß / Off-White → kann gelblich oder bläulich erscheinen

Da die Rolle der Metamerie insbesondere bei Modeartikeln bekannt ist, versuchen Händler die Farbverfälschungen möglichst zu reduzieren. Das geht bis zur virtuellen Anprobe: Über die Smartphone-Kamera wird das Kleidungsstück virtuell „angezogen“. Moderne AR-Software versucht dabei, die aktuelle Lichtsituation im Raum des Nutzers zu berechnen, um die Farbe realistisch anzupassen. Ehrliche Teppichversandhäuser warnen gar vor Farbverfälschungen durch den Blickwinkel auf den Bildschirm.

Aber selbst sehr gut klingende Ratschläge helfen zuweilen  nicht. So klingt dieser Ratschlag recht passabel: “Beurteilen Sie Farben immer am Fenster bei indirektem Tageslicht, bevor Sie das Etikett entfernen.”Das Fensterglas entfernt das UV-Licht fast vollständig, dadurch entfällt die Wirkung der Weißmacher. Diese aber bestimmen nicht selten die Frische der Farben bei der Kleidung. Andererseits ist es unsinnig, Unterwäsche und Schlafbekleidung bei Tageslicht zu beurteilen.

Die möglichen Fehler und Abhilfen beim Autokauf, insbesondere bei Gebrauchtwagenkauf, sind abendfüllend. Diese erläutere ich in einem getrennten Beitrag.

Wie verdient man sich einen schlechten Ruf? Fallstudien aus der Praxis I

Die Technik liefert uns die Werkzeuge,
aber die Weisheit, sie zu gebrauchen,
hinkt eine Generation hinterher.

William F. Ogburn in Cultural Lag

In dieser Reihe beschreibe ich in lockerer Folge die Entstehung des Gefühls bei den Benutzern, dass ein Arbeitsraum ohne künstliche Lichtquellen die beste Arbeitsumgebung wäre (Ergebnis einer LinkedIn-Studie). Diesen Ruf hat die Beleuchtungstechnik in enger Zusammenarbeit mit der Architektur redlich verdient. Manchmal war auch die Politik sehr hilfreich dabei …

Alte und neue Technologien

Dieser Beitrag untersucht anhand historischer und aktueller Fallstudien, wie bestimmte Handlungsweisen bei der künstlichen Beleuchtung ihren schlechten Ruf bei Nutzern erzeugten. Im Mittelpunkt stehen technische Fehlentwicklungen, ignorierte Nutzerbedürfnisse und politisch-industrielle Fehlentscheidungen. Beginnend bei den frühen Leuchtstofflampen mit Glimmstarter beschreibe ich, wie das störende Flackern und eine bestimmte Unzuverlässigkeit dieser Technik über Jahrzehnte hinweg trotz existierender Lösungen bestehen blieben. Anschließend beschreibe ich die Entstehung und Vermarktung der Kompaktleuchtstofflampe (KLL)– einschließlich der Probleme durch langsame Startzeiten, mangelhafte Lichtqualität, erhöhte Ausfallraten sowie die ökologisch umstrittene Verwendung von Quecksilber. Politische Entscheidungen und Industriekampagnen, die diese Technologie trotz ihrer Defizite als ökologische Innovation propagierten, verstärkten die Akzeptanzprobleme zusätzlich. Der Beitrag zeigt, wie wiederholtes Ignorieren von Nutzererwartungen und Umweltaspekten über Jahrzehnte hinweg zu einem nachhaltigen Vertrauensverlust in bestimmte Lichttechnologien führte – und wie moderne LED-Technik diesen Ruf inzwischen teilweise rehabilitiert. 

In der guten alten Zeit, als der Glimmstarter regierte …

Edison hatte Wort gehalten und eine Lampe gebaut, die beim Drehen des Schalters sofort Licht gab. Das ist bis heute so geblieben: Niemand möchte stundenlang warten, bis Licht kommt. Genauer gesagt, es handelt sich um wenige Sekunden, die niemand abwarten will. Der einzige Unterschied zu 1890 ist, dass wir keinen Drehschalter mehr haben, jedenfalls in modernen Bauten. Dort geht es auf Knopfdruck.

Die so verwöhnten Menschen wurden an deren Arbeitsplatz mit einer Technik konfrontiert, die das Licht nach Meinung der Techniker “wirtschaftlich” lieferte, aber nicht sofort. In den frühen Tagen der Leuchtstofflampe (ca. 1930er/40er Jahre) war das Starten ein mechanischer Prozess. Der klassische Starter ist im Grunde eine kleine Glimmlampe mit einem Bimetall-Kontakt. Diesen fand die Technik wohl nicht so störend, dass eine meiner ersten Forschungsarbeiten dazu diente, bessere Glimmstarter auszusuchen, die die Lampe nicht mehr mehrfach flackern ließen.

Das war etwa 30 Jahre, nachdem mein Vater sich über die neue Beleuchtung in seinem Büro beschwert hatte. Er war nach Hause gekommen und hatte berichtet von der neuen Beleuchtung mit Leuchtstofflampen und seinen Kopfschmerzen. Es war üblich, solche Beschwerden ins Reich der Fabel zu verweisen und die Beschwerdeführer zum Nörgler zu erklären.

Dabei war die Lösung des Problems der flackernden Lampe längst bekannt, als ich Ende der 1960er die Starter untersuchte. Denn die Ingenieure wollten dieses unzuverlässige mechanische Bauteil (den Starter) schon immer loswerden. Der Starter war nämlich oft das erste Teil, das kaputtging. Nicht nur das. Wer damals den falschen Starter kaufte, stand zuweilen im Dunkeln oder erlebte eine Röhre, die nur an den Enden glühte, aber nie zündete. Ein Starter hielt zudem oft nur ein paar tausend Schaltvorgänge. Wenn er festklebte, glühten die Wendeln der Röhre dauerhaft durch, bis sie verbrannten. Deswegen hatte man die Rapidstartlampe erfunden. In den USA brachte die Firma General Electric (GE) im Jahr 1952 das erste kommerziell erfolgreiche Rapidstart-System auf den Markt.

Das Motiv der GE-Ingenieure war buchstäblich sehr einleuchtend: Das Startverhalten der Leuchtstofflampe war das größte Hindernis für die Akzeptanz im Wohnbereich und in gehobenen Büros. Das ständige Flackern der Glimmstarter (Preheat-Systeme) wurde als "billig" und unzuverlässig wahrgenommen. Und GE war das größte Unternehmen der Welt, was das künstliche Licht anbelangte. Dennoch dauerte die Flackerei bis in das neue Jahrhundert. Es wurde im Laufe der Zeit seltener.

Als ich mich mit den Glimmstartern beschäftigte, war mein Zimmernachbar an einer Technologie daran, die später Epoche machen würde, das elektronische Vorschaltgerät (EVG). Er bastelte an einem der ersten Exemplare. Das ist aber eine andere Geschichte, die ein andermal erzählt werden soll. Hier geht es um ein Ignorieren des Nutzerverhaltens, das auch dann griff, als das mächtigste Unternehmen der Branche die Lösung längst präsentiert hatte.

Neuauflage des Ignorierens des Startverhaltens einer Lampengattung

Die gemeinte Lampengattung ist mit der Firma verbunden, von der oben die Rede ist. Ihre Geschichte beginnt bei General Electric (GE) in den USA. Mitten in der ersten großen Ölkrise sucht man verzweifelt nach Wegen, Strom zu sparen. Der Ingenieur Edward E. Hammer biegt eine lange, dünne Glasröhre in eine enge Spiralform, damit sie in die Größe einer normalen Glühlampe passt. GE entschied sich gegen die Produktion. Die Maschinen zur Herstellung der gebogenen Glasröhren wären zu teuer gewesen (geschätzte 25 Millionen Dollar). So legt GE das Patent auf Eis.

Während GE zögerte, sahen die Europäer ihre Chance. Philips präsentierte 1980 die erste marktreife Kompaktleuchtstofflampe: die Philips SL*. Sie sah aus wie eine klobige Marmeladenglas-Konstruktion. Sie war schwer (wegen des eingebauten magnetischen Vorschaltgeräts), groß und unhandlich. Dennoch wurde sie eine Sensation, weil sie 80% weniger Strom verbrauchte und 10-mal länger hielt.

Die Designer bei Osram und Philips entwickelten die "U-Form" (die typischen Finger-Röhren), die leichter zu produzieren waren als Hammers Spirale. In den späten 80ern ersetzten kleine Platinen die schweren, brummenden Kupferspulen. Die Lampen wurden leichter, flackerten beim Start nicht mehr und leuchteten sofort heller.

Dabei bedeutete sofort leider nicht gleich. Viele Modelle brauchten 1–2 Minuten, um ihre volle Helligkeit zu erreichen ("Geduldslicht"). Volle Helligkeit hieß leider immer noch nicht die geplante Lichtqualität. Wenn man um das Jahr 2007 eine solche Lampe im Labor messen wollte, musste sie volle 24 Stunden warm werden, damit ihre Daten stabil blieben. Dass sie zuvor noch zwei Wochen eingebrannt werden musste, bis sie ihre Eigenschaften einigermaßen festigte, gehört noch dazu.

Da die Lampen wegen ihrer meist schlechten Lichtfarbe (grünlich-gelb) und noch schlechteren Farbwiedergabe (mit erheblicher Mühe bei der Bewertung auf Ra 80 getrimmt) meist nur in Garagen oder Kellern zu Hause waren, hat vermutlich niemand die Kompaktleuchtstofflampe (KLL) mit ihrem labormäßigen Erscheinungsbild gesehen. Für professionelle Anwendungen gab es andere KLL mit externem elektronischem Vorschaltgerät, die man an dem Stecksockel erkennen konnte.  Die hier gemeinten KLL waren solche mit integriertem Vorschaltgerät, das im Sockel saß.

Als die Debatte um das Glühlampenverbot der EU 2007 begann, wurde die KLL zur Energiesparlampe hochbefördert. Und zwar nicht die Technologie, sondern die Form mit dem integrierten Vorschaltgerät. Es half nicht, dass die Gegner argumentierten, man könne eine ökologische Revolution, die in der Ökodesign-Richtlinie von 2008 kulminieren sollte, Verordnung (EG) Nr. 244/2009, mit einer Technik vorantreibt, die massensweise Elektroschrott produziert. Denn der neue Stern am ökologischen Himmel, die KLL mit integriertem Vorschaltgerät, ging schneller kaputt, weil sich der Sockel erwärmte, was der Elektronik selten guttut. Und die Elektronik war selten hochwertig, weil die Energiesparlampe mit der Glühlampe konkurrieren sollte.

War der Vorwurf der Förderung des Elektronikschrotts noch relativ harmlos, verstießen die Freunde der auf den Thron der Ökologie gesetzten Lampe gegen eine der wichtigsten ökologischen Grundlagen: das Verbot von Quecksilber. Diese Substanz, von der man zwar gerne, aber sehr schwer Abschied nahm, ist praktisch in allen Lebenslagen verboten bzw. geächtet, seit man Mitte der 1950er Jahre in der Minimata-Bucht in Japan schreckliche Entdeckungen gemacht hatte. Besonders grausam war die Entdeckung, dass Methylquecksilber die Plazentaschranke durchbricht. Mütter, die selbst kaum Symptome zeigten, brachten Kinder mit schwersten Fehlbildungen und geistigen Behinderungen zur Welt. Dies bewies, dass Quecksilber direkt in die Gehirnentwicklung von Ungeborenen eingreift. Und nun sollte die ökologische Revolution der EU mit einer Technologie beginnen, die auf eben diesem Material beruhte.

In dieser Situation wirkte die Argumentation der Industrie besonders perfide. Als der Umweltminister Gabriel mit der Energiesparlampe Wahlkampf betrieb (z.B. hier) und sein Vorgänger Jürgen Trittin ihm beistand, half ihm die Industrie mit dem Argument, die Wunderlampe würde Energie sparen und so ein kleines Kohlekraftwerk einsparen helfen. So erfuhr die Öffentlichkeit, dass Kraftwerke immer Quecksilber über das Land streuen. (zu lesen unter z.B. Quecksilber hin, Quecksilber her oder Quecksilber - noch einmal aus den Jahren 2009 und 2010)

Wenn die Politik solche Hämmer ignoriert und einer Technologie den Vorrang einräumt, die auf einem äußerst giftigen Material beruht, wie ernst mag man denn die Unannehmlichkeit des Anlaufs einer Lampe beim Einschalten nehmen? (Hier hilft unsere Studie zur Ökologie der Energiesparlampe Download weiter) Der EU bliebe allerdings die Peinlichkeit erspart geblieben, die Energiesparlampe aus dem Verkehr zu ziehen, weil sie keine Energiesparlampe war. Seit 1. September 2021 dürfen keine klassischen Energiesparlampen mit Schraubgewinde (E27/E14) in den Verkehr gebracht  werden. (s. Energiesparlampen verboten, weil nicht energieeffizient). Somit wurde die Energiesparlampe lange vor mancher Halogenglühlampe aus dem Verkehr gezogen.

Heute gehen die Lichter wieder sofort an wie zu Zeiten Edisons. Sie werden häufig in E27-Sockeln geschraubt, auch wie zu Zeiten Edisons. Allerdings hat das neue Licht mit den früheren Versionen nur noch wenig zu tun. Was neu ist und wie es dazu kam, habe ich in dem Kapitel Epochen der Kunst der Lichtmacher dargelegt. Wer Interesse hat, zu wissen, was mit der neuen LED-Technologie möglich ist, was früher nicht denkbar war, sollte sich alles angucken, was alles auf der Basis dieser Technologie möglich ist. Das kleinste Objekt, das mir einfällt, ist eine winzige LED, deren Licht hilft, Tumorzellen zu töten. Das bislang Größte war ein Display, das eine ganze Straße in Las Vegas überdacht.

Dazwischen liegen solche Objekte wie auf diesem Foto, das den Ruf der künstlichen Beleuchtung erklärt. Es gehört zu meinen liebsten Aufnahmen, weil viele “Gewerke” für dieses Erscheinungsbild verantwortlich sind. Wer alles da beteiligt war, habe ich in einem anderen Beitrag erläutert: Wie kommt das Grauen in deutsche Büros?.

Phantome, die unser Wissen beherrschen IX

Die größte Gefahr für die Erkenntnis ist
nicht das Unwissen, sondern die Faulheit,
die sich hinter Fachbegriffen versteckt
Anonymus

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Phantom Lambertscher Strahler

Der Beitrag erläutert, warum das Lambertsche Gesetz – ein mathematisches Modell für ideal diffuse Reflexion – in der realen Beleuchtungspraxis häufig zu Fehlinterpretationen führt. Ein Lambert Strahler würde in alle Richtungen gleich hell erscheinen, doch kein reales Material verhält sich exakt so. Trotzdem wird dieser Idealzustand in vielen Normen und Berechnungen vorausgesetzt. Viele Normen und Regelwerke (z. B. DIN-Normen zu Arbeitsstätten, Sportstättenbeleuchtung, Bildschirmarbeitsplätzen) basieren auf Annahmen, die physikalisch nicht zutreffen. Sogar eine Grundgröße wie die Beleuchtungsstärke oder eine wichtige Größe wie der Reflexionsgrad machen nur Sinn, wenn man von einer Lambertschen Reflexion ausgeht.
Vorschriften zur Leuchtenanordnung und zum Arbeitsraum führten zu teils absurden Anforderungen (z. B. ausschließlich matte Oberflächen, stark eingeschränkte Raumzonen für Arbeitsplätze). Viele Anforderungen sind praktisch nicht erfüllbar und werden daher ignoriert – zu Lasten der Benutzer. Man hätte besser mehr diffuses Licht statt direkter Beleuchtung vorsehen sollen, entspiegelte Bildschirme statt Vorschriften zu deren Aufstellung. Man muss anerkennen, dass das Lambert-Modell ein hilfreiches Ideal ist, aber keine reale Grundlage für praktische Normen.

Zur Geschichte des Phantoms

Dieses Phantom kennen nur Fachleute unter seinem Namen, den dessen Erfinder ihm gegeben hat, Johann Heinrich Lambert, seines Zeichens schweizerisch-elsässischer Mathematiker, Logiker, Physiker, Astronom und Philosoph der Aufklärung, der u. a. die Irrationalität der Zahl Pi bewies. Die Folgen des großzügigen Umgangs mit dem Phantom kann man in allen Lebenslagen erfahren.

Wenn man eine genaue Erklärung für Lamberts Kosinus-Gesetz aus dem 18. Jahrhundert braucht, kommt meistens etwas zusammen, dass auch manche Fachleute rätseln müssen, was das denn sein soll. Hier ist ein gutes Beispiel für (k)eine gute Visualisierung:

Anschaulicher stellt das Lambertsche Gesetz Wikipedia dar du sagt dazu: „…Wenn eine Fläche dem Lambertschen Gesetz folgt und die Strahldichte der Fläche konstant ist, so ergibt sich eine kreisförmige Verteilung der Strahlstärke.

Legende: Winkelabhängigkeit der Strahlstärke bei einem Lambert-Strahler.
I: Strahlstärke; S: Quelle oder Reflexionsfläche

Allerdings kann auch diese Abbildung nicht allzu viel helfen, das Thema zu verstehen, weil sie zwar simpel ausschaut, aber trotzdem sehr technisch ist. Für den in diesem Beitrag verfolgten Zweck ist eine verbale Beschreibung viel erhellender: Ein Objekt, das dem Lambertschen Gesetz genügt, sieht aus allen Richtungen gesehen gleich hell aus, egal ob es selbst strahlt oder fremdes Licht reflektiert. Bei der Reflexion ist es vollkommen gleichgültig, ob das Licht aus einem einzigen  Punkt kommt (z.B. von der Sonne, von einer Lampe) oder aus einer gleichmäßig leuchtenden Halbkugel um das Objekt herum. Dieses Verhalten zeigt das Bild unten. Das aus einer einzigen Richtung einfallende Licht wird so gestreut, dass man aus jeder Richtung die gleiche Helligkeit sieht.

Es geht genau um die mit den kleinen blauen Pfeilen angedeutete Verteilung des reflektierten Lichts. Es gibt nämlich überhaupt kein Material, dessen Oberfläche so reflektieren kann. Das Problem entsteht dadurch, dass man in der Beleuchtungstechnik so tut, als ob dies (fast) immer gelten würde. Das macht ein perfektes mathematisches Modell zum Phantom. Viele Irrungen und Wirrungen in der Beleuchtungstechnik lassen sich auf Missverständnisse zurückführen.

Wo es überall kneift und schwitzt

Was es in etwa bedeutet, kann man an diesem Bild erkennen, das einen Tisch zeigt, dessen Oberfläche nicht ganz dem Gesetz entspricht, was man an den Schatten erkennen kann. Auf dem Bild sind mehrere Objekte abgebildet, deren Reflexionsvermögen sehr unterschiedlich ist.

Auf dem Tisch befindet sich ein Computer, dessen Bildschirm stark von dem Lambertschen Gesetz abweicht. Davor sieht man ein bedrucktes Blatt Büropapier, das dem Lambertschen Ideal recht nahekommt. Während der Monitor neben der beabsichtigten Information alles Mögliche noch zeigt, z.B. den Kopf des Benutzers und die Nachbargebäude, scheint das Papier frei von Reflexionen aller Art.

Das Bild, vollkommen unbearbeitet, zeigt trotzdem nicht die „Wahrheit“, also ein physikalische Gegebenheit. Der abgebildete Monitor ist für dessen Benutzer hervorragend entspiegelt, sieht aber wie ein perfekter Spiegel aus. Der Benutzer sieht aber nichts von allem, was das die Monitoroberfläche gespiegelt abbildet. Das matte Papier ist matt nur für weitgehend gestreutes Licht. Die darauf gedruckte Schrift glänzt noch etwas, je nachdem, wie der Drucker sie fixiert hat.

Im übelsten Fall, streifendes Licht, kann ein passables Bild (s. unten, links) zu einem katastrophalen werden (unten, Mitte). Der Kontrast kann sich sogar umkehren (unten, rechts)

Mit einfachen Worten, die Abweichung der realen Reflexionsbedingungen kann bis zu einer fast vollständigen Verfälschung eines gegebenen Bildes führen. Daher macht es Sinn, anzusehen, wo überall in unserer Denke und Praxis das Phantom zuschlägt.

Die Größe Beleuchtungsstärke macht Sinn, wenn …

Der Begriff Beleuchtungsstärke stammt aus dem Labor und gilt genau genommen nur in der Art, wie sie dort benutzt wird. Beleuchtungsstärke ist der an einem Punkt ankommende Lichtstrom (rechts im Bild). Wenn dort ein Photometer hängt, liest man den Wert ab. Wenn dort ein Objekt hängt, das so reflektiert wie nach dem Lambertschen Gesetz, entsteht eine Leuchtdichte

L = ρ • E
Wobei L für Leuchtdichte steht und ρ für den Reflexionsgrad.

Dieselbe Formel verwendet man aber auch, um die Leuchtdichte des Papiers anzugeben, das z.B. unter sehr verschiedenen Beleuchtungen liegt, die unten skizziert sind.

Wenn man die Beleuchtungsstärke an einem Punkt links oder rechts im Bild misst und dort einen Wert X liest, rechnet man mal die Leuchtdichte eines dort befindlichen Objekts nach diesem Wert. Das ist aber nur dann zulässig, wenn das Objekt richtungsunabhängig reflektiert. Ansonsten kann der abgelesene Wert alles Mögliche bedeuten, nur nicht die errechnete Leuchtdichte.

Man liegt mit der Bewertung einer Beleuchtungsstärke umso weiter daneben, je weiter sich die Beleuchtung von einer idealen Halbkugel mit gleicher Abstrahlung unterscheidet. Der eklatanteste praktische Fall liegt bei älteren Sportstätten vor, die mit vier Masten beleuchtet werden. Bei diesen hat die auf dem Feld gemessene Beleuchtungsstärke mit der tatsächlich relevanten Leuchtdichte (Richtung zur Hauptkamera des Fernsehens) so gut wie nichts zu tun. Dies habe ich 1973 mit simultanen Messungen der Beleuchtungsstärke und Leuchtdichte in einem Stadion nachgewiesen. Kurz gesagt: An 13 von 100 Messpunkten versagt die Größe der Beleuchtungsstärke bei der Angabe der gemessenen Leuchtdichte. Stand heute gelten aber die “Anforderungen an die horizontale Beleuchtungsstärke nach Sportarten gemäß DIN EN 12193:2008-04

Wenn man das Licht aus diesen vier Masten an einer bestimmten Stelle des Spielfeldes zusammenzählen  will, um daraus eine sinnvolle Größe für die Leuchtdichte zu erhalten, die für die Kameras und Menschen relevant ist, muss der Rasen ein Lambert-Strahler sein. Dass er das bestimmt nicht ist, kann man als Fussballfan ein paar Mal in jeder Woche am Fernseher erleben. Wie der Rasen in einem Stadion wirklich reflektiert, ist hier skizziert:

Dieser Effekt ist seit etwa 60 Jahren bekannt und gehört mittlerweile zum Erscheinungsbild eines Fussballstadions. Er wird mit Hilfe von besonderen Einrichtungen hergestellt.

Dass die Horizontalbeleuchtungsstärke bei Sportarten wie Fussball nicht nur wenig Bedeutung hat, war dem deutschen Fernsehen in den 1960ern bekannt. Deswegen verlangte es für die Olympiasportstätten in München Vertikalbeleuchtungsstärken. Dennoch blieb es bis heute nicht nur bei den unsinnigen Anforderungen. Die Praxis liegt noch schlimmer daneben.

Die Annahme, dass eine Horizontalbeleuchtungsstärke bei den vorliegenden Lichtverteilungen Sinn mache, der die Vorstellung einer Lambertschen Reflexion zugrunde liegt, enthebt die Notwendigkeit, sich Gedanken über die Ebene zu machen, in der das Licht einfällt. Das untere Bild zeigt einen Ball, der von zwei Seiten beleuchtet wird.

Die beiden Scheinwerfer links und rechts werden in der Berechnung ihrer Wirkung einfach zusammengezählt. Wenn ein Mensch oder eine Kamera diesen Ball von links aufnimmt, nützt ihnen der Lichteinfall von rechts garantiert nicht. Somit ist der Kontrast des Balls zu seinem Hintergrund halb so hoch wie berechnet.

Das scheinbar unlösbare Problem der Bildschirmreflexionen

Reflexionen auf Bildschirmen sind seit ihrer Einführung im Büro in den 1960ern ein Thema. Ein Nachweis dafür, dass sie auch heute relevant sind, liefert ein Blick in die Arbeitsstättenverordnung, bei der ein ganzes Kapitel der Gestaltung und dem Betrieb von Bildschirmarbeitsplätzen gewidmet ist.  Wie die Beleuchtung von Arbeitsstätten damit erfolgreich umgehen könnte, steht in DIN EN 12464-1: “EN ISO 9241-307 enthält Anforderungen an die visuellen Eigenschaften von Displays bezüglich unerwünschter Reflexionen.”

Offenbar hat aber niemand einen Blick in ISO 9241-307 geworfen. Denn dort stehen keine Anforderungen. Anforderungen können auch nicht dort stehen, was man am Titel der Norm erkennen kann: „DIN EN ISO 9241-307:2009-06  Ergonomie der Mensch-System-Interaktion - Teil 307: Analyse- und Konformitätsverfahren für elektronische optische Anzeigen” .

Tatsächlich sollte die gesamte Normenreihe ISO 9241-30X dazu dienen, die ergonomischen Eigenschaften von Monitoren zu normen. Der Teil ISO 9241-303 heißt dieser Aufgabe entsprechend “Ergonomie der Mensch-System-Interaktion - Teil 303: Anforderungen an elektronische optische Anzeigen”. Doch die Autoren dieser Norm sind in die gleiche Falle getappt wie die Autoren der Norm für die Beleuchtung von Sportstätten. Sie gingen davon aus, dass sich eine Beleuchtung durch die Horizontalbeleuchtungsstärke charakterisieren lasse. Sie rechneten diese Größe lediglich in die Ebene des Bildschirms um. So gelten 2026 die Anforderungen an elektronische optische Anzeigen” für eine bestimmte Beleuchtungsstärke im Büro, z.B. 300 lx oder 500 lx. Wenn die Norm anwendbar wäre, wären Monitore für diese Beleuchtungsstärken zertifiziert worden. Ein Monitor, der nur in Räumen ordentlich funktioniert, deren Beleuchtungsstärke 500 lx oder weniger beträgt?

Reflexionen auf optischen Anzeigen gibt es aber immer. Ob sie für den Benutzer überhaupt relevant sind, hängt von seiner Position und von den Leuchtdichten der Flächen ab, die der Benutzer gespiegelt sehen kann. So wird der Benutzer des zu Beginn des Kapitels abgebildeten Computers auch bei 5000 lx seinen Bildschirm gut lesen können. Wenn er 50 cm daneben sitzt, wird das Bild ihn stören, auch wenn die Beleuchtungsstärke nur 100 lx beträgt.

Ein Foto eines kleinen Monitors (< 25 cm in der Breite) mit Reflexionen darauf zeigt, dass die Beleuchtungsstärke im Raum gegenüber der Verteilung von Leuchtdichten fast völlig irrelevant ist.

Eigentlich braucht es keine Bilder, um zu wissen, dass die Beleuchtungsstärke nur eine geringe Rolle spielt. Wäre dem so, würde kein Navigationsgerät in Autos tagüber funktionieren, auch kein großes Display, wie es heute in allen Autos der Fall ist. Denn tagsüber liegt die Beleuchtungsstärke in Fahrzeugen weit jenseits von den Werten in Büroräumen. Man benutzt aber in beiden Fällen eine ähnliche Technik.

Das ist nur ein Beispiel, wie eine Vorstellung, die auf der Lambertschen Reflexionscharakteristik  beruht, einen ganzen Normenausschuss in die Irre geführt hat.[1]

Anordnung der Leuchtenreihen in Arbeitsstätten

Die Gründe, warum man in Deutschland (aber auch in vielen anderen Ländern) die Leuchten in Arbeitsräumen in Reihen parallel zur Fensterfront hängt, sind längst vergessen. Man macht es seit mindestens 40 Jahren so.

Was würde sich ändern, wenn ,man sich nicht daran hielte? Man kann sich den Spaß erlauben und einen kleinen Büroraum (Breite 3,60 m, 3 Modulmaße a 1,20 m) mit zwei Leuchtenreihen senkrecht zur Fensterfront anordnen. Dann würde das, was man auf den nächsten Bildern sieht, um 90° gedreht in zweifacher Ausfertigung über die ganze Breite des Arbeitsplatzes möglich sein und sich bei jeder Körperbewegung in Richtung des Monitors mitbewegen.

Um solche Effekte zu vermeiden, geben die Beleuchtungsnormen immer vor, bestimmte Maßnahmen zur Verminderung der Reflexblendung zu treffen. Deren Aufzählung begann in der ältesten mir vorliegenden Norm, DIN 5035-1:1962 (Entwurf) so: “Blendung hervorgerufen durch Spiegelung von Leuchten in beleuchteten Gegenständen (Reflexblendung) kann im allgemeinen durch geeignete Wahl der Lichteinfallsrichtung, in manchen Fällen durch entsprechende Behandlung der Oberfläche (mattes Papier, matter Kopierstift, Tasten von Schreibmaschinen aus nicht speigelndem Material und dergleichen vermieden werden.” Wenn man sich nicht auf dergleichen verlassen wollte, konnte man dem Rat der Norm folgen, der da hieß: “Allgemein kann Reflexblendung durch Erhöhung des diffusen Anteils der Beleuchtung gemildert werden.”

Da man sich 1962 schon auf die kommende Änderung des Bürohausbaus freute – man dachte , 1980 würden alle Büroarbeitsplätze im Großraumbüro angesiedelt sein -, war die Sache mit der Lichteinfallsrechnung nicht gerade der große Hit. Eine “durch Erhöhung des diffusen Anteils der Beleuchtung”  wäre problemlos und effizient, indem man Indirektbeleuchtung einführte. Aber gegen diese hatte die Lichttechnik immer was. So blieb die einzige beherzigte Empfehlung “entsprechende Behandlung der Oberfläche (mattes Papier, matter Kopierstift, Tasten von Schreibmaschinen aus nicht speigelndem Material und dergleichen” übrig. Man verordnete allen alle Tischoberflächen, Arbeitsgeräte und Materialien matt zu machen. Mattes Papier kann man kaufen, auch wenn man nicht selten glänzendes braucht. Wie soll ein Arbeitgeber aber Schreibmaschinen kaufen, die der Beleuchtung passen?

Im Entwurf von DIN 5035-1:1969 war nicht viel anderes zu lesen: “Reflexblendung lässt sich durch Festlegen einer geeigneten Lichteinfallsrichtung, Erhöhung des diffusen Anteils der Beleuchtung oder durch Anwendung großer Leuchtflächen verringern. Ferner sollen Arbeitsflächen, Papier, Schriften, Tasten von Schreibmaschinen und dergleichen möglichst matte Oberflächen haben.

Als die Norm 1972 erschien, wurden die diffusen Anteile nicht größer, sondern kleiner, weil man statt Plexiglasabdeckungen (= Diffusoren) nunmehr Raster verwendete. Da die Lampen auch effizienter wurden, wuchs die Leuchtdichte der Reflexe. Insgesamt wurden die leuchtenden Teile kleiner, somit die Blendung stärker.

In der letzten Ausgabe der DIN 5035-1:1990 war die Vermeidung der Reflexblendung zu einem längeren Abschnitt geworden. Auch hier beginnt die Aufzählung der Maßnahmen mit “Anordnung von Leuchten und Arbeitsplätzen”: “Durch geeignete Anordnung sind Leuchten und Arbeitsplätze einander so zuzuordnen, daß für den arbeitenden Menschen möglichst keine störenden Lichtreflexe auf dem Sehobjekt entstehen können. Für ebene, waagerecht liegende Sehobjekte ist dies bei seitlicher Lichteinfalssrichtung gegeben.” Und die Sehobjekte, die nicht matt flach vor einem liegen? “Oberflächen, in denen sich Leuchten spiegeln können, sollen matt oder entspiegelt gestaltet sein.” Solche Oberflächen sind nach der Norm Oberflächen von Arbeitsplätzen, Papier, Schreibmaterialien wie Tinte, Tusche usw., Tasten von Schreibmaschinen, EDV-Terminals usw., Bildschirmgeräte.

Kurz gesagt, um eine störungsfreie Beleuchtung zu genießen, müssen die gesamte Umwelt und alle Geräte matt gestaltet sein. Wer das nicht schafft, ist selber schuld. Was ist, wenn Computerhersteller “glossy” Displays anbieten, die heute bei drei von vier Handys hübsch glänzen?

Die Lichttechnik wollte aber auch selber etwas tun und gab dies vor: “Leuchten, die für den arbeitenden Menschen Lichtreflexe auf dem Sehobjekt erzeugen können, sollen für die kritischen Ausstrahlungsrichtungen niedrige Leuchtdichten haben.” Das würde unter zwei Bedingungen helfen:

  1. Man berücksichtigt alle Richtungen, die störanfällig sind.
  2. Man misst die Leuchtdichte, die die Störung verursacht.

Leider ist beides nicht geschehen. Die Normer postulierten, nur der Bereich zwischen 20° und 30° von der Vertikalen unter der Leuchte wäre störend, als würden die arbeitenden Menschen in Normhaltungen unter den Leuchten sitzen. Und die Messung der Leuchtdichte ist fehlerhaft. Man misst die Lichtstärke in einer gegebenen Richtung und berechnet daraus die mittlere Leuchtdichte unter der Annahme, dass die gesamte Leuchtenfläche Licht abstrahlt. Das gilt für Spiegelrasterleuchten nicht.

Zu guter Letzt war, bei einem etwa gleichbleibenden Katalog an Methoden, die Leuchtdichte der benutzten Lampen durch den Fortschritt der Technik in einem unvorstellbaren Maß gewachsen. Hier ein Vergleich der Lampendurchmesser, wobei die Leuchtdichte in dem Maße wächst, wie der Lampenquerschnitt geschrumpft ist (gelbe Fläche gegen die rote)

Der wahre Hammer kam aber mit DIN 5035-7:1988. Obwohl die Autoren dieser Norm teilweise die gesamte Geschichte der Normenreihe DIN 5035 kannten, weil sie sie selbst geschrieben hatten, war die “Begrenzung der Reflexblendung” mittlerweile auf zwei Seiten angewachsen, beschrieben wurde aber auf diesen zwei Seiten akribisch, wie man dem neuen Gütekriterium dient, das da hieß: “Vermeidung störender Spiegelungen heller Flächen auf dem Bildschirm”. Und das, was man seit Jahrzehnten immer wieder neu formuliert, aber weitgehend beibehalten hatte, war plötzlich fast zu einer Fußnote geschrumpft. Weil es so schön aussieht, zeige ich die in Faximile.

Reflexblendung muss begrenzt werden. Basta! Es gibt nur ein Problem, und dies hatte der Initiator dieser Norm sogar selbst veröffentlicht. Wenn jemand die Norm DIN 5035-7 anwendet, kann man die Reflexblendung auf dem Bildschirm vielleicht mindern, aber die auf allen anderen Oberflächen, Tastaturen, Tischen, Telefonen wird stärker. Das ist unvermeidbar, weil diese Norm eine Beleuchtung mit tiefstrahlenden Leuchten vorschrieb, die jegliche diffuse Beleuchtung unterdrückte. Da die Raumflächen auch abgedunkelt werden sollten, wurde der diffuse Anteil an der Beleuchtung noch geringer.

Auf die Idee, den Bildschirm zu entspiegeln, statt die ganze Beleuchtung und den Raum umzugestalten, kam man wundersamerweise nicht. Diese Lösung war aber allen Autoren der Norm aus einem Forschungsbericht des Arbeitsministeriums aus dem Jahr 1978 bekannt, den ich geschrieben hatte. Diese Arbeit sollte als Grundlage der Normung der Bildschirmarbeitsplätze dienen und ist praktisch in jedes Regelwerk eingeflossen, das seitdem zu diesem Bereich entstanden ist, auch in viele ausländische regelwerke. Den Anfang machten die “Sicherheitsregeln für Bildschirmarbeitsplätze im Bürobereich” der deutschen Berufsgenossenschaften im Jahr 1980. Im Jahr 1990 kam die europäische Bildschirmrichtlinie dazu, die die Sicherheit und Gesundheit des arbeitenden Menschen zum Ziel hat. Diese wurde in Deutschland 1996 in die Bildschirmarbeitsverordnung umgesetzt. Im Jahr 2016 wurde sie in die Arbeitsstättenverordnung umgesetzt. Die diesbezügliche Anforderung hieß

  • Der Bildschirm muß so ausgeführt sein, daß Spiegelungen und Reflexionen weitgehend vermieden werden und sich nicht mehr störend bemerkbar machen. (1980)
  • Der Bildschirm muss frei von Reflexen und Spiegelungen sein, die den Benutzer stören können. (1990)
  • Der Bildschirm muß frei von störenden Reflexionen und Blendungen sein. (1996)
  • Bildschirme müssen frei und leicht dreh- und neigbar sein sowie über reflexionsarme Oberflächen verfügen. Bildschirme, die über reflektierende Oberflächen verfügen, dürfen nur dann betrieben werden, wenn dies aus zwingenden aufgabenbezogenen Gründen erforderlich ist. (2016 – heute)

Hätte man also das Wissen um die Lambertsche Reflexion richtig gewertet und angewandt, hätte man sich den ganzen Unsinn mit der Beleuchtung zum Entspiegeln der Bildschirme ersparen können. Das sonderbare Gütekriterium “Vermeidung störender Spiegelungen heller Flächen auf dem Bildschirm” wäre uns auch erspart geblieben.

Das alles ist aber nicht so schlimm wie eine weitere Konsequenz, die im nächsten Abschnitt dargestellt wird.

Wenn große Teile des Arbeitsraums leer stehen müssen …

Dieses Thema wird im Kapitel Wenn nur ein Wenn man die störenden Elemente aus dem Bild links entfernt, sieht man deutlich den Anteil der Raumfläche, der besiedelbar wäre, wenn man eine Allgemeinbeleuchtung realisiert. des Arbeitsraums benutzbar ist ausführlich diskutiert. Hier erfolgt eine kurze Erwähnung. Wenn man die seit Jahrzehnten propagierte Maßnahme zur Vermeidung der Reflexblendung, Anordnung der Arbeitsplätze, erweitert, wie in DIN 5035-7:1988 geschehen, um auch die Entspiegelung der Bildschirme in die Betrachtungen einzubeziehen, musste man sehr viel mehr berücksichtigen als nur die Anordnung flacher Tische. Man musste nicht weniger als die empfohlene Beleuchtungsart ändern. Wurde seit 1972 die Allgemeinbeleuchtung als Regel empfohlen, musste man jetzt auch die arbeitsplatzorientierte Allgemeinbeleuchtung als gleichwertig zulassen.[2]

Weiterhin mussten die Bildschirmarbeitsplätze in das Rauminnere verbannt werden, was das untere Bild verdeutlicht. Einen besseren Beweis dafür, dass das Konzept während des Tages schlecht aufgeht, gibt es kaum: diese Empfehlung. Sie wirkt nur dann, wenn die dominierende Beleuchtung künstlich ist. Das ist in den meisten deutschen Büros zwischen Ende März und Anfang Oktober nicht der Fall. Wenn ein Raum ordentlich gebaut ist, braucht man in diesem Zeitraum zu 90% der Zeit kein künstliches Licht.

Die – angeblich – erforderlichen Bedingungen für einen störungsfreien Betrieb würden dann realisiert, wenn die Arbeitsplätze in einem engen Bereich aufgestellt würden.

Die Bestimmung dieses Bereichs sollte in Abhängigkeit von der Röhrenkrümmung erfolgen, die man auch für die Abstrahlcharakteristik von Leuchten heranzog.

Bilder wie diese aus DIN 5035-7 verschleiern etwas Wichtiges durch die Eintragung der Leuchtenreihen. Entfernt man sie aus solchen Bildern, wird der Unsinn, der hinter solchen Ideen steckt, sehr deutlich. Dies habe ich in dem unteren Bild dargestellt.

Links sieht man einen Raum mit diversen Einträgen, die man in Natura nicht sieht, rechts ist der Raum von allen Elementen befreit. Wenn man die störenden Elemente aus dem Bild links entfernt, sieht man deutlich den Anteil der Raumfläche, der besiedelbar wäre, wenn man eine Allgemeinbeleuchtung realisiert. Kein Unternehmen kann sich leisten, einen solchen Unsinn umzusetzen. Sollte es doch eine Firma geben, die die Kosten tragen will, wird die Belegschaft nicht mitspielen. Niemand will auf einsamen Inseln in einem fast leeren Raum arbeiten.

Wenn sich der übermäßige Flächenverbrauch zu den weiteren unerfüllbaren Anforderungen wie von Tinte bis zum Computer alle Gegenstände im Arbeitsraum matt zu gestalten hinzukommt, können die Betriebe nur eins: ignorieren. Und dies geht zu Lasten der arbeitenden Menschen. Denn die durch die Beleuchtung vorgeblich zu lösenden Probleme sind real, nur die Lösungen sind untauglich.

Wenn man Meldungen wie diese in der Zeitung liest, sollte man immer wieder an das Licht denken:

In einer Umfrage, bei der sich 78% der Befragten mit ihrem Raum zufrieden zeigten, wollte nur 1% (!) im Großraum arbeiten.

Noch heftiger fällt das Urteil von deutschen Managern aus. Nach ihrem wichtigsten Kriterium für ihren Arbeitsplatz gefragt, wünschen sich 37% einen Arbeitsplatz frei von künstlichen Lichtquellen. Das größte Problem der Büromenschen nach ergonomischen Studien, Lärm im Büro, kommt weit abgeschlagen auf Platz 2.

Wie hätte man denn agieren müssen?

Arbeitsplätze mit Problemen, für die es keine oder mäßig erfolgreiche Lösungen gibt, sind nicht selten. Das liegt manchmal an den Problemen, manchmal an dem lieben Geld. Zuweilen liegt es sogar daran, dass die störende Wirkung Folge einer erwünschten Lösung ist. So gibt es für Problem Nummer 1 im Büro, Lärm, eine einfache Lösung: Einzelzimmer. Diese Büroform ist aber nicht die beliebteste, sondern das Doppelzimmer. Aber in keiner anderen Büroform kann es nach akustischen Messungen lauter werden. Das Doppelzimmer ist aus verschiedenen Gründen beliebt.

Daher sollte man mit Lösungen vorsichtig sein, wenn Fachleute nicht zu denen greifen. Aus diesem Grunde habe ich einige Jahrzehnte mit Beleuchtung experimentiert, bis ich mir eine finale Meinung gebildet habe.

Hätte man der Reflexblendung mit dem Wissen begegnet, das 1962 in der Beleuchtungsnorm gestanden hat, Erhöhung des diffusen Anteils an Beleuchtungsstärke hilft, wären die meisten Probleme nicht entstanden. Wir haben dies in der Studie Licht und Gesundheit bis 1990 mit Untersuchungen an 2.000 Arbeitsplätzen und Befragungen von ca. 900 Personen ermittelt. Anschließend haben wir 1.500 Arbeitsplätze mit neu entwickelter Beleuchtung ausgestattet, um den Nachweis zu führen, dass die Verbesserungen tatsächlich auf die Eigenschaften der Beleuchtung zurückzuführen sind.

Man kann die notwendige Maßnahme mit Indirektbeleuchtung oder mit (teilweise) leuchtenden Decken realisieren. Das Entscheidende ist, dass die leuchtenden Flächen eine geringe Leuchtdichte besitzen. Wer eine vernünftige Indirektbeleuchtung realisiert, braucht keine Anforderungen an die Aufstellung der Arbeitsplätze, die kaum jemand erfüllen kann außer auf Zeichnungen. Vor allem muss man nicht fordern, dass von der Tinte bis zum Computerterminal alles matt sein soll. Wer soll denn das realisieren?

Man hätte einfach einsehen müssen, dass das Lambertsche Gesetz ein mathematisches Konstrukt ist, dem die wenigsten physikalischen Materialien bzw. deren Oberflächen genügen. Von betrieben Dinge zu verlangen, die sie nicht realisieren können, kann nur Scheinlösungen hervorbringen.

Was die Bildschirme angeht, hätte man unter Beachtung ihrer Reflexionscharakteristika feststellen können, dass ihr Verhalten so weit von einer Lambertschen Reflexion abweicht, dass eine Lösung auf der Basis einer fest installierten Beleuchtung nicht gefunden werden kann. Die einzig gangbare Lösung, Bildschirme zu entspiegeln und Reflexe zusätzlich durch einen hellen Hintergrund relativ unsichtbar zu machen, war 1975 von mir formuliert und 1980 vom Arbeitsschutz akzeptiert worden. Warum musste ein Jahrzehnt später eine „lichttechnische“ Lösung gesucht werden?

Wann werden wir das Phantom los?

Ein mathematisches Modell kann man leider nicht loswerden. Wenn es eine gute Lösung beschreibt, kann man versuchen, sich dem Ideal anzunähern. Mir schwebt in dieser Hinsicht das Beispiel der Kugel vor. Diese ist mathematisch absolut rund in allen Richtungen. Reale Kugeln sind nicht rund, sie weichen etwas vom Ideal ab. Mit üblichen Kugeln kann man hinreichend gute Kugellager bauen. Will man sehr leise Kugellager bauen, müssen die Kugeln runder sein. Diese kann man auch fertigen. Es wird nur teurer. Braucht man Kugeln, die sehr nahe an die mathematische Form der Kugel kommen, muss man sie selektieren. Ähnlich verfährt man heute auch bei LEDs. Früher war das Vorgehen bei Transistoren üblich.

Was wir loswerden müssen, ist, dass man Beleuchtungen normt oder erstellt, die nur unter unerfüllbaren Bedingungen gut funktionieren. Zwar ist jeder Hersteller frei, die Einsatzbedingungen seines Produktes vorzugeben. Wenn man allerdings zu viel voraussetzt, kann es sein, dass die Anwender zu einfachen Mitteln greifen. So herrscht heute bei Standard-LED-Leuchtmitteln (Retrofits) ein extremer Preisdruck durch asiatische Massenware. Wenn man sich nach einer langen Planung eh Ärger einhandelt, greift man gleich zu Billigware.

Zudem ziehen viele Menschen vor, möglichst selten im Büro zu weilen. Die Unternehmen müssen ihre Mitarbeitenden mit einer angenehmen Umgebung ins Büro locken. Trotz aller Bemühungen haben wir in Deutschland derzeit ca. 8 % Büroleerstand. Wenn man sich die Bürokonzepte anguckt, mit denen man das Bürohaus für die arbeitenden Menschen schmackhaft machen will, liest man sehr häufig „Stehleuchten, Tischlampen statt Deckenlicht“, „keine Deckenbeleuchtung“ oder „keine Neonlampen an der Decke“. Was sich Menschen wünschen, habe ich unter Licht für New Work  dargelegt.

[1] Da diese Normenreihe zwar nicht anwendbar ist, aber dennoch in Deutschland aus rechtlichen Gründen angewendet werden muss, hat mein Ausschuss für den Gebrauch der Prüfstellen in Deutschland einen Standard produzieren müssen, der eine Prüfung dennoch möglich macht.

[2] Zu dem Begriff Allgemeinbeleuchtung ist zu bedenken, dass es diese ohnehin nicht gegeben hat. Wenn man Allgemeinbeleuchtung definiert als eine Beleuchtung, die an allen Stellen des Raums etwa gleich gute Sehbedingungen schafft und gleichzeitig empfiehlt, Arbeitsplätze der Anordnung der Leuchten entsprechend zu platzieren, gesteht man, dass es keine Allgemeinbeleuchtung gibt.

 

Phantome, die unser Wissen beherrschen VII

Wichtige Dinge brauchen Weile,
damit die Seele hinterherkommt
Anonymus

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Tageslichtquotient als Maß für das Tageslicht

Der Tageslichtquotient (D) beschreibt das Verhältnis zwischen der Beleuchtungsstärke im Innenraum und derjenigen im Freien unter einem komplett bedeckten Himmel. Entwickelt wurde das Konzept Ende des 19. Jahrhunderts von Alexander Pelham Trotter, um Innenraumbeleuchtung trotz ständig wechselnder Tageslichtbedingungen vergleichbar zu machen.

Obwohl der Ansatz seit 1895 nahezu unverändert existiert und in vielen Regelwerken weiterhin genutzt wird (z. B. DIN 5034, ASR A3.4, DGNB, LEED, BREEAM), ist er aus heutiger Sicht stark veraltet.

Zur Geschichte des Phantoms

Dass dieses Phantom schon tot sei, erzählte mein Doktorvater, als ich noch Student war. Das war so etwa 1969. Prof. Krochmann, einer der besten Tageslichttechniker, erzählte in seiner Vorlesung zu Tageslichttechnik, wir sollten den Begriff Tageslichtquotient nicht mehr benutzen, weil dieser unbrauchbar wäre. Seitdem sind fast sechs Jahrzehnte vergangen, ohne dass sich etwas Besseres eingebürgert hätte.

Dieses Phantom gehört zu den ältesten „Altlasten“ der Lichttechnik und wurde einst von einem Elektrotechniker, Alexander Pelham Trotter, „erfunden“. Alexander Pelham Trotter, ein britischer Elektroingenieur, hat Ende des 19. und Anfang des 20. Jahrhunderts Pionierarbeit auf dem Gebiet der Beleuchtungstechnik geleistet. Er gilt als einer der Gründerväter des Konzepts des Tageslichtquotienten (engl. Daylight Factor). Vor Trotters Arbeit war es extrem schwierig, die Innenraumbeleuchtung objektiv zu bewerten, da sich das Tageslicht ständig ändert. Trotter erkannte, dass man nicht die absolute Helligkeit (Beleuchtungsstärke) messen sollte, sondern das Verhältnis zwischen innen und außen. Zu dieser Ansicht war Trotter durch umfangreiche Messungen in verschiedenen Gebäuden gekommen.

Der Tageslichtquotient (D) beschreibt das Verhältnis der Beleuchtungsstärke an einem Punkt im Innenraum (Ep) zur Beleuchtungsstärke im Freien bei unverbauter Himmelskugel (Ea). Seit der besagten Vorlesung 1969 hat sich daran nur die Bezeichnung geändert, früher hieß „D“ anders, man schrieb es als „T“. Trotter bemerkte, dass die absolute Helligkeit in einem Raum (gemessen in Lux oder damals Foot-candles) wertlos war, um die Qualität der Architektur zu beurteilen, da sie sich minütlich mit dem Wetter änderte. In seinem Vortrag "The Physics of Artificial Lighting" (und ergänzenden Arbeiten) im Jahr 1895 legte er dar, dass das Verhältnis zwischen Innen- und Außenlicht eine Konstante der Architektur sei. Über ein Jahrzehnt später wurde seine Methode durch das britische National Physical Laboratory (NPL) offiziell für die Planung von Schulen und Fabriken übernommen. Somit wurde das Tageslicht planbar und messbar.

Ansonsten blieb es bei der Bedeutung: Da sich beide Werte bei wechselnder Bewölkung proportional ändern, bleibt der Quotient weitgehend konstant. Das macht den Tageslichtquotient zu einer verlässlichen Messgröße für die architektonische Qualität eines Raumes. Allerdings so lange der Raum so bleibt, wie er ist und nicht etwa durch einen Baum verschattet wird, der später gepflanzt wurde. Die Sache mit der unverbauten Himmelskugel ist wirklich auch so eine Sache. Was sie bedeutet, merkt man, wenn man D tatsächlich gerichtsfest messen muss.

Seit 1895 bis zur Norm DIN EN 17037:2019 hat sich der Begriff, also das Konzept, gehalten. Nur die Anforderungen haben sich geändert.

Was alles an dem Konzept Bauchweh verursacht

Das Problem des "Grauen Himmels"

Der Tageslichtquotient basiert per Definition auf dem CIE-Standardhimmel (vollständig bedeckt). Es gibt keine direkte Sonne, das Licht ist absolut gleichmäßig verteilt. Zu diesem Problem habe ich meine Kommentare in dem Beitrag „Warum ist unser Himmel so grau? erläutert.

Die Realität zeigt ein anderes Bild: In Regionen mit viel Sonnenschein (z. B. Südeuropa oder an klaren Wintertagen) liefert der Quotient völlig falsche Werte, da er die enorme Leuchtdichte der direkten Sonne ignoriert.

Die Problematik hat eine Lichtplanerin, Paulina Villalobos, die aus Chile stammt, wunderbar bildhaft dargestellt. Dieses Land erstreckt sich zwischen dem 17. Breitengrad fast bis zur Antarktis über 4200 km. Es reicht also von den Tropen in die Polarregion. Sie hat den Höchstsand der Sonne in verschiedenen Städten der Welt wie unten abgebildet.

Was dies bedeutet, habe ich mit Hilfe dieses Bildes illustriert:

Das Bild zeigt deutlich, dass die architektonische Qualität eines Raums allenfalls sehr mäßig durch den Tageslichtquotienten beschrieben werden kann.

Ignoranz gegenüber der Dynamik

Ein Gebäude steht 365 Tage im Jahr in verschiedenen Lichtsituationen. Der D ist ein fester Prozentwert. Er sagt nichts darüber aus, wie viele Stunden am Tag es im Raum tatsächlich hell genug ist, um ohne Kunstlicht zu arbeiten. Der Tageslichtquotient gilt auch in der Nacht, obwohl man dann mit der Bestimmung noch mehr Probleme hätte. So gesehen, entspricht D eher der Vorstellung von Architekten, wenn sie von einem gut belichteten Raum sprechen. Zwar ändert sich die Beleuchtungsstärke wie die Lichtqualität über den ganzen Tag, aber man weiß, was ein „heller“ Raum ist.

Die Ignoranz kommt an anderer Stelle zur Geltung. So versuchen Lichttechniker, möglichst hohe Beleuchtungsstärken im Raum über einen möglichst langen Teil des Tages zu erreichen, indem sie das Licht aus dem Teil des Himmels in den Raum holen, der am längsten gleich hell bleibt. Das ist das blaue Himmelslicht. Dass es im Innenraum eher grau gesehen wird, wurde hier erklärt: Künstliche Beleuchtung bildet das Tageslicht nach

Wie man das Licht des Himmels in den Raum führt, zeigt ein Bild von Bartenbach

Dieses Bild verschleiert bewusst die reale Physik. Zum einen wird niemand in der angegebenen Position in Fensterrichtung sitzen. Wenn überhaupt, ist der wahrscheinlichste Punkt etwa 4 m im Rauminneren, wo früher der Azubi saß. Wenn jemand wirklich so sitzt, wie der Augpunkt eingezeichnet ist, sieht der Raum wie unten aus, wo ich die ganzen Spiegel eingetragen habe, die das Licht lenken. Im oberen Teil des Fensters sind die Prismen angebracht, die das Himmelslicht holen. Dicht über dem Kopf des Mannes ragt ein sog. Lichtschwert etwa 1 m in den Raum hinein. Dort darf man nicht stehen.

Das Bild ist ein prägnantes Beispiel dafür, wie man Unmögliches für Fortschritt verkauft. Mehrere Jahrzehnte vor Erscheinen dieses Bildes war diese Blickrichtung für Arbeitsräume ausgeschlossen worden. Sie macht erst recht keinen Sinn, wenn einer mit einem Bildschirm arbeitet. Wenn ein Arbeitgeber jemanden zwingt, in dieser Sitzposition zu arbeiten, verstößt er gegen den Arbeitsschutz. Der Kommentar des Protagonisten dieser Szene zu seinem gesamten Wirken in einer Zeitschrift wirkt da besonders lustig:

Abgesehen vom Arbeitsschutz: Was ist das für eine Raumästhetik, wenn die Decke voller Spiegel hängt? Und die gesamte Fensterfront mit einem Spiegel in  etwa Stehhöhe versehen ist, der in den Raum hineinragt?

Zu demselben Trick mit dem Nordlicht griffen früher Maler, die ihre Ateliers in Nordzimmern hatten. Dort ist die Dynamik des Tages am geringsten. Dummerweise hilft dies nur deswegen, weil man damit möglichst konstante Verhältnisse schaffen wollte. Wie sein Bild unter realen Verhältnissen ausschaut, muss sich der Maler selbst ausmalen.

Bei der Tageslichtbeleuchtung zählt die Dynamik zu den Qualitätsmerkmalen. Gleichbleibendes Licht mit stets gleichen Eigenschaften erzeugt man besser elektrisch, wenn es gebraucht wird.

Vernachlässigung der Orientierung

Für den klassischen Tageslichtquotienten ist es egal, ob ein Fenster nach Norden oder nach Süden zeigt. In der Berechnung nach Trotter liefern beide Himmelsrichtungen das gleiche Ergebnis (da man ja vom trüben Standardhimmel ausgeht). Jeder Bewohner weiß jedoch, dass ein Südzimmer eine völlig andere Lichtcharakteristik und Wärmelast hat als ein Nordzimmer.

Das Konzept ergibt für alle Jahreszeiten den gleichen Wert. Ob die Qualität eines Raums vom 21. Dezember die gleiche ist wie die vom 21. Juni? Man vergleiche die Daten, z.B. den Höchststand der Sonne am Mittag (14° gegen 61°) oder die Tageslänge.

Wo steht das Phantom noch hoch im Kurs?

Die Frage lässt sich nicht zuverlässig beantworten, ohne jedes Regelwerk im Detail abzuprüfen. Trotzdem kann man davon ausgehen, dass relevante Regelwerke wie DIN 5034-1: 2021-08 den Tageslichtquotienten nicht nur definieren, sondern auch mit Anforderungen verbinden.

Auf jeden Fall wird D in der ASR A3.4 von 2023 definiert und mit einer Anforderung (5.1 Ausreichendes Tageslicht) verbunden. Das Gebäudezertifizierungssystem DGNB nennt die neueste Norm zur Tageslichtbeleuchtung (DIN EN 17037) in Verbindung mit D ≥ 1,0 bis 2,0 für diverse Typen von Bauten. Nach der Bewertung nach LEED (USA) werden unter Daylight (Indoor Environmental Quality) Werte für D angeführt, um Punkte zu erhalten. Auch BREEAM führt unter Daylighting D als eine Alternative zu moderneren Methoden an.

Das Deutsche Architektenblatt hebt bei der Vorstellung der neuen Norm zu Tageslicht in Innenräumen ebenfalls auf den Tageslichtquotient ab. (hier) Allerdings geben die Architekten selbst nicht allzu viel auf den Tageslichtquotient. Denn bei den Regelwerken, die die Qualität der Architektur in Deutschland am stärksten bestimmen, den Landesbauordnungen, steht nichts davon. Stattdessen liest man z.B. in der Muster-LBO: “Aufenthaltsräume müssen ausreichend belüftet und mit Tageslicht belichtet werden können. Sie müssen Fenster mit einem Rohbaumaß der Fensteröffnungen von mindestens 1/8 der Netto-Raumfläche des Raumes einschließlich der Netto-Raumfläche verglaster Vorbauten und Loggien haben.“ Die LBO sprechen nicht einmal von Beleuchtung, sondern von Belichtung. Allerdings scheint die Betrachtungsweise der LBO nicht unbedingt logischer. Denn jedes Zimmer mit einer identischen Fenstergröße in Burj Khalifa (828 Meter hoch, 163 Etagen) in einer der 163 Etagen ist nach dieser Denke gleich mit Tageslicht belichtet. Dabei gilt das nicht einmal für drei Etagen eines freistehenden Einfamilienhauses in Deutschland.

Totgesagte leben lange. So wird dem Phantom Tageslichtquotient unter allen lichttechnischen Begriffen möglicherweise das längste Leben zuteil. Geboren 1895, immer noch wichtig in einer Arbeitsschutzvorschrift in 2023 – das muss man können.

Wer kann das Phantom beerben?

Es gibt eine Reihe methodischer Ansätze, die das starre System des Tageslichtquotienten ablösen können. So wird in DIN EN 17037 auch die geografische Lage eines Gebäudes einbezogen. Es wird geprüft, ob an einer bestimmten Anzahl von Stunden (z. B. 2.190 Stunden pro Jahr) eine Zielbeleuchtungsstärke erreicht wird. Dabei werden reale Klimadaten des Standorts (EPW-Dateien) verwendet, sodass ein Gebäude in Madrid anders bewertet wird als ein identisches Gebäude in Oslo.

Zunehmend werden klimabasierte Tageslichtmodellierungen (kurz CBDM für Climate-Based Daylight Modelling) benutzt. Im Gegensatz zu statischen Methoden nutzt CBDM sogenannte Meteorologische Datensätze (z. B. EPW-Dateien). Diese enthalten für einen spezifischen Standort (z. B. Berlin oder München) stündliche Informationen über die direkte Sonneneinstrahlung, diffuse Himmelsstrahlung und Sonnenstand.

So neu ist diese Denke nicht. Wir haben auf diese Art und Weise die Belichtung der Münchner Olympia-Sportstätten berechnen müssen. Das war allerdings seinerzeit in 1968-1969 ein wissenschaftlicher Akt. Heute kann man auf fertige Methoden und verlässliche Zahlen zurückgreifen.

Phantome, die unser Wissen beherrschen VI

Wo das Licht am hellsten ist,
ist der Schatten am tiefsten.

J.W.v. Goethe

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Sonnenlicht ist gesund

Der Beitrag beschreibt das „Phantom“, die bis heute verbreitete Vorstellung, dass Sonnenlicht grundsätzlich gesund sei. Diese Idee entstand im Zuge der Industriellen Revolution, als Städte im Dunkel von Smog lagen und Menschen das Bedürfnis nach Licht hatten. Lichttechniker nutzten dies für künstliches „Tageslicht“, während Reformbewegungen wie die Progressiven versuchten, natürliche Helligkeit in Städte und Wohngebiete zu bringen. Dadurch wandelte sich weltweit das Schönheitsideal: Gebräunte Haut wurde zum Zeichen von Wohlstand.

Heute besteht ein Spannungsfeld zwischen den Vorteilen und Gefahren der Sonne. UV-Strahlung ist lebenswichtig für die Vitamin‑D‑Produktion, kann aber gleichzeitig schädlich wirken und Haut- sowie Augenerkrankungen auslösen. Besonders im Sommer führt übermäßige Sonnenexposition zu akuten Belastungen wie Sonnenbrand, Hitzeerschöpfung oder Sonnenstich. Arbeitgeber müssen Beschäftigte vor UV-Strahlen schützen.

Zur Geschichte des Phantoms

Dieses Phantom ist vermutlich so alt wie die Geschichte der menschlichen Zivilisation. In vielen alten Religionen galt die Sonne sogar als Gottheit. Seine heutige Ausprägung verdanken wir der Industriellen Revolution, die die Zentren der wichtigsten Industriestaaten derart in Finsternis hüllte, dass man den Tag kaum von der Nacht unterscheiden konnte. Dadurch setzte eine Pilgerfahrt zur Sonne ein bzw. eine Flucht aus den Industriezentren. Wer nicht verreisen konnte, wollte wenigstens die heilenden Strahlen der Sonne ins Haus holen. Selbst Reisebusse und Bahnzüge wurden mit UV-durchlässigen Fenstern ausgestattet, damit der Mensch den Segen der Natur empfangen konnte. Man erfand komplexe Lampen, die die heilenden Strahlen der Sonne gleich in der Wohnung produzieren sollten.

Den Beginn der Entstehung des Sonnenwahns erzählt das Kapitel Krankheiten der Finsternis – Geschichten aus New York und Chicago. Bei diesen Ereignissen spielten zwei Gruppen eine besondere Rolle. Zum einen waren es die Lichttechniker, die geschickt die historische Strömung für ihr Geschäft nutzten. Wenn Sonnenlicht gesund ist, aber leider nicht immer und nicht überall verfügbar ist, dann  erzeugen wir es eben elektrisch. Und wir machen es besser als die Natur. Deswegen wimmelt es in der Geschichte von Lichttechnik nur so von Tageslichtlampen. Licht mit einer Farbe, die einem das Blut in den Adern gefrieren lässt, heißt auch noch tageslichtweiß. Das gesamte Buch Genesis 2.0 – Schöpfung der elektrischen Sonne dient eigentlich der Erklärung dieses Narrativs der Techniker.

Eine andere Gruppe, die Progressiven, wollten das Licht der Natur in die Siedlungen und Häuser der Menschen holen. Ihrem Bestreben verdanken wir z.B. die Gartenstädte dieser Welt. In dem Buch werden die Bemühungen der US-amerikanischen Progressiven dargelegt, die nicht wenig von deren Kollegen und Weggefährten aus Deutschland profitierten. Was in Deutschland in dieser Richtung passierte, erzählt das Kapitel Meanwhile in Old Germany …

All dies führte zu einer Änderung des Schönheitsideals weltweit. Hat einst der Adel die blasse Haut stolz getragen, um zu demonstrieren, dass er nicht arbeiten muss wie die armen Bauern, deren Haut die Sonne gerbt, wurde die gebräunte Haut zum Symbol der neuen Reichen, des gehobenen Bürgertums. Die neue Hautfarbe signalisierte, dass man nicht zu den armen Schichten gehörte, die den Sonnentag bei der Arbeit verbringen und den Rest ihres Lebens in lichtarmen Behausungen. Tan wurde nicht etwa in den Adelsstand erhoben, sondern gleich zu den Gottheiten gezählt: Great God Tan!

Vor und in den 1920ern kehrte sich diese Vorstellung aufgrund der hier dargestellten Vorgänge ins Gegenteil um. Was einst nobel und edel aussah, sah jetzt eher wie ein Opfer der Schwindsucht aus. Irgendwie erinnert das Ganze an Effi Briest, eine junge Adlige vom Land, die in Berlin an einer „diffusen“ Krankheit stirbt, die ihr Arzt Dr. Rummschüttel als Schwindsucht bezeichnet. Ein halbes Jahrhundert vor Fontanes Protagonistin war „Die Kameliendame“ von Alexandre Dumas d. J. aus der Welt geschieden, einer anderen Welt in Paris, aber an derselben Malaise.

Nicht nur Effie Briest und die Kameliendame verblassten ohne Sonne. Auch das indigene Mädchen Wildflower siechte dahin, bis eine Krähe sie rettete, indem sie ein Loch in den Himmel pickte. Die himmlische Medizin („The Great Sky Medicine“) verhinderte das Welken der armen Wildblume. Der Spruch der Autorin Elisabeth Jenkins zum Abschluss der Geschichte der Wildflower liest sich beinah herzzerreißend: „Jedes kleine Mädchen, das dahinsiecht und verblasst, wie es die Wildblume tat, kann gesund und glücklich gemacht werden durch die Große Himmlische Medizin, die große, warme und wundervolle Sonne.“

Auf zur Sonne? Brüder, zur Sonne, zur Freiheit – Die deutsche Version des russischen Lieds wurde etwa zur gleichen Zeit gesungen, als die Wildflower-Story erschien.

Ist das Sonnenlicht etwa nicht gesund?

Ein Jahrhundert danach, in unserer Zeit, besteht immer noch dieselbe Vorstellung, die sich damals entwickelt hat. Allerdings herrscht heute ein gnadenloser Kampf zwischen denen, die die Vorteile der UV-Strahlung hervorheben, und jenen, die immer wieder mit dem kommenden Frühling beginnend vor den Gefahren der Sonne warnen. Man hat nämlich in der Zwischenzeit gelernt, dass die UV-Strahlung ein „Agens“ ist, was so viel bedeutet wie ein Krankheiten hervorrufender Faktor.[i]

Eigentlich ist ein Agens „eine treibende Kraft“ oder „einwirkendes Prinzip“. Woraus sich die Rolle der UV-Strahlung bestens erklärt: Zu Urzeiten verhinderte sie die Entwicklung des Lebens überhaupt, weshalb es sich deswegen im Wasser entfalten musste. Später war sie durch Erzeugung von Mutationen an der Evolution beteiligt. Für den Menschen ist sie aufgrund der Vitamin-D-Produktion lebenswichtig. Ebenso kann sie für Organismen schädlich bis tödlich sein und wird seit Langem zur Desinfektion und Entkeimung eingesetzt. Zu Beginn der Evolution war die UV-Strahlung der Sonne tödlich, bis sich die Ozonschicht in der Atmosphäre ausbildete. Eine Schicht aus tödlichem Gas, die dem Leben auf der Erde die Freiheit zur Entfaltung schenkte.

Das Melatonin, von dem in diesen Tagen viel die Rede ist, ist vermutlich in diesen Urzeiten entstanden, die etwa 3 Milliarden Jahre zurückliegen. Es ist das Langzeitgedächtnis des Lebens, das in jenen Zeiten das Signal gab, sich vor der Sonne zu verstecken. Dass es beim heutigen Menschen das Startsignal für die Ruhezeit gibt, ist kein Paradox. Lebewesen beginnen mit der Melatoninproduktion am Ende des Tages. Die tagaktiven Wesen leiten daraus ab, dass sie sich auf die Ruhe vorbereiten sollen, die nachtaktiven verstehen das Gegenteil. So fehlt dem Menschen heute scheinbar die Warnung vor dem Licht. Der Mensch als Lichtwesen (homo diurnus) strebt nach dem Hellen. Und das Helle kommt von der Sonne.

Allerdings hat die Evolution des Menschen nicht in offenen Wüstenlandschaften oder Prärien stattgefunden, wo er große Teile des Tages der Sonne ausgesetzt war. Die Empfindlichkeitskurve des menschlichen Auges, die genau bei den Wellenlängen am höchsten ist, bei denen die Pflanzen das meiste Licht abweisen oder durchlassen, lässt vermuten, dass der Mensch unter dem Blätterdach von Bäumen entstanden sein muss. In solchen Umgebungen herrschen keine 100.000 lx Beleuchtungsstärke. Man ist auch nicht ungefiltertem UV-Licht ausgesetzt, außer durch den natürlichen Filter der Atmosphäre.

Wenn man gesund mit den Bedingungen der Evolution in Harmonie versteht, kann man daraus nur ableiten, dass das Sonnenlicht bei geringen Intensitäten mit Sicherheit gesund ist. Und ohne Dauerbestrahlung.

Heute empfängt die Mittelmeerregion jährlich etwa 360 bis 440 Millionen internationale Gäste, meist aus nördlicheren Ländern. Das entspricht rund einem Drittel aller Touristen weltweit. Great God Tan heißt, sich in die Sonne zu knallen, um möglichst schnell die “gesunde” Bräune zu erwerben. Was sich viele dabei unabsichtlich erwerben, bezeichnen Dermatologen als Acne aestivalis, a.k.a. Mallorca-Akne. Die Sonne ist auch an der Salzwasser-Dermatitis beteiligt. Wenn Salzwasser auf der Haut trocknet, können die Salzkristalle wie kleine Brenngläser wirken und die Haut reizen oder austrocknen.

Eine Erkrankung, mit der Dermatologen einem häufig Angst machen, Hautkrebs, lasse ich lieber weg. Hierzu gibt es erstens genügend Warnungen. Und zweitens, stehen bestimmte Hautschäden auch ohne Krebsentstehung auf dem Plan. UVB-Strahlen verursachen den Sonnenbrand und direkte DNA-Schäden. UVA-Strahlen dringen tiefer ein, sorgen für Hautalterung und bilden freie Radikale, die indirekt Krebs fördern.

Das Sonnenlicht belastet den Körper allein durch den sichtbaren Anteil von etwa 45% der Gesamtenergie. Wenn man unbeschattet in der Sonne steht, kommt etwa dieselbe Energiemenge (48%) hinzu. Bei den Temperaturen, die in der Ferienzeit in Mittelmeerländern herrschen, stellt die direkte Bestrahlung allein eine große Belastung dar. Auswirkungen von einer solchen Belastung können sein:

  • Flüssigkeitsmangel (auch ohne Durstgefühl)
  • Unwohlsein (Hitzeerschöpfung)
  • Sonnenstich
  • Hitzekollaps bis zum lebensbedrohlichen Hitzschlag.

 

Arbeitgeber müssen ihre nicht freiwillig in der Sonne weilenden Mitarbeitenden vor Strahlung schützen. Das gilt selbst für die Verglasung von Fahrzeugen. Seit 2019 ist heller Hautkrebs als Berufskrankheit anerkannt. Was das Sonnenlicht sonst an Sachäden verursachen kann, wird in der DGUV-I 203-085 “Arbeiten unter der Sonne” wie folgt aufgelistet:

Unmittelbar auftretende Schäden sind beispielsweise:

  • Sonnenbrand (Rötung bis zur Blasenbildung)
  • Allergien, die durch Sonne mitausgelöst oder verstärkt werden, phototoxische und photoallergische Reaktionen (Photodermatosen)
  • Augenschäden wie Binde- und Hornhautentzündung

 

Chronische Schäden (Spätfolgen) können sein:

  • Hautkrebs einschließlich Frühstadien, z. B. aktinische Keratosen
  • Linsentrübung des Auges (Grauer Star)
  • Vorzeitige Hautalterung (u. a. übermäßige Faltenbildung, Altersflecken)

Das Sonnenlicht ist die ursprüngliche Quelle allen Lebens. Wie diese Darstellungen zeigen, kann es jedoch auch als Gefahr angesehen werden. Die Natur ist weder gut noch böse.

Mittelbare Schäden durch Schutzmaßnahmen

Immer zu dieser Jahreszeit erscheinen in der ganzen Presse Artikel mit Warnungen vor den Gefahren der Sonne, die meist von der einschlägigen Industrie  „gesponsert“ werden. Häufig werden sie von besorgten Dermatologen verfasst oder stammen aus Berufsverbänden wie der Deutschen Dermatologischen Gesellschaft. Sie kulminieren in Empfehlungen, wie man sich im Sommer täglich mehrmals mit einem Lichtschutzfaktor 50 schützen müsse. Es drohe sonst Hautkrebsgefahr.

Andere Leute halten solche Warnungen für eine Aufforderung zum Selbstmord in Raten, weil man damit die Axt an eine vitale Funktion der Haut legt: an die Vitamin-D-Produktion. Diese Substanz ist kein Vitamin, sondern ein Hormon. Dessen Produktion erfolgt in der Haut unter dem Einfluss der UV-Strahlung. Vitamine kann der Körper nicht selbst produzieren. Man muss sie einnehmen. Vitamin D kann man auch durch die Nahrung aufnehmen. Das ist aber nicht sehr effizient.

Das Vitamin D steuert biochemische Reaktionen im gesunden Körper. Es unterstützt den Aufbau von Knochen und Muskulatur, stärkt das Immunsystem, hat eine Schutzfunktion für die Nervenzellen des Gehirns und des Herz-Kreislauf-Systems, senkt den Blutdruck und schützt auch vor Krebserkrankungen. Die Aufnahme von Vitamin D erfolgt zu 90 Prozent über die Sonne, nämlich mithilfe der UV-B-Strahlung, zu 10 Prozent über die Ernährung. Lebensmittel, die besonders viel Vitamin D enthalten, sind beispielsweise Seefische wie Lachs oder Makrele. Man müsste aber schon sehr viel Fisch essen, um Ihren Vitamin-D-Haushalt aufrechtzuerhalten. Besser ist es, viel Sonne zu tanken.

Eine Langzeitfolge des Vitamin-D-Mangels ist Osteoporose. Hierdurch werden die Knochen porös und brüchig. Schon einfache Stürze können dann zu schweren Brüchen führen (besonders Oberschenkelhals oder Wirbelkörper). Ein Oberschenkelhalsbruch in hohem Alter bedeutet meist ein Todesurteil. Vitamin D wirkt nicht nur auf den Knochen selbst, sondern ist auch entscheidend für die Muskelfunktion. Ein Mangel führt zu Muskelschwäche und Gangunsicherheit. Schwache Muskeln können den Körper schlechter stabilisieren ➩ das Sturzrisiko steigt  ➩ die bereits geschwächten Knochen brechen schneller.

Vitamin D  spielt eine entscheidende Rolle bei den Reizübertragungen der Nervenzellen:

Schutz der Myelinschicht (die Isolierung): Nervenleitungen funktionieren wie elektrische Kabel. Damit der Impuls schnell und ohne Verluste ans Ziel kommt, sind sie mit einer Isolierschicht umhüllt, dem Myelin. Vitamin D regt die Produktion von Proteinen an, die für die Bildung und Reparatur dieser Myelinschicht verantwortlich sind. Eine beschädigte Myelinschicht führt dazu, dass Nervensignale langsamer oder fehlerhaft übertragen werden.

Kalzium-Haushalt in der Nervenzelle: Damit eine Nervenzelle einen Impuls abfeuern kann, müssen Ionen (vor allem Kalzium) durch die Zellmembran fließen. Vitamin D reguliert die Kalziumkanäle in den Neuronen. Ist zu wenig Vitamin D vorhanden, gerät das elektrische Gleichgewicht der Zelle durcheinander. Dies kann sich in Missempfindungen wie Kribbeln („Ameisenlaufen“), Taubheitsgefühlen oder Muskelzucken äußern.

Produktion von Neurotransmittern: Vitamin D beeinflusst Enzyme, die für die Herstellung wichtiger Botenstoffe zuständig sind, darunter Dopamin & Serotonin (Stimmung und Signalübertragung im Gehirn) und Acetylcholin, der Hauptbotenstoff für die Steuerung von Muskelbewegungen.

Nervenschutz (Neuroprotektion): Vitamin D wirkt antioxidativ und entzündungshemmend im Nervengewebe. Es hilft dabei, Neurotrophine zu bilden – das sind körpereigene Lockstoffe, die Nervenzellen beim Überleben helfen und das Wachstum neuer Nervenverbindungen fördern.

Rezeptoren für Vitamin D finden sich fast im gesamten Gehirn, besonders in Regionen, die für die Planung von Bewegungen und die Gedächtnisbildung zuständig sind (wie der Hippocampus).

Die lange Aufzählung der Funktionen von Vitamin D sollte verständlich machen, wovor man in jedem Frühling gewarnt wird. Man kann sogar solche Statements lesen: “Tatsächlich zeigen die vorherrschenden Studien, dass Menschen, die täglich Sonnenschutzmittel verwenden, ihren Vitamin-D-Spiegel aufrechterhalten können.” Dumm nur, dass man in Mitteleuropa im Winter auch ohne Sonnenschutzmittel seinen Vitamin-D-Spiegel nicht halten kann.

Das Thema ist höchst umstritten, seit die Vorstellung entstanden ist, dass UV-Licht für das Leben wichtig ist. So wurde auch das Buch von Luckiesh und Pacini Light and Health bereits bei Erscheinen 1926 heftig kritisiert, und zwar von keinem Geringeren als Emery R. Hayhurst, der als Pionier auf dem Gebiet der Arbeitsmedizin (Industrial Hygiene) gilt.

Der Rezensent stellt, wie hier erkennbar, in Frage, ob UV überhaupt so wichtig für ein gesundes Leben sei, wenn die Inder im Schnitt 25 Jahre alt werden, während der Durchschnittsamerikaner 55 wird. Ergo? Wenn es nach dem Rezensenten ginge, sollte man die Quintessenz des Buches gar nicht zur Kenntnis nehmen. Rayhurst fand das Buch dennoch höchst interessant, weil darin die Entstehung des Menschen mit der Sonnenstrahlung erklärt wurde: “Die Sonnenstrahlung war ein wichtiger Umweltfaktor in der Evolution des Lebens, die schließlich in dem Menschen gipfelte. Offenbar sind Strahlungen bestimmter Wellenlängen für die Gesundheit biologischer Wesen, einschließlich des Menschen, ebenso wichtig wie Sauerstoff.” [1]

Es blieb meist nicht bei dezenter Kritik. Dem großen Protagonisten Michael Holick wurde infolge eines solchen Streits auch seine Professur in der Dermatologie entzogen. Dieser war Professor an der Boston University in der Dermatologie-Abteilung. Holick veröffentlichte das Buch „The UV Advantage“, in dem er „maßvolles Sonnenbaden“ (ca. 5 bis 15 Minuten mehrmals pro Woche ohne Sonnenschutz) empfahl, um die Vitamin-D-Produktion anzuregen. In der Welt der Dermatologie, die konsequente Sonnenvermeidung zur Vorbeugung von Hautkrebs predigt, galt dies als „Häresie“. Die damalige Leiterin der Dermatologie, Dr. Barbara Gilchrest, warf ihm vor, die öffentliche Gesundheit zu gefährden, und verglich seine Empfehlungen sogar damit, das Rauchen zur Entspannung zu bewerben. Holick musste die Dermatologie verlassen.

Seit dem Eklat um Michael Holick im Jahr 2004 hat sich die wissenschaftliche Sicht auf Vitamin D dennoch massiv gewandelt. Man hat erkannt, dass er mit der Bedeutung des "Sonnenvitamins" recht hatte. die Debatte um die richtige Dosierung und den Sonnenschutz bleibt jedoch bis heute ein Drahtseilakt.

Fazit

Dieses Phantom, das wir den Umweltfolgen der Industriellen Revolution verdanken, wird uns wohl sehr lange begleiten. Das liegt an dem “Täter”, der Sonne, der wir alles Leben verdanken. In Maßen genossen, gibt es nichts Besseres als ihr Licht für Leib und Seele. Sie kann aber auch schädlich bis zerstörerisch werden.

Zu dem Thema hat sich 1926 der Pionier der Arbeitsmedizin gemeldet, als das Buch Light and Health eines Lichttechnikers erschien. Im Jahre 2026 haben 5 der 17 Beiträge des Symposiums Licht und Gesundheit sich vornehmlich mit UV beschäftigt. Auf den 84 Seiten der Dokumentation der Veranstaltung erscheint “UV” 96-mal.

[1] Emery R. Hayhurst, Rezension in The American Journal of Public Health, S. 635, 1926

[i] Zum Begriff agens siehe Begriffsbestimmung hier . Ein Agens kann eine wirksame Substanz sein, aber auch negativ beladen. Die neutrale Auffassung entspricht eher der Rolle von Stoffen und Strahlung in der Natur. Luft und Wasser, beide unerlässlich für Leben, können u.U. einen schnellen Tod verursachen. UV kann Zellen angreifen und Mutationen bewirken, Und Mutationen sind nach der Vererbungslehre Grundstein für die Entwicklung der Natur.

Über den Wolken muss das Licht unendlich sein

Wissenschaftliche Durchbrüche
bestehen oft darin, dass man alte Weisheiten
endlich in Tabellenform gepresst hat.

Anonymus

Zu diesem Artikel

Vor 5 Jahren überraschte die internationale Elite der Chronobiologen die Lichtwelt mit einer Erklärung[1]. Damit niemand auf die Idee kam, dass sie heimlich anderweitigen Interessen dient, haben alle ihre möglichen Interessenkonflikte dargelegt. Und zwar derart ausführlich, dass die Erklärung länger war als der Inhalt des Papiers. Diese sehr auffällige Erklärung habe ich damals in voller Schönheit kommentiert, z.B. Konflikte von Autoren mit Interessen.

Der Inhalt war eine Erklärung, wie man die Beleuchtung in Innenräumen gestaltet, damit der Mensch im Innenraum in Harmonie mit seinem circadianen Rhythmus leben kann. Die Pundits haben angegeben, tagsüber müsse im Innenraum eine melanopische Beleuchtungsstärke von 250 lx MEDI herrschen. Die jetzt existierenden Beleuchtungen wären dazu nicht in der Lage. (s. hierzu Minimale melanopische Beleuchtungsstärke für Jedermann ). Was die Damen und Herren für erforderlich halten, macht die Skizze deutlich

In diesem Beitrag geht es um die melanopische Beleuchtungsstärke am Tage. Um die Körperrhythmen gesund und munter zu halten, muss zwischen 06:00 morgens und 19:00 abends eine mel-EDI von 250 lx überschritten werden. (Anm.: mel-EDI wird auch mal MEDI oder mEDI geschrieben. Um die Normung der Schreibweise kümmern wir uns, wenn wir mit dem Rest fertig sind.)

Diese Beleuchtungsstärke unterscheidet sich von ihrer berühmteren Cousine durch mehrere Eigenschaften:

  • Sie ist vertikal, d.h. es zählt nur das horizontal fliegende Licht.
  • Sie ist abhängig von der Lichtfarbe bzw. vom Spektrum.
  • Sie ist vom Alter des Betrachters abhängig.

 

Man kann mel-EDI aus der in der Planung angegebenen Horizontalbeleuchtungsstärke überschlägig als ein Drittel des Planungswertes berechnen, also etwa 33%.Dazu kommt ein Abschlag, wenn das Spektrum vom Tageslicht D65 abweicht. Für „normale“ Leuchtstofflampen mit der Lichtfarbe neutralweiß beträgt der Abschlag rund 50 %. Somit hätten wir bei 500 lx Planungswert eine mel-EDI von 82,5 lx für einen 32-jährigen Beobachter. Bei einem angehenden Rentner muss der Wert noch halbiert werden. Der 65-jährige Beobachter erhält bei gleicher Lampe nämlich nur noch ca. 40 % der biologischen Dosis eines jungen Menschen.

Um die gewünschte Wirkung zu erzielen, muss die Beleuchtung also mindestens um den Faktor 3 erhöht werden. Rechnerisch müsste sie etwa bei dem 6-fachen Wert liegen. Das ist mit künstlichem Licht schlecht machbar. Helfen tut das Tageslicht. Da es durch die Fenster horizontal einfällt, fällt der Faktor 0,33 erst einmal weg. Dann hat es auch noch das gewünschte Spektrum, wenn nicht besser. Also müssten wir die aus medizinischer Sicht erforderliche melanopisch wirksame Beleuchtung in Innenräumen mit Tageslicht lässig erreichen können.

Genau dies untersucht eine Gruppe Forschender in dem EU-Projekt MeLiDos (Metrology for wearable light loggers and op­tical radiation dosimeters).[2] Sie erheben hochaufgelöste persönliche Lichtexpositionsdaten unter Alltagsbedingungen an neun Standorten zwischen dem Äquator und Skandinavien (Schweden, Niederlande, Deutschland, Spanien, Türkei, Costa Rica und Ghana). Deren Sensoren messen die melanopische Bestrahlungsstärke direkt auf Augenhöhe, was wesentlich genauer ist als eine statische Berechnung am Schreibtisch.

In einem Beitrag zum 13. Symposium Licht und Gesundheit 2026, mit dem Titel “Wie viel Licht erreicht uns wirklich? Erkenntnisse aus der Dortmunder MeLiDos-Studie”, stellten Kai Broszio, Johannes Zauner und Manuel Spitschan vor, wie die melanopische Beleuchtungswirkung am Standort Dortmund aussieht.

Es wurden drei Größen betrachtet:

  • melanopische Beleuchtungsstärken (mel-EDI, lx)
  • Time-Above-Threshold-Metriken (TAT, Werte über 500 lx und 1000 lx in h/d)
  • zeitliche Lage der Lichtexposition (mittlerer Zeitpunkt der Exposition oberhalb 250 lx).

 

Die Anforderung der Chronobiologen hieße >TAT250 von 06:00 bis 19:00 Uhr.

Der Beitrag stellt die Messperiode Sommer-Herbst dar, wo die theoretisch mögliche Photoperiode in Dortmund ca. 10,5–16,5 h beträgt.

Das Ergebnis fällt sehr ernüchternd aus.

Melanopische Beleuchtungsstärken (mel-EDI)
Tageszeit 08:00–18:00 ca. 90 lx – 130 lx
Mittagsfenster 11:00–14:00 ca. 120 lx – 180 lx
Abend 18:00–22:00 ca. 5 lx – 15 lx

Der Grenzwert von 250 lx wurde 0,8 h – 1,4 h/Tag (Median) überschritten. Melanopische Beleuchtungsstärken von über 1000 lx sahen die Probanden 0,2 h/Tag. An den meisten Arbeitstagen wurden 1000 lx nie überschritten.

Die zeitliche Verteilung ergab ein weiteres ernüchterndes Ergebnis. Die Exposition oberhalb 250 lx war stark auf die Mittagsstunden konzentriert und weist eine geringe zeitliche Breite auf. Frühmorgendliche hohe Lichtreize, die für eine biologische Wirkung besonders wirksam wären, traten selten auf.

Das Ergebnis werten die Autoren wie folgt:

Die Dortmunder Daten belegen exemplarisch ein urbanes Lichtparadox: Trotz langer Sommertage bleibt die persönliche melanopische Tageslichtexposition niedrig, während abendliche Lichtquellen präsent sind. Die resultierende Lichtprofil – „dim days, bright evenings“ – gilt als Risikofaktor für circadiane Instabilität, Schlafverkürzung und langfristige Gesundheitsfolgen (Lunn et al. 2017; Blume et al. 2019; Haus und Smolensky 2013; Abbott et al. 2020).

Die Ergebnisse zeigen ferner, dass Photoperiode allein kein verlässlicher Prädiktor für individuelle Lichtdosen ist. Entscheidend sind verhaltens- und umgebungsbedingte Faktoren, insbesondere Arbeitsorganisation und Innenraumaufenthalte.“

Warum war dieses Ergebnis zu erwarten?

Frühere Messungen

Im Rahmen des PLACAR-Projektes hatte Dr. Dieter Kunz von der Charité ähnliche Dosismessungen an Berliner Studierenden vorgenommen. Zwar waren die Messmethoden bei Weitem nicht so verfeinert wie heute. Aber Kunz’ Ergebnisse waren schockierend genug: junge Studenten, die ihre hellichten Tage im Dunkeln verbringen. Das Schlagwort biologische Nacht machte schon damals die Runde.

Bei dem damaligen Vortrag wurde das Ergebnis auch mit dem Verhalten der Probanden begründet. Niemand hält die Studenten davon ab, erhebliche Teile des Tages draußen zu verbringen. Ihre Situation ist nicht vergleichbar mit der der Arbeitnehmer, deren Arbeitsstunden nicht zufällig mit dem hellen Tag zusammenfallen. Wenn sie Schicht arbeiten, verbringen sie einen Teil des Tages mit Schlafen.

Wenn sich Studierende mit mehr Freiheiten als Arbeitnehmer auch an hellichten Tagen ihre Zeit lieber in dunklen Umgebungen verbringen, warum sollte es mit der Bevölkerung von Dortmund anders sein. Einen möglichen Grund kann man dem unteren Bild entnehmen, das jüngere Menschen an einem wunderbaren Sonnentag mittags bei ihrer Lieblingsbeschäftigung zeigt.

 

Physik der Beleuchtung

In meinen Blogs wird häufig dargestellt, dass die Beleuchtung in Arbeitsstätten anders “organisiert” ist als in Wohnräumen. Der Tageslichteinfall an einen Arbeitsplatz findet – wenn überhaupt – seitlich aus einer Richtung statt. Die Arbeitsplätze sind parallel zu dieser angeordnet, weil das Tageslicht sonst blendet. Ein Mensch, der im Freien sitzt oder steht, wird sich bei moderaten Lichtverhältnissen von 10.000 lx bis 20.000 lx selten geblendet fühlen. Anders, wenn er durch relativ dunkle Wände eingegrenzt wird. Aus diesem Grund sind die Arbeitsplätze im Prinzip etwa so angeordnet wie in diesem Bild dargestellt.

Wenn man die Beleuchtungsstärke in Richtung des Auges der in diesen Räumen sitzend arbeitenden Personen misst, wird man bei weniger als der Hälfte des Lichts aus der Fensterrichtung landen. Woher soll bei den abgebildeten Arbeitsplätzen eine mel-EDI von 250 lx in Richtung des Auges kommen?

Wenn bei deutschen Büroräumen von Tageslicht die Rede ist, kann man davon ausgehen, dass sie nach DIN 5034-1 gebaut worden sind. Diese verlangte, dass etwa in Raummitte ein Tageslichtquotient (Verhältnis der Beleuchtungsstärke außen und innen) von 0,9 % herrschen möge. Das ist bei Außenbeleuchtungsstärken von 10.000 bis 20.000 lx gerade mal 90 lx bis 180 lx. Die mickrigen Werte kommen aus dem Licht aus allen Einfallsrichtungen zusammen. Da das Licht aus der Fensterseite dominiert, in die die Mitarbeitenden nicht gucken, liegt der wahre Wert weit darunter.

Mit dem Anteil der künstlichen Beleuchtung sieht es auch nicht besser aus. In Arbeitsstätten fällt das Licht meist von der Decke und wurde immer auf Horizontalbeleuchtungsstärke getrimmt. Eine vertikale Komponente entsteht rechnerisch durch eine aus physiologischer Sicht  fragwürdige Aufspaltung in zwei Komponenten[3] oder durch die innere Reflexion. Diese wird in modernen Büros durch große Bildschirme oder Akustikpaneele am Arbeitsplatz erheblich behindert.

Wie die Helligkeitsverteilung in einem Gesamtraum aussehen müsste, wurde in einem Bild der lichttechnischen Industrie (licht.de) skizziert. Wie man  sie sich vor rund 30 Jahren vorstellte, war es genau umgekehrt.

Das linke Bild zeigt das einstige Ideal, das jetzt millionenfach die Bürohäuser besiedelt, das rechte die physiologisch günstigste Verteilung. Wenn man hier aber etwa eine Angleichung an den Himmel der Natur erkennen will, der irrt. Wie im Kapitel Falsche Vorbilder – Die Sonne und der Himmel dargelegt, ist der Himmel eher ein schlechtes Vorbild, wenn man ihn  nicht so hell machen kann wie in der Natur. Leuchtende Decken, die unten auf den Tischen Beleuchtungsstärken um 500 lx erzeugen, sehen immer grau aus. Ein blauer Himmel weist typischerweise Werte zwischen 2.000 cd/m2 und 10.000 cd/m2 auf (je nach Winkel zur Sonne). Ein trüber Berliner Wintertag hat eine recht gleichmäßige Leuchtdichte von etwa 1.000 cd/m² bis 2.000 cd/m². Solche Werte werden in Innenräumen schlecht erreicht.

Wer tagsüber einen Himmel erlebt, der auf der Erde etwa 5000 lx erzeugt, denkt nicht an einen schönen Tag, sondern an ein nahendes Gewitter. Wenn der Himmel nur 500 lx erzeugen kann, bricht das Gewitter über einem zusammen.

So könnte man statt einer “physiologisch-anregenden” Beleuchtung eine realisieren, die wegen ihres grauen Aussehens für eine einschläfernde Atmosphäre sorgt.

Das schlimmste Hindernis ist aber das Konzept der künstlichen Beleuchtung selber. Man beleuchtete Umgebungen seit Menschengedenken, damit sie sichtbar werden. Es kam also stets auf das reflektierte Licht an. Bis zum Jahr 2011 war Beleuchtung auch technisch so definiert. Eine Umdefinition einer fundamentalen Funktion der Beleuchtung, die nicht einmal die Fachleute bemerkt haben, ändert nichts an der Physik. Und diese Funktion bestand seit der Erfindung der künstlichen Beleuchtung in der Eiszeit.

Hingegen wurde das Licht, das das Auge trifft, ohne es der Beleuchtung eines Gegenstandes zu dienen, als Blendung bezeichnet. Der Beleuchtungstechniker versucht in der Regel, die Blendung zu minimieren, während die “Nutzwirkung”, die Beleuchtung der Arbeitsebene, maximiert wird.

In einem Büro wird jede Erhöhung einer Vertikalbeleuchtungsstärke dazu führen, dass die Leuchten direkt blenden und indirekt über die Reflexion auf den Bildschirmen.  Beide Effekte werden geringer, wenn die Leuchtdichten der Störquellen niedrig sind. Diese wurden aber bei Lichtplanungen entweder gar nicht oder nur teilweise indirekt berücksichtigt.[4] (Eine Abhandlung über die Bedeutung der Leuchtdichte findet sich in dem Kapitel Ein unmöglicher Umgang mit der wichtigsten Größe – Leuchtdichte) Die meisten heute existierenden Beleuchtungen sind ohne jegliche Berücksichtigung der realen Leuchtdichte unter der Leuchte geplant und erstellt worden. Dem Lichtplaner stehen für seine Arbeit Lichtstärkewerte zur Verfügung. Für Blendungen aller Art, psychologische Blendung, Reflexblendung, Kontrastblendung, sind aber Leuchtdichten maßgeblich. Daher ist es angemessen, wenn man die Erhöhung der Vertikalbeleuchtungsstärke mit der Blendung assoziiert.

Ausrichtung der Augen

Die Ausrichtung der Augen bei der Arbeit ist hinderlich für das Erreichen höherer biologisch wirksamer Beleuchtungsstärken. Zwar arbeiten viele Forschende mit der “vertikalen” Beleuchtungsstärke, aber der Mensch kann sie nicht sehen. Das folgende Bild zeigt, wie man sich die melanopisch wirksame Beleuchtung vorstellt.

Nach diesem Bild hat die Größe, nach der man seit Jahrzehnten geplant hat, Lichteinfall 90°, also die Horizontalbeleuchtungsstärke, keine Wirkung. Wenn man das Auge in die wahre Arbeitsposition dreht, bleibt nur noch ein kleiner Schlitz von 10° übrig, aus dem das melanopisch wirksame Licht ins Auge fallen kann. Nach ergonomischen Erkenntnissen liegt nämlich die Blickrichtung 35° unter der Horizontalen.

Hier habe ich bewusst ein altes Bild genommen, um auf das Alter dieser Erkenntnis hinzuweisen. Es sitzen aber nicht alle so vorbildlich wie die hier idealisiert abgebildete Dame. Viele Menschen sahen, als dieses Bild entstand, bei der Arbeit so aus wie links im unteren Bild, das 1976 aufgenommen wurde. Rechts sieht man ein Bild aus einer Broschüre einer Krankenkasse, die ich gestern bekam. Wer so guckt, auf den wird die Vertikalbeleuchtungsstärke keine melanopische Wirkung ausüben können.

Eine Arbeit, unter deren Autoren auch Kai Broszio war, hatte im Jahr 2017 festgestellt, dass übliche Bürobeleuchtungen nicht allzu viel Licht i.S. einer melanopischen Wirkung erzeugen können.[5] Diese Arbeit wurde in Kann die Bürobeleuchtung eine circadiane Wirkung entfalten kommentiert. Warum das so ist, kann man einfach aus der Physik ableiten. Warum es schlimmer aussieht als aus der Physik erwartbar, kann man an der Sitzhaltung ablesen.

Fazit

Leider scheint es so, dass die Dortmunder trotz Tageslichts nicht einmal in die Nähe der 250 lx mel-EDI kommen. Wie sind die Chronobiologen aber auf 250 lx gefolgt von 10 lx am Abend und 0 lx in der Nacht überhaupt gekommen? Wie ich in dem Beitrag Gnadenlos global darstellte, müsste man die Spanier wohl das halbe Jahr in abgedunkelte Räume stecken, weil draußen zu viel Licht ist. Wer kann sich einem solchen Schlaf-/Wach-Rhythmus unterwerfen? Wie realistisch ist dieser Rhythmus z.B. für Dortmund mit echten vier Jahreszeiten?

Das Konzept hat gleich fünf fundamentale Schönheitsfehler;

  • Der vorgegebene Tag existiert in unseren Breitengraden bestenfalls ein paar Mal im Frühling und im Herbst
  • Ein erheblicher Teil der Arbeitskräfte leistet Nacht- und Schichtarbeit, ein noch größerer Teil verbringt den Abend vor dem Fernseher, im Theater, bei Freunden oder in Lokalen.
  • In Deutschland bereiten sich allenfalls Kleinkinder ab 19:00 Uhr auf den Schlaf vor.
  • Die Bildschirme, die man gerne abends benutzt (Fernseher, Computer, Tablets), produzieren fast genauso viel Licht wie die Beleuchtung am Tage.
  • Man muss die vorhandene Beleuchtung tagsüber um ein Mehrfaches erhöhen.

 

Gerüchte sagen, die Vorstellungen kommen nicht von ungefähr. Sie sind wohl auf der ISS ermittelt worden. Tatsächlich wurde das Papier der Chronobiologen zum ersten Mal von einem amerikanischen Professor präsentiert, der seit 1987 für die NASA forscht. Seine Schäfchen sind keine Normalbürger in deutschen Fabriken und Büros, sondern Astronauten, die man fit machen will für die lange Reise zum Mars. Diese sind keine Normalbürger oder Arbeitnehmer, sondern menschliche Versuchskaninchen, die ständig unter gesundheitlicher Kontrolle stehen. Auf der ISS gibt es keine Jahreszeiten und der Tag ist etwa 1,5 Stunden lang. Man kann ihn künstlich auf 24 h trimmen, indem man Teile verdunkelt.

Bei solchen Menschen und ihren Arbeitsverhältnissen kann man den propagierten Tagesrhythmus lässig einhalten. Auch die 250 lx mel-EDI. Über den Wolken gibt es viel Licht. Man muss eigentlich nur für Abdunkelung sorgen. Was empfehlen die Forschenden den Dortmundern, die nur geringe Chancen für einen Aufenthalt auf der ISS haben?

Ich zitiere wörtlich:

"Tageslicht als Gesundheitsressource

  • Erhöhung von TAT250 lx durch gezielte Außenaufenthalte
  • Tageslichtorientierte Arbeitsplatz- und Pausenkonzepte"

Wer also eine Beleuchtung erleben möchte, die ihn mit der Außenwelt in Harmonie halten soll, kann dies nur im Außenraum erreichen. Warum man Tageslichtorientierte Arbeitsplatz- und Pausenkonzepte braucht, hatten wir mit unserer Forschungsarbeit zu Licht und Gesundheit nachgewiesen. (Endbericht von 1998 download). Zuvor hatte das Tageslicht als Beleuchtung im deutschen Arbeitsschutz schlicht nicht existiert.

Ich müsste diesen Beitrag meinen Lehrern widmen, die meine Schulkameraden und mich in den 1950ern in jeder Pause gnadenlos auf den Hof jagten, außer bei heftigem Regen. Vermutlich hatten sie die Weisheit von ihren Lehrern geerbt.

Wer die wahren Quellen finden will, liegt hier richtig: Meanwhile in Old Germany …

[1] Timothy M. Brown, George C. Brainard, Christian Cajochen, Charles A. Czeisler, John P. Hanifin, Steven W. Lockley, Robert J. Lucas, Mirjam Münch, John B. O’Hagan, Stuart N. Peirson, Luke L. A. Price, Till Roenneberg, Luc J.M. Schlangen, Debra J. Skene, Manuel Spitschan, Céline Vetter, Phyllis C. Zee, Kenneth P. Wright Jr Recommendations for healthy daytime, evening, and night-time indoor light exposure

[2] MeLiDos ist ein EURAMET-Projekt und wird kofinanziert durch Horizon EU, Projekt Nummer: 22NRM05

[3] Die Berechnung einer vertikalen und einer horizontalen Komponente aus einer Lichtrichtung geht nur auf bei diffus reflektierenden Oberflächen wie beim Büropapier. Sowohl für die Modellierungswirkung des Lichteinfalls als auch für die nicht-visuelle Wirkung ist die tatsächliche Einfallsrichtung maßgeblich.

[4] Die Daten von Leuchten, mit denen ein Lichtplaner arbeitet, enthalten keine Leuchtdichten. Diese fließen in die Berechnung der Blendung ein. Allerdings sind die hierzu benutzten Daten keine Messwerte, sondern nur mit Hilfe der Lichtstärke errechnete „mittlere“ Leuchtdichten.

[5] Kai Broszio, Mathias Niedling, Martine Knoop und Stephan Völker: Nicht-visuelle Beleuchtung: Reichen integrale Messgrößen aus?, Lux Junior 2017, Dörnfeld