Kommentare zu den Kapiteln

Der Inhalt dieser Website besteht aus dem Haupttext, der in Seiten gegliedert ist, und zahlreichen Fußnoten und Links, die zusammen einen größeren Inhalt repräsentieren.

Einzelne Aspekte werde ich nach Bedarf in Blogbeiträgen erklären. Dies erfolgt z.B. wenn neue Erkenntnisse auftauchen, die eine andere Sicht fordern als im veröffentlichten Buch eingenommen.

Gerne nehme ich auch Gastbeiträge an, die den Inhalt aus anderer Sicht darstellen wollen. Diese dürfen keinen kommerziellen Hintergrund haben. Ansonsten gebe ich die Beiträge unkommentiert wieder. Geprüft wird nur, ob der Inhalt Beleidigendes, Persönliches oder Strafbares enthält.

Ein Fremdbegriff, der fast allen ein Begriff war – TLA wie Temporal Light Artefacts

Wir ignorieren das Problem nicht,
wir geben ihm nur die Zeit, die es braucht,
um von selbst zu eskalieren.
Anonymus

Ein Vorwort

Zur nachfolgenden Diskussion gehört die Historie des Begriffs Flimmern, der mit der Einführung der Leuchtstofflampe in den 1930ern begonnen und nach dem Verbot aller Lampen dieser Art in der EU noch an Bedeutung gewonnen hat. (Begriff, Messmethoden, Historie, Grenzwerte u.a. hier). Vor rund 10 Jahren wurde ein offizielles Prüfzeichen propagiert, das die US-amerikanische Prüforganisation UL vergab. Ich hatte mich seinerzeit darüber lustig gemacht (Ein neues Gütezeichen, das nie einer gebraucht hat! Bis heute!) Die Sache hat sich aber per 2026 noch nicht erledigt.

Das Problem wurde nicht etwa gelöst, obwohl es ernst genommen werden musste. Es wurde so lange geleugnet, bis mit dem elektronischen Vorschaltgerät (EVG) eine radikale Lösung anstand. Diese erhöht die Flimmerfrequenz jenseits von 20 kHz, bei der jeglicher negativer Effekt unterbunden wird. Dennoch hat ausgerechnet die Autoindustrie verhindert, dass das EVG zwingend vorgeschrieben wurde, obwohl sie von einer Wirkung auf die Sicherheit betroffen sein konnte: Stroboskopeffekt. Diese betrifft bewegte Maschinenteile, die man ggf. still stehend sieht.

Das Argument der Autoindustrie war wirtschaftlicher Art. Sie hätte ihre Produktion unterbrechen müssen, um die Vorschaltgeräte auszutauschen, weil die EVG eine nominale Lebensdauer von 50.000 h hatten. Ebenso aus wirtschaftlichen Gründen verzögerte sich die Einführung der EVG in Bürobauten. Diese hätten die Investoren bezahlen müssen, während der spätere Mieter eines Gebäudes die Früchte erntet.

Die heutige Diskussion wird ebenso von wirtschaftlichen Argumenten geprägt. Die Lösung, eine flimmerfreie LED-Beleuchtung, ist machbar. Sie ist aber nicht die kostengünstigste.

Da mir das Thema sehr am Herzen liegt, wurde in Genesis 2.0 – Schöpfung der elektrischen Sonne das Flimmern unter “Ignorieren – Die Patentlösung “ behandelt. Es handelt sich um ein Problem, das etwa seit 1908 bekannt ist. Es sind seit der Drucklegung des Buches mehrere wichtige Informationen angefallen.

TLA  - Das unbekannte Wesen?

Wie im Vorwort erwähnt, geht die Diskussion um Flimmern auf die 1930er Jahre zurück. Damals war die Leuchtstofflampe aber weder dominierend, noch das größte Problem. Dieses bildeten eher die Schwankungen des Lichts infolge Stromschwankungen oder Luftbewegungen, die das Gaslicht trafen. Auch das Pendeln von Leuchten soll ein Problem gewesen sein. Daher gehörte die “Ruhe der Beleuchtung” zu den sieben Gütemerkmalen, die 1935 in der Norm DIN 5035 genormt wurden. Die Beleuchtung musste ruhig sein, um Augenermüdungen und andere die Wahrnehmbarkeit beeinträchtigende Folgen zu vermeiden.

TLA = zeitliche Lichtartefakte war also von Anbeginn ein Begriff. Die Norm von 1935 sagte aber: “Für Beleuchtungszwecke reicht die im allgemeinen übliche Periodenzahl von 50 Hz aus.” Bei 50 Hz schwankt das Licht mit 100 Hz. Diese Frequenz wurde als hinreichend angesehen, weil das Auge – angeblich – nur bis 47 Hz auflösen konnte. Jedes Licht mit einer höheren Frequenz würde vom menschlichen Auge aus “ruhig” angesehen werden. Hier ein Bild von Manfred von Ardenne, der sich mit dem Problem bereits in den 1930ern beschäftigt hatte, als er das Fernsehen „erfand“:

Solche Bilder geisterten auch durch ergonomische Bücher und Abhandlungen, als man die Einführung der Computer ausgiebig diskutierte. Die Normung für Bildschirme hat die Grenze der Unsichtbarkeit des Flimmerns dann auf 71 Hz festgelegt. Das reichte für Bildschirme mit einem dunklen Hintergrund. Als dann helle Bildschirme eingeführt wurden, konnten auch die Älteren sehen, wie sie deutlich flimmerten.

Der Schlüssel zum Verständnis für solche Diskrepanzen liegt in der Methode der Bestimmung begraben. Die Frequenz FVF hängt von der Größe des leuchtenden Objekts ab. Die Werte unter 50 Hz wurden mit kleinen Testlampen ermittelt. Größere Bildschirme nehmen einen erheblichen Teil des Gesichtsfeldes ein. Ihre Flimmerfrequenz muss weiter erhöht werden.

Bei Manfred von Ardenne war zudem maßgeblich, dass der Fernseher direkt angeschaut wird. Die Flimmerempfindung ist aber bei peripheren Objekten ungleich stärker, weil der Mensch bei seitlich gesehenen Objekten sehr viel empfindlicher ist. Das ist praktisch bei allen Lichtquellen der Fall, die man für Beleuchtungszwecke einsetzt. Sie werden möglichst weit weg in den Rand des Gesichtsfeldes verbannt, damit sie nicht blenden.

Wie kam es aber, dass Menschen angaben, sie würden Leuchtstofflampen flimmern sehen, wenn 100 Hz schon 1935 hinreichend hoch gewesen sei? Die Antwort liegt auch an der Methode der Bestimmung von FVF mit ruhiggestelltem Auge. Die Prüfung moderner Bildschirme erfolgt auch unter dieser Prämisse. Bei der Arbeit springt das Auge aber ständig hin und her. Zudem bewegen sich die Augen ständig und völlig unwillkürlich mit einer sehr hohen Winkelgeschwindigkeit.

Kurz gesagt: TLA ist ein altbekanntes Phänomen. Neue Leuchtmittel wie LED haben deren Bedeutung erhöht. Dies verdeutlicht eine Illustration des Potentials künstlicher Lichtquellen zum Flimmern, wenn keine Gegenmaßnahmen getroffen werden. (Bild uPowertek, übersetzt)

Definitionen

Definitionen/Begrifflichkeiten im Zusammenhang mit TLA werden nicht immer einheitlich verwendet. TLM: Temporal Light Modulation ist die Schwankung der Lichtmenge oder der spektralen Verteilung des Lichts in Bezug auf die Zeit. Sie ist die physikalische/technische zeitliche Veränderung des Lichts ohne einen Bezug zur Wahrnehmung.

TLA = Temporal Light Artefacts bedeutet den Einfluss auf die menschliche Wahrnehmung, induziert durch einen Lichtreiz, dessen Intensität oder spektrale Verteilung mit der Zeit für einen menschlichen Beobachter in einer bestimmten Umgebung variiert.

Flimmern/Flicker = Wahrnehmung einer visuellen Unstetigkeit, die durch einen Lichtreiz hervorgerufen wird, dessen Leuchtdichte oder spektrale Verteilung mit der Zeit schwankt, für einen statischen Beobachter in einer statischen Umgebung.

Stroboskopeffekt = Veränderung der Bewegungswahrnehmung, die durch einen Lichtreiz hervorgerufen wird, dessen Leuchtdichte oder spektrale Verteilung mit der Zeit schwankt, für einen statischen Beobachter in einer nicht statischen Umgebung.

Geisterbilder (Phantom-Array-Effekt) = Änderung der wahrgenommenen Form oder der räumlichen Position von Objekten, die durch einen Lichtreiz hervorgerufen wird, dessen Leuchtdichte oder spektrale Verteilung mit der Zeit schwankt, für einen nicht statischen Beobachter in einer statischen Umgebung.

Der Phantom-Array-Effekt ist ein visueller Effekt, den ein menschlicher Beobachter wahrnimmt, wenn er schnelle Augenbewegungen über eine Lichtquelle ausführt, die eine zeitliche Lichtmodulation bei Frequenzen zwischen etwa hundert Hz und einigen kHz aufweist: In Richtung der Augensakkade wird eine Reihe von mehreren Scheinbildern der Lichtquelle gesehen. (Christophe Martinsons et al. 2025)

Was bewirkt TLA?

Bei Stroboskopeffekten bestehen Risiken vor allem darin, Bewegungen, z.B. von rotierenden Maschinen, falsch wahrzunehmen. So kann die Bewegung langsamer wahrgenommen werden, als sie ist. Die Objekte können auch als unbewegt erkannt werden.

Bei bestimmten Menschen, z.B. bei Vorliegen einer photosensitiven Epilepsie, ist das Risiko für die Auslösung eines epileptischen Anfalls gegeben. Bei einer geringeren Empfindlichkeit können Effekte wie Unbehagen oder Kopfschmerzen entstehen. Unter Photosensibilität, auch Photosensitivität, versteht man in der Neurologie die besondere Reaktionsbereitschaft des Gehirns, auf regelmäßig wechselnde Hell-Dunkel-Kontraste, z. B. beim Fernsehen, bei Videospielen, Flackerlicht in der Disko, Licht-Schatten-Wechsel beim Durchfahren einer Allee o. ä., mit einer zunehmend synchronisierten Entladung von Nervenzellverbänden bis hin zum epileptischen Anfall zu reagieren.

Die Störwirkung ist bei Objekten, die nicht im Fokus der Augen stehen, ungleich höher. Dieser Effekt wurde bereits in den 1930ern wissenschaftlich erforscht (z.B. Hecht, S., & Shlaer, S. (1936): "Intermittent stimulation by light. V. The relation between intensity and critical frequency for different parts of the retina." Originaltext hier, Download hier). So war es bereits in der ersten Beleuchtungsnorm falsch gewesen, zu behaupten, für Beleuchtungszwecke würden 100 Hz reichen. Da aus dieser Arbeit bereits bekannt war, dass rötlicheres Licht bei sonst gleichen Bedingungen weniger stört als blaues, hätte man bereits damals Leuchtstofflampen anders behandeln müssen als Glühlampen oder Gaslicht.

Allgemein bei Flimmern können Kopfschmerzen/Migräne, Augenschmerzen/Ermüdung der Augen, „Unbehagen“ entstehen. Das Ausmaß der Beschwerden in der Bevölkerung ist unklar, da TLA als möglicher Auslöser von unspezifischen Symptomen wie Kopfschmerzen oder Augenermüdung gegebenenfalls gar nicht in Betracht gezogen wird. Diese können im Prinzip auch durch andere Faktoren ausgelöst werden. So kann eine Muskelanspannung durch Stress zum ständigen Kopfschmerz oder gar zu Migräne führen. Für Kopfschmerz reicht ein zu hoher Bildschirm, weil dadurch die Nackenmuskulatur angestrengt wird.

In welchem Ausmaß solche Probleme vorkommen können, haben Wilkins[1] et al. gezeigt. In einem hohen Bürogebäude konnte man etwa die Hälfte der Kopfschmerzen durch nicht flimmerndes Licht beseitigen.

In einer unveröffentlichten Studie des Ergonomic Instituts haben sich 35% von 1400 Bildschirmbenutzern über Flimmern beschwert, wenn sie Aufgaben mit häufigen Blickbewegungen über Bildschirmbereiche ausführten. Der Effekt war bei Personen, die nur Texte am Bildschirm lasen, nicht feststellbar. Bei der gleichen Frage hatten 10% der Befragten bejaht, als die Bildschirme deutlich sichtbar flimmerten. Demnach kann der Effekt bei LED größer sein als früher. Die Beschwerde über Flimmern betraf nicht das Flimmern des Bildes, sondern die Wirkung des schnellen Blickwechsels.

Welche Quellen verursachen Probleme

Bei Flimmern fällt zunächst die Beleuchtung des Arbeitsraums ein. Dass diese Störungen verursachen können, ist wie oben gezeigt schon lange bekannt.

Neu hinzugekommen ist der Computerbildschirm, der mit einer LED-Hintergrundbeleuchtung arbeitet. LED kommt immer in Betracht, weil bei allen Schaltungen außer bei einer Gleichstromspeisung das Licht kurzzeitig vollständig erlischt. LEDs sind sehr schnelle Schaltelemente, die in der sonstigen Technik wegen eben dieser Eigenschaft eingesetzt werden. Bei Beleuchtung hingegen ist die schnelle Schaltbarkeit meist unerwünscht.

Moderne Monitore, die auf OLED-Technik basieren, haben keine Hintergrundbeleuchtung . Sie können dennoch eine Störung durch TLM verursachen.

Auch Wechselwirkungen zwischen den genannten Problemquellen kommen in Betracht. So kann eine „flimmernde“ Beleuchtung die Flimmerwirkung eines Monitors verstärken.

Phantom-Array-Effect alias Phantombilder werden im  Bereich des Straßenverkehrs diskutiert.

Das Bild oben erklärt die Erscheinung mit den unwillkürlichen Augenbewegungen. Das Gehirn ist zwar in der Lage, die durch diese erzeugten Unschärfen weitgehend auszugleichen, aber nicht die zeitlich veränderlichen Bilder der LED-Leuchten. Die im linken Bild gezeigten Sakkaden erfolgen mit einer Geschwindigkeit bis 600°/s!

Der große Missetäter, die Pulsweitenmodulation

LED-Lichtquellen können mit unterschiedlichen technischen Mitteln gesteuert werden. Die weitaus beliebteste Methode nennt sich Pulsweitenmodulation, bei der der Stromfluss unterschiedlich lange unterbrochen wird. Es ist eine Technik, um ein analog wirkendes Signal (wie die Helligkeit einer LED oder die Geschwindigkeit eines Motors) mit einem digitalen System (das nur "An" oder "Aus" kennt) zu simulieren.

Die Technik wird wie folgt skizziert:

Während ein solcher Takt bei einer Glühlampe kaum störend bemerkbar bleiben wird, kann er bei LED störend wirken. Wenn die PWM-Frequenz zu niedrig ist (oft unter 200 Hz), nimmt das menschliche Auge oder zumindest das Gehirn die Unterbrechungen wahr. Erhöht man diese auf über 2 kHz, ist die Störung meist beseitigt.

Man kann die Dimmung auch über die Stromstärke bewerkstelligen. Dabei ändert sich aber möglicherweise die Lichtfarbe sichtbar. Wenn man mehrere LEDs in einer Parallelschaltung hat, reagieren sie aufgrund von Fertigungstoleranzen nie exakt gleich auf Stromänderungen.

Lösungen

Monitoren

Die Monitorhersteller lösen das Flicker-Problem meist auf hybride Weise:

Die meisten modernen "Flicker-Free"-Monitore nutzen eine Kombination aus beiden Welten:

  • Hohe Helligkeit (ca. 30% bis 100%): Hier arbeitet der Monitor mit Gleichstrom (DC-Dimming). Da die Stromstärke hoch genug bleibt, gibt es kaum Farbverschiebungen und kein Flimmern.
  • Niedrige Helligkeit (unter 30%): Sobald der Strom so niedrig wird, dass die LEDs instabil werden oder die Farben kippen, schaltet der Monitor auf hochfrequentes PWM um.

Premium-Hersteller setzen stattdessen auf extrem hohe Frequenzen im Kilohertz-Bereich (z. B. 20.000 Hz oder mehr). Die Nachteile der Gleichstromsteuerung (Farbdrift) werden vermieden, da die LED in ihren "An"-Phasen immer mit dem optimalen Nennstrom betrieben wird.

Um die Farbverschiebung bei reiner Gleichstromsteuerung zu korrigieren, nutzen High-End-Grafikmonitore (z. B. für Bildbearbeitung) interne Korrekturtabellen (DC-Dimming mit Lookup-Tables (LUT))

LED-Beleuchtungen für Räume

Während man bei der üblichen Beleuchtung das Problem Flimmern fast vergessen hatte, kam es mit LED zurück. Eine Flimmerfreiheit ist zwar technisch realisierbar, aber der europäische Gesetzgeber begnügt sich mit Vorgaben zu einer Flimmerarmut. Hierzu sind zwei Werte maßgeblich: PstLM (st = Kurzzeit, LM = Lichtflimmer-Messmethode, Short-term Light Flickerstipulance) und SVM ( (Stroboscopic Visibility Measure).

Pst LM bewertet Lichtinstabilitäten im Bereich von 0,3 Hz bis 80 Hz. Der Wert wird auf einer relativen Skala gemessen. Der Referenzwert ist 1,0:

Pst LM ≤ 1,0 Das Flimmern wird von 50 % der Menschen gerade noch nicht wahrgenommen. Dies gilt als akzeptabel.

Pst LM > 1,0 Das Flimmern ist deutlich sichtbar und wird meist als störend empfunden.

Nach der EU-Ökodesign-Richtlinie dürfen LED-Leuchtmittel im Volllastbetrieb einen Pst LM von 1,0 nicht überschreiten, um auf dem Markt zugelassen zu werden. Dieser Wert wurde 2021 eingeführt und 2024 zur festen Pflicht für die Marktzulassung.

SVM ist ein Maß für die Sichtbarkeit des stroboskopischen Effekts bei Wellenformen der Lichtausgabe. Es wird aus der Wellenform der Lichtabstrahlung nach einer festgelegten Formel berechnet.

SVM = 1,0: Dies ist die Sichtbarkeitsschwelle. Ein durchschnittlicher Beobachter hat hier eine Wahrscheinlichkeit von 50 %, den Effekt zu erkennen.

SVM < 1,0: Der Effekt ist für die meisten Menschen unsichtbar. Die EU-Verordnung (Stand 2024) schreibt SVM ≤ 0,4 vor, damit das Licht für fast alle Menschen als ruhig erscheint.

Bei SVM (= Stroboskop-Effekt) gab es eine Übergangsphase mit einem lockereren Grenzwert von SVM ≤ 0,9. Der Grenzwert wurde im September 2024 deutlich verschärft auf SVM ≤ 0,4. Die Senkung auf 0,4 stellt sicher, dass der Stroboskop-Effekt für den Großteil der Bevölkerung unter die Wahrnehmungsschwelle fällt.

Der Spezialist Peter Erwin hat sehr lange für die Festlegungen in der Ökodesignrichtlinie gekämpft. Er benutzt ein anderes Maß, das er CFD-Verfahren (Compact Flicker Degree, auf Deutsch Kompaktflimmergrad) nennt. Auf seiner Website sind Testergebnisse von 1200 Messungen dokumentiert (hier).

Seine Wertungen sind stärker gegliedert als die meisten verfügbaren Skalen (grün = wahrnehmbar von ≤ 1% der Bevölkerung bis rot = von mehr als 75% der Bevölkerung wahrnehmbar). Seine bis 2023 durchgeführten Messungen haben in 682 von 1200 Fällen zum Urteil “Fail” = Das Flimmern liegt außerhalb des Bereichs für ein 'low flicker'. geführt. D.h. bei einer Prüfung durch die amerikanische Prüfgesellschaft UL würde mehr als die Hälfte der von Peter geprüften Produkte durchfallen. Eine Messung nach IEEE 1789 Recommende d Practice 1 würden gar 842 der 1200 Produkte unter die Wertung „risky“ fallen.

KfZ Beleuchtung und Flimmern

Dieses Thema ist ein großer Bereich für sich. Um dessen Bedeutung zu verstehen, sollte man sich die folgenden Zahlen ansehen, die sich aus Suchen in Google Scholar mit den Suchbegriffen “flicker” und “headlights”ergeben:
Seit 2025                  629 Artikel
2023 – 2024        1.290 Artikel
2021 – 2022        1.360 Artikel
2019 – 2020        1.420 Artikel

Es sind also allein seit 2019 4.700 wissenschaftliche Artikel dazu erschienen. Die Quintessenz einer neueren Übersichtsstudie lässt es ratsam erscheinen, vorerst keine Aussagen zu machen: “ Flicker ist seit über einem Jahrhundert ein wichtiger Aspekt bei der Beleuchtungstechnik. Präzisere Begriffe sind temporäre Lichtmodulation (TLM) als Reiz und Reaktionen auf TLM als unerwünschte visuelle, kognitive oder physiologische Folgen. Mit der Weiterentwicklung der Beleuchtungstechnik entstanden verschiedene Formen von TLM und damit auch Reaktionen darauf. Heute können einige LED-Systeme – einschließlich LED, Treiber und Steuerung – zu TLM führen, die schwerwiegende unerwünschte Auswirkungen haben, während andere LED-Systeme überhaupt keine unerwünschten Auswirkungen haben. LED-Systeme können ein viel breiteres Spektrum an Lichtwellenformen liefern als herkömmliche Beleuchtungssysteme, wobei einige eine sehr hohe Modulationstiefe aufweisen.” ( Miller et al, 2023 Flicker: A review of temporal light modulation stimulus, responses, and measures, https://journals.sagepub.com/doi/abs/10.1177/14771535211069482).

Ausdrücklich gesagt: LED-Beleuchtungen ohne Störungen durch Flimmern sind möglich. Man weiß auch, wie man dies erreicht.

[1] A.J. Wilkins, I. Nimmo‐Smith, A.I. Slater, and L. Bedocs, Fluorescent lighting, headaches and eyestrain, Lighting Research and Technology, vol. 21, no. 1, p.11, 1989.

Weimarer Lichttage – nachbelichtet

Theorie geht nicht, Praxis weiß nicht
Forschung kann beides.

Anonymus

Zu den Lichttagen

Am 26. und  27. September 2022 fanden die WEIMARER LICHTTAGE statt. Der Veranstaltung war eine lange Liste mit steilen Thesen vorausgeschickt worden. Diese hatte ich vor der Veranstaltung kommentiert. Heute habe ich mir die Liste wieder vorgenommen und meine Kommentare von damals überprüft. Nachfolgend die aktualisierten Kommentare zu den Thesen unter Berücksichtigung des Geschehens in den drei Jahren bis heute.

Die aktuelle Meinungsbildung zum Licht spiegelt nicht den Stand der Wissenschaft wider.

Eigentlich hat die Meinungsbildung zum Licht nie den Stand der Wissenschaft widergespiegelt. Dazu gibt es zu viele Wissenschaften, die sich mit Licht beschäftigen. Der Lauteste gewinnt. Das ist derzeit die Lichttechnik. Sie hat Licht 1924 definiert (!) und behauptet seitdem, die Physik liege falsch mit ihrer Vorstellung vom Licht. Geht’s eine Nummer kleiner? Übrigens, die Bibel kam ohne eine Definition aus.

Tageslicht ist das bessere Licht.

Wofür? Zwar versucht die Lichttechnik seit 100 Jahren den mittleren Sommertag im Haus zu erzeugen und die Nacht zum Tage zu machen. Damit hat sie aber nur wenig Glück gehabt. Für Arbeitsstätten muss das Tageslicht bevorzugt werden, so sie zur Verfügung steht. Allerdings kann man „Tageslichtautonomie“ in Arbeitsstätten übers Jahr gesehen nicht einmal für 8 Stunden realisieren. Die Gesellschaft will z.T. 24/7 also jeden Tag rund um die Uhr.

Integrierte Planung geht nur mit Lichtplanung.

Integrierte Planung der gebauten Umwelt war einst tatsächlich nur mit Lichtplanung möglich. Sie wurde eben so praktiziert. Die Menschen haben aber dann vergessen, dass Licht den Raum macht. So stellten sie die Beleuchtung ans Ende der Bauplanung und überließen sie die Planung des Lichts eher dem Zufall. Nur etwa 5% großer Bauvorhaben erleben einen Lichtplaner. Der Rest hängt von den Künsten eines Elektroplaners ab.

Der These habe ich nichts hinzuzufügen, außer dass der Begriff einen Konkurrenten hat, integrative Planung. Dieser Begriff entstand zur gleichen Zeit wie “integrierte” Lichtplanung. Keine glückliche Entwicklung!

Lichtplanung der Zukunft ist Grundlage für andere Planungen.

Hoffentlich. In der gesamten Architekturgeschichte war dies weitgehend der Fall, weil die Möglichkeit fehlte, genügend Licht für alle Lebenslagen zu erzeugen. Zudem war künstliches Licht immer mit Wärme, Rauch und Gestank verbunden. Dadurch wurde die Bauplanung von Belichtung und Belüftung dominiert. Zwar können wir heute Licht praktisch ohne all die unangenehmen Nebenwirkungen erstellen. Den menschlichen Bedürfnissen, die mit Licht verbunden sind, kann man aber nur ungenügend Rechnung tragen.

DIN-Normen sind kein Maß für Planungen.

Eigentlich wollen sie das sein. U. a. weil der Arbeitsschutz mit einer großen Keule droht, wenn man von den Beleuchtungsnormen (einst DIN 5035, seit 2003 DIN EN 12464-1) abweicht. Seit 1988 (DIN 5035-7) habe ich in der Praxis allerdings keine Beleuchtung gefunden, die die Normen erfüllt hätte. Der Planer muss so tun, als hätte er die Normen verstanden, und er verlässt sich darauf, dass kein Auftraggeber klagt. Sollte einer klagen, findet er kaum einen Gutachter, der so nachmessen kann, dass sein Gutachten recht bekommt.

Berufsbilder Lichtplaner und Lichtdesigner beinhalten Expertenwissen.

Was denn sonst? Es fragt sich nur, welches Expertenwissen. Und welche Berufsbilder sind gemeint? Die sind doch erst im Entstehen. Die meisten Leute werden nicht einmal einen Unterschied zwischen einem Lichtplaner und einem Lichtdesigner erklären können. Manchmal haben sie sogar recht damit, weil es sich um eine und dieselbe Person handelt.

Die Planung von Licht ist unabhängig von Energieeffizienz.

Die steilste These im ganzen Katalog. Solange es künstliche Beleuchtung gibt, spielt die Energieeffizienz eine zentrale Rolle, sie hört nur auf einen anderen Namen: Lichtausbeute. Man versucht, möglichst viel Licht aus möglichst weniger Energie zu produzieren. Und dies nicht nur zum Energiesparen. Alle Energie, die bei der Lichterzeugung anfällt, macht sich als Wärme störend bemerkbar. Bei der neuesten Technologie, LED wie Licht aus Halbleitern, kann sie auch die Lebensdauer der Technik brutal verkürzen.

HCL ist integrative Lichtplanung.

HCL = human centric lighting ist nur dann integrative Lichtplanung, wenn man darunter versteht, dass neben Sehwirkungen auch gesundheitliche Wirkungen in die Planung der künstlichen Beleuchtung einbezogen werden. Das ist kein Fakt, sondern nur der Definition der integrativen Lichtplanung geschuldet.

Lichttechnik ist überlebt.

Kann sein. Auf jeden Fall ist viel lichttechnisches Wissen durch den Übergang zur LED-Technologie obsolet geworden. Vieles ist aber einfach vergessen worden, weil die neuen Macher es gar nicht kennen. Bezeichnend für die Schnarchphase, in der sich viele Institutionen befinden, ist die Neudefinition des Farbwiedergabeindex. Der alte war, wenn man den Gerüchten glauben will, dadurch entstanden, dass man die Testfarben so lange hin und her geschoben hatte, bis die Dreibandenlampe akzeptabel schien. Die Neue will noch anerkannt werden.

Lichtforschung muss neu gedacht werden.

Gibt es die - die Lichtforschung? Ich denke, viele Disziplinen forschen auf Teilgebieten, für die sich die Lichttechnik zuständig erklärt. Derzeit dominieren die Chronobiologen. Das sind meistens Mediziner, aber keine Lichttechniker und auch keine Allgemeinmediziner. Dennoch fühlten sich die Lichttechniker dazu berufen, den Stand der Wissenschaft auf diesem Gebiet zu definieren - das ist ISO/TR 21783. Sie wehren sich mit Händen und Füßen dagegen, dass sich andere damit beschäftigen. Ein Novum, dass Angehörige eines Fachgebiets den Stand der Wissenschaft auf einem anderen Fachgebiet definieren. Was Beleuchtung oder Leuchtmittelentwicklung angeht, ist die sog. Lichtforschung sehr schwach auf der Brust. Die Musik spielt sich anderswo ab.

Die LiTG ist ein Verein ohne große Aktivitäten.

Die LiTG war tatsächlich über Jahrzehnte paralysiert, weil das Zusammenwirken von universitärer Forschung und der Praxis nicht mehr funktionierte wie einst. Schuld daran war eine Seite, ich hasse es zu sagen, welche diese war. "Wissenschaftliches" versuchte der TWA (Technisch-Wissenschaftlicher Ausschuss) mit eigenen Schriften zu bewerkstelligen. Doch die Firmenvertreter paralysierten sich gegenseitig. Der TWA versuchte, die Berichte in großer Runde zu verfassen. Dabei dachte jeder Firmenvertreter bei jedem Satz daran, ob der den Interessen seiner Firma dienlich wäre. So dauerte es ein Jahrzehnt oder mehr, bis ein gestutztes Papier das Licht der Welt erblicken konnte.

Die Lichtindustrie ist »zwischen Blech und LED-Bausatz« gefangen.

Deutlicher kann man den Zustand kaum darstellen. "Blech", das waren die Leuchten, in die man Lampen einbaute, damit sie leuchteten. Mancher LED-Bausatz verweigert jede Zusammenarbeit und leuchtet so vor sich hin. Sprich: LED braucht keine Leuchte. So wurde sogar ein langjähriger Pfeiler des lichttechnischen Wissens - die Unterscheidung zwischen Leuchte und Lampe - in Rente geschickt. Das Formen von Licht geschieht nur noch selten in der Leuchtenentwicklung. LED ist halt eine neue Technologie und nicht ein einfacher Wechsel von einer Lampentechnik zur anderen.

Das Licht der Zukunft ist gesteuert.

Das ist zunächst ein Wunsch von Technokraten. Weil sich LED gut steuern lassen, muss man sie nicht immer steuern. Eine Steuerung muss einen Sinn für die Benutzer und Betreiber ergeben.

Wann werden Licht-Normen entbehrlich?

Vermutlich nie. Oder es ist längst so weit. Die letzte Version von EN 12464-1:2021 verstehen die eigenen Autoren nicht. Schlimmer noch kann es werden, wenn Lichtplaner versuchen, sie zu verstehen. Die Norm versucht, jegliche kreative Lücke zu stopfen, in der ein Lichtplaner tätig werden kann. Kein Wunder, wenn Planungsnormen für die Beleuchtung von Gremien geschrieben werden, aus denen man die Lichtplaner vergrault hat.

Ich denke, diese ist die letzte Ausgabe einer Beleuchtungsnorm auf der Basis von Beleuchtungsstärken.

Nichtvisuelle Effekte in der Nacht sind geklärt – der Kuchen ist gegessen.

Ich denke, wir fangen gerade an zu verstehen, was diese Effekte sind. Bislang hat man erst Einigkeit darüber, die Effekte mit einem Bindestrich zu schreiben: nicht-visuelle Effekte. Und dass ein enormes Entwicklungspotential grandios vergeigt worden ist. Mehr hier.

Der treffende Kommentar zu dieser These steht in CIE Research Strategy  (DOI: 10.25039/vudfg44z(). Zu den Zukunftsthemen gehört u.a. „Integrative lighting for people“.

Am Tag brauchen gesunde Menschen Belichtungszeiten von 2-3 Stunden.

Oder eher 2 1/2? Bereits die Herrscher im Altertum wussten, dass der Lichtentzug den Menschen krank macht. Deswegen ließen sie manche Menschen in dunklen Verliesen verrotten. In der modernen Zeit versuchte die amerikanische Justiz Schwerverbrecher durch Lichtentzug zu zähmen. Das Schicksal von Al Capone in der lichtlosen Zelle von Alcatraz berührte aber viele, so dass Alcatraz geschlossen wurde. Andererseits war zu viel Licht eine besonders perfide Hinrichtungsmethode. Wie lange ein Mensch belichtet werden muss, damit er gesund aufwächst und bleibt, entzieht sich meiner Kenntnis.

Lichtplanungen sollten von 1.000 bis 1.500 lx horizontal und von 600 bis 800 lx vertikal am Auge ausgehen.

Schon diese Angaben zeigen, wie fragwürdig das Konzept ist. 1.000 lx oder 1.500 lx am Auge horizontal? Da die menschlichen Augen meistens etwa senkrecht stehen, haben sie nichts von dem Licht, das an denen vorbei fliegt. Der Lichtplaner müsste die ergonomische Blickrichtung in seine Berechnung aufnehmen. Diese ist genormt zu 35° gegenüber der Horizontalen geneigt. Bei stehender Haltung beträgt der Winkel 30°. So gerechnet kommt kein einziger Lichtstrahl direkt von der Leuchte ins Auge.

Tageslicht reicht mit viel Aufenthalt im Außenbereich aus.

Hier ist wohl die circadiane Wirkung gemeint. Ich denke, bereits relativ wenige Aufenthalte im Freien zur richtigen Zeit reichen aus. Aber die Wirkungen von Tageslicht auf circadiane Wirkungen zu verkürzen, könnte allerdings eine der dümmsten Ideen sein, denen man folgen kann.

Dynamisches Kunstlicht bringt keine messbaren Vorteile.

Sagt wer? Ich kenne viele, die das Gegenteil behaupten. Es ist wahr, dass man die Wirkungen nicht mit dem Zollstock messen kann. Dass keine Vorteile vorhanden sind, würde ich erst dann glauben, wenn man den theoretischen Hintergrund widerlegen kann.

Licht ist Lebensmittel.

Und mehr. Es ist jedenfalls wichtiger als Wasser oder Luft, ohne die man bekanntlich nicht leben kann. Diese sind für Lebensprozesse unentbehrlich, sie steuern aber nicht die Lebensprozesse. Licht tut es.

Man könnte hinzufügen, dass Licht Medizin ist, was ebenso zutrifft. Die Frage ist, was der Lichtplaner aus dieser Erkenntnis machen kann.

Sichtverbindung und Ausblick: Bedeutung, Faktoren, Qualität und was wir sonst kennen

Nicht nur Häuser wurden hier gebaut, sondern ein neuer Typ Mensch:
frei, im Licht und im Einklang mit der Form.
Eine Beschreibung der Gartenstadt Hellerau

Allgemeines

Die visuelle Verbindung zum Außenbereich übt nachweislich zahlreiche positive Auswirkungen auf die Arbeitenden und sonstigen Insassen der Räume aus, zu denen eine verbesserte subjektive Gesundheit, gesteigertes  Wohlbefinden, positivere Emotionen und eine bessere kognitive Leistungsfähigkeit, höhere Zufriedenheit mit der Umgebung, bessere Behaglichkeit sowie Stressabbau gehören.

Diese Wirkungen sind durch zahlreiche wissenschaftliche Studien ermittelt und nachgewiesen worden. Eine hatte ich am 22. Januar 2025 exemplarisch dargestellt (Licht macht sichtbar, Grün macht lebendig). Andere wurden am Tag davor dargestellt (Wunden, die Licht heilt). Im letzten Beitrag  wurden medizinische Heilwirkungen von künstlichen Lichtquellen wie auch „Heilung Jenseits der Physik – Heilende Aussichten“ besprochen. Mit den Aussichten war die Sichtverbindung gemeint.

Dieses Thema wurde von meinem Doktorvater und dem Kollegen Georg Roessler Ende der 1960er Jahre untersucht und wurde 1975 in der Arbeitsstättenverordnung zu einer gesetzlichen Bestimmung. Nachzulesen in z.B. Kompensation statt Kapitulation – Eine kurze Geschichte der Sichtverbindung nach außen. Da das Wort allein wenig aussagt, hat das Arbeitsministerium die erforderliche Qualität der Sichtverbindung in einer Arbeitsstättenrichtlinie ASR 7.1 konkretisiert. Die aktuelle Fassung heißt ASR A3.4. bei deren Erarbeitung ich mitgewirkt habe.  (Ausgabe Mai 2023 download hier.)

Der Sinn der Sichtverbindung nach außen ist nicht, dass sich Arbeitnehmende vor das Fenster setzen und die Aussicht genießen. Es geht darum, sich in der Zeit und im Raum zu orientieren und nicht eingeschlossen zu fühlen. Deswegen wird man in Arbeitsräumen so gut wie niemanden finden, dessen Arbeitsplatz zum Fenster gerichtet ist.

In dem Beitrag Kompensation statt … wird auch dargelegt, warum man nicht immer eine wunderbare Aussicht auf einen Paradiesgarten realisieren kann und was man ggf. tun kann bzw. muss. Wenn man eine Wirkung kompensieren will, muss man sich im Klaren darüber sein, wann und wie sich der Aufwand lohnt. Daher der heutige Beitrag über die „Qualität“ der Sichtverbindung.

Welche Faktoren sind relevant?

In einem Workshop von IES wurde das Thema Sichtverbindung ausführlich behandelt (hier) (Anm.: Der Bericht ist ein Werk von über 40 Autoren, daher entfällt das längere Zitat. Unter dem gegebenen Link ist der komplette Beitrag abrufbar.) Mehrere Passagen daraus habe ich übersetzt. Ich empfehle, den Beitrag komplett zu lesen.

In Europa gilt die Norm DIN EN 17037:2022-5, die Antworten auf diverse Fragen gibt, die die Autoren diskutiert haben. Die Norm beschränkt sich nicht auf den Ausblick, vielmehr behandelt sie die gesamte Tageslichtversorgung. Das Kriterium “View Out” (als "Aussicht” übersetzt) nach DIN EN 17037 ist eines der spannendsten Kapitel, weil es die psychologische Qualität eines Raums bewertet. Es geht nicht nur darum, dass Licht reinkommt, sondern dass der Mensch eine visuelle Verbindung zur Umwelt hat.

Definition

Die Autoren erklären ihr Ziel wie folgt:

Die Aussicht ist ein wünschenswerter Faktor, der in den Prozess einbezogen werden sollte, und die Definition der Qualität der Fensterausblickqualität ist der erste Schritt zu einer solchen Integration. In dem Workshop haben wir die Qualität der Fensteraussicht als die Qualität der visuellen Verbindung zum Außenbereich definiert, die die Gebäudenutzer zufriedenstellt. “

Das Konzept der Qualität der Sichtverbindung ist subjektiv, da es vom Betrachter abhängt und daher von kontextuellen Faktoren beeinflusst wird. Diese Faktoren können physische Eigenschaften des Kontexts (z. B. Klima, Breitengrad, umgebende Landschaft und bebaute Umgebung) oder sozialbezogene Faktoren (z. B. Demografie und kulturelles Umfeld) sein. Somit ist der Begriff zwar im psychologischen Sinne definiert. Für eine Realisierung muss man allerdings zu physikalischen Größen greifen, was ja die deutsche Arbeitsstättenrichtlinie ASR 7.1 1976 getan hatte. Danach zählten zur Sichtverbindung nur durchsichtige Fenster (nicht durchscheinend) in Augenhöhe und nicht Dachoberlichter.

Die Richtigkeit des Konzepts wurde durch mehrere Gerichtsurteile bestätigt. Es ist ein psychologisches Konzept, das eng mit der Beleuchtung zusammenhängt.

Wichtige Faktoren

Inhalt: Der Inhalt bezieht sich auf die Summe der visuellen Merkmale, die in der Fensteransicht zu sehen sind. Fensteransichten, die Natur, drei horizontale Ebenen (d. h. Boden, Landschaft und Himmel), weit entfernte Objekte und Bewegung umfassen, werden oft als qualitativ hochwertiger angesehen.

Aussicht auf die Natur: Die Literatur zeigt, dass sich der Blick auf Grünflächen und Wasserlandschaften positiv auf Menschen auswirkt.

Von Menschen geschaffene Ansichten: Obwohl sich die vorhandene Literatur stark auf die positiven Auswirkungen einer natürlichen Aussicht konzentriert, werden Fensterausblicke, die ästhetisch ansprechende, vom Menschen geschaffene Elemente wie Kunst, Architektur oder Sehenswürdigkeiten enthalten, nur unzureichend berücksichtigt. Die Definition von Schönheit hat im Laufe der Geschichte zu Debatten unter Wissenschaftlern geführt , da sie von der vorherrschenden Kultur und der individuellen Erfahrung abhängt. Zu solchen Ansichten gehören auch simulierte Fenster.

Bewegung in den Ansichten: Dynamische Szenen ziehen mehr Aufmerksamkeit auf sich und werden oft gegenüber statischen Ansichten bevorzugt. Zu den dynamischen Merkmalen in Fensteransichten gehören menschliche Aktivitäten, natürliche Bewegungen (z. B. fallende Blätter) und wetterbedingte Aspekte wie vorbeiziehende Wolken und Tageslichteffekte. Solche Merkmale vermitteln den Gebäudenutzern ein Bewusstsein für ihre Umgebung und eine Verbindung zur Außenwelt. Es gibt sogar simulierte Himmel, die vorbeiziehende Wolken erzeugen. Sie sollen den Menschen den Eindruck vermitteln, draußen zu sitzen. Die erhoffte Wirkung: Im Büroalltag sollen Angestellte wach und konzentriert bleiben.

Zugang: Der Begriff „Zugang“ bezieht sich auf den Umfang der Aussicht, die ein Bewohner von seinem Standort aus hat. Er hängt von der geometrischen Beziehung zwischen den Fenstern und dem Bewohner im Raum ab.

Anzahl der für den Bewohner verfügbaren Ansichten: Basierend auf dem Design der Fenster (z. B. Größe, Seitenverhältnis) und der Position des Betrachters im Raum können Designer die Größe des Fensterausblicks berechnen.

Fassadenfunktionen: Wir müssen die verschiedenen Wirkungen der Fassaden verstehen, die sich auf die Klarheit der Aussicht auswirken können, wie z. B. Blendung, Überhitzung und Privatheit. Fenster haben nicht nur positive Effekte, sondern immer auch problematische Wirkungen, die gegen die positiven abgewogen werden müssen.

Wo liegen die Knackpunkte, was muss getan werden

Inhalt: In dem Workshop wurde dies so thematisiert:  Es fehlen uns Richtlinien oder ein Konsens unter Forschern, um Designteams bei der Bewertung und Priorisierung der relevanten Aspekte zu unterstützen. Beispielsweise müssen wir uns mit der Frage befassen, ob unterschiedliche Formen der Natur oder die Einbeziehung natürlicher Elemente in Innenräumen (z. B. Atrien mit Bäumen) ähnliche Auswirkungen auf die Zufriedenheit der Nutzer haben. Diese Forschungsrichtung könnte besonders nützliche Informationen für die Bewertung der Aussicht von Gebäuden in dicht bebauten städtischen Umgebungen liefern.

Die Bebauungsdichte von urbanen Umgebungen ist ein enormer Wirtschaftsfaktor. Deswegen wurde in den 1960er Jahren für fensterlose Gebäude geworben. Das Bauordnungsrecht als wirksamster Faktor sichert das Bedürfnis zur Kommunikation mit der Umwelt über verschiedene Schutzziele ab. Dabei geht es vor allem um Licht, Luft und Sicht sowie den Schutz vor „Einmauerung“. Die Landesbauordnungen (BauO) sind dazu das wichtigste Werkzeug. Sie schreiben vor, dass vor den Außenwänden von Gebäuden Flächen von oberirdischen Gebäuden freizuhalten sind (§ 6 BauO der Länder).

Nach  DIN EN 17037 sollte ein qualitativ hochwertiger Ausblick die Umwelt "strukturieren". Was hochwertig angesehen wird, wäre nach den Teilnehmern des Workshops Gegenstand künftiger Forschungsarbeit. DIN EN 17037 kategorisiert die relevanten Faktoren in gering – mittel – hoch. Oder sie kategorisiert die Anzahl der sichtbaren Ebenen (Himmel – Landschaft – Boden.

In dem Workshop wurde dies so thematisiert:  Die Definition von Schönheit hat im Laufe der Geschichte immer wieder zu Debatten unter Wissenschaftlern geführt, da sie von der vorherrschenden Kultur und individuellen Erfahrungen abhängt. Die Frage, inwieweit von Menschen geschaffene Artefakte visuell ansprechend sind, ist äußerst komplex und erfordert einen multidisziplinären Ansatz, der beispielsweise die Designwissenschaften, Psychologie, Soziologie, Philosophie (Ästhetik) und Semiotik umfasst. Es geht letztendlich nicht um Schönheit, sondern um positive Wirkungen auf Rauminsassen, die man gezielt realisieren will, indem die Aussicht ästhetisch wirkt.

Was Bewegungen angeht, scheint die Wissenschaft heute weniger zu wissen als 1970. Heute wird ausgesagt: “Solche Merkmale vermitteln den Gebäudenutzern ein Bewusstsein für ihre Umgebung und eine Verbindung zur Außenwelt. Eine übermäßige Dynamik, definiert durch Ausmaß, Häufigkeit oder Periodizität, kann sich jedoch negativ auf die Nutzer auswirken, beispielsweise auf Schüler in Klassenzimmern. Daher können Fensterausblicke, die kurze Momente des Interesses bieten, ohne übermäßig abzulenken, von Vorteil sein. Dies wirft Fragen hinsichtlich des gewünschten Gleichgewichts der Bewegung innerhalb einer Szene auf.”

Ich erinnere mich noch sehr gut, wie Roessler die Bedeutung der Veränderlichkeit der Außenwelt untersuchte. Die drei Szenarien, die Roessler untersuchte, waren eine dunkle Mauer des benachbarten Gebäudes, der Blick auf einen Kanal, an dessen Ufern nur wenige Menschen spazieren gingen, und der Blick auf den verkehrsreichsten Platz in Berlin. Sowohl die Mauer als auch der Platz erwiesen sich als ungeeignet, um positive Wirkungen hervorzurufen. So lautete das Ergebnis: Ein Ausblick müsse eine mittlere zeitliche Verschiedenheit aufweisen. Roessler präsentierte dieses Ergebnis in 1971 auf eine Sondertagung der LiTG. Mehr als ein Schmunzeln konnte er damit nicht ernten, der Kongress war eher darauf aus, fensterlose Räume zu diskutieren.

Für den “Zugang” müsste es eine akzeptierte Methode geben. Basierend auf der Gestaltung der Fenster (z. B. Größe, Seitenverhältnis) und der Position des Betrachters im Raum können Designer die Größe des Fensterausblicks berechnen. Basierend auf der Gestaltung der Fenster (z. B. Größe, Seitenverhältnis) und der Position des Betrachters im Raum können Designer die Größe des Fensterausblicks berechnen.

Diesbezügliche Fragen wurden schon zu meiner Studienzeit in den 1960ern beim BRI (Building Research Institute) diskutiert. Sollen die Fenster eher breit sein oder eher hoch? Viele Gebäude der 1970er, deren Architekten breit bevorzugten, wurden als Schießschartenarchitektur verspottet. Derzeit werden in Berlin viele Gebäude mit hohen, schmalen Fenstern gebaut. Die ASR 7.1 1976 spezifizierte technische Details. Ihr Nachfolger, ASR A3.4 2023, geht auf die relevanten Aspekte sehr detailliert ein. Wer nach dieswer ASR baut oder einrichtet, kann sichergehen, dass sämtliche Details zwischen den Sozialpartnern grundlegend diskutiert worden sind.

DIN EN 17037 nimmt hierzu die “horizontale Sichtbreite” zum Maßstab, also die Breite des Sichtfelds.

Richtig knifflig wird es mit den sog. Fassadenfunktionen. Wenn man die Frage, ob die Fenster eher hoch oder eher breit sein sollen, salomonisch löst und einfach große Fenster baut, kann man sich ein Energieproblem ins Haus holen. So gilt ein Tageslichtquotient von 10 oder mehr als Garant für thermische Probleme. Hinzu kommt die Blendung. Diese kann man zwar mit Sonnenschutzeinrichtungen mildern. Die stören aber die Sichtverbindung.

Wählt man gar eine radikale Methode und verspiegelt die Fassade, kann man die ganze Umgebung belästigen. In der Masse durchgefärbte Gläser, die einst  sehr in waren, haben sich in der Sonne aufgewärmt, so dass man ihre warmen Strahlen noch abends genießen konnte. Waren die Fassaden bläulich, konnte man viele Stunden des Tages in einer Gewitterstimmung verbringen. So habe ich in die Norm DIN EN ISO  9241-6 „Leitsätze für die Arbeitsumgebung“ folgenden Satz aufgenommen: „Fensterbehandlungen [gemeint sind Lichtschutzeinrichtungen], die zur Begrenzung der Blendung eingesetzt werden, sollten weder das Farbklima des Arbeitsplatzes noch das visuelle Erscheinungsbild der Außenwelt beeinflussen.“ In der letzten Fassung von ASR A3.4 wird deutlicher formuliert, wann der Arbeitgeber seine Pflicht mit der  Sichtverbindung diesbezüglich ordnungsgemäß erfüllt hat:

„4.2 Als Sichtverbindung dienende Fenster, Türen oder Wandflächen
4.2.1 Beschaffenheit
(1) Die Flächen der Sichtverbindung müssen eine verzerrungsfreie und farbneutrale Durchsicht ermöglichen. Als farbneutral gelten Materialien mit einer Qualität der Farbwiedergabe Ra 90. Als verzerrungsfrei gelten Materialien, durch die hindurch in 10 m Entfernung das Gesicht einer Person zugeordnet werden kann.

(2) Sonnen-, Blend- und Sichtschutzsysteme gelten dann nicht als Einschränkung der Sichtverbindung, wenn diese rückziehbar sind. Sie sollen von den Beschäftigten beeinflussbar sein. …“

Recht und kreativer Umgang damit

Das deutsche Recht hat aufgrund von Erfahrungen über ein Jahrhundert mit der Frage des „Ausblicks“ etliche Pflöcke gerammt, die nichts weniger im Sinn haben, als Sicherheit und sozialen Frieden zu sichern. So dienen die Abstandflächen nicht einem psychologischen Bedürfnis nach Schutz vor Einmauerung. Es geht auch um Belüftung von Aufenthaltsräumen und Brandschutz. Die Regeln verhindern auch, dass man dem Nachbarn buchstäblich „auf den Teller schauen“ kann, was die psychosoziale Kommunikation (Privatsphäre vs. Teilhabe) regelt.

Für Neubauten gibt es ein “Gebot der Rücksichtnahme”. Dieses Gebot ist nicht in einem einzelnen Paragraphen festgeschrieben, sondern leitet sich aus dem Baugesetzbuch (BauGB) ab. Ein Bauvorhaben ist unzulässig, wenn es eine „erdrückende Wirkung“ entfaltet. In den Landesbauordnungen ist festgelegt, dass Aufenthaltsräume unmittelbar ins Freie führende Fenster von ausreichender Größe haben müssen. Diese können auch Fluchtwege sein.

Um heutige Regelwerke wie Gesetze oder Normen zu verstehen, sollte man weit in die Vergangenheit gucken, denn die Probleme sind nicht neu. Sie treffen auch nicht immer andere, sie können morgen früh akut werden, wenn der Nachbar anfängt zu bauen. Einige wichtige Etappen in dem Kampf um Licht in den Städten und Wohnungen, habe ich in Genesis 2.0 dargestellt, so z.B.

Krankheiten der Finsternis - Geschichten aus New York und Chicago

Meanwhile in Old Germany

Nichts geht ohne Vorschriften …

Die Menschen haben zuweilen einen sehr kreativen Umgang mit den Vorschriften an den Tag gelegt. So auch mit der Vorschrift in New York, dass jeder Wohnraum ein Fenster haben muss. Das Ergebnis war eine Gebäudeform, die auch heute noch in New York zu bewundern ist:

Die Gebäude erhielten den Namen Hundeknochen oder Hanteln wegen der Form. Die rot eingezeichneten Fenster guckten zwar ins Freie, aber wenige Meter auf der anderen Seite waren andere Fenster. Der Raum zwischen zwei Hundeknochen war ein Schacht, der bald voll Müll war. So hat man dem Gesetz genüge getan. Aber viel Licht kam nicht in die Wohnungen, weil Licht in einem Schacht nur eine Richtung kennt, nach unten. Bei den schräg eingezeichneten Fenstern konnte man sich die Hand reichen.

In Berlin wurden die Häuser in dem Wilhelminischen Mietkasernengürtel nach anderen Gesetzen optimiert. Die gegenüberstehenden Häuser durften nur so hoch sein, dass ein Haus beim Umfallen nicht das andere treffen konnte. Jedes Haus hatte die gerade nötige Fassadenlänge, weil die Besteuerung danach erfolgte. Nach hinten wurden zwei oder drei breitere Häuser gebaut, mit Höfen dazwischen, die groß genug waren, dass eine Feuerwehrspritze darin drehen konnte.

Eine Einrichtung in diesen Häusern, das Berliner Zimmer, sollte sogar eine Rolle in der Kommunistischen Weltrevolution spielen. Das Berliner Zimmer hat seine Ursprünge bereits im 18. Jahrhundert. Mit der zunehmenden Verdichtung der Berliner Innenstadt wurden Grundstücke immer tiefer bebaut. Zunächst entstanden freistehende Seitenflügel, die nach und nach näher an das Vorderhaus heranrückten. Als Vorderhaus und Seitenflügel schließlich aufeinandertrafen, entstand an dieser Schnittstelle das Berliner Zimmer als Verbindungsglied zwischen den beiden Gebäudeteilen. Das Berliner Zimmer ist eine Besonderheit des Berliner Wohnungsbaus ab Mitte des 19. Jahrhunderts bis zum Verbot der Hinterhofbebauung im Jahr 1925. Es ist ein Durchgangszimmer, das das Vorderhaus mit dem Seitenflügel eines Gebäudes bzw. den Seitenflügel mit dem Hinterhaus verbindet. Es handelt sich um einen großen Raum, der trotz seiner Größe nur über ein einziges Eckfenster verfügt, das zum Hof hinausgeht und daher, vor allem in den unteren Stockwerken, wenig Licht spendet. Entsprechend schlecht ist auch die Belüftung.

Das hatte Friedrich Engels zu dem Spruch angeregt: „Hier in Berlin hat man das ‚Berliner Zimmer‘ erfunden, mit kaum einer Spur von Fenster, und darin verbringen die Berliner den größten Teil ihrer Zeit.“  In einem Brief beschrieb er das Berliner Zimmer[i] als „diese in der ganzen anderen übrigen Welt unmögliche Herberge der Finsternis, der stickigen Luft, & des sich darin behaglich fühlenden Berliner Philistertums. Dank schönstens!

Die Lage des Berliner Zimmers und seines Fensters ist in dem Bild rot eingezeichnet.

Weitere Literatur

Zum Workshop und deren Teilnehmern:

Ko, W. H., Schiavon, S., Altomonte, S., Andersen, M., Batool, A., Browning, W., … Wienold, J. (2022). Window View Quality: Why It Matters and What We Should Do. LEUKOS, 18(3), 259–267. https://doi.org/10.1080/15502724.2022.2055428

Ko, W. H., Kent, M. G., Schiavon, S., Levitt, B., & Betti, G. (2022). A Window View Quality Assessment Framework. LEUKOS18(3), 268–293. https://doi.org/10.1080/15502724.2021.1965889

Matusiak, B. S., & Klöckner, C. A. (2016). How we evaluate the view out through the window. Architectural Science Review59(3), 203–211. https://doi.org/10.1080/00038628.2015.1032879

Meng, X., & Wang, M. (2025). Exploring the health impacts of window views: a literature review. Journal of Asian Architecture and Building Engineering, 24(6), 5080–5103. https://doi.org/10.1080/13467581.2024.2412120

Kim, J., Kral, K., Ko, W. H., Kent, M., Schiavon, S., & Dogan, T. (2025). Window View Satisfaction Assessment Method: A Comparison of Physical Space, Virtual Reality, and Digital Image. LEUKOS, 1–32. https://doi.org/10.1080/15502724.2025.2528893

Abd-Alhamid, F., Kent, M., & Wu, Y. (2024). Assessment of Window Size and Layout Impact on a View Quality Perception in a Virtual Reality Environment. LEUKOS20(3), 239–260. https://doi.org/10.1080/15502724.2023.2262148

Zu Aussagen über die Situation in Deutschland

Sichtverbindung nach außen ASR 7/1 § 7/1 der Arbeitsstättenverordnung

DIN EN 17037 Tageslicht in Gebäuden

Zu DIN EN 17037 Tageslicht in Gebäuden

Jakobiak, R.A. Planungshinweise zur Innenraumbeleuchtung mit Tageslicht im Kontext staatlicher Regelwerke und normativer Kriterien, LiTG-Publikation, 2025 (zum download)

HCL – Traum und Realität

Nichts ist mächtiger als eine Idee,
deren Zeit gekommen ist
Victor Hugo

HC wie human centric

Im Jahr 2012 präsentierte die Unternehmensberatung A.T. Kearney ein Marketingskonzept für “biologisch wirksame Beleuchtung”, das mit dieser Bezeichnung wenig marktwirksam eingeschätzt wurde. Es musste was Schlagkräftiges her. Andere Industrien preisen “menschennahe“ Produkte wie Autos mit einem Konzept an, dessen Name mit „HC“ beginnt – human centric. „Human-Centric“ (menschenzentriert) im Autobau bedeutet kurz gesagt: Das Auto wird um den Menschen herum gebaut, nicht die Technik. Es geht darum, wie sich das Fahrzeug anfühlt, wie es interagiert und wie es das Leben der Insassen verbessert.

Hier einige Aspekte, die zum Erfolg des Konzepts führten:

  1. Intuitive Bedienung (UX/UI - User Experience)

Ein Auto gilt als „human-centric“, wenn man kein Handbuch mehr braucht, um die Klimaanlage zu finden.

  • Minimalismus: Reduzierung von Knöpfen, aber Beibehaltung haptischer Elemente dort, wo sie Sinn ergeben.
  • Sprachsteuerung: Natürliche Dialoge statt starrer Befehle.
  • Adaptive Systeme: Das Auto lernt deine Gewohnheiten (z. B. die Pendelstrecke oder die bevorzugte Sitzheizung bei 5°C).
  1. Wohlbefinden im Innenraum (Cocooning)

Der Innenraum wird zum „Third Living Space“ (neben Zuhause und dem Büro).

  • Biophilic Design: Verwendung natürlicher Materialien (Holz, Wolle, vegane Lederalternativen).
  • Licht & Akustik: Aktive Geräuschunterdrückung und Ambientebeleuchtung, die den Biorhythmus unterstützt.
  • Ergonomie: Sitze, die Verspannungen aktiv vorbeugen und sich perfekt an die Anatomie anpassen.
  1. Sicherheit durch Assistenz

Anstatt den Fahrer zu bevormunden, soll die Technik ihn wie ein „Schutzengel“ begleiten.

  • Vorausschauendes Handeln: Das Auto erkennt Müdigkeit oder medizinische Notfälle durch Sensoren im Innenraum.
  • Stressreduktion: Autonome Fahrfunktionen übernehmen in monotonen Situationen (Stau), damit der Mensch entspannt ankommt.
  1. Inklusivität

Ein menschenzentriertes Design berücksichtigt, dass nicht jeder Nutzer 1,80 m groß und topfit ist.

  • Barrierefreiheit: Einfacher Einstieg für ältere Menschen.
  • Personalisierung: Das Auto erkennt per Gesichtsscan, wer einsteigt, und passt alles (Spiegel, Sitz, Musik, Fahrprofil) sofort an.

Fazit: Beim Autobau geht es weg vom reinen „Transportmittel“ hin zum „Begleiter“. Der Fokus liegt auf der emotionalen Bindung und der Entlastung des Nutzers.

Anwendung des Konzepts auf die Beleuchtung – HCL

HCL = Human Centric Lighting fing schon bei der Namensgebung wenig glücklich an. Das Kürzel ist eine sehr bekannte chemische Formel für eine Säure. Das allein wäre aber kein Grund dagegen gewesen, um ein schlagkräftiges Konzept durchzusetzen.

A.T. Kearneys erstes Argument, das zugleich das Wichtigste sein sollte, war die Arbeitsleistung. Bei jeder Empfehlung für amerikanische Betriebe wird kräftig herausgestellt, dass sich eine wirtschaftliche Verbesserung ergibt. Ansonsten braucht man an amerikanische Unternehmen nicht erst heranzutreten.

Im Falle HCL formulierte man das entsprechende Argument so:
HCL besteht hier also aus 2000 lx in der Arbeitsumgebung. Das ist der Wert aus der Studie in einem Volkswagenwerk, über das die Verantowrtlichen heute lieber nicht mehr reden wollen. (mehr dazu hier Leistung, Leistung über Alles! Eine kleine Geschichte aus Hawthorne Works )

Für ein Konzept, das einen deutschen Arbeitgeber überzeugen sollte, sah die obige Rechnung etwas merkwürdig aus:

Musterbetrieb: Fabrik mit 750 Mitarbeitern, die hoch-repetitive Aufgaben wie das Montieren von elektronischen Produkten erledigen. Solche Betriebe sind in Deutschland mit Sicherheit nicht unter den Innovativen zu finden. Wenn man das Wort „elektronisch“ durch „elektrisch“ ersetzt, findet man schon was Passendes: Genau ein solches Werk wurde in den 1920ern in Hawthorne Works untersucht.

Arbeitskosten: Arbeitskosten im Monat von 2685 Euro werden bei jedem Kaufmann lautes Gelächter hervorrufen. Im verarbeitenden Gewerbe in Deutschland liegen die Arbeitskosten pro geleistete Stunde derzeit bei etwa 48,30 €. Also müssten die Arbeitenden rund 56 Stunden im Monat tätig sein. Real sind es 160 bis 184 Stunden.

Allerdings rechnet man für die Kosten nicht nur mit dieser Zahl, die nur die Personalkosten beinhaltet. In der Industrie rechnet man oft mit einem Gemeinkostenzuschlag, der dazu führt, dass eine interne Verrechnungsstunde (inkl. Maschinenanteil) schnell zwischen 80 € und 150 € liegen kann. Bei einer 40-Stunden-Woche (8 Std./Tag) beträgt die Arbeitszeit von 160 bis 184 Stunden. Nehmen wir bei beiden die unteren Werte (80 € und 160 h/M), betragen die Arbeitskosten 12.800 €. Nimmt man die Höchstwerte, sind es 27.600 €. Also das Zehnfache dessen, was A.T. Kearney angesetzt hat. Wie ernst nimmt man einen Berater, der mit solchen Annahmen operiert?

Die wichtigsten Annahmen ergeben also Werte, die ein Kaufmann in einem Betrieb  kaum ernst nehmen kann. Wenn man wirtschaftliche Vorteile geltend machen will, muss man sich aber an kaufmännisch denkende Leute wenden.

Ein anderes Argument richtet sich an die Berater von Schulen. Es basiert auf der Vorstellung, dass man mit HCL Schüler ruhig stellen kann. Also wird gezeigt, wie sich eine HCL-Beleuchtung rechnet:

Arbeitskosten: Pro Lehrenden 2780 € im Monat
Kosteneinsparungen:
- 11,7 Tage Krankschreibung; davon 25% wegen mentaler Belastungen = 2,92 Arbeitstage
- 318.000 € für 53 Kinder mit ADHS im Monat

Das mittlere Bruttogehalt (Median) für vollzeitbeschäftigte Lehrkräfte liegt in Deutschland bei ca. 5.500 € bis 5.600 €. Die Arbeitskosten pro Lehrenden werden aber nicht so gerechnet. Für eine vollzeitbeschäftigte Lehrkraft (Besoldungsgruppe A 13, mittleres Dienstalter) kalkulieren die Finanzministerien der Länder mit Gesamtkosten von etwa 85.000 € bis 105.000 € pro Jahr.

Auch diese Berechnung fällt nicht gerade überzeugend aus. Zudem fehlt die Anwendung. Wie soll ADHS bei Kindern mit der Schulbeleuchtung gemindert werden? Etwa die Lehrerschaft zu Lichttherapeuten schulen?

Wer lange sucht, der findet … nichts. Kearney hat nur Schätzungen für bestimmte Anwendungsfälle skizziert, und versucht, die Vorteile herauszustellen. Wie man aber oben sieht, war die Überzeugungskraft gering. Mehr hat Kearney wohl auch nicht gewollt. Denn die Firma schreibt in ihrem Resümee: „Human Centric Lighting ist die Berücksichtigung visueller und nicht-visueller (biologischer) Bedürfnisse des Menschen bei der Gestaltung von Beleuchtungsanwendungen. …  und erfordert weitere Studien, um mehrere geschätzte Vorteile in wissenschaftlich bestätigte Vorteile umzuwandeln.“ (AT Kearney, 2012, in Quantified benefits of Human Centric Lighting, Final Results, April 2015)

Wie aufwendig wäre es, visuelle und nicht-visuelle (biologische) Bedürfnisse des Menschen bei der Gestaltung von Beleuchtungsanwendungen so zu berücksichtigen, dass man wissenschaftlich bestätigte Vorteile nachweist und diese quantifiziert? Ein Blick in die Beschreibung der Hawthorne-Experimente in Genesis 2.0 genügt, damit man sich lieber mit jedem anderen wissenschaftlichen Problem beschäftigt, nur nicht mit diesem. Denn es war nicht einmal möglich, eine Beziehung zwischen der Beleuchtungsstärke (physikalisch messbar) und Arbeitsleistung in einem trivialen Fall (Fertigung von Elektroteilen) nachzuweisen. Wer beschreibt biologische Bedürfnisse des Menschen und wie man sie berücksichtigt, um wissenschaftlich nachgewiesene Wirkungen zu erzielen? (mehr z.B. unter Warum es derzeit nicht möglich ist, Gesetze und Normen mit Bestimmungen zu Licht zu revidieren)

Zudem hat Kearney deutlich herausgestellt, auf welchen Gebieten man die Vorteile von HCL quantifizieren kann:

  • Die bedeutendsten quantifizierten Vorteile werden in industriellen Segmenten erzielt, da dort Produktivitätssteigerungen einen dominierenden Einfluss haben.
  • Die Bereiche Medizin und Altenpflege weisen weniger attraktive quantifizierte Vorteile auf, da die meisten Einsparungen nicht vom Investor, sondern von anderen Interessengruppen, z. B. Versicherungsgesellschaften, realisiert werden können.

Die Ernte

A.T. Kearney schätzte 2012, dass HCL im Jahre 2020 etwa 0,87 Milliarden € bei einer realistischen Schätzung erzielen könnte und 12,8 Milliarden Euro für den Fall einer Penetration des Gesamtmarkts. Der globale HCL-Markt wird für das Jahr 2025 auf etwa 3,9 bis 4,5 Milliarden USD geschätzt. Rechnet man den europäischen Anteil ein, ergibt sich ein regionales Marktvolumen von ca. 1,4 bis 1,7 Milliarden USD. Der gesamte Beleuchtungsmarkt in Europa wird für 2025 auf ca. 41,7 Milliarden USD (etwa 38,5 Mrd. EUR) geschätzt.

Somit hätte  HCL zwischen 2012 und 2025 ca. 3,6 % des Beleuchtungsmarktes erobert.

Das wäre ein überzeugender Beweis dafür, dass die Wirtschaft nicht die geringste Ahnung von Wirtschaft hat. Denn das White Paper „Gesundes Gebäude“ des  Verbands der Elektro- und Digitalindustrie kommt zu dem Schluss, dass HCL nicht nur zu einem ordentlichen Wachstum im BIP führe, sondern „dass sich die Aufwände für Anschaffung und Betrieb von HCL-Beleuchtungsanlagen durch den auf Seiten der Arbeitskräfte entstehenden Nutzen in relativ kurzer Zeit - meist innerhalb eines Jahres - amortisieren. (White Paper - Gesundes Gebäude: Förderung der physischen, psychischen und sozialen Gesundheit sowie des Wohlbefindens von Menschen durch gebäudetechnische Systeme, ZVEI, 28.05.2024).  Return on investment in weniger als einem Jahr müsste alle anlocken wie Honig die Bären.

Wer dieses optimistische Bild sieht, wird von Beiträgen wie dieser sehr ernüchtert sein: Aus der Traum, Leuchtmittel in Heilmittel umzudeuten. Wer Erfolg ernten will, muss mehr tun als ein Marketingkonzept erstellen zu lassen (s. Autoindustrie). Wer glaubt, die Welt des Lichts so schnell ändern zu können, sollte zuerst in der Bibel lesen (s. Im Anfang waren Götter und Titanen).

Disclaimer: Die in diesem Beitrag benutzten Schätzungen stammen aus unterschiedlichen Quellen. Nur die Zahlen, die in Bezug auf A.T. Kearney genannt werden, stammen aus einem von ZVEI veröffentlichten Dokument.

 

Licht für New Work

Nichts ist mächtiger als eine Idee,
deren Zeit gekommen ist
Victor Hugo

Wovon reden wir?

New Work ist die Bezeichnung für einen alten Traum des österreichischen Sozialphilosophen und Anthropologen Frithjof Bergmann (1930–2021), geträumt in Ann Arbor, USA. Bergmann entwickelte das Konzept bereits Ende der 1970er und Anfang der 1980er Jahre. Sein Ansatz war eine radikale Antwort auf das herkömmliche Lohnarbeitssystem, das er als veraltet und entfremdend empfand. Im Zentrum von Bergmanns Vision steht nicht etwa das Homeoffice oder der Obstkorb im Büro, sondern eine existenzielle Frage: „Was will ich wirklich, wirklich tun?“

Bergmann vertrat die Ansicht, dass Arbeit den Menschen nicht erschöpfen, sondern ihn stärken und ihm Sinn verleihen sollte. Er unterteilte sein Modell ursprünglich in drei Säulen:

  1. Lohnarbeit: Klassische Arbeit zur Sicherung des Lebensunterhalts (durch Automatisierung stark reduziert).
  2. Selbstversorgung/High-Tech-Eigenproduktion:  Nutzung moderner Technologien (z. B. 3D-Drucker), um Dinge selbst herzustellen und unabhängiger vom Markt zu werden.
  3. Arbeit, die man wirklich wil: Tätigkeiten, die der persönlichen Entfaltung und der Gemeinschaft dienen.

In der modernen Arbeitswelt assoziieren wir New Work meist mit:

  • Flexibilität: Zeit- und ortsunabhängiges Arbeiten.
  • Agilität: Flache Hierarchien und eigenverantwortliche Teams.
  • Digitalisierung: Einsatz moderner Tools zur Zusammenarbeit.
  • Purpose: Die Suche nach Sinnhaftigkeit im Job.

Kurz gesagt: In einem klassischen Büro geht es meist nur darum, den Raum hell genug zu bekommen (die typischen 500 Lux). Bei New Work ändern sich aber die Tätigkeiten – wir arbeiten nicht mehr acht Stunden starr am selben Platz. Es wird kollaboriert, entspannt, konzentriert, fokussiert und agil präsentiert.

Die beste Reflexion der Idee des New Work ist Activity Based Working (ABW). Statt einen Büroraum für Heerscharen von Menschen mit gleichartigen Tätigkeiten zu gestalten, richtet man zonenweise  unterschiedliche Bereiche ein, in denen sich Akustik, Klima, Licht nach der jeweiligen Tätigkeit richten.

Bezug zu Licht

Wenn man sich die Beschreibung des Organisationskonzepts anschaut, wird man nicht umhin kommen, dass sich Anhänger des New Work kaum mit Lichtkonzepten zufriedengeben können, die eher ein lästiges Erbe der 1930er Jahre darstellen, so etwa die Allgemeinbeleuchtung. Wenn man sich in Zeitschriften vertieft, die Büroplaner oder Innenarchitekten lesen, wird man keine Deckenleuchten in Zweierformation sehen. Wer eigenverantwortlich arbeitet, wird sich ungern seine Umgebung von Leuten gestalten lassen, über die ein berühmter Architekt einst schrieb: Für sie [Licht-Ingenieure, zumeist Elektrotechniker] gab und gibt es überwiegend nur zwei Kriterien: Die Ausbeute der Lichtmenge gemessen in Lichtstärke und den Aufwand im Verbrauch gemessen in elektrischer Energie. Wir hatten sehr schnell gelernt, dass die Beschränkung auf diese beiden Parameter für die Gestaltung der Architektur und die Erzeugung von Raumstimmung die kurzsichtigsten, um nicht zu sagen unsinnigsten Messgrößen darstellen.“ (Meinhard von Gerkan: „Die Gestaltkraft des Lichts in der Architektur“, in: Flagge, I. (Hrsg.): Jahrbuch Licht und Architektur 2000, Müller, Köln, 2000)

Die Aufgabe für den Lichtplaner wird somit anspruchsvoller. Hat man die Decken der Büroräume jahrzehntelang immer mit zwei Reihen Leuchten parallel zum Fenster gepflastert, bei denen nur die Entfernung der ersten Reihe zum Fenster etwas variierte, muss sich der Lichtplaner bei New Work richtig ins Zeug legen.

Um solche Umgebungen davor zu bewahren, nach der Maxime „hübsch aber funktionell katastrophal“ in Schönheit zu sterben, habe ich in meinem internationalen Normenausschuss eine Normung eingeleitet, die geraume Zeit in Anspruch nehmen wird. Daran arbeiten japanische Wissenschaftler mit einer niederländischen Firma für Büroorganisation und britischen Möbelleuten zusammen.

Raumdesignkonzepte

Moderne Bürokonzepte zielen nicht alle in die gleiche Richtung. Hier die wichtigsten:

Hotelification ist ein Konzept, das Anleihen bei Profis macht, die von Hospitality leben. Eine gelungene Realisierung erlebt man bereits beim Empfang. Kein Stammheim-light, sondern eine einladende Lobby mit Kunstinstallationen, Kaffee-Bars und einem Concierge-ähnlichen Service. Man holt nicht mehr seinen Caddy und lässt sich irgendwo im Großraum an einem der grauen Tische nieder. Die Räume bilden soziale Hubs und Gemeinschaftsflächen. Diese multifunktionalen Zonen fördern spontane Interaktionen, informelle Meetings oder auch Entspannung.

Resimercial Design will die Grenzen zwischen Arbeit und Privatleben verschwimmen lassen. Dies führt dazu, dass Büros Merkmale des privaten Wohnraums übernehmen. Die Büros werden bewusst weniger steril und korporativ gestaltet. Man findet weiche Teppiche, bequeme Sofas und Sessel, dekorative Kissen, Bücherregale, und "heimelige" Beleuchtung (Stehleuchten, Tischlampen statt Deckenlicht). Ähnlich wie die verschiedenen Bereiche für unterschiedliche Aktivitäten zu Hause, bieten Büros nun "stille” Räume, Bibliotheken oder Meditationsbereiche an, die eine Flucht aus dem Trubel des Arbeitsalltags ermöglichen.

Collegiate Design oder Learning-Inspired Office Design nimmt Inspiration von der Flexibilität und Vielseitigkeit von Universitäts- und Schulcampus-Umgebungen. Ziel ist es, Arbeitsbereiche zu schaffen, die eine breite Palette an Aktivitäten unterstützen – von konzentrierter Einzelarbeit über kollaborative Teamarbeit bis hin zu informellem Lernen und sozialen Interaktionen. Hier findet man Fokusbereiche, ruhige Orte für konzentriertes Arbeiten, Kollaborationszonen, Bereiche mit flexiblen Möbeln, Whiteboards und Technologie für Teamarbeit und Brainstorming, und soziale und informelle Bereiche, Lounges, Cafés und Pausenräume, die zum Austausch und zur Entspannung einladen.

Was soll anders werden für New Work?

Hierzu kann ich Beispiele angeben, weil die Gesamtheit aller Gestaltungsmerkmale derzeit über 20 Seiten Text in Telegram-Stil füllt.

Flexibilität für agile Setups

Wenn Möbel rollbar sind und Wände verschoben werden, darf das Licht nicht festgeschraubt sein. Beispiele sind:

  • Stehleuchten statt Deckenraster: Moderne LED-Stehleuchten mit Präsenz- und Tageslichtsensoren sind ideal, weil sie mit dem Arbeitsplatz „mitwandern“ können.
  • Schienensysteme (Track Lighting): Ermöglichen sie, Strahler je nach Bedarf neu zu positionieren?
  • Zonale Beleuchtung: Wenn Möbel und Wände verschiebbar sind, müssen nicht unbedingt die Leuchten mitwandern, es geht auch, wenn sich die Charakteristik der Beleuchtung lokal verändern lässt. Dies hat die LED-Technik sehr erleichtert.
  • Mobile Akkuleuchten:Diese können frei im Raum platziert werden, wenn Teams Tische für ein Projekt zusammenschieben.

Die „Video-Call“-Tauglichkeit

In Zeiten von Hybrid Work finden ständig Videokonferenzen statt, die meist unplanbar sind und so bleiben sollen. Viele Teilnehmer wirken bei solchen Anlässen wie Silhouetten im Zeugenschutzprogramm. Die Kamera verrät, warum die übliche Bürobeleuchtung eine lausige Qualität hat. Statt Führungslichts von etwa vorn („key-light“) bekommt man welches von oben. Das Aufhelllicht, ein weicheres Licht, das die Schatten verringert, die das Führungslicht erzeugt, fehlt meist ganz. Und das Spitzlicht, das einen vor dem Hintergrund hervorhebt, muss man lange suchen.

  • Das Problem: Harte Schatten von oben (Deckenleuchten) lassen Gesichter müde oder finster wirken. Wenn man die Gesichter fotografiert, erkennt man die dunklen Augenringe, die nicht von der letzten Nacht stammen.
  • Die Lösung: Indirektes Licht oder vertikale Beleuchtung (Licht auf die Wände), die die Gesichter weich ausleuchtet.
  • Das “Fernsehstudio”: Zu den Video-Calls am Arbeitsplatz können z.B. Beratungs- oder Verkaufsgespräche kommen, die besondere Anforderungen an die Beleuchtung stellen. Dafür müssen bestimmte Bereiche anders beleuchtet werden.

Unsere Videobilder gleichen in der Qualität den ehemals benutzten Passfotos, die man besser niemandem zeigte. Aber die Neuen gehen manchmal um die Welt.

Zonierung statt Einheitsbrei (gleiches Licht für alle Volksgenossen)

New-Work-Flächen sind oft offen gestaltet (Open Spaces). Eine gleichmäßige „Flutlicht-Beleuchtung“ killt die Atmosphäre und die Konzentration. Ein Lichtteppich gilt als ein Hinweis auf eine Beleuchtung von gestern.

  • Fokus-Zonen: Brauchen gerichtetes, blendfreies Licht für tiefe Konzentration.
  • Social Areas / Lounges: Hier darf es gemütlicher sein, mit warmem Licht und dekorativen Leuchten, die eine „Wohnzimmer-Atmosphäre“ schaffen.
  • Meeting-Points: Dynamisches Licht, das Interaktion fördert.
  • Empfangszone: Kein Eingang Stammheim-Light, sondern die Beleuchtung einer einladenden Lobby mit Kunstinstallationen, Kaffee-Bars und einem Concierge-ähnlichen Service

Wie realistisch sind die Vorstellungen zur Beleuchtung von New Work

Es ist zwar nicht lange her, dass sich die lichttechnische Industrie über meine Vorstellungen von einer flexiblen Beleuchtung aufregte, die sowohl dem allgemeinen Befinden als auch dem Sehkomfort dienen sollte. Damals stand in einer Broschüre des ZVEI : „Das [gemeint sind Maßnahmen, die den Sehkomfort erhöhen und die Akzeptanz verbessern würden] kann ohne Frage Komfort und Akzeptanz der Beleuchtung erhöhen – ebenso wie dies eine Couch im Büro oder eine besonders komfortable Sitzgruppe tun würden.“ (aus der Broschüre Lichtforum 28 der Fördergemeinschaft Gutes Licht, Vorgänger von licht.de). Aber die Zeiten haben sich geändert. Gutes Lichtdesign gilt nicht mehr als „Couch im Büro“, sondern als Teil einer ansprechenden Architektur.

Die Denke wurde kräftig gefördert durch eine Krankheit, die die Welt lahm legte und die Menschen zwang, lange zu Hause zu arbeiten. Dabei haben diese zum einen gelernt, dass niemand zwei Reihen Leuchten über dem Kopf mit 500 lx auf dem Tisch braucht. Zum anderen haben die Betreiber oder Vermieter der Büros gelernt, dass die Arbeitgeber ihre Mitarbeitenden davon „überzeugen“ müssen, auch mal im Büro zu erscheinen. Daher stehen die Zeichen auf Akzeptanz. Denn die Couch und die komfortable Sitzgruppe stehen schon längst da.

Zu guter Letzt soll noch erwähnt werden, dass die einstige strenge Trennung von Wohnraumbeleuchtung (Leuchten eher als Möbel oder Dekoration) und Arbeitsbeleuchtung (Sehobjekte mühelos erkennen lassen) schon länger nicht mehr gilt.

Kann man die Unterschiede zwischen der üblichen Beleuchtung und dem Licht für New Work bildhaft darstellen?

Eigentlich nicht. Man kann zwar schlechte Architektur und schlechtes Licht immer recht erfolgreich verbal erläutern. Aber das Gute lässt sich viel schlechter darstellen. Licht schafft den Raum und lässt sich nur in diesem selbst real erleben. Bilder geben eine Idee, was sein soll. Eine textliche Beschreibung sollte man besser sein lassen.

Spaßeshalber habe ich KI gefragt, was sie unter einer Bürobeleuchtung vorstellt, die man gerade modernisiert hat. Das Ergebnis könnte man in der Praxis durchaus vorfinden.

Was denkt sich die KI aus, wenn ich sie bitte, sie möge mir ein helles Büro zeichnen? Das Ergebnis zeigt ein Büro, das der Arbeitsschutz sofort  wegen Gefahr in Verzug schließen. Reale Büros, die meinen Vorstellungen entsprechen, werden sich irgendwo zwischen den gezeigten Extremen finden.

 

Luxmania – Die elektrische Sonne am Zenit

Wir haben die Technologie von Göttern, aber die Institutionen von mittelalterlichen Menschen und die Instinkte von steinzeitlichen Jägern
Frei nach E.O. Wilson

 

Ein Artikel aus dem Light Magazine 1957 vermittelt ein Gefühl dafür, wie die elektrische Sonne in den Jahrzehnten ihrer Zenit-Wanderung propagiert wurde. Das Thema ist ein 400 fc-Zimmer, also ein Büroraum, in dem die Tische mit 4304 lx beleuchtet wurden (1 fc = 10,76 lx). In der Mitte des Raums wurde 480 fc = 5164,8 lx gemessen. Wenn in Hamburg im November “Schietwetter” herrscht, gibt es mittags 1.000 bis 3.000 lx, an einem leicht bewölkten schönen Novembertag gibt es 5.000 bis 8.000 lx. Ergo hat man das Tageslicht am Mittag übertroffen.

Nicht nur das. Der direkte Vergleich mit den Bedingungen draußen wird fotografisch dokumentiert. Der Kommentar lautet, als hätte Luckiesh ihn selbst geschrieben, draußen wäre es schön gewesen, wäre der Blick in den Westen nicht mit Blendung verbunden gewesen. Man war glücklich, wieder im Büro zu sein, wo man das Licht mit Thyristoren dimmen kann. Hier der Vergleich (bitte nachsehen, dass die Bilder in die Jahre gekommen sind, photoshoppen wollte ich nicht).

Netterweise zeigt der Artikel wichtige Details wie die Leuchtdichte auf dem Schreibtisch mit 300 fL = 1.027,8 cd/m2. Das ist etwa die dreieinhalb-fache Leuchtdichte des Fensters. Die Decke des Raums mit 685 cd/m² schafft es zwar nicht in die Nähe des Mittagshimmels im Sommer, aber mit dem Novemberhimmel in Hamburg bei Schiet-Wetter kann sie es locker aufnehmen.

Jetzt zum nötigen Kleingeld: Diese Musterbude mit einer Fläche von 23,5 m² wurde mit 96 Lampen à 40 W beleuchtet. Die Anschlussleistung wird mit 5.400 W angegeben. Das sind stolze 230 W/m². Heute kommt ein Passivhaus mit einer Heizleistung von 10 – 15 W/m² aus, energiefressender Altbau braucht 100 – 120 W/m² . Die Beleuchtung übertrifft also die Heizleistung für einen schlecht isolierten Altbau um das Doppelte.

Die hier betrachtete Beleuchtung wurde in einem Büro von G.E. installiert. Am Ende des Artikels wird angegeben, dass noch weitere Kandidaten dem 400fc-Club beitreten wollen. Der nächste Kandidat wäre ein Bürohaus der Cleveland Electric Illuminating Company. Wer denkt, dass solche Träume nur in den USA geträumt wurden, irrt. In dem AEG-Labor in Springe stand ein Versuchsraum mit 4.000 lx beleuchtet als Schauobjekt. Der Ersteller dieses Raums baute ein paar Jahre später die Beleuchtung des Großraumbüros des Beamtenheimstättenwerks in Hameln. Er war zeitlebens stolz auf diese Leistung. Er hätte am liebsten alle 4.000 lx installiert, durfte jedoch nur 1.200 lx planen.

Wie hat der Betreiber den Erfolg erlebt? Als wir ihn fragten, ob wir die Beleuchtung untersuchen dürfen, bekamen wir die Antwort: „Bitte sehen Sie davon ab, wir wissen Bescheid.“ Viel deutlicher war eine Teilnehmerin einer Schulung bei einer Berufsgenossenschaft. Sie sagte: „Ich habe nichts mit Beleuchtung zu tun. Mein Vater hat in Hameln gearbeitet und erzählte immer, die Beleuchtung hätte sein Leben ruiniert. Ich will nur erfahren, warum er so was erzählt hat.

Der zitierte Artikel ist im Mai  1957 in den USA erschienen. Zu diesem Zeitraum waren die deutschen Ansprüche noch bescheiden, die LiTG absolvierte gerade ihre 1000-lx-Kampagne. In deutschen Städten veranstalteten die Energieversorger zusammen mit der lichttechnischen Industrie Werbeveranstaltungen für viel Licht (und elektrisches Kochen). Man erzählte, die Amerikaner hätten 10.000 lx im Visier. Zum Glück ist es bei Erzählungen geblieben.

(download Faximile des Artikels)

Wo uns Normen gefehlt haben …

LED ist Lügenlicht.
Glauben Sie keiner Angabe von Zahlen.
Wout van Bommel, 2009

 

In diesem Blog kritisiere ich oft Normen. Wer in meiner Vita nachschaut, findet heraus, dass ich einen Großteil meines Lebens mit der Normung verbracht habe und darauf sogar stolz bin. Denn bei aller Kritik war mir immer bewusst, dass die Situation ohne Normen schlimmer wäre. Bei der LED-Einführung hat nun jedermann erlebt, wie schlimm es ohne Normen kommen kann.

Die Lichttechnik, wie die Elektrotechnik überhaupt, legte immer großen Wert auf Normung von Anbeginn. So hatte die Allgemeinheit die Vorteile der Normung nicht mehr wahrgenommen. Sie hat immer Lampen gekauft, deren Fassung auf den Namen E27 hörte. “E” kommt von Edison, während die Zahl 27 den Außendurchmesser des Gewindes in Millimetern angibt. Sein erstes Patent wurde 1881 erteilt. Um 1900 setzte sich die E27-Fassung in den USA und später in Kontinentaleuropa als dominanter Standard für Haushaltslampen durch.

Wem eine Leuchtstofflampe ausfiel, musste sich nur die Bezeichnung merken und kaufte sich eine neue, die fast so genau aussah und leuchtete wie die alte. Nicht nur das. Eine gewisse Standardisierung ergab sich aus der Tatsache, dass es sich bei den Herstellern um ein Oligopol handelte. So musste niemand alle Teile einer Beleuchtung bei Siemens oder AEG kaufen. Die passten schon aus Gründen der Wirtschaftlichkeit irgendwie zusammen. Nicht so bei LED.

Das Fehlen von Normen in der LED-Beleuchtung (insbesondere in der Anfangsphase der Technologie, aber teils auch heute noch bei Billigimporten) hat weitreichende Konsequenzen für Verbraucher, Planer und die Umwelt. Hier sind die zentralen Folgen einer mangelnden Standardisierung:

Mangelnde Austauschbarkeit (Proprietäre Systeme)

Ohne Normung kocht jeder Hersteller sein eigenes Süppchen, auch wenn er das gar nicht will. Das führt dazu, dass Komponenten oft nicht untereinander kompatibel sind.

  • Kein Standard-Sockel: Während man früher einfach eine "E27-Birne" kaufte, sind viele LED-Module fest in Leuchten verbaut. Ist das Modul defekt, muss oft die gesamte Leuchte entsorgt werden.
  • Treiber-Probleme: Ein LED-Treiber (Netzteil) von Hersteller A passt oft nicht zu den Spannungs- oder Stromanforderungen der LED von Hersteller B.

Unzuverlässige Angaben zur Lebensdauer

Normen wie die IEC 62717 legen fest, wie die Lebensdauer gemessen wird. Ohne diese Standards:

  • Frühausfälle: Hersteller könnten mit 50.000 Stunden werben, obwohl die Elektronik (der Treiber) schon nach 5.000 Stunden aufgibt.
  • Lichtstromdegradation: LEDs werden mit der Zeit dunkler. Ohne Normen gibt es keine klare Angabe darüber, wie viel Helligkeit nach einer bestimmten Zeit noch vorhanden sein muss (z. B. der L70-Wert).

Dieses Problem ist derart gravierend, dass Planer, die eine leuchtende Decke planten, eine entsprechende Zahl LED in einem Saal betrieben, um gleichwertigen Ersatz für ausgefallene Lampen vorrätig zu halten.

Inkonsistente Lichtqualität

Fehlende Normung bei der Farbwiedergabe ($R_a$ oder $CRI$) und der Farbtemperatur führt(e) zu optischen Mängeln:

  • Farbschwankungen: Zwei "warmweiße" Lampen verschiedener Hersteller können völlig unterschiedlich aussehen (eine eher gelblich, die andere grünlich).
  • Binning-Probleme: Ohne enge Toleranzen (Standardisierung des sogenannten "Binnings") variiert das Licht sogar innerhalb einer Produktionscharge eines einzelnen Herstellers.

Das Binning-Problem besteht darin, dass ein Hersteller Leuchtmittel mit einer bestimmten Beschaffenheit nicht gezielt herstellen kann, sondern aus einer Charge aussuchen muss. Er wirft den Rest nicht etwa weg, der wandert zu den billigeren Produkten. Da alles LED heißt, muss der Planer wissen, womit er zu tun hat.

Sicherheitsrisiken und EMV-Störungen

Normen regeln nicht nur das Licht, sondern auch die Elektrotechnik:

  • Elektromagnetische Verträglichkeit (EMV): Nicht genormte Billig-LEDs können das WLAN stören oder ein störendes Surren in Radios verursachen.
  • Flimmern (Flicker): Ohne Grenzwerte für den "Flicker-Index" können LEDs unsichtbar flimmern, was zu Konzentrationsstörungen, Kopfschmerzen oder sogar epileptischen Anfällen führen kann.

Flimmern war in der Lichttechnik seit der breiten Anwendung von elektronischen Vorschaltgeräten kein Thema mehr. Seit der Einführung von LEDs in der Beleuchtung ist Flimmern als Flicker ein heißes Thema, mit dem sich sogar die EU in Brüssel beschäftigen musste. Da auch Fahrzeuge von dem Thema berührt sind, ist flimmerndes LED-Licht auch ein öffentliches Problem geworden.

Nicht, dass LEDs immer flimmern müssen. Man kann sie vollkommen ohne zeitliche Schwankungen betreiben, so durch Gleichstrom oder hochwertige Treiber. In der EU gibt es seit 2021 strengere Grenzwerte (Ökodesign-Richtlinie), die das Flimmern (PstLM- und SVM-Werte) regeln, aber keine Vorschrift, dass LED nicht flimmern darf.

Ökonomische und ökologische Folgen

Obwohl die LED als große Errungenschaft in Sachen Ökologie durch die EU gefördert wurde, weil man damit Strom und somit CO2 spart, hat die fehlende bzw. mangelnde Standardisierung dieser Technik ernsthafte ökonomische und ökologische Folgen. Beispielsweise:

  • Elektroschrott: Die mangelnde Reparierbarkeit (siehe Punkt 1) führt zu einer Wegwerfmentalität, die den ökologischen Vorteil der Energieeffizienz teilweise wieder zunichtemacht.
  • Planungsunsicherheit: Lichtplaner können keine langfristigen Wartungskonzepte erstellen, wenn nicht garantiert ist, dass Ersatzteile in fünf Jahren noch dieselben Spezifikationen haben.

Diese Probleme wurden im Laufe der Jahre gemildert, aber nicht beseitigt.

Verweise auf Beiträge in healthylight.de

Um ein leichtes Lesen zu ermöglichen, habe ich die Verweise auf relevante Beiträge in dem Blog healthylight.de zusammengefasst:

Ein neues Gütezeichen, das nie einer gebraucht hat!

Flicker – das leider allzu bekannte Wesen

Flicker noch mal – Licht und Gesundheit

LED dürfen nicht mehr flimmern - nur noch moderat …

Darf die LED mehr flimmern, weil sie modern ist?

Lang lebe die LED - fragt sich, wie lang

Ach wie schön war es ohne LED - Nostalgie zu Weihnachten

Licht und Altern

Was sind 50.000 Stunden - zum Teufel noch mal?

LED-Lebensdauer - das unbekannte Wesen

Aus der Traum, Leuchtmittel in Heilmittel umzudeuten

Ein Raum ist erst dann heilend,
wenn die Seele vergisst,
dass sie in einem Gebäude ist.
Anonymus

 

Im Jahr 2013 erschien ein neuer Star am Beleuchtungshimmel: HCL. Das ist nicht die chemische Formel für die Salzsäure, sondern Human Centric Lighting. Man wollte damit die sperrige Bezeichnung „biologisch wirksame Beleuchtung“ loswerden. Die war leider zweideutig: Biologisch wirksam ist die Beleuchtung mit UVC-Leuchten. Meist tödlich obendrein.

Der Auftragnehmer, die Beratungsfirma  A.T. Kearney, seit 2020 nur noch Kearney, erfand eine Marketingstrategie für diesbezügliche Produkte. Diese wurde HCL getauft, denn als biologisch wirksam ist Licht seit über einem Jahrhundert bekannt. Kearney ist vermutlich nicht aufgefallen, dass ihre Argumente verdammt prima zu einem der größten Desaster der Wissenschaftsgeschichte passten, den Hawthorne-Experimenten der 1920er Jahre. Diese waren zu guter Letzt auch noch von der lichttechnischen Industrie in Auftrag gegeben worden. So hatte die Katastrophe die Lichttechnik besonders hart getroffen. Bis heute …

Wegen der besonderen Bedeutung habe ich das Thema in einem Kapitel in Genesis 2.0 – Die Schöpfung der elektrischen Sonne behandelt (hier). In healthylight.de durfte das Thema auch nicht fehlen (z.B. hier und da und dort).

Das Konzept wurde von dem Arbeitsschutz heftig kritisiert, weil die Wirkung auf der Beeinflussung von Hormonen der Beschäftigten erfolgen sollte. Die KAN, Kommission Arbeitsschutz und Normung, führte mehrere Symposien durch, um die Belange zu diskutieren. Mir klingt noch in den Ohren, wie vor 10 Jahren ein Arbeitsschützer den Kollegen aus der Lichttechnik öffentlich empfahl, das ganze Ding aufzugeben. (Mehr zu KAN-Stellungnahmen zu dem Thema hier und dort)

Arbeitsschutz ist nicht alles. Und nicht selten entscheiden Menschen oder Betriebe für Dinge, von denen der Arbeitsschutz abrät. Manchmal müssen die Arbeitsschutzbehörden sogar regelrecht  gegen unsinnige, gar gefährliche Praktiken kämpfen. Menschen oder Betriebe müssen nur genug Vorteile entdecken, um selbst von ihnen als sinnvoll erkannte Regeln zu ignorieren. Bei HCl kann man ruhig von einem Scheitern reden, das durch den Unterschied zwischen theoretischem Marketing und praktischer Marktrealität eingetreten ist. Während die Wissenschaft noch über  HCL (Human Centric Lighting) diskutiert, ist es als Massenprodukt für die Elektroindustrie tatsächlich eine Art "stilles Scheitern" geworden.

Es gibt auch gegenteilige Meinungen, die behaupten, HCL sei so erfolgreich, dass es ein HCL 2.0 gibt. Dagegen spricht meine Erfahrung, dass licht.de, die Website des ZVEI, das Thema HCL fast versteckt. Dies bestätigt meine Kenntnisse über die Interna, die nicht in die Allgemeinheit gehören. Nicht zu den Interna gehören die Fakten, dass die Industrie lieber über „Value of Light“ sprechen möchte oder lieber von „integrative lighting“ spricht.

Die Industrie redet nicht mehr gerne darüber, weil das Konzept HCL an vier harten Realitäten zerschellt ist:

Das „Service-Albtraum“-Problem (Komplexität)

HCL ist kein Produkt, sondern ein System. Es ist nicht gelungen, diese Nachricht zu kommunizieren, obwohl licht.de und der Vorgänger, die Fördergemeinschaft Gutes Licht (FGL), eine sehr erfolgreiche Praxis betreiben (s. licht.wissen und FGL-Hefte)

  • Das Problem: Ein Elektriker baut eine Lampe ein, schließt sie an und geht. HCL erfordert aber eine aufwendige Programmierung der Lichtkurven über den gesamten Tag.
  • Die Realität: Oft war die Steuerung nach einem Stromausfall oder einem Software-Update verstellt. Die Nutzer saßen plötzlich mittags im Schummerlicht oder abends im Blaulicht. Die Folge waren endlose Reklamationen, auf die weder der Handwerker noch die Hersteller Lust hatten.

 

Die „Einfach-zu-teuer“-Wand

HCL benötigt teure Treiber, Dual-Color-LEDs (Warmweiß/Kaltweiß) und eine intelligente Steuerung.

  • In Ausschreibungen für Großprojekte war HCL oft das Erste, was dem Rotstiftzum Opfer fiel ("Value Engineering"). Man stellte fest, dass die Mieter zwar "gutes Licht" wollen, aber nicht bereit sind, den massiven Aufpreis für die biologische Wirkung zu zahlen.
  • Neue Gebäude werden spekulativ errichtet, d.h. der spätere Betreiber des Hauses wird erst später bestimmt oder er beteiligt sich nicht an den Kosten der Erstellung. Er zahlt später die Miete. Die Kosten der „gesunden“ Beleuchtung trägt daher der Bauherr. Den Nutzen erntet der Mieter, so er überhaupt entsteht. Die Beleuchtung gilt als Bauprodukt und muss zu einem bestimmten Zeitpunkt während des Baus realisiert werden.

 

Fehlende Normung und Nachweisbarkeit

Die Elektroindustrie liebt Normen mit „knackigen Zahlen“ wie in DIN EN 12464-1. Die lichttechnische Normung der Beleuchtung von Arbeitsstätten gehört seit jeher zum Marketing.

  • Bei HCL ist die Wirkung schwer messbar. Wie beweist man einem Kunden, dass seine Mitarbeiter durch das Licht 5 % weniger krank sind? Da der Effekt erst über Wochen und Monate eintreten kann und von vielen Faktoren abhängt, fehlte der Industrie das schlagkräftige Verkaufsargument ("Return on Investment").
  • Als HCL als Konzept erstellt wurde, gab es für die LED selbst kaum Normen. Man konnte sich nicht einmal darauf verlassen, dass ein Leuchtmittel mit einer bestimmten Bezeichnung nachgekauft werden konnte.

 

Das "Smarte" Missverständnis

Viele Kunden dachten, "Smart Lighting" (per App steuerbar) sei das Gleiche wie HCL.

  • Die „Industrie“ hat den Markt mit billigen, bunt leuchtenden Smart-Home-Lampen geflutet. Das hat das biologisch wirksame HCL-Konzept entwertet. Es wurde zum Spielzeug degradiert, statt als gesundheitsrelevante Infrastruktur wahrgenommen zu werden.
  • Die Industrie ist nämlich nicht dieselbe wie vor der Ära LED. Das gilt auch für den Anwender, der nicht immer den Unterschied zwischen Billigprodukten und Qualitätsware feststellen oder schätzen kann.

 

Die physiologische Enttäuschung

Die Forschung hat gezeigt, dass man für eine echte Melatonin-Beeinflussung am Tag sehr hohe Beleuchtungsstärken (über 1000 Lux am Auge = bis zum Dreifachen horizontal) braucht. Zudem wurde die Beleuchtung am Abend und in der Nacht zu einer Gefahr erklärt. Dazu gehören nicht nur die Beleuchtung, sondern auch das Licht der Bildschirme.

  • Hohe Beleuchtungsstärken am Tage sind energetisch ineffizient und widersprechen den strengen EU-Vorgaben zum Energiesparen. Man kann nicht gleichzeitig massiv Strom sparen und die Büros so hell fluten, dass sie die Mittagssonne simulieren.
  • Wenn man Licht am Abend und in der Nacht zur Gefahr erklärt, muss man eine Lösung für Leute haben, die gerade dann arbeiten wollen bzw. müssen. Etwa 15 % aller Erwerbstätigen in Deutschland arbeiten regelmäßig am Abend. Das entspricht bei rund 46 Millionen Erwerbstätigen etwa 6,9 Millionen Menschen. Regelmäßige Nachtarbeit ist seltener, betrifft aber immer noch rund 4,6 % der Erwerbstätigen. Das sind etwa 2,1 Millionen Menschen, die arbeiten, während der Rest des Landes schläft. Ein Konzept, das die Interessen von rund 20% der Erwerbstätigen nicht berücksichtigt, aber diesen und ihren Arbeitgebern erklärt, die gängige Praxis gefährde die Gesundheit, ist schwer durchsetzbar.

Fazit: Die Industrie hat HCL still "beerdigt", weil es sich nicht als wartungsfreies Standardprodukt skalieren ließ. Es ist heute ein Nischenprodukt für spezialisierte Kliniken oder Luxusbüros geblieben. Für den Rest der Welt ist es zum "Voodoo" der Lichtbranche geworden – man weiß, dass es irgendwie wirkt, aber keiner will die Verantwortung für die komplexe Technik übernehmen.

Man muss hinzufügen, dass es auch ernsthafte rechtliche Probleme gibt. So muss ein Lichtplaner laut BGB dem Kunden gegenüber die angepeilte Wirkung gewährleisten. Selbst wenn diese Wirkung tatsächlich realisierbar wäre, ist eine Mitwirkung des Betreibers und seiner Mitarbeitenden für den Erfolg entscheidend. Kein Planer wird in dieser Situation die Verantwortung übernehmen können bzw. dürfen.

Wunden, die Licht heilt – zusammengefasst

Ein Raum ist erst dann heilend,
wenn die Seele vergisst,
dass sie in einem Gebäude ist.
Anonymus

Physikalisch nicht messbare Wirkungen

  • Wissenschaftliche Zusammenfassung

Hintergrund

Die physische Umgebung von Patient:innen – insbesondere Tageslicht und Ausblick ins Freie – wird zunehmend als relevanter Einflussfaktor auf den Heilungsverlauf anerkannt. Erkenntnisse stammen vor allem aus der Umweltpsychologie, Medizin und Chronobiologie.

  • Zentrale Studien & Ergebnisse
  1. Einfluss von Naturausblicken auf die Genesung

Ulrich (1984)Science

  • Design: Vergleich von postoperativen Patient:innen mit Blick auf Natur vs. Ziegelwand
  • Ergebnisse:
    • Kürzere Krankenhausaufenthalte
    • Weniger Schmerzmittel
    • Weniger negative Pflegevermerke
  • Bedeutung: Erste evidenzbasierte Studie, die zeigte, dass visuelle Umweltfaktoren messbare medizinische Effekte haben.

Kernaussage:

Ein natürlicher Ausblick beschleunigt die postoperative Erholung signifikant.

  1. Tageslicht und Aufenthaltsdauer im Krankenhaus

Beauchemin & Hays (1996)Journal of Affective Disorders

  • Population: Patient:innen mit schwerer Depression
  • Ergebnisse:
    • Aufenthaltsdauer in sonnigen Zimmern um ca. 2,6 Tage kürzer
  • Mechanismus: Tageslicht beeinflusst den zirkadianen Rhythmus und die Serotoninproduktion.

Kernaussage:

Tageslicht wirkt antidepressiv und verkürzt klinische Behandlungszeiten.

  1. Tageslicht, Schmerzempfinden und Medikation

Walch et al. (2005)Psychosomatic Medicine

  • Design: Vergleich hell vs. dunkel gelegener Krankenzimmer
  • Ergebnisse:
    • Geringerer Schmerzmittelbedarf
    • Niedrigere subjektive Stresswerte
  • Erklärung: Licht beeinflusst die Melatonin- und Cortisolregulation.

Kernaussage:

Helle Räume reduzieren Schmerzempfinden und Stress.

  1. Systematische Übersichtsarbeiten

Ulrich et al. (2008)Health Environments Research & Design Journal

  • Analyse: Mehrere Studien zu Krankenhausdesign
  • Ergebnisse:
    • Tageslicht, Naturbezug und Ausblick korrelieren mit
      1. schnellerer Genesung
      2. geringerer Komplikationsrate
      3. besserem psychischem Wohlbefinden

Kernaussage:

Architektur ist ein aktiver Bestandteil des Heilungsprozesses.

  • Wirkmechanismen (Zusammenfassung)
  • Biologisch:
    • Stabilisierung des zirkadianen Rhythmus
    • Reduktion von Stresshormonen
  • Psychologisch:
    • Positive Emotionen
    • Reduzierte Angst und Wahrnehmung von Schmerz
  • Verhaltensbezogen:
    • Besserer Schlaf
    • Höhere Therapietreue
  • Gesamtfazit

Besserer Ausblick und ausreichendes Tageslicht tragen nachweislich zu einer schnelleren und komplikationsärmeren Gesundung bei.
Diese Effekte sind robust belegt und betreffen sowohl physische als auch psychische Heilungsprozesse.

Licht macht sichtbar, Grün macht lebendig

Licht macht sichtbar,
Grün macht lebendig
Anonymus

Hell gegen Grün – Was ist gesünder?

Gestern untersuchte ich die Wirkung der Aussicht aus einem Krankenzimmer auf den Heilungsverlauf bei frisch operierten Patienten. Die maßgebliche Arbeit hierzu von Ulrich hat die Situation zwischen der Aussicht auf eine Ziegelwand und auf die freie „Natur“ verglichen. Die Natur hat gesiegt.

Leider kann ich mir die Ziegelwand gut vorstellen, aber die “Natur” nicht. Bei manchen Studien bestand sie aus einer Parklandschaft, wie sie im Krankenhausbau über ein Jahrhundert realisiert wurde. Eine Gruppe der Cambridge University hat bei einer Studie die “Natur” etwas näher spezifiziert. Die Aussicht wurde als “grün” (Anteil des Grüns in der Aussicht) und “hell” differenziert. Hell bedeutete eine größere Beleuchtungsstärke des Lichts, das durch die Fenster erzeugt wurde.

Es wurden die Daten von 244 stationären Psychiatriepatienten (Durchschnittsalter 41,8 Jahre; SD = 11,8; 59,8 % weiblich, Aufenthaltsdauer zwischen 7 und 100 Tagen) untersucht, die zwischen Mai 2013 und Oktober 2018 mit affektiven Störungen aufgenommen worden waren. Die Aussicht aus dem Fenster wurde anhand von Bildern aus jedem Zimmer bewertet und in zwei Kategorien unterteilt: Bilder, die künstliche Objekte zeigen, und Bilder, die grüne Bäume zeigen. Der prozentuale Grünanteil in jedem Bild wurde ebenfalls berechnet und als Grünanteil der Aussicht ausgewiesen. Die Helligkeit wurde mit einem Luxmeter gemessen.

Beides, viel “Grün“ und viel „Hell“, führte zu einer Verkürzung der Therapie. Was aber sehr interessant ist, ist die Helligkeit in den Räumen: Wo viel Grün war, war es am dunkelsten.

Die Studie ist hier komplett zu lesen.

Mascherek A, Weber S, Riebandt K, et al. On the relation between a green and bright window view and length of hospital stay in affective disorders. European Psychiatry. 2022;65(1):e21. doi:10.1192/j.eurpsy.2022.9