Prüfbare Beleuchtungsqualität

Weitsicht ist die Kunst,
das Ganze zu sehen, bevor man
den ersten Teil bewegt.

Anonymus

Prüfbare Beleuchtungsqualität, kurzgefasst

Dieser Beitrag erzählt vom paradoxen Schicksal der „elektrischen Sonne“: Während die Erde insgesamt heller wird, verliert künstliches Licht zugleich kulturellen Glanz. Aus der einst bestaunten Lunapark-Beleuchtung ist vielerorts Lichtmüll geworden – ein Bewusstseinswandel, befeuert durch Debatten um Lichtverschmutzung und Energiesparen. Doch der Niedergang verläuft nicht überall gleich. Im Privaten, lange von der Lichttechnik gering geschätzt, eröffnet die LED ein neues Spiel aus Atmosphäre, Akzenten und Ritualen (man denke an Weihnachtslichter). Dagegen wirkt professionelle Beleuchtung, besonders im Büro, wie eine Normmaschine: 500 Lux, Gleichmäßigkeit, „Zahnarztpraxis-Effekt“.

Sichtbar wird das beim Trend, Bürohäuser in Wohnungen umzuwidmen: Fast nichts an der alten Beleuchtung passt zur neuen Logik des Wohnens. Spätestens mit Homeoffice und New Work bröckelt die alte Gewissheit, dass Normlicht gute Beleuchtung und gute Beleuchtung bessere Arbeit bedeutet. Zwischen Wohlbefinden und Sehleistung rückt die Frage nach prüfbarer, brauchbarer Lichtqualität erneut ins Zentrum.

Niedergang der elektrischen Sonne?

In dem Buch Genesis 2.0 – Schöpfung der elektrischen Sonne widmet sich ein Kapitel dem Bedeutungsverlust des künstlichen Lichts: Selbstverdienter Niedergang der elektrischen Sonne. Damit ist nicht gemeint, dass die elektrische Sonne unter dem Horizont verschwindet und damit der künstliche Tag endet. Neueste Statistiken zeigen, dass der Lichtverbrauch auf der Erde in den letzten Jahren sogar gestiegen ist (s. Künstliches Licht auf der Erde nimmt zu oder Studie: Künstliche Beleuchtung hat weltweit stark zugenommen). Sie zeigen auch, dass die Steigerung des ins Weltall abgestrahlten Lichts (s. Der blauere Planet) nur für die anderen Teile der Welt gilt. in Europa hat das nächtliche künstliche Licht abgenommen, als es sonst um ca. 25% angestiegen ist.

Ich verbinde dies mit den Bemühungen um die Verringerung der Lichtverschmutzung, so auch mit besseren Straßenleuchten und Maßnahmen zur Energieeinsparung. Die Lichtverschmutzung war Teil des Niedergangs der elektrischen Sonne, weil das einst bewunderte nächtliche Licht (Lunaparks) im Bewusstsein vieler zum Müll geworden war.

Der Niedergang der Bedeutung der Beleuchtung betrifft nicht alle Anwendungen gleichermaßen. So hat die “private” Beleuchtung, also die von der Lichttechnik einst verschmähte Wohnraumbeleuchtung, ungeahnte neue Möglichkeiten durch die LED-Technik bekommen. Man denke nur an die Weihnachtsbeleuchtung. Nicht einmal eingefleischte Nostalgiker werden da an die gute alte Zeit denken. Hingegen mag niemand die “professionelle” Beleuchtung, die man seit mehr als 100 Jahren auch mit Hilfe des Arbeitsschutzes den Menschen mehr oder weniger aufzwingt.

Wer ein Bürohaus in ein Wohnhaus konvertieren will …

Am deutlichsten erkennt man dies, wenn man sich die Umwidmung von Bürohäusern in Wohnhäuser ansieht. Die Umwandlung von ungenutzten Büroflächen in Wohnraum (das sogenannte „Office-to-Residential Conversion“) ist aktuell ein großes Thema in der Stadtentwicklung. Das hat meistens handfeste wirtschaftliche und gesellschaftliche Gründe (hoher Leerstand): Besonders in älteren Bürogebäuden in Randlagen stehen ganze Etagen leer. Hingegen herrscht in fast allen Metropolen akute Wohnungsnot. Während Büros leer stehen, suchen Tausende Menschen verzweifelt nach bezahlbarem Wohnraum.

Da Bürohäuser nach anderen Gesichtspunkten geplant und gebaut werden, bedeutet Konversion das Entfernen von allem, was stören kann. So muss der Asbest aus allen alten Gebäuden entfernt werden, während man manches gerne übernimmt, so z.B. die Aufzüge. Die Beleuchtung ist bei einer Umwidmung einer der Punkte, bei denen man fast nichts vom alten Bestand übernehmen kann. Wenn man Architekten fragt, die solche Projekte realisieren, sagen diese: Büro- und Wohnbeleuchtung folgt völlig unterschiedlichen Logiken, Normen und technischen Anforderungen.

Nicht, dass dies in der Lichttechnik unbekannt gewesen ist. Ganz im Gegenteil. In DIN 5035-1 wurden zwar Festlegungen für alle Innenräume getroffen, aber sog. „stimmungsbetonte“ Räume wurden weitgehend ausgenommen. Für Wohnräume schrieb die Norm: „3.5 Wohnbereich: Die Gestaltung der Beleuchtung im Wohnbereich lässt sich nicht in Normen festlegen.“

Wie gut wurde die Beleuchtung in den Bereichen, in denen man die Normen und „Logiken“ angewendet hatte, die man erstellt hat? Die Beleuchtung ist bei einer Umwidmung einer der Punkte, bei denen man fast nichts vom alten Bestand übernehmen kann. Dies erklären Fachleute so: „Bürobeleuchtung ist auf horizontale Gleichmäßigkeit ausgelegt (überall 500 Lux auf Tischhöhe). Das wirkt in einer Wohnung extrem ungemütlich und steril („Zahnarztpraxis-Effekt“).

Wenn man darum bittet, den Kontrast zwischen der Beleuchtung des Bürohauses und der daraus zu entstehenden Beleuchtung des Wohnhauses zusammenzufassen, kommt die folgende Tabelle heraus:

Der Kontrast

Merkmal Büro (alt) Wohnhaus (neu)
Ziel Sehleistung (500 Lux) Wohlbefinden & Entspannung
Lichtfarbe Kühl (4000 K) Warm (2700 K)
Steuerung Zentral / Präsenzmelder Individuell / Schalter & Dimmer
Position Starre Raster an der Decke Flexibel (Wand, Stehlampen, Akzente)

Warum es Gemeinsamkeiten zwischen Wohnbeleuchtung und Arbeitsbeleuchtung gibt

Das Argument, dass man die Beleuchtung fürs Büro nach anderen Logiken, Normen und technischen Anforderungen erstellen müsse, fiel zuletzt in der Corona-Pandemie in sich zusammen, als ein Großteil der Bevölkerung im Homeoffice arbeiten musste. Niemand hat das Büro vermisst, weil dort die bessere Beleuchtung installiert wäre. Ganz im Gegenteil: Die Erfahrung im Homeoffice lehrt, dass man eher die Beleuchtung im Büro der im Homeoffice angleichen will. Was dies im Einzelnen bedeutet, beschreibe ich in dem Beitrag Licht für New Work. In einem klassischen Büro geht es meist nur darum, den Raum hell genug zu bekommen (die typischen 500 Lux überall). Bei New Work ändern sich aber die Tätigkeiten – wir arbeiten nicht mehr acht Stunden starr am selben Platz. Es wird kollaboriert, entspannt, konzentriert, fokussiert und agil präsentiert.

In dem Beitrag wird u.a. auf die Schattenseite des „wohnlichen“ Lichts hingewiesen. Denn was so gemütlich wirkt, kann versagen, wenn es darum geht, dass man im Wohnraum das erzeugen muss, wonach die Normer ihre Werke ausgerichtet haben: die Sehleistung. Das ist nicht erst erforderlich geworden, als die Menschen im Homeoffice arbeiten mussten. Jeder, der seine Zeitung oder Zeitschrift liest oder einen Brief liest oder schreibt, benötigt funktionelles Licht. Dieses kann man sehr wohl normativ beschreiben und mit Regeln versehen.

Ein Gewinner: Leuchte für den Arbeitsplatz

Der Fehler, Wohn- und Arbeitsräume als unterschiedliche Domänen anzusehen und nur für Arbeitsräume funktionelles Licht zu normen, rächt sich nun. Davon profitiert aber mein Lieblingsprojekt: die Normung von Arbeitplatzbeleuchtung. Diese Arbeit hat etwa 1990 begonnen und hiess DIN 5035-8: Beleuchtung mit künstlichem Licht - Teil 8: Arbeitsplatzleuchten - Anforderungen, Empfehlungen und Prüfung. Was es damit auf sich hat, beschreibt der Beitrag Die einzige zertifizierbare Beleuchtung. Die erste Version der Norm erschien 1994. Sie beschreibt Arbeitsplatzleuchten, die nach der eigenen Definition “Leuchte für die Arbeitsplatzbeleuchtung” ist. Die Norm geht mit der jetzigen Überarbeitung in 2026 in die dritte Runde bzw. ins vierte Jahrzehnt.

Als einziger Teil aus der Reihe DIN 5035 ist diese Norm eine Produktnorm. Das Besondere an dieser Norm ist die genaue Festlegung aller Gebrauchstauglichkeitsmerkmale der Arbeitsplatzbeleuchtung, also Usability. D.h., wenn man eine Arbeitplatzbeleuchtung kauft, weiß man, was man hat. Eine gerüfte Leuchte für die Arbeitsplatzbeleuchtung ist sozusagen steckerfertig.

Ein Produkt für einen bestimmten Bedarf ist garantiert keine allgemeine Lösung für das Problem der Beleuchtung. Auf der anderen Seite ist es auch keine Lösung, Hunderte und Tausende von Leuchtenmodellen zu produzieren, aus denen ein Lichtplaner später eine Beleuchtung erstellt, so er es schafft, hundert und mehr Seiten Norm zu lesen. Ob er das Ziel getroffen hat, wird kaum jemand in der Lage sein, zu prüfen.

Komplexe Regeln, die niemand nachprüfen kann

Wie es mit der Anwendbarkeit von DIN EN 12464-1 aussieht, weiß ich nicht.  Eine Vorgängernorm (DIN 5035-7) habe ich über Jahrzehnte in Betrieben gerichtsfest geprüft. Keine einzige Beleuchtung konnte diese Norm erfüllen. Ich habe auch keinen Betrieb gesehen, der in der Lage gewesen wäre, sie zu überprüfen.

Eigentlich war auch jede Prüfung sinnlos, weil etwa nur 5 % der Projekte in den Jahrzehnten von  1970er bis 2010er Jahren einen Lichtplaner gesehen hatten. Ich rede nicht von Büros von Klempnern oder Schreinern, sondern von Projekten der größten Konzerne und Unternehmen von Deutschland.

Apropos Klempner und Schreiner: In einem Betrieb mit bis zu 10 Mitarbeitern (z. B. einer Schreinerei oder ein lokales Café) gibt es oft keine reine Bürostelle. Der Chef erledigt die Buchhaltung abends am Küchentisch, und die Angestellten sind fast ausschließlich produktiv tätig. Eine dedizierte Bürokraft wird oft erst eingestellt, wenn die administrative Last die Kapazität der Inhaber übersteigt. Solche Firmen machen 84% bis 89% aller deutschen Unternehmen aus. Bei denen würde eine zertifizierbare Beleuchtung ein Segen sein.

Phantome, die unser Wissen beherrschen XIII

Wenn ein Maß zum Ziel wird,
hört es auf,
ein gutes Maß zu sein..

Charles Goodhart

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Zum Phantom Lichtausbeute, kurzgefasst

Die Lichtausbeute (lm/W) gilt seit den Anfängen der Lichttechnik als Leitkennzahl für „wirtschaftliches“ Licht. Von Edisons Glühlampe (ca. 1,4–2 lm/W) bis zu modernen LEDs (typisch 100–150 lm/W, im Labor darüber) zeigt sie enorme Effizienzgewinne – und zugleich ihre Grenzen: Eine Lichtausbeute kann mit unbrauchbarem Spektrum einhergehen (z. B. Natriumdampf-Niederdrucklampen), während für die Praxis weißes Licht, Farbqualität und Sehkomfort entscheidend sind. Zudem bildet lm/W weder den Systemaufwand (Leuchte, Vorschaltgerät, Steuerung) noch optische Verluste ab: Entblendung, Linsen und Diffusoren kosten häufig 20–40 % Lichtstrom, weitere Verluste entstehen durch Totalreflexion und Gehäuse. In Smart-Lighting-Systemen kann sogar der Standby-Verbrauch relevant werden. Beispiele wie Osram-Linestra versus SOX oder der Blick auf „mildes“ bzw. indirektes Licht verdeutlichen, wie eine eindimensionale Zahl eine mehrdimensionale Realität verzerrt. Folgerichtig rücken Lichtqualität (CIE-Definition 2021) sowie Systemeffizienz und realistische Lebensdauer-Metriken (LightingEurope) in den Fokus.

Zur Geschichte des Phantoms

Die Geschichte dieses Phantoms ist vermutlich so alt wie das menschliche Bestreben, künstliches Licht sparsamer zu machen. Tüftler, Erfinder, Macher wie Argand, Jablotschkow oder Minckeleers, deren Namen man in den Annalen der Frühzeit der Lichttechnik lesen kann, strebten danach, das Lichtmachen von seinen Lasten zu befreien. So auch die Steigerung des erzeugten Lichts gemessen an dem Energieeinsatz.

Das Ziel ist in einem unglaublichen Maße erreicht worden. Hatte die erste Glühlampe von Edison eine Lichtausbeute von ca. 1,4 bis 2 lm/W (Lumen pro Watt), können moderne  LED heute oft über 100 bis 150 lm/W. Firmen wie Cree haben im Labor bereits Werte von über 300 lm/W für eine einzelne LED-Komponente erreicht.

Wie fragwürdig solche Daten sein können, sieht man an einer “klassischen” Lampe, der Natriumdampf-Niederdrucklampe. Die erreicht lässig 200 lm/W und hatte bereits in ihrem ersten Lebensjahr 1932 als Serienprodukt 50 lm/W überschritten. Doch ihr Licht ist nicht viel wert, weil es keine Farben anregen kann.

Wenn man die theoretisch beste Lichtumwandlung der Energie erreicht, kann man 683 lm/W erreichen. Das ist monochromatisches grünes Licht. Mit dem kann jeder glücklich werden, wer ein solches Licht braucht. Beleuchten tut man indes meist mit weißem Licht.

Bei früheren Leuchtsmitteln wie der Leuchtstofflampe war die Farbwiedergabe recht eng an die Lichtausbeute gekoppelt. War man mit der Dreibandenlampe und ihrem mageren Spektrum zufrieden, konnte man bei gleicher Beleuchtungsstärke bis zu 60% Energie sparen. Die sog. Vollspektrumlampen waren immer rechnerisch ineffizienter als die Standardlampen.

Wann die Lichtausbeute ein schlechtes Maß ist

Lichttechniker haben sich bereits in ihren ersten Normen zur Beleuchtung der “Wirtschaftlichkeit” verschrieben. Auch wenn deren Wirtschaftlichkeit eher eine Kostenrechnung gewesen ist, wird deren Handeln stets durch die Lichtausbeute erheblich mitbestimmt. So waren Wohnraumleuchten für die Lichttötungsmaschinen. Aber auch die Vollspektrumlampe wurde häufig abgelehnt, weil ihre Lichtausbeute geringer ausfiel.

Wie dieses Maß einen in die Irre führen kann, lässt sich am Beispiel der Linestra-Lampe von Osram darstellen. Sie wurde in den 1930ern eingeführt und genoss noch in den 1970ern eine große Beliebtheit. Aber Osram drohte ständig damit, diese Lampe aus dem Sortiment zu nehmen, weil sie als eine Energievergeudung angesehen wurde. Ihre Lichtausbeute war unterirdisch. Sie lag typischerweise zwischen 5 und 9 Lumen pro Watt (lm/W).

Zum Betrieb brauchte diese Lampe aber nur einen Sockel, der an zwei Drähten angeschlossen war. Ihr besonderes Merkmal war das warme, blendfreie Licht, das durch einen langen Glühfaden in einer opalen (milchigen) Glasröhre erzeugt wurde. Sie hing meistens in Badezimmern und wurde minutenweise betrieben.

Die etwa zur gleichen Zeit entstandene Natriumdampf-Niederdrucklampe hatte nicht nur das Problem des unbrauchbaren Spektrums. Die Lampen waren im Vergleich zu modernen Leuchtmitteln riesig. Die Leuchtengehäuse mussten entsprechend groß und stabil sein, was sie teuer und anfällig für Wind machte. Da die Lampe eine große, röhrenförmige Fläche ist, lässt sich das Licht kaum präzise bündeln. Es streut unkontrolliert in den Himmel und in die Umgebung. Nach dem Einschalten leuchtet die Lampe zuerst schwach rötlich (durch das enthaltene Neon-Startgas). Es dauert 10-15 Minuten, bis das Natrium verdampft ist und die volle Helligkeit sowie die gelbe Farbe erreicht werden. In Zeiten von Smart Cities möchte man Licht dimmen, wenn niemand auf der Straße ist. SOX-Lampen lassen sich jedoch kaum stabil dimmen und verlieren dabei sofort ihre Effizienz.

Ohne ein Vorschaltgerät lässt sich eine solche Lampe nicht betreiben. Ohne eine Leuchte auch nicht. Daher war der Vergleich mit anderen Leuchtmitteln auf der Basis der Lichtausbeute bestenfalls von akademischem Wert. Linestra gegen SOX-Lampe aufzustellen, war absurder als Kartoffeln mit Kaviar zu vergleichen.

Der Betriebsaufwand (Leuchte, Vorschaltgerät u.Ä.) ist der eine Faktor, der die Lichtausbeute als Maß schlecht aussehen lässt. Es gibt aber einen anderen Faktor, der auch bei den heutigen LEDs die Lichtausbeute relativ bedeutungslos macht: die Leuchtdichte. Die Leuchtdichten, die hocheffiziente LEDs erreichen, liegen eine Größenordnung unter der der Sonne. Solche Elemente können ohne Abdeckung nicht in Innenräumen betrieben werden. So müssen Linsen oder Abdeckungen vorgesehen werden, die das Licht lenken oder weicher machen. Sie schlucken ebenfalls Lichtstrom, und zwar nicht zu knapp. Je stärker das Licht einer LED gestreut oder geformt werden muss (z. B. bei einem sehr engen Spot oder einer sehr weichen Flächenleuchte), desto höher sind die optischen Verluste. Um die einzelnen LED-Punkte unsichtbar zu machen, wird das Licht gestreut. Dies kostet oft 20 % bis 40 % der Lichtleistung.

Hinzu kommen Totalreflexion und Gehäuse: icht, das flach auf eine Grenzfläche trifft, wird zurück ins Innere der Leuchte reflektiert (Totalreflexion). Wenn das Gehäuse innen nicht perfekt weiß oder spiegelnd ist, wird dieses Licht in Wärme umgewandelt. Dies macht oft weitere 3 % bis 7 % aus.

Vollends obsolet scheint die Lichtausbeute als Maß, wenn man “smarte” Leuchtmittel benutzt. Diese halten die LED dauerhaft bereit und steuern und regeln das Licht bei Bedarf. Es kann sein, dass eine solche “smarte” Beleuchtung mehr Energie zum Warten verbraucht als zum Leuchten.

Was können irreführende Maße bewirken?

Auf dem Gebiet der Beleuchtungstechnik ist mein bestes Beispiel die Indirektbeleuchtung. Sie wurde seit den 1920ern als unwirtschaftlich angesehen. Das Thema will ich nicht hier weiter vertiefen. (Bei Interesse hier lesen.) Unbelastet von der Vergangenheit ist eine andere Beleuchtungsart, deren Wirkung (Blendfreiheit), ähnlich funktioniert wie bei der Indirektbeleuchtung. Sie wird von einer großen Firma als “mildes” Licht vermarktet. Mild wirkt sie deswegen, weil man durch eine geeignete Einrichtung die von den Nutzern sichtbare Leuchtdichte reduziert. Aber dies ist mit einem Verlust an Lichtstrom verbunden. Achtet man lediglich auf das Licht, das in der Arbeitsebene ankommt, und lässt die Leuchtdichten unbeachtet, ist sowohl das milde Licht als auch das indirekte wenig “effizient” i.S. der Lichttechnik.

Wenn heute die Rede ist von gutem Bürodesign, denken viele Menschen daran, die “Deckenbeleuchtung” abzuschaffen. Was in führenden Designzeitschriften als modernes Design abgebildet wird, sind Leuchten, die eher Wohnraumleuchten sind und nicht die “effizienten” Büroleuchten. (mehr s. Licht für New Work).

Ein anschauliches Beispiel für die Irreführung durch ein falsches Mass lieferte die Autotechnik. Die einst führenden US-Hersteller maßen die Leistung ihrer Motoren ohne die Aggregate, ohne die die Motoren nicht funktionieren können. Die Europäer maßen sie an der Welle. So fiel der führenden Autonation nicht auf, dass der Lüfter des Motors zu mehr als 90% der Betriebszeit wirkungslos war, aber bei Höchstgeschwindigkeit etwa 5% des Energieverbrauchs, bzw. einen Verlust von 3-5 PS verursachte. Das bewirkte einen hohen Lärmpegel und unnötigen Spritverbrauch. Der zum Antrieb benötigte Keilriemen war zudem ein Sicherheitsrisiko.

Fazit: Eine Maßzahl führt immer dann in die Irre, wenn sie eine mehrdimensionale Realität (Gesundheit, Bildqualität, Lichtqualität) in einer eindimensionalen Zahl zusammenfassen will. Am deutlichsten lässt sich das Problem am Beispiel der Lichtqualität darstellen. Die LiTG-Studie, die einst begonnen wurde, um eine Maßzahl oder einen Faktor zu ermitteln, trägt den Titel: Lichtqualität - ein Prozess statt einer Kennzahl.

Zur Zukunft des Phantoms

Die Lichtausbeute ist vermutlich die älteste Kennzahl in der Beleuchtungstechnik. Für sie gibt es keinen Ersatz, weil sie ein Maß für die Energieeffizienz von Leuchtmitteln liefert. Dass die Energieeffizienz einer Lampe keinen Maßstab für Lichtqualität ergibt, lernt man langsam aber sicher durch leidvolle Erfahrungen. So hat die CIE 2021 nach 108 Jahren zum ersten Mal in ihrer Historie Lichtqualität definiert. (s. z.B. hier: CIE definiert Lichtqualität - Was verstehen die Leute unter Qualität?)

Eine praktischere Bedeutung hat das Vorgehen von LightingEurope. Im Kontext der aktuellen EU-Gesetzgebung (Ecodesign- und Energielabel-Verordnungen) hat LightingEurope insbesondere folgende Punkte beantragt bzw. vorgeschlagen:

  1. Fokus auf das Gesamtsystem (Smart Lighting): Anstatt nur die Effizienz der einzelnen Lichtquelle (lm/W) zu betrachten, fordert der Verband, die Effizienz des gesamten Beleuchtungssystems zu bewerten. Dazu gehört auch die Einbeziehung von Sensorik und Steuerung in die Bewertung.
  2. Praxistaugliche Lebensdauer-Metriken: Klare Regeln für die Angabe der Nutzlebensdauer (Useful Lifetime), um unrealistisch hohe Marketingversprechen einzudämmen und die Vergleichbarkeit für professionelle Planer zu erhöhen.

Phantome, die unser Wissen beherrschen XII

Manche klammern sich
so fest an alte Scherben,
dass sie die neuen Diamanten
nicht aufheben können.

Anonymus

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Zum Phantom Lichtstrom, kurzgefasst

Der Beitrag erklärt, dass die V(λ)-Kurve (1924) die Grundlage dafür schuf, Licht über den Lichtstrom (Lumen) international mess- und handelbar zu machen, und ordnet diese Größe in das SI-System samt der Debatte „Candela vs. Lumen“ ein.

Ich argumentiere, dass die relative Bedeutung von Helligkeit im Alltag und in der Arbeitswelt abgenommen hat, weil bei heutigen Beleuchtungsstärken die visuelle Leistung kaum noch steigt und Bildschirme Licht oft sogar entbehrlich machen. Weil künstliches Licht im Vergleich zu 1924 extrem billig geworden ist, bewerte ich den Lichtstrom als „Phantom“ und fordere, Licht stärker an Farbqualität/Farbempfindung statt nur an Hellempfindung auszurichten.

Zur Geschichte des Phantoms

Der Geburtstag dieses Phantoms lässt sich präzise angeben: April 1924. Vor 102 Jahren wurde die V(λ)-Kurve als Basis der Definition von Licht akzeptiert. Sie hat Licht definiert und damit messbar gemacht. Damit wurde die Grundlage dafür geschaffen, dass mit Lichtprodukten gehandelt wird. Und zwar weltweit. In 1948 wurde das Lumen offiziell von der 9. Generalkonferenz für Maß und Gewicht – CGPM als Einheit für den Lichtstrom international ratifiziert und festgelegt.

Wenn man heute auf einer Lampenverpackung liest: "12W - 806 lm - 840" (Ra) und versteht, dass die gekaufte Lampe aus 12 W aufgenommener Leistung 806 lm Licht produziert und dies mit einem Farbwiedergabeindex von 80 - 89 bei einer Lichtfarbe von 4000K, dann ist es ein Verdienst dieser Kurve.

Was die Zahlen bedeuten

Dabei besagt die Zahl 12W, dass die Lampe eine Leistung von 12 W aufnimmt, um 806 lm Licht zu produzieren. Die letztere Zahl, 840, war 1924 noch nicht geboren. Sie gibt an, wie gut die besagten 806 lm die Farben der von ihr beleuchteten Objekte wiedergeben. Das war 1924 recht egal, man wollte erst einmal Helligkeit haben. Wenn man sich die Beleuchtungsstärken anguckt , die damals in den Arbeitsstätten herrschten, versteht man gleich, warum alles andere relativ unwichtig war.

Die Basis der Angabe heißt Lichtstrom, dessen Einheit Lumen ist. Welche Bedeutung diese Größe in der Branche besitzt, kann man daran ermessen, dass die CIE immer wieder versucht hat, Lumen zu einer Basiseinheit im SI-System zu machen. Das SI-System ist so etwas wie eine Weltbeherrschungsformel. Alle Staaten der Welt benutzen dieses System für alle Messungen von der Zeit bis zum Gewicht. Eine Ausnahme machen nur drei Staaten, Myanmar, die ehemalige britische Kolonie Burma; Liberia, ein künstlicher afrikanischer Staat, dessen Bevölkerung ehemalige Sklaven aus den USA bildet; und die USA selber.

Das SI-System kennt 7 Basisseinheiten: Zeit, Länge, Masse, Stromstärke, Temperatur, Stoffmenge und Lichtstärke. Diese erkennt man daran, dass ihre Symbole keine Formeln enthalten: s, m, kg, A, K, mol und cd. Alle weiteren Einheiten werden aus diesen sieben abgeleitet. So gibt es für das allseits bekannte Gewicht eine Ableitung wie diese: kg•m/s2 . Eine Kugel mit der Masse von 1 kg wiegt 9,81 kg•m/s2 bzw. 9,81 N wie Newton.

Die Lichtstärke Candela war immer das "Sorgenkind" unter den Basiseinheiten. Sie ist die einzige Einheit, die direkt auf der menschlichen Wahrnehmung (der Hellempfindlichkeitskurve des Auges) basiert, statt auf einer rein objektiven physikalischen Größe. Leider ist das mit dem Basieren auch nicht ganz korrekt. Denn Candela entspricht keine einzige Wahrnehmung.

Eine Basiseinheit sollte so einfach wie möglich definiert sein. Das Lumen enthält jedoch den Steradiant (sr), also eine Raumwinkel-Komponente. Die Metrologen des CIPM argumentierten, dass eine Basiseinheit nicht von einer anderen abgeleiteten Größe (dem Raumwinkel) abhängen sollte, wenn es sich vermeiden lässt. Den meisten Experten wird indes weder Steradiant noch der Raumwinkel ein Begriff sein. Beide sind nur Lichttechnikern gut bekannt.

Am Ende wurde Candela als eine SI-Basiseinheit gewählt, weil es präziser zu messen war. Als das SI-System 2019 revidiert wurde, beantragte die CIE, dass Lumen, also die Einheit des Lichtstroms, zu einer Basiseinheit werden möge. Man blieb bei Candela, weil die Messgenauigkeit dieser Größe trotz aller technischen Fortschritte immer noch größer war. Der Lichtstrom ist aber nicht deswegen zum Phantom geworden.

Schwindende Bedeutung der Helligkeit

Hellempfindung beschreibt nur eine der Wirkungen von Licht. Diese besitzt eine umso größere relative Bedeutung gegenüber anderen Wirkungen, je weniger Licht zur Verfügung steht, wie man nachts auf der Autobahn verstehen lernt. Auch die innerstädtische Beleuchtung in der Nacht ist, so opulent sie auch scheinen mag, eine Art Notbeleuchtung. Erst ab Beleuchtungsstärken um 100 lx oder Leuchtdichten um > 10 cd/m2 kann man von einer (relativ ) hellen Umgebung sprechen.

Die hier dargestellte Kurve zeigt den prinzipiellen Verlauf der Sehleistung in Abhängigkeit von einer Einflussgröße (Kontrast, Beleuchtungstärke etc. Bis zu einem bestimmten Wert steht einer Größe keine messbare Sehleistung gegenüber. Danach nimmt sie steil zu, um später nur noch wenig anzusteigen. Ab einem bestimmten Zustand sieht man schlechter. So kann man eine Zeitung bei 5 lx gerade noch entziffern, bei 20 lx einigermaßen lesen. Je nach Alter und Druckqualität der Zeitung fängt die Abflachung der grünen Kurve etwa bei 1000 Lux an. Ähnlich geht es mit der Größe der Schrift. Wenn sie unter 0,5 mm groß ist, können die meisten Menschen sie nicht lesen. Zwischen 1 mm und 3 mm steigt die Lesbarkeit steil an. Noch größere Zeichen sind zwar auffälliger, aber nicht besser lesbar, jedenfalls nicht in einer Zeitung oder in einem Buch.

Bei einer grundsätzlich wichtigen Leistung des Auges, der Sehschärfe, sieht man, dass sie bereits bei relativ geringen Leuchtdichten (10 cd/m² oder 100 cd/m²)  ihren Höchstwert etwa erreicht. Bei anderen Funktionen können höhere oder geringere Werte einer Einflussgröße zu einem Maximum an Leistung führen.

Wenn man sich die realen Beleuchtungen in deutschen Betrieben anguckt, stellt man fest, dass die Beleuchtungsstärken zwischen 200 lx und etwa 2000 lx liegen können. Heute geplante Beleuchtungen liegen meist über 500 lx. Das entspricht etwa einer Leuchtdichte von 125 cd/m² auf dem Büropapier. Somit liegen wir bei dem obigen Diagramm in dem Bereich, wo die Sehleistung kaum mehr mit der Beleuchtungsstärke ansteigt.

Allein zum Lesen reichen gemäß Bodmann Beleuchtungsstärken bis ca. 50 lx.[1] Er hatte bereits 1962 ein Niveau von 400 lx empfohlen, um eine angenehm helle Arbeitsumgebung zu realisieren. Über 60 Jahre später brauchen die wenigsten Arbeitnehmer das Licht zum Lesen. Ihre Sehaufgabe steht auf dem Bildschirm, auf dem die Beleuchtung bestenfalls stört. Die Empfehlung von Bodmann bezüglich der hellen Umgebung steht aber noch. Man kann sich nur darüber streiten, ob 400 lx reichen oder gerade das Minimum sind.

All das ließ die Bedeutung des Lichtstroms schwinden. Dafür stieg die relative Bedeutung einer weiteren Funktion des Lichts, die der Farbempfindung. Zum einen braucht man die Beleuchtung stärker als zu Zeiten Bodmanns, um die Arbeitsumgebung angenehmer zu gestalten. Zum anderen kann man jetzt Wert auf Qualität legen, weil unsere Wohn- und Arbeitsstätten keine notdürftig beleuchteten Umgebungen mehr sind, wo man froh wäre, überhaupt etwas Licht haben zu dürfen.

Nicht zuletzt an den Pflichtangaben für Lampenverpackungen wie "12W - 806 lm - 840" (entspricht Ra 80 - 89) erkennt man die (neue) Bedeutung der Farbqualität. Die hier erwähnte Lampe, kein besonderes Produkt, erzeugt 806 lm; ihre modernere Form würde nur noch 7 W verbrauchen. Dies entspricht 58 Edison-Lampen der ersten Serie, die Wert gefunden wurden, um auf Weltausstellungen präsentiert zu werden.

Die beispielhafte Lampe ist der Nachfahre der Allgebrauchsglühlampe für 60 W. Was deren Licht 1924 ökonomisch bedeutet hat und ein Jahrhundert später bedeutet, kann man an einer Beispielrechnung erkennen. Um dies zu berechnen, müssen wir drei Faktoren berücksichtigen: den Strompreis, die Effizienz der Leuchtmittel und die Kaufkraft (Inflation).

  • Strompreis: In Deutschland kostete eine Kilowattstunde (kWh) etwa 40 bis 50 Pfennig.
  • Einkommen: Ein durchschnittlicher Arbeiter verdiente damals etwa 150 bis 200 Mark im Monat. Eine 60-W-Lampe kostete damals etwa 1,50 bis 2,00 Reichsmark.
  • Lichtausbeute: Eine 60-Watt-Wolfram-Glühlampe erzeugte damals ca. 600 bis 700 Lumen.

Um eine 60-W-Lampe eine Stunde zu betreiben, verbrauchte man 0,06 kWh. Das kostete etwa 3 Pfennig. Was wenig klingt, war viel: Ein Arbeiter musste dafür etwa 10 bis 15 Minuten arbeiten. Eine Stunde Licht (800 Lumen) kostet heute etwa 0,28 Cent (0,007 kWh • 40 Cent). Bei einem Durchschnittslohn entspricht das einer Arbeitszeit von weniger als einem Bruchteil einer Sekunde. Der "reale" Preis für Licht ist mindestens um den Faktor 80 bis 100 gesunken. Das ist repräsentativ für die Abnahme der Wertigkeit der künstlichen Helligkeit.

Um das Licht, das eine moderne Wohnung heute an einem Abend verbraucht, im Jahr 1924 zu erzeugen, hätte eine Familie einen signifikanten Teil ihres Tageslohns ausgeben müssen. Licht war damals etwas, das man beim Verlassen des Raums sofort ausschaltete – nicht aus Umweltbewusstsein, sondern aus purer finanzieller Notwendigkeit. (Eine genauere Berechnung findet sich hier.)

Auch wenn die Fachleute der Branche das Lumen als Maß aller Dinge sehen wollen, bezeichne ich den Lichtstrom als Phantom. Die Lichttechnik muss ihre Maße nicht nur an der Hellempfindung festmachen, sondern eher an der Farbempfindung. Bis heute gehört Farbensehen nicht zur Sehleistung.

[1] Bodmann. H.W.: Beleuchtungsniveaus und Sehtätigkeit, Int. Licht Rundschau, 1962, S. 41

Bodmann, H.W.: Kriterien für optimale Beleuchtungsniveaus, Lichttechnik, 15. Jahrg. Nr. 1/ 1963, S. 24-26

Phantome, die unser Wissen beherrschen XI

Wer das Licht der Lampe will,
muss auch das Öl nachfüllen?

Anonymus

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Zum Phantom Wartungsfaktor

IDer Beitrag beschreibt den „Wartungsfaktor“ in der Lichtplanung als ein langlebiges, aber inhaltlich veraltetes Konzept – ein „Phantom“, weil moderne Beleuchtungstechnik (insbesondere LED) und reale Betriebsbedingungen nicht mehr gut zu den zugrunde liegenden Annahmen passen. Historisch ist die Pflege von Licht zwar stetig einfacher geworden, sie verschwand jedoch nie, sondern wurde durch Normen und Berechnungsmethoden zunehmend komplex.

Technisch ist der Wartungsfaktor (MF) eine dimensionslose Kennzahl, die den Beleuchtungszustand zum Wartungszeitpunkt im Verhältnis zum Neuzustand abbildet und aus LLMF, LSF, LMF und RSMF berechnet wird. Er wurde maßgeblich durch den CIE-Bericht 97 (1992) definiert und ersetzte in Deutschland ältere, pauschale Zuschläge und schwer fassbare Begriffe wie die „Nennbeleuchtungsstärke“.

Rechtlich ist die Instandhaltung von Beleuchtung in Deutschland über ArbStättV und ASR A3.4 verankert; bei Bezug auf DIN EN 12464-1 muss der Planer Wartungsfaktoren angeben und einen Wartungsplan vorbereiten. In der Praxis fehlt Anwendern oft das Bewusstsein (und teils die organisatorische Möglichkeit) für Wartung, wodurch Planer unrealistisch hohe Faktoren ansetzen können, etwa durch „sehr saubere Umgebung“ trotz gegenteiliger Realität.
Gleichzeitig stützen sich die in CIE 97 hinterlegten Erfahrungswerte auf Technik und Räume der 1970er/80er Jahre; die LED-Ära bringt andere Alterungs- und Ausfallbilder sowie stark temperaturabhängige Lebensdauern. Marketingzahlen wie „50.000 Stunden“ wirken als Motivationskiller für Wartung, obwohl es u. a. bei Sicherheitszeichen und thermisch belasteten Installationen weiterhin kritische Instandhaltungsanforderungen gibt.

Als technische Gegenmaßnahme wird u. a. CLO (Constant Light Output) genannt, das den Lichtstromrückgang elektronisch kompensiert und so Planung, Betrieb und Energieeffizienz beeinflusst. Insgesamt bleibt der Wartungsfaktor als Engineering-Idee wichtig, muss aber inhaltlich modernisiert und mit realistischen, überprüfbaren Annahmen und Wartungsplänen hinterlegt werden.

Zur Geschichte des Phantoms

Dieses Phantom war wohl zu Zeiten Goethes bekannt, von dem der Spruch überliefert ist: „Ich wüsste nicht, was sie besseres erfinden könnten, als wenn die Lichter ohne putzen brennten.“ Wer Licht machen wollte, musste sich schon immer um dessen Pflege bemühen. Unterschiedlich waren nur der Umfang und die Berechenbarkeit des Aufwands, den man treiben musste. (s. dazu Kapitel Epochen der Kunst der Lichtmacher)

Im Laufe der Jahrhunderte wurde der Pflegebedarf für Licht stetig geringer, was einen großen Teil des Fortschritts der Technologie ausmacht. So musste man bei der Kerze recht häufig nachsehen, ob sie noch brennt. Edisons erste Lampe brannte 40 Stunden lang ohne Aufsicht. Nur wenige Jahrzehnte danach musste die Industrie einen Glühlampenweltvertrag beschließen, um die Lebensdauer der Lampe auf 1000 h zu kürzen. Und heute redet man von 50.000 Stunden, die eine LED Licht spenden soll. Abgeschafft wurde die Pflege der Beleuchtung aber immer noch nicht. Sie wurde nur unendlich komplizierter. Seit langem hat sie einen Namen: Wartungsfaktor. Es fehlt nur an der Modernisierung des Inhaltes. Daher die Qualifizierung als Phantom.

Der Wartungsfaktor als technischer Begriff

Wie jedes Ingenieurprodukt ist auch die Technik der künstlichen Beleuchtung fest mit dem Prinzip von Inspektion und Wartung verbunden. Inspektion heißt, man prüft den bestimmungsgemäßen Zustand. Wartung bedeutet, dass man eine Technik ertüchtigt und wieder in den bestimmungsgemäßen Zustand bringt.

Der Begriff bestimmungsgemäßer Zustand ist juristisch relevant. Er bedeutet, dass sich ein technisches Produkt in dem Zustand befindet, den sein Hersteller für den üblichen Betrieb vorgesehen hat. Der bestimmungsgemäße Zustand (oft synonym zu „bestimmungsgemäßer Betrieb“ oder „bestimmungsgemäße Verwendung“ verwendet) beschreibt den Zustand einer technischen Anlage, Maschine oder eines Produkts, in dem es sicher, effizient und entsprechend seiner Auslegung und Dokumentation betrieben wird. Wenn beim Arbeitsstättenrecht von Beleuchtung die Rede ist, ist dieser Zustand gemeint.

Bei der Kerze hatten die Aufgabe, den bestimmungsgemäßen Zustand zu erreichen, die Lichtschneuzer übernommen, die spezialisierte Diener der Reichen waren. Opern und Theater beschäftigten Komödien-Lichtputzer für diese Aufgabe. Die Pflege in der Zeit, als man Licht durch Verbrennen erzeugte, galt nicht nur der Beleuchtung, denn die Stoffe, die bei der Verbrennung entstanden, so z.B. Ammoniak und Schwefel, zerstörten die Dekorationen, Gemälde und sonstige Ausstattungen. Das Licht war sogar Konkurrent des Menschen um den Sauerstoff. So hatten die Lichtschneuzer und -putzer eine Schutzaufgabe für alles.

Bei der Beleuchtung hingegen war die Sache nicht so klar. So ist mir kein Berufsstand bekannt, der den Betrieben das regelmäßige Fensterputzen erledigt, um die Fenster in den bestimmungsgemäßen Zustand zu versetzen. Das Problem muss uralt sein, denn der staatlich geförderte Film Licht des Amtes für schöne Arbeit von 1935 beginnt die gute Beleuchtung mit kollektivem Fensterputzen. Hingegen schrieb mir ein Architekturkritiker im März 2026 über ein viel gelobtes öffentliches Gebäude, er hätte unter schlechten Bedingungen gearbeitet, weil der Architekt vergessen hatte, dass die Fenster auch mal geputzt werden müssen. Eigentlich ein Verstoß gegen die Arbeitsstättenverordnung.

Bei der künstlichen Beleuchtung sollte so etwas nicht vorkommen können. Die lichttechnische Industrie hatte und hat – ganz uneigennützig – ein großes Interesse daran, dass installierte 100 lx immer 100 lx blieben. Wie man das auch anstellen mag. Die Definition eines Wartungsfaktors bildete den vorletzten Schritt dazu.

Der Wartungsfaktor (Maintenance Factor, MF) ist eine dimensionslose Kennzahl in der Lichtplanung. Er definiert das Verhältnis der Beleuchtungsstärke einer Anlage zu einem spezifischen Zeitpunkt (Wartungszeitpunkt) im Vergleich zu ihrem Neuzustand. Der Begriff wurde erst spät 1992 definiert, obwohl es immer bekannt war, dass eine Lichtplanung auf der Basis des Neuzustandes nie sinnvoll gewesen sein konnte. Der eigentliche Durchbruch für die heutige Definition kam im Jahr 1992. Die Internationale Beleuchtungskommission (CIE) veröffentlichte den technischen Bericht CIE 97 "Maintenance of indoor electric lighting systems".

Der Wartungsfaktor wird aus vier spezifischen Verlustfaktoren berechnet, die die Lampen, deren Lebensdauer, die Leuchten und die Verschmutzung der Raumwände betreffen.

WF = LLMF x LSF x LMF x RSMF

LLMF (Lampenlichtstrom-Wartungsfaktor): Berücksichtigt die Abnahme des Lichtstroms der Lichtquelle über die Betriebsdauer (Degradation)

LSF (Lampenlebensdauerfaktor): Berücksichtigt die statistische Ausfallwahrscheinlichkeit der Leuchtmittel bis zum Wartungszeitpunkt.

LMF (Leuchtenwartungsfaktor): Berücksichtigt die Verschmutzung der Leuchte in Abhängigkeit von ihrer Bauart und der Umgebungssauberkeit.

RSMF (Raumwartungsfaktor): Berücksichtigt die Abnahme der Reflexionsgrade von Wänden und Decken durch Verschmutzung.

Auch in dieser Formel kann man die Natur einer Vorgabe erkennen, die sicherstellen will, dass eine Beleuchtung immer dem gewünschten Zustand entspricht. Was der gewünschte Zustand für Arbeitsstätten ist, wurde seit 1913 in diversen Regelwerken (Normen, Gesetzen, Verordnungen etc.) festgelegt (s. Beitrag Beleuchtung von Arbeitsstätten muss i.S. des Arbeitsschutzes reguliert werden.). Festgelegt wurde fast immer die in einer horizontalen Messebene in Arbeitshöhe (einst 85 cm, später etwas tiefer) vorhandene Beleuchtungsstärke. Diese stellt den Vertragsgegenstand zwischen dem Auftraggeber und dem Lichtplaner dar.

Als der Begriff noch nicht existierte …

Schon in den Anfängen der elektrischen Beleuchtung war bewusst, dass Anlagen mit der Zeit dunkler werden, lange bevor die Lampen ausfallen. In den alten deutschen Normen (wie der DIN 5035) wurde jedoch meist nicht mit einem detaillierten "Wartungsfaktor" gerechnet, sondern mit einem pauschalen Planungswert (oft 1,25).

  • Man schlug einfach 25 % auf die benötigte Beleuchtungsstärke auf, um Verluste auszugleichen.
  • Das entsprach rechnerisch einem Wartungsfaktor von 0,8 (1 / 1,25 = 0,8).

Das war gemessen an der Genauigkeit, mit der ein Planer die angestrebte Beleuchtungsstärke erzielte, sogar zu genau. Damals ging das Gerücht herum, dass die Wettervorhersage im Monat April genauer war als die Lichtplanung bei der Bestimmung der Beleuchtungsstärke. Tatsächlich haben wir bei gerichtsfesten Messungen festgestellt, dass bei einer Vorgabe von 500 lx als Nennwert (= 625 lx Neuwert), Werte zwischen 300 lx und 2000 lx installiert wurden. In einem Fall, bei dem bei einer falschen Beleuchtungsstärke ein Gang vor Gericht drohte und deswegen eine präzise Vorgabe der späteren Messung bei der Auftragsvorgabe erfolgte, variierte in 38 Anlagen (= 38 Bürohäuser für jeweils etwa 300 Mitarbeitende) mit dem gleichen Leuchtentyp des gleichen Herstellers die Beleuchtungsstärke zwischen 350 lx und 900 lx.

Interessant ist, wogegen der Verlust berechnet wurde. Der Zustand, gegen den ein Verlust berechnet wurde, nannte sich die Nennbeleuchtungsstärke. Die Größe Nennbeleuchtungsstärke war „der zeitliche und örtliche Mittelwert“ der Beleuchtungsstärken. Was soll man sich darunter vorstellen? Einen örtlichen Mittelwert kann sich jeder halbwegs gebildete Laie verstehen: Man misst die Beleuchtungsstärke an verschiedenen Orten und berechnet davon den Mittelwert. Aber der zeitliche Mittelwert? Die Erklärung der Nennbeleuchtungsstärke, die das Maß für den Verlust darstellt, umfasste in DIN 5035:1990 ca. eine DIN-A4-Seite und war selbst für erfahrene Verwaltungsrichter eine Herausforderung bei entsprechenden Klagen. Denn kaum eine technische Größe wurde je krummer definiert:

Die Nennbeleuchtungsstärke En ist für Arbeitsstätten in Innenräumen der Nennwert der mittleren Beleuchtungsstärke im Raum oder in der einer bestimmten Tätigkeit dienenden Raumzone, für den die Beleuchtungsanlage auszulegen ist.“ Soweit ist die Sache noch in Ordnung. Aber die Norm erklärt weiter: „Die Nennbeleuchtungsstärke En für Arbeitsstätten in Innenräumen bezieht sich:

  • auf den mittleren Alterungszustand der Beleuchtungsanlage:
  • auf den eingerichteten Innenraum die eingerichtete Raumzone;
  • im allgemeinen auf die horizontale Arbeitsfläche in 0,85 m Höhe über dem Fußboden; bei anderer Lage der Arbeitsfläche bezieht sich die Nennbeleuchtungsstärke En auf diese Lage (z.B. Schaltschrankmontage, Zeichenbrett, Schreibtisch);
  • bei Verkehrswegen in Innenräumen auf deren Mittellinie in max. 0,2 m Höhe über dem Fußboden.“ (fettkursiv schlecht oder gar nicht bestimmbare Faktoren)

Wie soll man verstehen, was es bedeutet, dass sich eine Planungsgröße, die man beim Bau einer Arbeitsstätte zugrunde legen muss, auf die Lage eines Schreibtisches bezieht?  Woher weiß der Planer, wann der mittlere Alterungszustand einer Beleuchtungsanlage sein wird? Kann man bereits bei der Planung eine Größe berücksichtigen, die sich auf einen eingerichteten Raum bezieht, bevor dieser Raum überhaupt entstanden ist?

Nachdem die Nennbeleuchtungsstärke etwa 30 Jahre lang kaum jemandem ein Begriff geworden war, wurde sie zusammen mit der Normenreihe DIN 5035 abgeschafft. An ihre Stelle trat die Wartungsbeleuchtungsstärke bzw. der Wartungswert der Beleuchtungsstärke. Diesen Wert kann jeder jederzeit an jedem Arbeitsplatz messen. Wie hoch er sein soll, kann man in DIN EN 12464-1 ab Jahrgang 2001 lesen.

Durch diesen Vorgang bekam der Wartungsfaktor eine neue Bedeutung. Hat man einst einen pauschalen Zuschlag zur Nennbeleuchtungsstärke eingeplant (z.B. 1,25 für die meisten Fälle), kann man seit 2001 vereinbaren, wann eine Wartung erfolgen soll (z.B. nach 1 Jahr oder nach 3 Jahren), wonach sich der Wartungswert errechnet.

Rechtliche Lage

In Deutschland ist die Wartung von Beleuchtungsanlagen kein "nice-to-have", sondern durch Gesetze und Normen geregelt. Dabei wird grundsätzlich zwischen der Beleuchtung und der Sicherheitsbeleuchtung (Notbeleuchtung) unterschieden. Die primäre Rechtsgrundlage ist die Arbeitsstättenverordnung (ArbStättV) in Verbindung mit der ASR A3.4 ("Beleuchtung"). Der Arbeitgeber muss sicherstellen, dass die Beleuchtung jederzeit den Anforderungen der ASR A3.4 entspricht.

Zwar muss kein Betrieb diese ASR erfüllen. Das gilt aber nur, wenn er gleichwertige oder bessere Vorgaben hat. Hinsichtlich der Beleuchtung dürfte es jedem schwerfallen, eine gleichwertige Alternative zu den geforderten Eigenschaften zu realisieren. Die Instandhaltung wird in 9.2. Instandhaltung der ASR A3.4 geregelt. In diesem Paragraphen sind auch die Fenster nicht vergessen: “Um die Versorgung mit Tageslicht nicht zu beeinträchtigen, sind Fenster und Dachoberlichter regelmäßig zu reinigen. Anforderungen an den Arbeitsschutz bei der Reinigung von Fensterflächen siehe ASR A1.6 „Fenster, Oberlichter, lichtdurchlässige Wände“.

Die ASR fordert auch: “Es ist dafür zu sorgen, dass sichere Instandhaltung möglich ist, insbesondere ist für einen sicheren Zugang zu sorgen.”

Wenn sich jemand auf die Norm DIN EN 12464-1 beruft, muss dieser auch den Wartungsfaktor berücksichtigen. Die Aufgaben des Planers sind wie folgt beschrieben:
Der Konstrukteur [der Lichtplaner, Anm. d.A.] muss:

— fm angeben [fm ist der Gesamtwartungsfaktor, oben WF genannt] und alle Annahmen auflisten, die bei der Ermittlung des Werts gemacht wurden,

— die für die Anwendungsumgebung geeignete Beleuchtungsanlage angeben und

— einen Wartungsplan vorbereiten, z. B. für die Häufigkeit des Ersetzens der Lichtquelle, für Reinigungsintervalle von Leuchte und Raum.

fm hat einen großen Einfluss auf die Energieeffizienz. Die bei der Ermittlung von fm gemachten Annahmen müssen sowohl realistisch erreichbar als auch auf eine Weise optimiert werden, die zu einem hohen Wert führt.“

Wo es arg kneift

Fehlendes Bewusstsein bei den Anwendern

Anwender zeigen im Allgemeinen wenig Neigung, Beleuchtung zu warten. Bei betrieblichen Studien habe ich die Frage, ob man einen Wartungsplan hätte, gestellt, um die nicht so ehrlichen Kandidaten herauszufischen. Denn man kann i.d.R. davon ausgehen, dass es den Betrieben nicht einmal bewusst ist, dass sie so etwas brauchen. Man weiß gleich, warum, wenn man sich die Beschreibung der Nennbeleuchtungsstärke anguckt.

Wenn man sich die möglichen praktischen Bedingungen näher ansah, konnte man auch verstehen, warum man an eine Wartung erst gar nicht dachte. Manche Leuchten brauchen zwei Elektriker, um die Lampen zu entfernen. Und die einst vorherrschenden Hochglanzspiegel durfte man nur mit Schutzhandschuhen anfassen. Auf den Tischen standen zuweilen hochauflösende Bildschirme mit einem Gewicht bis 20 kg oder Drucker bis 40 kg. All das wegräumen, um Leuchten zu putzen?

Ein Fachmann, der in den 1970er Jahren die Wartung von Beleuchtung als Dienstleistung anbieten wollte, verdiente keinen Cent damit. In mehreren Jahrzehnten der Betriebsberatung ist uns kein Wartungsplan über den Weg gelaufen.

Das liebe Geld

Da es den Anwendern an Bewusstsein für die Wartung der Beleuchtung fehlt, kann ein Planer einen hohen Wartungsfaktor zugrundelegen, z.B. 0,8, und dem Kunden gegenüber verschleiern, dass er einen festen Reinigungszyklus von einem Jahr voraussetzt. Es ist überhaupt fraglich, ob ein Betrieb weiß, dass eine Reinigung der Wände zu der Wartung der Beleuchtung gehört. Man deklariert eine Industriehalle oder ein Standardbüro einfach als „sehr saubere Umgebung“. Dann setzt man den Raumwartungsfaktor (RSMF) und Leuchtenwartungsfaktor (LMF) so hoch an, als würde dort täglich Staub gewischt. So springt der Wartungsfaktor von realistischen 0,67 auf 0,85. Dabei bedeutet ein WF von 0,67, dass man 50 % mehr installieren muss, während man bei 0,85 nur 17% mehr installiert. Man spart also 20% der Installation durch optimistische Annahmen, die nicht einmal zutreffen. Kein Kläger, kein Richter.

Verwirrende neue “Begriffe”

Obwohl es vielen Leuten vom Fach sehr schwergefallen war, sich von der Nennbeleuchtungsstärke auf die Wartungsbeleuchtungsstärke umzustellen, hat die Normung in der letzten Ausgabe der EN 12464-1 redlich Mühe gegeben, die Sache noch komplizierter zu machen. So wurden noch der “minimale Warnungswert der Beleuchtungsstärke” und der “höhere Wartungswert der Beleuchtungsstärke” vorgeschrieben. Zu denen kam noch  eine Forderung nach dem Wartungswert der mittleren zylindrischen Beleuchtungsstärke, wobei man diese Größe nach einem Kontextmodifikator eine Stufe höher oder tiefer wählen kann.

Was dieser Kontextmodifikator sein soll, habe ich lange gesucht. In der Norm ist die Rede von „kontextabhängigen Modifikatoren“, womit gemeint ist, dass z.B. eine Aufgabe Fehlermöglichkeiten beinhaltet, deren Folgen schwerwiegend sein können. Dann soll die Beleuchtungsstärke eine Stufe höher gewählt werden. Warum man der folgenden Anforderung folgen soll, leuchtet mir immer noch nicht ein: „Der Wartungswert der Beleuchtungsstärke darf um mindestens eine Stufe in der Beleuchtungsstärke-Skala (siehe 4.3.2), angepasst werden wenn die Sehbedingungen von den üblichen Annahmen abweichen.“

Insgesamt waren in dem Entwurf dieser Norm so viele Sonderbarkeiten, dass die Übersetzung ins Deutsche zwei Jahre gedauert hat, obwohl die größte Gruppe unter den Autoren aus Deutschland kam.

Obsolete Grundlagen

Die Festlegung der Wartungsfaktoren in CIE 97 im Jahre 1992 erfolgte auf der Basis von Erfahrungen mit Leuchten, Lampen und Räumen aus den 1970er und 1980er Jahren. Zwei Jahrzehnte danach musste nachgebessert werden, weil sich die Lampen wie die Leuchten geändert hatten (CIE 97:2005). Man legte den Fokus auf den individuellen Wartungszyklus. Wie ich oben erklärt habe, fehlt den Auftraggebern die Motivation dazu, aus dieser Entwicklung einen Vorteil im Sinne der besseren Beleuchtung zu machen.

Die wichtigste Änderung betrifft aber die Lampentechnik. In ganz Europa wird nur noch LED-Beleuchtung installiert. Dabei hat sich eine Marketingszahl als Motivationskiller herausgeschält: die Zahl 50.000. Diese soll angeblich die Lebensdauer der LED kennzeichnen. Für Betriebe bedeutet sie eine ungeheure Zahl, durch die jegliche Fürsorge für die Beleuchtung entfällt. In welchem Büro mag wohl die künstliche Beleuchtung die 50.000 Betriebsstunden hinter sich bringen?

In der Lichtplanung und energetischen Bilanzierung (nach DIN V 18599) gibt es für ein Standardbüro in Deutschland klare Richtwerte für die jährliche Betriebsdauer. In fensternahen Bereichen brennt das Kunstlicht oft nur 50 % der Zeit (ca. 1.200 – 1.500 Stunden). Theoretisch nimmt die Norm bei Tagnutzung 2.250 Stunden an. So kann ein Optimist (1200 h Brenndauer jährlich) von 41,66 Jahren ausgehen, für den Pessimisten ergeben sich 22,22 Jahre.

In Deutschland werden gewerbliche Gebäude, die nach dem 31.3.1985 fertiggestellt wurden, linear mit 3 % pro Jahr abgeschrieben, was einer rechnerischen Lebens-Dauer von 33 Jahren entspricht. Die wirtschaftliche Lebensdauer beträgt ca. 30 – 50 Jahre. So kann man optimistischerweise damit rechnen, im Laufe der Lebensdauer eines Bürohauses mit einem Lampenwechsel davonzukommen. Vielleicht kann man den aufschieben?

Doch dem ist nicht so. Denn erstens gibt es elektrisch beleuchtete Sicherheitszeichen (z.B. Fluchtwegbeschilderung), die während der gesamten Betriebsstunden ständig leuchten müssen, häufig rund um die Uhr. Der Glaube an die 50.000 Stunden lässt sogar die wöchentlichen Inspektionen vergessen, die erforderlich sind. Zweitens ist die Lebensdauerbetrachtung einer LED wesentlich komplizierter (s. Kapitel Angaben für die Lebensdauer von Leuchtmitteln. Wie kompliziert es mit der LED ausschaut, erkennt man an der Formel L70B10C10F10. L70 bedeutet, dass die LED bei 70% des Anfangslichtstroms am Ende ist. B10 bedeutet, dass dabei höchstens 10% der Elemente diesen Wert unterschreiten dürfen. C10 bedeutet, die zu einem gegebenen Zeitpunkt zu erwartende Ausfallrate in Prozent. Ein Wert von C10 bedeutet, dass in einem Modul 10% aller Elemente total ausgefallen sind. F10 bedeutet, dass höchstens 10% der LED den L-Wert unterschreiten dürfen (inklusive Totalausfall).

Die Angaben für die Lebensdauer von LEDs gelten nur für optimale Temperaturbedingungen. Bereits kleine Abweichungen können zu drastischen Verlusten an Lebensdauer führen. Diese können durch ungeeignete Leuchten bedingt sein, aber auch durch zu hohe Temperaturen in Industriehallen. Für den letzten Fall müsste ein zusätzlicher Korrekturfaktor für die Temperatur berücksichtigt werden.

In der Realität ist der Vorgang der Degradation eines LED-Moduls noch schwieriger zu beschreiben, weil die Module nicht nur an Leuchtdichte verlieren, sondern auch in Farbe. Oder ein Element ist noch in Betrieb, flimmert aber nur noch.

Fazit

Der Wartungsfaktor ist ein Erbe alter Zeiten, das die Bezeichnung Phantom redlich verdient. Er hat noch lange nicht ausgedient, weil das Konzept Teil eines jeden Engineering-Konzepts ist. Der Wartungsfaktor beruht aber auf recht alten Daten und noch älteren Vorstellungen mit Lampen, die es nicht mehr gibt. Die modernen Lampen weisen andere Alterungserscheinungen auf. Dabei geht die Alterung der Lampe gleich zweimal in die Berechnung des Wartungsfaktors ein, als Lampenlichtstrom-Wartungsfaktor und als Lampenlebensdauerfaktor. Der letztere Faktor beruht zum einen auf einer drastisch höheren fiktiven Lebensdauer[1] gegenüber älteren Lampen (50.000 h gegenüber 1.000 h bei Allgebrauchsglühlampen und 10.000 h bei Leuchtstofflampen).

Anstatt die Leuchten von Anfang an mit 100 % Leistung zu betreiben (und damit am Anfang "zu viel" Licht zu haben), kann man heute technische Gegenmaßnahmen wie CLO-Treiber ( constant light output) nutzen. Die Elektronik gleicht den LLMF automatisch aus. Die Leuchte startet bei etwa 80 % Leistung und steigt über die Lebensjahre hinweg schrittweise auf 100 % Leistung. Beispiele für diese Funktionalität gibt es z.B. hier und da und dort. Ein CLO-Treiber spart über lange Jahre Strom und verlängert die Betriebsdauer einer LED.

Ob und wann man sich allgemein eine solche Technik aneignet, ist trotz der Vorteile leider nicht gesagt. Ein Grund könnte die höhere Investition zu Beginn sein. Man muss mehr in die Technik investieren, um später daraus Vorteile zu erzielen. In einem professionell genutzten Gebäude fallen die Investitionen beim Investor an, die Vorteile beim Mieter. Diese sind i.A. zwei unterschiedliche Firmen. Selbst wenn sie Töchter derselben Firma sind, erscheinen die Kosten und die Ersparungen in zwei getrennten Bilanzen auf. Dieser Umstand hat die Durchsetzung des elektronischen Vorschaltgerätes mehrere Jahre verzögert.

Im Privatbereich spielen solche Überlegungen kaum eine Rolle. Die Energieersparnis (durch das gedimmte Start-Niveau) ist bei einer einzelnen Lampe so gering, dass sich der Aufpreis für den teuren Treiber im privaten Umfeld oft erst nach Jahrzehnten rechnen würde. Zudem muss man daran denken, dass viele Privatleute gebrannte Kinder sind, was die Lebensdauer von Lampen angeht. Bereits bei der Glühlampe konnte man den Verdacht nicht loswerden, dass da etwas nicht stimmte. Bei der Leuchtstofflampe, die sich im Wohnbereich nie richtig durchsetzen konnte, war es umgekehrt. Fiel eine Glühlampe gefühlt zu früh aus, waren Leuchtstofflampen im Haushalt (z.B. bei Aquarien) noch bei der doppelten oder dreifachen Lebensdauer im Einsatz, auch wenn sie nur noch die Hälfte des Lichts abgaben, die sie am Anfang produziert hatten.

LEDs sind da ein Fall sondergleichen. Viele erleben, dass die angeblich ewig lebende Lampe nach wenigen Tagen den Geist aufgibt,  wofür der Hersteller des Leuchtmittels häufig nichts kann. Das Problem liegt beim Kühler oder bei den sonstigen Faktoren für die Kühltechnik. Auch dieser Umstand ist privat schwer zu vermitteln, weil LEDs nachgesagt wird, dass sie sehr wenig Strom brauchen und noch weniger Wärmestrahlung in ihrem Licht haben. Beides stimmt sogar. Aber auch das vorzeitige Ableben vieler LEDs aus thermischen Gründen.

Es gibt also sowohl berechenbare als auch schwer verständliche Faktoren, die dem Phantom Wartungsfaktor zu einem langen Leben verhelfen werden.

[1] Hier spreche ich absichtlich von einer fiktiven Lebensdauer, weil die angegebenen Zahlen eher vom Marketing stammen als von der Realität. Auch wenn die Zahlenwerte Jahre bedeuten, kommen sie sehr unterschiedlich zustande. S. hierzu Angaben für die Lebensdauer von Leuchtmitteln

.

Fundamente der Circadianen Medizin

Alles hat seine Zeit,
und jedes Vorhaben
unter dem Himmel hat seine Stunde.

Kohelet

Kurzfassung

Der Beitrag stellt die Grundlagen der circadianen Medizin (Chronomedizin) vor: Statt nur was behandelt wird, rückt wann Diagnostik, Therapie und Lebensstilmaßnahmen stattfinden, in den Mittelpunkt. Im Fokus dieses Beitrags steht das DFG-Programm TRR 418 „Fundamente der Circadianen Medizin“ (u.a. Charité, FU/HU Berlin), das personalisierte, an der inneren Uhr ausgerichtete Medizin erforschen und klinisch nutzbar machen will.

• Früher von mir beschriebene Lichttherapien (PDT/Photobiomodulation) wirken direkt; die circadiane Wirkung von Licht zielt dagegen auf indirekte Steuerung über den Tagesrhythmus.
• Circadiane Medizin nutzt Chronobiologie für präzisere Diagnostik und wirksamere, nebenwirkungsärmere Therapien durch zeitlich passgenaue Maßnahmen (z.B. Chronopharmakologie).
• Sie berücksichtigt Unterschiede zwischen sozialer Uhrzeit und biologischer Uhr sowie individuelle Chronotypen (relevant auch innerhalb Europas).
• Auch Ernährung ist zeitabhängig: Spätes Essen kann den Stoffwechsel stören; „Intervallfasten“ wird als Anwendung circadianer Prinzipien eingeordnet.
• Das Projekt zielt auf drei Richtungen: die innere Uhr messen („detecting the clock“), Rhythmen gezielt beeinflussen („targeting the clock“) und Behandlungen tageszeitlich optimieren („exploiting the clock“).
• Im Dokument werden die Teilprojekte aufgelistet; die offizielle Projektbeschreibung ist am Ende unverändert wiedergegeben.

Zu den Fundamenten einer neuen Medizin

In dem Beitrag Wunden, die Licht heilt hatte ich einige Heilmethoden wie die Krebsheilung mit Licht (PDT = Photodynamic Therapy) beschrieben. Zu solchen Methoden gehört auch die Photobiomodulation. Alle diese Methoden kann man jedoch als “klassisch” nennen, weil sie direkte Wirkungen des Lichts sind, die man durch Bestrahlung erzeugt.

Forschende aus der Berliner Charité haben sich eine mittelbare Wirkung des Lichts eingeschossen, die circadiane Wirkung. Während sich die Lichttechnik auf nicht-medizinische Wirkungen der circadianen Beeinflussung des Menschen konzentrieren muss, können Mediziner aus dem Wissen mehr machen. Sie entwickeln die Circadiane Medizin von Grund auf, deswegen heißt das Projekt Fundamente der Circadianen Medizin (DFG-Projekt Nr. TRR 418. Fundamental neu an dem Ansatz ist die Personalisierung der Medizin.

Beteiligte Institutionen sind FU Berlin und HU Berlin durch Charité - Universitätsmedizin Berlin. Mittragende sind Freie Universität BerlinHumboldt-Universität zu BerlinUniversität zu Lübeck. Weitere Beteiligte sind Ludwig-Maximilians-Universität MünchenTechnische Universität München; Université de Genève und Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE).

Die Projektbeschreibung seitens der Antragsteller findet sich am Ende dieses Beitrags. Diese will ich, wie bei allen komplexeren Sachverhalten, weder kürzen noch kommentieren, damit sich keine Fehler einschleichen. Zurzeit sind 16 Teilprojekte in Bearbeitung, die unten aufgelistet sind. Die Links führen zu den Beschreibungen der einzelnen Teilprojekte.

Was macht die Circadiane Medizin

Die circadiane Medizin (oder Chronomedizin) ist ein faszinierendes Feld, das die Erkenntnisse der Chronobiologie direkt auf die Gesundheitsvorsorge und Behandlung von Krankheiten anwendet. Vereinfacht gesagt: Es geht nicht nur darum, was wir für unsere Gesundheit tun, sondern wann wir es tun.

Praktische Anwendungen in der Medizin sind z.B. die Chronopharmakologie, die die unterschiedliche Wirkung von Medikamenten nach der Körperzeit des Individuums betrachtet. Wie man schon lange weiß, wirken Medikamente unterschiedlich stark, je nachdem, zu welcher Uhrzeit sie eingenommen werden. Die Medizin geht von der sozialen Uhrzeit aus, die überall in der EU (mit Ausnahme Portugals) gleich ist. Der biologische Rhythmus wird aber von dem Verlauf des Tages bestimmt, sodass an den beiden Enden der EU eine Differenz von mehr als zwei Stunden herrscht. Hinzukommt, dass jedes Individuum einen dazu verschobenen Rhythmus haben kann. Die Chronopharmakologie ist bestrebt, den exakten Rhythmus des Patienten zu treffen.

Selbst die zeitrichtige Ernährung fällt in diese Kategorie: Die circadiane Medizin zeigt, dass spätes Essen den Stoffwechsel stört, da die Insulinresistenz abends natürlich ansteigt. "Intervallfasten" ist im Grunde eine Anwendung circadianer Prinzipien.

Kurz zusammengefasst, liegen die Vorteile auf verschiedenen Gebieten:

Bereich Vorteil der circadianen Anpassung
Diagnose Präzisere Werte (z.B. Hormone), wenn die Uhrzeit berücksichtigt wird.
Therapie Höhere Wirksamkeit bei geringerer Dosierung von Medikamenten.
Prävention Besseres Gewichtsmanagement und erholsamerer Schlaf.

 

Circadiane Medizin = Behandlung im richtigen Timing

Sie versucht, Medizin an den natürlichen Tagesrhythmus des individuellen Körpers anzupassen, um:

  • Therapien effektiver zu machen
  • Nebenwirkungen zu verringern
  • Gesundheit langfristig zu verbessern.

Aus der nachfolgenden Aufzählung der Teilprojekte kann auf die zu erzielenden Wirkungen geschlossen werden. Die Wurzeln der circadianen Medizin liegen in den 1950ern, die molekulare Bestätigung kam in den 80ern, aber als praktische medizinische Fachrichtung etabliert sie sich erst massiv seit dem Nobelpreis für Medizin, der 2017 an Jeffrey C. Hall, Michael Rosbash und Michael W. Young für die Entdeckung der molekularen Mechanismen der circadianen Rhythmik verliehen wurde. Dies war der endgültige Ritterschlag für die circadiane Medizin als ernstzunehmendes klinisches Feld.

Teilprojekte Fundamente der Circadianen Medizin

Projektbeschreibung Fundamente der Circadianen Medizin (nicht editiert)

Die circadiane Uhr ist ein körpereigenes Zeitprogramm, das überall in der Natur zu finden ist. Sie strukturiert Physiologie und Verhalten in Abhängigkeit von der Tageszeit. In den letzten Jahrzehnten wurden die molekularen Mechanismen der circadianen Uhr aufgeklärt und die beteiligten Gene identifiziert (Nobelpreis für Medizin 2017). Es wird immer deutlicher, dass die Synchronisation zwischen endogenen circadianen Rhythmen und exogenen Umweltzyklen für die Gesundheit von entscheidender Bedeutung ist. Das moderne Leben stellt die innere Uhr jedoch vor Herausforderungen, die zu einer Störung der circadianen Koordination führen können, was mit vielen Volkskrankheiten in Verbindung gebracht wird, darunter Schlafstörungen, psychiatrische und neurodegenerative Erkrankungen, Stoffwechsel-, Herz-Kreislauf- und immunologische Erkrankungen sowie Krebs. Die Beschreibung der zugrundeliegenden Mechanismen hat jedoch gerade erst begonnen. Das übergeordnete Ziel des Konsortiums ist es, übergreifende Prinzipien und zugrundeliegende Mechanismen zu identifizieren, die circadiane Uhr und Pathologie in verschiedenen Organen und Krankheitssystemen verbinden, um evidenzbasierte Strategien der circadianen Medizin für die klinische Anwendung zu entwickeln und zu testen. Wir verfolgen drei Hauptansätze: (i) Entwicklung neuer diagnostischer Werkzeuge, die personalisierte, auf die Uhr abgestimmte Interventionen ermöglichen, um die circadiane Medizin als Teil der Präzisionsmedizin zu etablieren (detecting the clock), (ii) Stärkung und Resynchronisierung gestörter Rhythmen durch gezielte Interventionen in die Uhr (targeting the clock) und (iii) Nutzung des Wissens über physiologische Rhythmen für eine tageszeitlich angepasste Behandlung (exploiting the clock). Wir haben das Konsortium in drei Bereiche gegliedert - circadiane Immunologie, circadianer Energiestoffwechsel und circadiane Neuropsychiatrie. Dies spiegelt nicht nur die spezifische Expertise der beteiligten Standorte wider, sondern baut auch auf dem vorhandenen Wissen über die Rolle circadianer Rhythmen in diesen Organ- und Krankheitssystemen auf. Die drei Bereiche sind nicht nur auf der Ebene der standardisierten Methoden, die wir entwickeln und anwenden, miteinander verbunden, sondern auch auf der Ebene der zugrundeliegenden Mechanismen, z.B. bei der Erforschung chronoimmunologischer Prozesse bei Erkrankungen des Nervensystems. Nur durch eine disziplinübergreifende Zusammenarbeit können wir gemeinsame Prinzipien und Mechanismen aufdecken, die der circadianen Gesundheit zugrunde liegen. Langfristig gehen wir davon aus, dass das Verständnis dieser Prinzipien und der Folgen von Störungen des circadianen Rhythmus zu einer neuen Ära der personalisierten Medizin führen wird, in der die innere Uhr als wichtiger Faktor nicht nur für Behandlungsentscheidungen und -erfolge, sondern auch für die Gesundheitsförderung und Krankheitsprävention angesehen wird. Mit diesem Konsortium wollen wir die Grundlagen dafür schaffen.

 

Sehen mit den Ohren – Hören mit den Augen?

Spezialisierung ist der Prozess,
bei dem man die Welt
durch ein Schlüsselloch betrachtet und
behauptet, man sähe den ganzen Raum..

Anonymus

Kurzfassung

Der Beitrag diskutiert neuere Hinweise darauf, dass auditive Wahrnehmung durch visuelle Faktoren mitgeprägt wird, und verknüpft diese Beobachtung mit klassischer Forschung zur Wechselwirkung von Lärm und Blendung. Ausgehend von Berichten zur klanglichen „Färbung“ von Konzertsälen in Abhängigkeit von deren Farbgestaltung werden historische Befunde (u. a. Östberg sowie Untersuchungen an der TU Berlin) herangezogen, die eine wechselseitige Verstärkung sensorischer Stressoren zeigen. Im Rahmen der Handlungsregulationstheorie werden Lärm und Blendung als Regulationshindernisse beschrieben, deren kombinierte Wirkung Leistungsfähigkeit und Fehlerraten überproportional beeinflussen kann. Abschließend wird die begrenzte Erklärungsleistung rein technischer Parameter (z. B. in der Büroakustik) als Argument für eine zurückhaltendere, interdisziplinäre Gestaltungspraxis herausgestellt.

Eine Meldung aus der Welt der akustischen Kommunikation

Meine verstörenden Kenntnisse über die Funktion des Auges sind seit heute um eine Facette reicher geworden. Floris Kiezebrink beschreibt im heutigen Tagesspiegel, wie die Farben eines Konzertsaals das Hörerlebnis mitbestimmen. Um falsche Deutungen zu vermeiden, verlinke ich den Beitrag. „Raumakustik wird nicht eindimensional wahrgenommen. Wir hören, ob ein Saal eher laut oder leise, hallig oder trocken ist, aber auch, welche klangliche Färbung er hat“, sagt Stefan Weinzierl, Studienautor und Akustikforscher an der Technischen Universität Berlin. Ein Raum könne beispielsweise warm, brillant oder metallisch klingen. Und das hänge mitunter von der Farbgestaltung ab.“ (download Artikel) Der Berliner Tagesspiegel, dessen Büro zu Fuß nur 4,2 km von der TU Berlin entfernt liegt, meldete die kleine Sensation etwa zwei Monate später als die amerikanische Quelle AIP Publishing (hier)

Irgendwie erinnert mich der Artikel an die Eröffnung von Elphi, von der ich u.a. dieses Foto gemacht hatte. Als ich mein erstes Konzert dort besuchte, klang alles dröge. Hingegen höre ich in der Berliner Philharmonie anders. Vielleicht liegt es an Stefan Weinzierl, dem Autor, der, wie Prof. Cremer, der die erste Akustik der Philharmonie gestaltete, nicht nur Professor an der TU Berlin ist, sondern auch Musiker. Cremer war Violinist, Weinzierl ist Pianist. Was er sonst ist und war, kann man hier lesen. Er war als Musiker in vielen Konzerthallen unterwegs, auch als Begleitung von Größen wie Hildegard Knef.

Frühere Erkenntnisse, die nicht ganz passten

Kann man mit den Augen hören? Vor Jahren hatte ein blinder Mann in einer Fernsehsendung vorgeführt, wie man mit den Ohren sehen kann. Zwar nicht so hochauflösend wie das Auge, aber er konnte die Größe und die Form von Objekten beschreiben, die ein Geräusch produzierten. Dass man mit den Augen hört, ist hingegen recht neu.

Etwa 1975 hatte der schwedische Psychologe Olov Östberg empirisch nachgewiesen, dass Lärm die Blendung steigert, die eine Beleuchtung erzeugt. Umgekehrt lässt eine stärkere Blendung den Lärm lauter wahrnehmen, als das Lärmmessgerät es anzeigt. Östberg demonstrierte auch, dass eine Erhöhung der Blendung bei konstant gehaltener Qualität der Sehaufgabe sich in einer subjektiv höher eingeschätzten Schwierigkeit der Sehaufgabe niederschlägt.

Etwa zur gleichen Zeit fand an der TU Berlin ein Versuch statt, bei dem ein Zusammenhang zwischen Blendung und Lärmstörungen ermittelt wurde. Einer der Forschenden war Walter Volpert, der sich intensiv mit der Handlungsregulationstheorie und den Auswirkungen von Umgebungsfaktoren auf die menschliche Arbeit beschäftigt hat. Nach Volpert sind Lärm und Blendung nicht nur physische Störfaktoren, sondern Regulationshindernisse. Lärm erhöht die kognitive Last, da das Gehirn Kapazitäten aufwenden muss, um relevante Informationen (z. B. Sprache) von Störgeräuschen zu trennen. Blendung erschwert die visuelle Informationsaufnahme und führt zu einer schnelleren Ermüdung der Augenmuskulatur sowie der zentralnervösen Verarbeitung. Ein wesentlicher Aspekt dieser Forschung ist, dass Lärm und Blendung selten isoliert wirken. Volpert und Kollegen stellten fest: Wenn beide Stressoren gleichzeitig auftreten, addieren sich die negativen Effekte nicht nur, sie können sich potenzieren. Die Fehlerrate steigt bei kombinierter Belastung überproportional an, da die „psychische Energie“ zur Kompensation der Hindernisse schneller erschöpft ist. Volpert untersuchte, wie diese Faktoren den Arbeitsfluss stören:

  • Erhöhter Aufwand: Um das gleiche Leistungsniveau zu halten, muss die Testperson mehr Willensanstrengung aufbringen.
  • Verkürzung der Planung: Unter Lärm und Blendung neigen Menschen dazu, Handlungspläne zu verkürzen. Man arbeitet „gehetzter“ und weniger vorausschauend, was die Unfallgefahr erhöht.
  • Somatische Folgen: Langfristig führen diese Regulationshindernisse zu psychosomatischen Beschwerden (Kopfschmerzen, Verspannungen, Schlafstörungen).

 

Die hier skizzierten Erkenntnisse sind in diverse Vorstellungen zum Arbeitsschutz eingeflossen, die man kurz so zusammenfassen kann: Die Ressourcen eines Menschen für die Bewältigung von Belastungen sind begrenzt. Werden diese von einem Umgebungsfaktor in Anspruch genommen, wirken weitere Faktoren viel stärker aus.

Was das mit der Blendungsforschung zu tun hat …

Hier sei an das Versagen der Blendungsforschung erinnert, bei der ein Proband völlig frei von Belastungen jedweder Art in einem ruhigen Raum beurteilt, ob eine Leuchte ihn stört. (s. z.B. Blendung – Was ich schon immer wusste und nie nachfragen wollte oder Beim ersten Ziel schon die Zähne ausgebissen

Untersuchungen dieser Art, die in den 1940ern und 1950ern durchgeführt wurden, bilden die Grundlage unserer heutigen Blendungsbewertung, nach der Leuchten mit dreistelligen Zahlen gekennzeichnet werden. Dann kommt noch ein Akustiker dazu, der nachweist, dass das Hörerlebnis in einem Raum von den Farben des Raums abhängt.

Je tiefer man sich in die Wahrnehmung der Umwelt einarbeitet, desto weniger scheint man  zu wissen. Das beschränkt sich nicht auf die Lichttechnik. Für mich viel aufschlussreicher war eine VDI-Richtlinie Schallschutz und akustische Gestaltung in Büros, VDI 2569:2019. Früher hatten solche Richtlinien apodiktisch bestimmte Vorgaben gemacht, und gut war es. Die besagte Ausgabe sagt hingegen: “5 Lärmwirkung im Büro – Anspruch und Realität: … Abschließend muss erwähnt werden, dass nur zirka 30 % bis 40 % der Belästigungswirkung aus Lärm durch technisch-akustische Faktoren erklärbar sind.” So ist man seit Jahrzehnten in 60% bis 70% der Fälle einem Phantom nachgejagt, als man den Bürolärm mit Mitteln der technischen Akustik bekämpfen wollte.

Die neue Bescheidenheit spricht gegen das Expertenwesen, wonach man für eine Gestaltungsaufgabe wie ein Großraumbüro lauter Fachexperten, Akustiker, Lichttechniker und Klimatechniker heranzieht, die dann die Fach-Normen anwenden, die ihresgleichen geschrieben hatten.

 

Phantome, die unser Wissen beherrschen X

Ist das Wissenschaft,
oder eher eine sehr teure Form
der Astrologie mit besseren Grafiken?
Anonymus

In dieser Reihe beschreibe und kommentiere ich Wissen, das man gerne als “überkommen” bezeichnet. Das negative Urteil stimmt aber nicht immer. Ähnlich häufig darf man das Wissen überliefert oder tradiert bezeichnen. Dieses Urteil fällt eher neutral aus. Manchmal handelt es sich dabei um Grundwissen, das man besser nicht in Frage stellt.

Das fundamentale Phantom

In der Lichttechnik wird Helligkeit bis heute mit einer Standardkurve (V(λ)) bewertet, die vor rund 100 Jahren aus Messungen an wenigen, jungen erwachsenen Männern abgeleitet wurde.

Diese Kurve steckt aber hinter fast allen wichtigen Lichtangaben wie Lumen und Lux – und verleitet dazu zu glauben, sie gelte für „den Menschen“ allgemein. Tatsächlich sehen ältere Menschen, Kinder, aber auch viele Tiere und Pflanzen Licht anders, sodass gleiche Messwerte in der Praxis sehr unterschiedliche Wirkungen haben können.

Neuere Kennzahlen wie „melanopische“ Beleuchtungsstärken sollen biologische Effekte des Lichts besser erfassen, sind folgerichtig von Alter und Lichtspektrum abhängig und dadurch kompliziert zu verwenden. Mit der Einführung melanopischer Kenngrößen (CIE S 026/E:2018) wurde die Problematik sichtbar verschärft: Melanopische Beleuchtungsstärken (z. B. mel-EDI) sind explizit alters- und spektralabhängig; ein Zahlenwert gilt nur für definierte Referenzbedingungen (u. a. ein Referenzalter), während herkömmliche lichttechnische Größen diese Unterschiede nicht erfassen. 

Die zentrale Botschaft ist: Lichttechnische Grundgrößen sind keine einfache „Physiologie in Zahlen“, und gute Beleuchtung muss stärker auf unterschiedliche Menschen und Anwendungsfälle abgestimmt werden. Die Voraussetzung dafür ist, dass das Licht valide gemessen wird, d.h. eine bestimmte Größe entspricht einer bestimmten Wirkung.

Zur Geschichte des Phantoms

Dieses Phantom ist die Grundlage aller lichttechnischen Größen. Dass es eigentlich längst in die Geschichte gehört, diskutierte ich noch als junger Student, als uns Professor Helwig die V(λ)-Kurve erklärte. Helwig ist schon 55 Jahre tot, das Phantom hat vor zwei Jahren quicklebendig sein erstes Jahrhundert gefeiert.

Die junge Lichttechnik zu Beginn des 20. Jahrhunderts hatte sich vorgenommen, Lichtgrößen für den Menschen zu bestimmen und Licht an dem Menschen zu messen. Damit war sie vielen Disziplinen weit voraus. Die Physik misst Licht mit ähnlichen Instrumenten wie die Lichttechnik, kommt aber zu einem anderen Ergebnis. Das liegt an der besagten V(λ)-Kurve.

Die Kurve, die sich so schick geschwungen präsentiert, sah nicht immer so aus wie hier. An ihr ist viel poliert worden.

Sie hieß einst relativ visibility und wurde, wie im Bild deutlich erkennbar, aus verschiedenen Studien zusammengestückelt. Die CIE (Commission Internationale de l'Éclairage) sammelte die Daten von etwa 50 Probanden aus verschiedenen Studien. Obwohl die Gruppe statistisch gesehen recht klein war, reichten die Daten aus, um einen Mittelwert zu bilden. So wurden die individuellen Empfindlichkeitskurven der Probanden gemittelt. Der höchste Punkt der Kurve (das Maximum) wurde auf den Wert 1 gesetzt. Dieser Punkt liegt bei einer Wellenlänge von 555 nm (gelb-grün). 1924 wurde diese gemittelte Kurve als internationaler Standard für das photopische Sehen (Tagessehen) definiert.

An sich kein großes Problem. Dumm nur, dass die Probanden in den relevanten Studien der frühen 1920er Jahre (hauptsächlich die Untersuchungen von Gibson und Tyndall sowie Coblentz und Emerson) überwiegend junge Erwachsene waren. Die meisten Teilnehmer waren zwischen 20 und 30 Jahre alt. In der entscheidenden Studie von Gibson und Tyndall (1923), die 52 Probanden umfasste, lag das Durchschnittsalter bei etwa 26 bis 27 Jahren. Noch dümmer: Viele der Probanden waren Mitarbeiter des National Bureau of Standards (NBS) (also vom Fach) oder Studenten – also eine leicht verfügbare, junge Testgruppe.

Was in den Annalen nicht steht, weil man den Fehler in der Forschung bis heute macht: Alle Probanden waren jung, gesund und irgendwie “normal”. Wer im National Bureau of Standards arbeitet, gehört zudem nicht zu Familie Doe, deren Mitglieder John und Jane unserem Max und Erika   Mustermann entsprechen. Und Studenten im Alter von 25 Jahren bildeten zu Beginn des 20. Jahrhunderts die Bevölkerung genauso wenig ab wie im Jahre 2026.

Bei diesem Beitrag geht es insbesondere um die Altersgruppe, weil die Augen von allen Lebewesen mehr oder weniger stark altern. Beim Menschen ändert sich die Lichtwahrnehmung durch rund ein Dutzend Alterungsprozesse, die relevant sind.

Bedeutung der V(λ)-Kurve

Die so definierte Kurve liegt allen lichttechnischen Größen zugrunde. Dies hat zweierlei Auswirkungen. Zum einen die beabsichtigte: Bewerten der Strahlung nach der angestrebten Wirkung, die Hellempfindung. Zum anderen verführt sie zu der Annahme, es handele sich um eine Quantifizierung einer physiologischen Wirkung. Genau dies ist falsch. Wie unten ausgeführt, beweist sogar ein Standard der CIE dies höchstpersönlich.

Die aus der Sicht der lichttechnischen Industrie wichtigste lichttechnische Grundgröße ist der Lichtstrom, also die Menge des Lichts, die ein Leuchtmittel abgibt. Daraus lässt sich z.B. die Effizienz einer Umwandlung von Energie in Licht berechnen. Auch die populärste, weil auch den Laien bekannte, lichttechnische Größe, die Beleuchtungsstärke, lässt sich daraus ableiten.

Damit kommen wir der physiologischen Wirkung näher, die man mit einer Lichtquelle erzielen will, der Sehleistung. Egal wie man diese definiert, landet die Betrachtung immer bei der Leuchtdichte, die z.B. beim Kontrast eine große Rolle spielt, die wiederum z.B. die Lesbarkeit stärker beeinflusst als die meisten anderen Größen. Auch bei der Geschwindigkeit des Erkennens kleiner Objekte spielt die Leuchtdichte die Hauptrolle.

Genau da setzen die diversen Fehlermöglichkeiten an, die sich aus dem Phantom ergeben.

Dieser Herr zeigt, wie aus dem Lichtstrom eine Leuchtdichte wird. Bereits er gehört nicht mehr der Altersgruppe an, für die die V(λ)-Kurve ermittelt worden war. Es kann aber noch schlimmer kommen, wie die beiden Personen in dem unteren Bild zeigen.

Die beiden Menschen sehen sehr unterschiedlich alt aus. Trotzdem ergibt die Beleuchtungsstärke nach der Reflexion die Leuchtdichte. Wenn man die Formel auf beiden anwendet, ist der Wert der Leuchtdichte gleich. In der Realität allerdings nicht. Was der linke junge Mann sieht, hat relativ wenig mit dem zu tun, was sich der Dame präsentiert.

Die Erklärungen der Grundgrößen durch zwei offizielle Stellen, unverkennbar Agrargenossenschaften, illustrieren einen möglicherweise größeren Fehler.

Denn die abgebildeten Beobachter sind keine jungen Männer, sondern Nutztiere. Diese besitzen wie die meisten Säugetiere nur zwei Farbempfänger im Auge (Dichromaten), während die Menschen drei Farbempfänger besitzen (Trichromaten). Wenn das obige Bild von einem Aquarianer gezeichnet werden würde, würde der einen noch größeren Fehler produzieren, weil Vögel und Fische vier Farbempfänger haben und viel mehr sehen können als Menschen. Allein der Unterschied zwischen Säugetieren und Menschen ist derart groß, dass man das Licht für beide mit zwei getrennten Geräten messen müsste.

Die Sicht auf das Licht durch das Auge eines jungen Mannes wird vollends absurd, wenn man sie auf Pflanzen anwendet. Deren „V(λ)-Kurve“ ist eher die Umkehrung der menschlichen.

Nicht nur auf der großen weiten Welt leben Menschen, Tiere und Pflanzen zusammen, sondern zuweilen in kleinen Wohnzimmern. Wenn Licht über die Augenempfindlichkeit von jungen Männern definiert wird, ergeben sich somit erhebliche Probleme.

Vor vier Jahren haben britische Forschende eine Arbeit veröffentlicht, aus der hervorgeht, dass nicht einmal die Erdüberwachungssatelliten gemerkt haben, dass der Planet nachts blauer strahlt, weil ihre Sensoren im blauen Bereich praktisch blind sind. (s. Der blauere Planet)

Dann kam die Idee mit der mel-Lux …

Mit der Entdeckung eines neuen Sensors im Auge im Jahr 2001 kam man gleich auf die Idee, deren Wirkung ebenso zu quantifizieren wie die Wirkung auf die Hellempfindung mit der V(λ)-Kurve. Die treibende Motivation beruhte auf der Erbsünde der LED, die technologiebedingt immer einen Peak im Blauen aufweist. Im Spektrum sieht das wie folgt aus:

Dass dieser Verlauf des Spektrums für die meisten LEDs gilt, zeigt ein Bild von Bodrogi, der mehrere hundert LED-Spektren gemessen und in einem Diagramm abgebildet hat.

Mit dem Standard CIE S 026/E:2018 wurde die Grundlage dafür gelegt, dass neben den herkömmlichen lichttechnischen Größen wie der Beleuchtungsstärke eine entsprechende melanopische Größe berechnet werden kann.[1] Nunmehr heißen die herkömmlichen Größen visuelle Größen. Im Gegensatz dazu werden die neuen Größen melanopisch bezeichnet, weil sie auf der Empfindlichkeit von Melanopsin beruhen. Im Internationalen Wörterbuch der Lichttechnik (e-ilv) findet sich zu jeder Größe auch eine melanopische.

Jetzt müssen die visuellen Größen mit dem Index „v“ gekennzeichnet werden, d.h. zu Leuchtdichte wird das Kürzel Lv und L angegeben, bei der Beleuchtungsstärke muss man sich viel Mühe geben, keinen Fehler zu machen. Denn Ev ist nicht einfach die visuelle Beleuchtungsstärke, weil es schon einmal eine etablierte Größe mit dieser Bezeichnung gegeben hat. Um die Sache zu verschlimmern, wurde diese Größe auch noch zur bestimmenden Wirkgröße für die melanopische Wirkung auserwählt. Deswegen muss die Vertikalbeleuchtungsstärke Ev,v genannt werden. Wenn man irgendwo nur Ev liest, muss man nachsehen, wann der Artikel veröffentlicht worden ist.

Das grundsätzliche  Problem liegt aber anderswo begraben: Die melanopischen Größen sind altersabhängig. Wenn man die Beleuchtungsstärke mel-EDI mEDI oder MEDI angibt, gilt die Angabe für 32 Jahre alte Menschen. In CIE S 026/E:2018 kann man die Altersabhängigkeit bis zum 90. Lebensjahr ablesen. Allerdings ist das Ablesen nicht nur schwer verständlich, sondern auch noch teilweise unmöglich. Das liegt daran, dass die neuen Größen einen Schritt in Richtung physiologisch gegangen sind und daher die Einflüsse des Alterns auf das Auge besser abbilden. Hinzukommt, dass die neuen Beleuchtungsstärken auch noch vom Spektrum abhängen. Das erkennt man nicht zuletzt an der Angabe einer melanopischen Beleuchtungsstärke:

Der Wert von 128 lx gilt für das Spektrum D65 und 32 Jahre alte Menschen. Für andere Menschen und Spektren muss man mit einem Korrekturfaktor arbeiten. Dieser liegt zwischen 1,052 (Alter 25 Jahre, Spektrum D65) und 0,442 (Alter 90 Jahre, Spektrum Normlichtart LED-B5).

Mit anderen Worten, die melanopische Wirkung des Lichts kann sich um den Faktor 2,38 unterscheiden, während ein Lichtmessgerät, das die Beleuchtungsstärke anzeigt, für alle Lampentypen und alle Menschen von 0 bis 100 Jahren denselben Wert angibt. Dieser Effekt hat aber mit der melanopischen Wirkung des Lichts wenig gemein, außer dass für beide die Vergilbung der Augenmedien maßgeblich ist.

Das Alterungsverhalten des Auges war bereits in der Antike bekannt. Schon im antiken Griechenland und Ägypten wusste man, dass Augen im Alter "blind" und weißlich-trüb werden können. In der Renaissance hatte man die Trübung der Linse im Fokus. Georg Bartisch veröffentlichte 1583 das erste bedeutende Werk der Augenheilkunde ("Ophthalmodouleia"). Darin beschrieb er verschiedene Formen des Stars, doch die chemische Veränderung – also die Vergilbung – blieb noch ein Rätsel.

Die Auflösung folgte im 18. Jahrhundert. Mit der Entwicklung besserer Mikroskope und der Extraktion der Linse bemerkten Ärzte, dass Linsen im Alter nicht nur trüb, sondern oft deutlich bernsteinfarben oder gelblich-braun sind. Mitte des 19. Jahrhunderts begann man zu verstehen, dass diese Gelbfärbung die Farbwahrnehmung beeinflusst (insbesondere die Absorption von kurzwelligem, blauem Licht). Die Auswirkungen dieser neuen Erkenntnisse konnte man bis in die Damenmode (Farbe der Hüte) verfolgen. Auch historische Gemälde von Künstlern im hohen Alter (wie etwa Claude Monet) haben oft einen extremen Gelbstich oder es fehlten Blautöne fast völlig: Die Künstler malten so, wie sie die Welt durch ihre vergilbten Linsen sahen.

So gesehen war die Definition des Lichts ohne Alterungseinflüsse und mit Experimenten mit jungen Männern ein bedenklicher Vorgang gewesen. Forscher wie Weston (1945) und spätere Studien zeigten, dass ein 60-Jähriger etwa dreimal so viel Licht benötigt wie ein 20-Jähriger, um die gleiche Sehaufgabe (z. B. Lesen) mit derselben Genauigkeit zu bewältigen. In den 1960er Jahren wurde nachgewiesen, dass die Netzhaut eines 60-Jährigen nur noch etwa 33 % des Lichts erhält, das die eines 20-Jährigen erreicht.

So wurde in der Lichttechnik folgerichtig gefordert, für ältere Personen höhere Lichtniveaus vorzusehen. Aber die Idee, die Bestimmung des Lichts so zu ändern, dass ein bestimmter Wert für alle Altersgruppen die gleiche Hellempfindung bedeutet, kam man aber nicht. Dies wäre ein weiterer Schritt in Richtung physiologisch richtiger Bestimmung des Lichts geworden.

Stattdessen haben sich die Beleuchtungsnormen auf die “normale” Sehkraft eingeschossen. So hieß es bei der Norm DIN 5035 (Entwurf, 1969): “Die Nennbeleuchtungsstärken nach Tabelle 1 gelten für Räume, die mit Personen unterschiedlichen Alters besetzt sind. Bei für vorwiegend ältere Menschen geplanten Allgemeinbeleuchtungsanlagen sowie bei Arbeitsplatzbeleuchtungen für den Einzelnen sind die Beleuchtungsstärken der nächsthöheren Stufe zu wählen.” Was machen die älteren Mitarbeitenden bei den Standard-Arbeitsplätzen?

In späteren Jahren verschwand die Anforderung für Räume mit vorwiegend älteren Mitarbeitenden und wurde durch etwas Schlimmeres ersetzt: „Die Zuordnung eines bestimmten Wertes der Nennbeleuchtungsstärke zu einer Sehaufgabe bezieht sich auf normalsichtige Personen.” (DIN 5035-1:1979-10). Man schrieb also Beleuchtungsnormen für normalsichtige Personen. Wer sollte das wohl sein? Das konnte man nirgendwo erklärt bekommen. Wenn eine Norm aber nicht für die gesamte Arbeitspopulation gilt, muss in derselben Norm angegeben werden, für wen sie nicht gilt.

Nach jahrelangem Studium der Beleuchtungsnormen und der sonstigen lichttechnischen Regelwerke, die seit 1924 entstanden sind, bin ich zu der Überzeugung gekommen: Die Festlegungen der Beleuchtungsnormen, die auch vom Arbeitsschutz angewendet wurden, galten für die jüngere Arbeitsbevölkerung unter 40 Jahren mit gesunden Augen. Diese muss auch noch Glück haben mit den sonstigen Eigenschaften der Beleuchtung. Denn für die Festlegung gilt: „Dabei wird vorausgesetzt, daß dieser Wert der Beleuchtungsstärke in seiner Auswirkung auf die Sehleistung nicht durch Störeinflüsse wie Direktblendung, Reflexblendung und Kontrastminderung, ungeeignete Lichtfarbe und Farbwiedergabe beeinträchtigt wird.

Wer noch viel schlimmer betroffen sein kann …

Die Gruppe junger Menschen zwischen 0 und 25 Jahren kommt bei der Bestimmung von mel-EDI gemäß CIE S 026/E:2018 nicht vor. Diese ist nicht etwa vergessen worden, sondern ohne Kommentar ignoriert. Denn man weiß nicht viel über die Reaktion jüngerer Menschen bezüglich Melatonin, auf dessen Basis man eine Berechnung durchführen könnte. Was man weiß, ist die wesentlich höhere Transparenz der Augenmedien, bevor deren Vergilbung anfängt, die eine Schutzwirkung gegen blaues Licht entfaltet. Wenn Kinder wie Erwachsene im gleichen Raum der gleichen Beleuchtung ausgesetzt werden, ist die Belastung durch Blaulicht sehr unterschiedlich.

Man hatte früher in Kitas oder Krankenhäusern nicht unbedingt darauf geachtet, dass die für die Erwachsenen geplante Beleuchtung die Augen der auf dem Rücken liegenden Babys schädigen könnte. Dabei gab es vor allem in den 1940ern bis 1960ern viele Erblindungen, die man fälschlicherweise erst nur dem Licht zuschrieb, die aber eine Kombination aus zu viel Sauerstoff und Lichtstress waren. Eines der Opfer war Stevie Wonder, dessen Erblindung zuerst auf das Licht geschoben wurde. Später wurde der Sauerstoff im Inkubator als Ursache identifiziert. Die vermutlich größte Gefährdung erfolgt vermutlich eher an südlichen Stränden, wo blonde und blauäugige Babys und Kleinkinder der Mittelmeersonne ausgesetzt werden.

Systematische Mängel

Unbekanntes Grundkonzept: Accessibility oder Design for All

Die Definition von Licht über die spektrale Empfindlichkeit der Augen junger Männer erschwert die Berücksichtigung des weitaus größeren Teils der arbeitenden Bevölkerung. Die Lichttechnik hat zwar Wörter aus der Antike wie Lux, Lumen oder Candela für ihre Größen ausgewählt und gar den Gott Apollo für den ersten Kartellvertrag der Industriegeschichte eingespannt, der die geplante Obsoleszenz[2] eingeführt hat, aber antike Konzepte wie “Der Mensch ist das Maß aller Dinge” nicht zur Kenntnis genommen.

Die moderne Form des zitierten Spruchs  des antiken Sophisten Protagoras (5. Jh. v. Chr.) trägt den Namen Accessibility. Das ist eine Politik, die der Bürgerrechtsbewegung aus den USA aus den 1960er Jahren entstammt. Sie ist durch viele Länder und auch von der UNO übernommen worden. Die ergonomische Normung wird seit mehr als 20 Jahren mit der zugänglichen Gestaltung der Arbeit und der Arbeitsstätten befasst. Die allgemeine Politik arbeitet nach dem Konzept “Design for All”. Design for All (auch bekannt als „Universal Design“) ist ein Gestaltungskonzept, das darauf abzielt, Produkte, Dienstleistungen und Umgebungen so zu entwickeln, dass sie für alle Menschen gleichermaßen nutzbar sind – unabhängig von Alter, körperlichen Fähigkeiten oder Lebenssituation. Ein solches Design ist für Menschen mit unterschiedlichen Fähigkeiten nützlich und marktfähig. Es kommt verschiedenen Vorlieben und Fähigkeiten entgegen (z. B. linkshänder-freundlich).

Die barrierefreie (accessible) Gestaltung der Beleuchtung an Arbeitsplätzen stellt sicher, dass alle Beschäftigten – unabhängig von individuellen Seheinschränkungen, Alter oder spezifischen Sehaufgaben – sicher, ergonomisch und ermüdungsarm arbeiten können. Das Problem ist, dass man das Konzept in der lichttechnischen Literatur lange suchen kann, ohne es zu finden.

Validitätsproblem – Wenn die Maße nicht stimmen

Validität ist einer der drei wichtigsten Grundpfeiler der Statistik und Forschung (die sogenannten Gütekriterien). Vereinfacht gesagt, beantwortet die Validität die Frage: „Misst der Test wirklich das, was er messen soll?“ Weiter gefasst: Was bedeutet Validität? Was bedeutet eine Messgröße?

Welche praktische Bedeutung die richtige Antwort darauf haben kann, kann man in der Historie der Kerntechnik lesen. Am 28. März 1979 bemerkten die Reaktorfahrer in Three-Mile-Island, Harrisburg, Pennsylvania, dass sie einen Unfall hatten. Pflichtgemäß pumpten sie 6.000 Kubikmeter Wasser in den Reaktor, das damit den notwendigen Wasserstand erzielte. Jedenfalls nach der Anzeige. In Wirklichkeit war kein Wasser im Reaktor. Die Anzeige hatte einen Rechenwert angezeigt, der den Wasserstand aus dem gepumpten Wasser und dem Volumen des Reaktorgefäßes errechnet hatte. Seit diesem Tag sind in den USA nur ganze zwei Reaktoren in Betrieb gegangen. Und das in 48 Jahren.

Das Thema Validierung wird in Genesis 2.0 – Schöpfung der elektrischen Sonne hier ausführlich behandelt:  So soll die Leuchtdichte der Helligkeit entsprechen. Die Lichttechnik muss sich mit sehr ernsthaften Validierungsproblemen befassen, denn alle ihre Größen sind linear, zwei Lux sind das Doppelte von ein Lux, ihre Wirkungen aber nicht, sie sind definiert nach physikalischen Entitäten. So soll die Leuchtdichte der Helligkeit entsprechen. Das tut sie nicht, weil sie das nicht kann.

Lichttechnische Grundgrößen entsprechen physikalischen Größen, die man mit Hilfe der V(λ)-Kurve umrechnet. Wenn ihre Werte etwas bedeuten sollen, müssen sie physiologischen Wirkungen entsprechen, welchen auch immer. Im einfachsten Fall sollten z.B. Reflexionsgrade wie 0,3 oder 0,6 etwa dem Helligkeitseindruck entsprechen, den Proben mit solchen Werten erreichen. Rein physikalisch gesehen reflektiert die Probe mit einem Reflexionsgrad von 0,6 tatsächlich exakt doppelt so viel Lichtenergie wie die Probe mit 0,3. Unser visuelles System arbeitet nicht linear, sondern annähernd logarithmisch. Das bedeutet: Damit wir einen Helligkeitsunterschied als gleichmäßig steigend wahrnehmen, muss die physikalische Lichtintensität exponentiell zunehmen. Das ist die Kernaussage des Weber-Fechner-Gesetzes. Das Weber-Fechner-Gesetz beschreibt den Zusammenhang zwischen der objektiven Intensität eines physikalischen Reizes und der subjektiv empfundenen Stärke dieses Reizes. Es bildet das Fundament der Psychophysik.

Jeder Lichttechniker und jeder Akustiker lernt das Gesetz, bestimmte Ingenieure gleich zweimal. Wenn sie sich auf dem Gebiet der technischen Akustik bewegen, arbeiten sie mit einer logarithmischen Größe. Als Lichttechniker müssen sie linear denken. Arbeitswissenschaftler wie ich verzweifeln zuweilen, wenn sie den Umstand Betriebsleuten vermitteln sollen.

Einfach gesagt: Es gibt keine physiologischen Entsprechungen zu lichttechnischen Größen. Man muss Lichtwirkungen mühsam mit den Beleuchtungsbedingungen in Relation bringen. Dabei wird man nicht selten durch die falsch definierten Maße in die Irre geführt.

[1] Wann die melanopischen Größen wirklich in dem Wörterbuch erschienen sind, kann ich nicht zuverlässig angeben. Die CIE hat bis zum Jahr 2021 das Zitieren der Begriffe aus ihrem Wörterbuch e-ilv im Internet nicht anerkannt. Sie bestand darauf, dass man die gedruckte Version benutzt. Diese gab es aber in keiner Bibliothek. Mir ist nicht einmal auf offiziellem Weg gelungen, ein Exemplar zu Gesicht zu bekommen. Das wird erst verständlich, wenn man berücksichtigt, dass das Wörterbuch komplett überarbeitet werden musste.

[2] Gemeint ist das Phoebus-Kartell, mit dem weltweit eine feste Dauer für die Glühlampe festgelegt wurde. (mehr hier Das Phoebus-Kartell – Gerücht - Legende – Realität) Phoebus (Phoibos) ist der Beiname von Apoll, besser bekannt als Apollon, des Olympischen Gottes des Lichts und der Heilkunst.

.

Wie verdient man sich einen schlechten Ruf? Fallstudien aus der Praxis II

Forschung ist das, was ich tue,
wenn ich nicht weiß, was ich tue.

Wernher von Braun

In dieser Reihe beschreibe ich in lockerer Folge die Entstehung des Gefühls bei den Benutzern, dass ein Arbeitsraum ohne künstliche Lichtquellen die beste Arbeitsumgebung wäre (Ergebnis einer LinkedIn-Studie). Diesen Ruf hat die Beleuchtungstechnik in enger Zusammenarbeit mit der Architektur redlich verdient. Manchmal war auch die Politik sehr hilfreich dabei … Dieser Beitrag behandelt einen Fall, bei dem die Wissenschaft wie auch Wissenschaftler einen großen Beitrag geleistet haben. 

130 Jahre Blendungsforschung und immer noch keine Ahnung

Der Beitrag analysiert das anhaltende Scheitern der Lichtforschung im Umgang mit Blendung, trotz über 130 Jahren Forschung seit Edisons Versprechen eines blendfreien künstlichen Lichts. Während der Preis für Licht durch technologischen Fortschritt dramatisch gesunken ist, blieb das Ziel der Blendungsfreiheit unerreicht. Ich mache dafür vor allem wissenschaftliche Versäumnisse verantwortlich: Weder Arbeitswissenschaften, Ergonomie noch Psychologie haben Blendung als relevante Arbeitsbelastung systematisch untersucht. Auch die Lichttechnik selbst habe konzeptionelle Fehler gemacht und mit dem Unified Glare Rating (UGR) ein Bewertungsverfahren etabliert, das methodisch unzureichend, nicht validiert und für moderne Beleuchtungssituationen – insbesondere mit LEDs und Bildschirmarbeitsplätzen – ungeeignet ist. Fehlende interdisziplinäre Zusammenarbeit, eine schwache akademische Verankerung der Lichtanwendung und industriegetriebene Scheinlösungen hätten dazu geführt, dass sich die Forschung im Kreis dreht. Das Ergebnis ist ein Bewertungsmaß, das Vertrauen zerstört und reale Blendungsprobleme eher verschärft als löst. 

Wie die Wissenschaft das Blendungsproblem nicht löste

Der geniale Ingenieur Edison ist bekannt dafür, dass er die Ziele seiner „Erfindungen“  vor Beginn seiner Arbeit klar und in wenigen Sätzen beschrieb, bevor er sich an die Arbeit machte. Deswegen war er eher ein Entwickler als ein Erfinder. Dass die meisten Kenner ihn dennoch für einen Erfinder halten, hängt damit zusammen, dass seine Erfolge nicht gerade bescheiden waren. Glühlampe, Kinetoskop, Phonograph … Edison hielt 1093 Patente.

Man kann mit Hilfe seiner Notizen ermitteln, wenn etwas nicht so funktionieren wollte, wie Edison sich das vorgenommen hatte. So durfte ich in den 1970ern analysieren, warum der Phonograph in manchen Ländern und Branchen erfolgreich war, aber in deutschen Büros trotz Bemühungen der Industrie und des Bundesrechnungshofes keinen Fuß fassen konnte. Edisons Notizen zeigen, er wollte die Kommunikation zwischen Chef und Sekretärin auf das Diktiergerät legen und damit beide entlasten. 80 Jahre später wollte man das Gerät zwischen Sachbearbeitern und großen Büros und Schreibkräften im Massenbüro verwenden. Die Analyse des Versagens hat mich ein paar Jahre Arbeit gekostet.  Gegenüber dem, was die Schreibkräfte erlitten hatten, war das aber eine Kleinigkeit. Sie bezahlten mit ihrem Gehör.

Ähnlich wie bei diesem Fall scheint es mit der Glühlampe, d.h. mit dem künstlichen Licht ergangen zu sein. Dazu hatte Edison geschrieben, er werde eine Lampe erfinden, deren Licht so billig sein wird, dass sich nur Reiche eine Kerze leisten würden. Und dieses Licht werde nicht blenden.

Das primäre Ziel, der Preis des Lichts, wurde mehr als erreicht. Die Entwicklung des Preises für Licht ist eines der beeindruckendsten Beispiele für den technologischen Fortschritt der Menschheit. Seit 1924 ist der Preis für eine Lumenstunde (die Standardeinheit für Lichtmenge über Zeit) massiv gefallen – inflationsbereinigt um weit über 99 %. In den 1920ern kaufte man für  60 Arbeitsstunden ca. 5 Monate Licht. Heute 60 Arbeitsstunden kaufen über 50 Jahre Licht.

Was mit der Blendung geworden ist, habe ich am Beispiel  von Autoscheinwerfern vorgestern erläutert : Die dümmste Erfindung, seit es Scheinwerfer gibt. In dem Buch Genesis 2.0 – Schöpfung der elektrischen Sonne zieht sich das Thema durch das ganze Buch und wird in einem getrennten Kapitel ausführlich behandelt: Blendung- Was ich schon immer wusste und nie nachfragen wollte. Hierzu genügt als Erklärung kurz, was Prof. Völker zum hundertsten Geburtstag der Lichttechnischen Gesellschaft schrieb: In seinem Beitrag Ein Rückblick über 100 Jahre Forschung steht am Ende zu lesen: „Der vorliegende Beitrag zeigt, dass es möglich scheint, die vorhandenen Blendungsbewertungsmodelle auf ein Modell zurückzuführen. Zurzeit fehlen noch einige Einflussgrößen, …”. Also sah ein Professor für Lichttechnik nach 100 Jahren Forschung Licht am Ende des Tunnels … Wenn wir noch einige Einflussgrößen bestimmt haben, werden wir sicher wissen, was Blendung ist. Ganze 133 Jahre nach Edisons Versprechen.

Wo liegt der Hund begraben?

Wenn man einen Schuldigen für das grandiose Versagen in Sachen Blendung sucht, bieten sich gleich mehrere an. In dem Buch schrieb ich viel über das (nicht hilfreiche) Wirken der lichttechnischen Industrie. Hingegen sind meine eigenen Kollegen aus der Wissenschaft zu gut weggekommen. Deswegen will ich in diesem Beitrag mit diesen anfangen. Die weiteren Verdächtigen wären nicht erfolgreich zum Zuge gekommen, wenn diese der Aufgabe gerecht werden hätten können.

Was die Wissenschaft hätte besser machen müssen …

Wer hier die Lichtwissenschaft als Erstes genannt sehen möchte, liegt falsch. Die Rede ist von Wissenschaften, die Arbeitsverhältnisse untersuchen und Arbeitsbelastungen bewerten. Die heißen auf Amerikanisch Human Factors, auf Englisch Ergonomics und auf Deutsch Arbeitswissenschaften.

Bei den amerikanischen Kollegen war ich öfter zu Besuch auf ihren Kongressen und in Normenausschusssitzungen zwischen 1981 und 2021, bei den britischen Kollegen war ich sogar Fellow über 20 Jahre. Etwas länger war ich Mitglied bei der Gesellschaft für Arbeitswissenschaft. Und beim internationalen Verband, International Ergonomics Association, IEA, gehörte ich mit zu den Veranstaltern und Referenten der Kongresse über einen längeren Zeitraum. Eine Gruppe, die ich mitgegründet habe, ist heute ein Technical Committee von IEA. Die lange Aufzählung soll dazu dienen, meine Enttäuschung über viele Jahrzehnte, dass es in all diesen Gesellschaften kaum eine Aktivität gab, was Licht und Beleuchtung betraf, zu erklären.

Was man alles hätte tun können oder müssen, sei dahingestellt. Hinsichtlich des Themas Blendung hätte man zunächst eine Methode entwickeln müssen, die besser ist als die der Lichttechniker. Denn die Lichttechnik ist nicht in der Lage, mit Arbeitsbelastungen umzugehen. Sie muss auch keine wissenschaftlichen Verfahren zur Bestimmung von Arbeitsbelastungen entwickeln. Arbeitsanalyseverfahren sind in der Ergonomie zu Hause. Nur über diese kann Blendung in Verbindung mit Arbeitsbelastungen und Stress formal annehmbar behandelt werden. Es gab aber nicht einmal Ansätze dazu.

Eine andere Gruppe von Wissenschaften, die Sozialwissenschaften, hat sich ebenso wenig um Blendung gekümmert. In der Arbeitspsychologie kann man allenfalls ein Erstaunen ernten, wenn man erzählt, es gäbe eine psychologische Blendung. Eine psychologische Belastung, mit der sich die Psychologie nur am Rande befasst … oder erst gar nicht.

Wenn man sich auf die Suche nach Psychologen begibt, die sich mit der „psychologischen“ Blendung befasst haben, findet man allerhand zu Blenderei, z.B. Paulhus & Williams: Die „Dunkle Triade“ oder Harry Frankfurt: „On Bullshit“, aber nichts über Beleuchtung. Lexika für Psychologie im Internet reagieren entweder gar nicht auf das Suchwort oder wie hier abgebildet:

Und die „Lichtwissenschaften“?

Das Wort „Lichtwissenschaften“ war mir nie ein Begriff, bis ich in Zeitschriften wie Licht auf „Lichtforschung“ stieß. Die Autoren, die den Begriff benutzen, kenne ich praktisch alle persönlich. Es scheint aber so, dass das Wort anderen kein Begriff ist. Die verstehen unter Lichtforschung: „Lichtforschung – in der Wissenschaft meist als Photonik oder Optik bezeichnet – ist ein interdisziplinäres Feld, das sich mit der Erzeugung, Ausbreitung, Manipulation und Detektion von Licht befasst.“ Tatsächlich waren die großen Lichtforscher Physiker wie Max Planck oder Einstein. Wer sollte sich heute mit Blendung als Lichtforscher beschäftigen?

Zu meiner Studentenzeit gab es in (West-)Deutschland ganze zwei Professoren für Lichttechnik, die sich mit allen Belangen der Lichtanwendung und Beleuchtung beschäftigten. Im anderen Teil Deutschlands gab es ebenfalls zwei. Hingegen gab es Tausende von Professuren für BWL. Heute entfallen rund 40% der Professuren in Rechts-, Wirtschafts- und Sozialwissenschaften auf BWL. Das macht rund 5.000 bis 6.000 Professuren für BWL bundesweit. Ihnen steht eine einstellige Zahl an Universitätsprofessuren für Licht oder Ähnlichem.

Wenn man sich auf die Suche nach Wissenschaftlern eines Fachgebiets begibt, wird man in ihren Fachzeitschriften fündig. Eine Suche nach „Fachzeitschriften für Lichtforschung“ ergibt keine einzige deutsche Publikation. Wenn man sich die englischen Titel anschaut, findet man so etwas wie Nature Photonics, von der man schreibt: „Das wohl prestigeträchtigste Journal im Bereich der Lichtforschung. Es deckt alles ab – von Lasern und Quantenoptik bis hin zu Biophotonik.“

Eine viel gelobte Publikation, Light: Science & Applications (LSA), die oft sehr praxisnahe, aber fundamental wichtige Forschung publizieren soll, habe ich mir näher angeschaut. Seit 1873 sind 164 Artikel erschienen, in denen das Wort "discomfort glare" vorkommt. Unter den 10 relevantesten Artikeln aller Zeiten sind 2 Artikel von Hopkinson aus den Jahren 1952 und 1958 aufgelistet und einer aus dem Jahre 1917 mit dem vielsagenden Titel „Protection from Glare“, auf Deutsch Schutz vor Blendung. Der äußerst interessante Beitrag fängt mit diesem Satz an: “Ein wirksamer Schutz der Augen vor Blendung ist heutzutage ein Thema von großer Bedeutung, doch leider gibt es diesbezüglich zahlreiche Missverständnisse.“ An denen leidet man wohl 109 Jahre später heute.

Was die Lichtwissenschaften in Sachen Blendung bislang geleistet haben, habe ich in dem Kapitel Warum sich die Forschung auf der Stelle dreht auseinandergesetzt. Das ist ein längeres Kapitel, das in mehrere Abschnitte unterteilt ist. Deren Titel sprechen für sich:

  • Konzeptionelle Mängel grundsätzlicher Art;
  • Fehlen eines übergeordneten Ziels, weil Vermeiden von Blendung zu wenig bedeutet;
  • Vielzahl von Erscheinungen mit demselben Effekt, die unberücksichtigt bleiben;
  • Unzureichendes Ziel der Sehleistung, das das Farberkennen ignoriert;
  • Gefährden statt nützen, wenn unsinnige Anforderungen gestellt werden;
  • Etablieren eines Gütemerkmals, das seinem eigenen Ziel widerspricht.

 

Insbesondere die letztere Aktion hat dem Ruf der Lichttechnik am meisten geschadet. Es wurde ein völlig überflüssiges und unwirksames Gütemerkmal eingeführt, das zu einer Beleuchtung führte, die mehr blendete als alle vergleichbaren Beleuchtungsarten. Nach lichttechnischen Vorstellungen von damals würde man aber eher von einer absolut blendfreien Beleuchtung sprechen. Das stand sogar in den Fachzeitungen, publiziert von angesehenen Leuten vom Fach.

Summa summarum hat sich die Lichtforschung ständig im Kreise gedreht und nicht gemerkt, dass bereits ihr Ansatz falsch war. In den 1990ern kam der finale Akt, bei dem mehrere für sich nie validierte Blendungsbewertungsverfahren auf dem Papier zusammengewürfelt und „vereinheitlicht“ zu UGR wie einheitliche Blendbewertung.[1]

Bei der empirischen Untersuchung der Blendung geht man nach wie vor sehr ähnlich vor. Man benutzt eine sehr alte Skala, deren Konstruktion fragwürdig war, damit die Ergebnisse vergleichbar sind. Aber das wichtigste Problem ist, dass man Blendung ohne Arbeitsbelastung und meist auch ohne visuelle Belastung misst. Es war aber bereits in den 1960ern bekannt, dass die Wirkung einer Belastung durch eine gleichzeitig wirkende andere Belastung unproportional erhöht wird. Der schwedische Psychologe Olov Östberg hat zudem nachgewiesen, dass z.B. eine Lärmbelastung die Blendung durch eine visuelle Umgebung erhöht, obwohl die beiden Empfindungen nichts miteinander zu tun haben. Solange man daran nichts ändert, sind alle Blendungsuntersuchungen Kandidaten für ein Versagen. Zwischen den beiden Bildern unten liegen rund 60 Jahre. Kann man annehmen, dass Menschen bei dieser Haltung und in diesem Setting „comfort“ beurteilen können?

Die Blendungsbewertung, wie sie in der Lichttechnik praktiziert wird, ist mindestens zweideutig. Die Wahrscheinlichkeit, dass sie irgendeine Aussagefähigkeit besitzt, geht gegen Null. Die experimentelle Methode, nach der sie ermittelt wurde, kann nachweislich nicht funktioniert haben. Wie Validierungsversuche gezeigt haben, hat sie auch nicht funktioniert. Hier das Ergebnis einer sorgfältigen Prüfung des UGR-Verfahrens: „Die Blendungsmodelle wurden nach fehlenden Untersuchungsbedingungen und Inkonsistenzen geprüft. Es wurden Mehrdeutigkeiten gefunden wie die Einbeziehung von kleinen und großen Blendquellen und was überhaupt eine Blendquelle in komplexen Situationen mit mehreren Leuchten ist. … Die Blendungsmodelle wurden umgerechnet, um mit den Vorhersagen von 1949 von Luckiesh und Guth verglichen zu werden. Die Modelle zeigten eine geringe Aussagekraft. Wenn man Blendung in komplexeren Situationen [mehrere Leuchten, d. Autor] bewerten will, müssen die Modelle grundsätzlich neu formuliert werden.“[2]

Da verstehe einer, dass der UGR-Wert einer Leuchte im Leuchtenkatalog dreistellig angegeben wird. Schlimmer kann man das Vertrauen in Technik nicht schädigen.

Beleuchtung ist keine akademische Disziplin!

Diesen Spruch stelle ich gesondert hervor, weil er aus einer bestimmten Ära stammt, wo die Rolle der Wissenschaft in Sachen Licht, gelinde gesagt, verwaist war. Üblicherweise zeichnen sich erfolgreiche Branchen dadurch aus, dass Industrie und Wissenschaft zusammenarbeiten, indem jeder Partner den Part übernimmt, für den er die besseren Chancen hat. So kann man in den Laboren der Industrie zwar auch Forschung betreiben, aber nicht Problemen nachgehen, die eher eine Grundlagenforschung erfordern. Diese Vorstellung wird in Deutschland in großem Stil verfolgt. Für die Grundlagenforschung sind die Institute der Max-Planck-Gesellschaft zuständig (84 Institute, 24.000 Beschäftigte, 7000 Forschende). Eine praxisnähere Forschung, aus der auch Produkte hervorgehen können, betreibt die Fraunhofer-Gesellschaft (76 Institute, 32.000 Angestellte). Deutschland unterhält noch zwei weitere Forschungseinrichtungen, Helmholtz-Gemeinschaft (48.000 Angestellte) und Leibniz-Gemeinschaft (21.000 Angestellte). Universitätsinstitute können sich von der Grundlagenforschung bis hin zur Produktentwicklung auf verschiedenen Feldern betätigen.

Auch auf dem Gebiet der Lichttechnik funktionierte eine Kooperation lange Zeit recht gut. Doch ab Mitte der 1970er Jahre merkten die Industrievertreter immer wieder, dass sie an den Universitätsinstituten wenig Gehör fanden. So hat eine Vereinigung der vier größten Unternehmen der Branche die Institute angeschrieben, um Forschungsprojekte aufzuschienen. Die Reaktion sorgte für Entsetzen. Man erfuhr schriftlich, dass Beleuchtung keine akademische Aufmerksamkeit verdiene. Sie sollten sich an die Fachhochschulen wenden. Das war ignorant gegenüber dem Anliegen der Industrie und überheblich gegenüber den Fachhochschulen.

Die Ära, in der so etwas möglich war, währte zwar nicht ewig, dauerte aber lange genug, um Schaden anzurichten. Dieser Schaden betraf insbesondere das Thema Blendung, weil die Erkenntnis, dass die vorhandenen Blendungsbewertungsverfahren (VCP in den USA, Glare Index in UK, Söllner-Kurven in Deutschland) eher zum Chaos führten, in diese Ära fiel. Dabei waren zwei der drei Verfahren von Industrieunternehmen erarbeitet worden (VCP von General Electric, Söllner-Kurven von Philips) und das dritte von einem privatisierten ehemaligen Staatsinstitut. Allen war auch mehr oder weniger bewusst, dass ihre Verfahren „nicht reproduzierbar“ waren, sprich, keine Validität hatten. Das Zeitfenster war günstig, um ein valides Verfahren zu erarbeiten, zumal man jetzt über zuverlässige Messtechnik und leistungsfähige Computer verfügte, die zur Entwicklungszeit der alten Blendungsbewertungsverfahren auch in führenden Instituten gefehlt hatten. Stattdessen wurde mit dem UGR-Verfahren eine Methode entwickelt, die bereits bei ihrem Entstehen im Jahr 1995 obsolet war. Und das in mehrfacher Hinsicht:

  • Nur für die "etwa horizontale Blickachse": Die Standard-UGR-Tabellen in den Katalogen der Hersteller basieren auf der Annahme, dass der Nutzer geradeaus nach unten schaut (Sehaufgabe unter der Horizontalen)
  • Vernachlässigung der Umgebung (Kontext-Mangel): Das UGR-Verfahren bewertet die Leuchte in einem theoretischen Standardraum. Es berücksichtigt nur unzureichend, ob der Raum dunkle, absorbierende Wände oder helle, reflektierende Oberflächen hat.
  • Ignorieren der Peripherie: Lichtquellen, die ganz am Rand des Sichtfeldes liegen, können dennoch Stress verursachen, werden aber durch die Gewichtungsfaktoren (Position Index p) in der Formel oft "weggerechnet".
  • Falsche Grundlage: Die UGR-Formel "mittelt" die Leuchtdichte über die gesamte Fläche der Leuchte, weil nicht die Leuchtdichte gemessen wird, sondern die Lichtstärke.
  • Ungültige Aussage für großflächige Leuchten: Nach Aussagen der Entwickler ist UGR nicht auf großflächige Leuchten, leuchtende Decken oder indirekte Beleuchtung anwendbar. Genau diese zeichnen sich aber durch eine geringere Blendung aus.
  • "Punktquellen-Lücke" (LED-Problematik): Die Vorgänger des UGR-Verfahrens wurden für Leuchtstofflampen mit Diffusoren entwickelt. Moderne LEDs sind jedoch oft winzige, extrem helle Lichtpunkte (Clustered LEDs). Eine LED-Leuchte mit vielen extrem hellen Einzelpunkten kann denselben UGR-Wert haben wie eine gleichmäßig leuchtende Fläche, obwohl die Einzelpunkte in der Realität viel stärker blenden. (s. hierzu den Beitrag LED-Abstände sorgen für mehr Blendungsempfindung[3]
  • Computerarbeitsplätze ignoriert: Die Vorgänger des UGR-Verfahrens wurden in einer Zeit entwickelt, als die Sehaufgabe vor einer arbeitenden Person direkt vor ihr lag. Deren Fläche war zudem recht klein. Heute arbeiten die meisten Menschen entweder vor einem großen Bildschirm oder vor zwei Displays, die in der Breite etwa einen Meter einnehmen und etwa augenhoch sind. Wer diese benutzt, guckt nicht auf ein oder zwei DIN-A4-Blätter, sondern bewegt sein Auge über die gesamte Strecke.
  • Blendfreiheit nicht angestrebt: Blendungsbegrenzung bedeutet nicht Blendfreiheit. Wenn man verwuxcht, zu ermitteln, was die Vorgabe in den Beleuchtungsnormen UGR ≤ 19 bedeutet, kann man viele Antworten bekommen. Drei Antworten durch drei Professoren für Lichttechnik lauteten, dass der Wert bedeutet VCP 65, d.h. 65% der Probanden erachten eine Beleuchtung für „gerade zulässig“. [4]

 

[1] UGR = Unified glare rating stellt eine Weiterentwicklung des CIE Glare Index dar. Das Verfahren vermengt das Verfahren nach Luckiesh und Guth (1949) mit dem früher in Deutschland üblichen Söllner-Verfahren, die sich eigentlich nicht gut vertragen. Keines der Verfahren wurde je validiert. Die Zusammenfassung (UGR) hat gar eine nur geringe Korrelation zur empfundenen Blendung (siehe Clear, Robert D.: Discomfort glare: What do we actually know? In: Lighting Research and Technology. April 2013 vol. 45 no. 2 141-158 doi:10.1177/1477153512444527 .

[2] Clear, R. D. Discomfort glare: What do we actually know?, Lighting Research and Technology, 2012, https://journals.sagepub.com/doi/abs/10.1177/1477153512444527?journalCode=lrtd

[3] Abboushi B, Miller N, Royer M, Orman A, Irvin L, Rodriguez-Feo Bermudez E. LED array spatial frequency impacts discomfort and afterimages in a simulated nighttime environmentLighting Research & Technology. 2026;0(0). doi:10.1177/14771535251400286

[4] Diss Funke, S. 19, zitiert aus Deutsche Lichttechnische Gesellschaft e.V. (Hrsg.): Das UGR-Verfahren zur Bewertung der Direktblendung der künstlichen Beleuchtung in Innenräumen, LiTG-Publikation Nr. 20:2003, LiTG: Berlin, 2003.

Wenn die Farben täuschen – Ein altes Problem mit neuer Bedeutung

Die Technik liefert uns die Werkzeuge,
aber die Weisheit, sie zu gebrauchen,
hinkt eine Generation hinterher.

William F. Ogburn in Cultural Lag

Dieser Beitrag handelt von einem Phänomen, das nicht nur die Wissenschaft beschäftigt. Es war schon immer im Alltag relevant und wurde durch den Online-Handel noch wichtiger als einst.

Kurzfassung

Metamerie bezeichnet das Phänomen, dass Farben unter bestimmten Bedingungen gleich erscheinen, obwohl sie physikalisch unterschiedlich sind. Besonders relevant ist dies bei Beleuchtungs‑Geometrie‑ und Beobachtermetamerie, bei denen sich der Farbeindruck je nach Lichtquelle, Betrachtungswinkel oder Person ändert. Im Alltag führt das häufig zu Fehlurteilen, etwa beim Kauf von Kleidung, Möbeln oder Autos, da kleine Muster, Displays und Kameras Farben verfälschen. Digitale Darstellungen können das reale Farbspektrum nicht korrekt wiedergeben und verstärken die Unsicherheit. Wirtschaftlich wirkt sich Metamerie vor allem im Onlinehandel aus, wo sie einen erheblichen Teil der Retouren verursacht. Händler versuchen gegenzusteuern, etwa durch bessere Darstellung oder virtuelle Anproben, eine vollständige Lösung gibt es jedoch nicht. 

Zum Begriff

Unter Metamerie versteht man in der Farblehre das Phänomen, dass zwei Farbmuster unter einer bestimmten Lichtquelle identisch erscheinen, obwohl sie eine unterschiedliche chemische oder physikalische Zusammensetzung (und damit unterschiedliche Reflexionseigenschaften) haben. Metamer heißt bedingt gleich.

Einfach gesagt: Die Farben sehen (unter Umständen) gleich aus, sind es aber „substanziell“ nicht.

Wo wird Metamerie relevant?

Die häufigste Form ist die Beleuchtungsmetamerie: Der Farbeindruck ändert sich beim Wechsel der Lichtquelle (z. B. von Kunstlicht zu Tageslicht). Man kauft im Laden mit hellem LED- oder Leuchtstofflampenlicht zwei Kleidungsstücke (z. B. eine dunkelblaue Hose und ein dazu passendes Sakko), die perfekt harmonieren. Sobald man jedoch ins natürliche Sonnenlicht tritt, wirkt die Hose plötzlich rötlicher oder das Sakko gräulicher. Die optische Übereinstimmung bricht zusammen.

Während man die Hose und das Sakko notfalls entsorgen kann, kommt der Metamerie bei Zahnprothesen eine große Bedeutung zu. In der Zahnmedizin arbeitet man sogar noch wissenschaftlich an der Vermeidung der Metamerie (Beispiel hier). Das dient insbesondere dazu, dass die "falschen" Zähne, die beim Zahnarzt noch wie die eigenen aussehen, im UV-Licht der Disco oder bei Kerzenschein im Restaurant als „Fremdkörper“ hervorstechen können.

Viel tückischer macht es die Geometriemetamerie: Der Farbeindruck ändert sich je nach Betrachtungswinkel oder Beleuchtungswinkel (häufig bei Metallic-Lacken oder Seidenstoffen). Die kann bei Autolacken gewollt sein, bei der Abnahme einer Druckvorlage hingegen sehr tückisch. Man prüft 5.000 Flyer gewissenhaft, ob die Farben gut gelungen sind. Schon vor der Druckerei sehen die Objekte nicht mehr so gut aus. Das Problem kann aber bereits bei der Auftragserteilung eingetreten sein, wenn der Lichteinfall bei dem Auftraggeber anders war als beim Drucker.

Eine dritte Form ist die Beobachtermetamerie: Zwei Menschen betrachten dieselbe Farbe unter demselben Licht. Aufgrund individueller Unterschiede im Auge (Dichte der Sehpigmente, Alterung der Linse) sieht Person A eine Übereinstimmung, während Person B einen Farbunterschied erkennt.

Es gibt sogar eine Theorie, wonach diese Erscheinung geschlechtspezifisch ist, Frauen sehen Farben aus genetischen Gründen anders als Männer.

Ähnlich wie Metamerie, aber (heim)tückischer …

Nicht mit der Metamerie zu verwechseln ist die Abhängigkeit der erkannten Farbe von der absoluten Größe des Musters, z.B. beim Möbel- oder Autokauf im Internet. Hierbei kommen sämtliche Gemeinheiten der falschen Farbwahrnehmung zusammen. Man glaubt, man sieht ein elegantes Anthrazit, und geliefert wird ein Wagen, der im Sonnenlicht plötzlich einen Stich ins Bräunliche oder Violette hat.

Zunächst zum Problem der Fläche. Selbst wenn alle Betrachtungsbedingungen perfekt wären, kann kaum ein Mensch von einem kleinen Farbmuster auf eine große Fläche schließen. Wenn die gesehene Fläche kleiner wird, verschwindet die Farbwirkung langsam aber sicher. Dies zeigt das nachfolgende Bild. Die dicken Striche sehen richtig rot aus. Der Farbeindruck wird blasser, je dünner der Strich wird. Etwa dasselbe passiert, wenn man sich die Farbe seines künftigen Autos aus einer Tabelle mit Farbmustern aussucht.

Wenn man das Auto auf dem Bildschirm aussucht, kommen mindestens die Qualität des Monitorpanels, die Einstellung der Wiedergabe (Farbprofil) und das Betriebssystem hinzu. Ein Bildschirm (Smartphone oder Laptop) kann physikalisch das echte Farbspektrum des Autos gar nicht anzeigen. Wobei man gleich in Frage stellen muss, ob es die echte Farbe geben kann. Denn das Bild des Autos wird unter einem bestimmten Licht erzeugt. Wenn es mit einer Handykamera aufgenommen wird, verfälscht diese wegen ihrer “Optimierung”: Wenn ein blaues Auto vor einer grauen Wand steht, korrigiert die Software den Weißabgleich so extrem, dass der Lack auf dem Foto lebendiger wirkt, als er in der Realität ist.

Die wirtschaftliche Bedeutung

Solange man wichtige Dinge wie Kleidung oder Möbel nach physikalischer Inspektion kaufte, war das Problem relativ einfach lösbar. Man ging mit der Ware kurz aus dem Laden und ließ sich vom Erscheinungsbild überzeugen. Frühere Schneider haben den Stoff, die Nähseide, die Knöpfe und Reißverschlüsse immer fein drapiert und unter der künstlichen und natürlichen Beleuchtung beurteilt. Heute kann man nicht einmal davon ausgehen, ob der Näher eines Sakkos auch dessen Knöpfe kennt, die möglicherweise in einem anderen Land angebracht werden.

Ein Großteil der gekauften Ware wird online gekauft und kommt mit der Post. Es wird häufig am Abend ausgepackt. Die Rolle der Metamerie schlägt bei Modeartikeln voll zu. Ein großer Teil der Retouren von 40% bis 60% geht vermutlich auf die Metamerie zurück. Bei Elektronikartikeln, wo die Farbe praktisch keine Rolle spielt, betragen die Retouren nur 5% bis 10%.

Einige Farben sind extrem anfällig:

Navy / Dunkelblau → kann violett oder grau wirken
Beige / Taupe → wirkt mal warm, mal kühl
Weiß / Off-White → kann gelblich oder bläulich erscheinen

Da die Rolle der Metamerie insbesondere bei Modeartikeln bekannt ist, versuchen Händler die Farbverfälschungen möglichst zu reduzieren. Das geht bis zur virtuellen Anprobe: Über die Smartphone-Kamera wird das Kleidungsstück virtuell „angezogen“. Moderne AR-Software versucht dabei, die aktuelle Lichtsituation im Raum des Nutzers zu berechnen, um die Farbe realistisch anzupassen. Ehrliche Teppichversandhäuser warnen gar vor Farbverfälschungen durch den Blickwinkel auf den Bildschirm.

Aber selbst sehr gut klingende Ratschläge helfen zuweilen  nicht. So klingt dieser Ratschlag recht passabel: “Beurteilen Sie Farben immer am Fenster bei indirektem Tageslicht, bevor Sie das Etikett entfernen.”Das Fensterglas entfernt das UV-Licht fast vollständig, dadurch entfällt die Wirkung der Weißmacher. Diese aber bestimmen nicht selten die Frische der Farben bei der Kleidung. Andererseits ist es unsinnig, Unterwäsche und Schlafbekleidung bei Tageslicht zu beurteilen.

Die möglichen Fehler und Abhilfen beim Autokauf, insbesondere bei Gebrauchtwagenkauf, sind abendfüllend. Diese erläutere ich in einem getrennten Beitrag.

Wie verdient man sich einen schlechten Ruf? Fallstudien aus der Praxis I

Die Technik liefert uns die Werkzeuge,
aber die Weisheit, sie zu gebrauchen,
hinkt eine Generation hinterher.

William F. Ogburn in Cultural Lag

In dieser Reihe beschreibe ich in lockerer Folge die Entstehung des Gefühls bei den Benutzern, dass ein Arbeitsraum ohne künstliche Lichtquellen die beste Arbeitsumgebung wäre (Ergebnis einer LinkedIn-Studie). Diesen Ruf hat die Beleuchtungstechnik in enger Zusammenarbeit mit der Architektur redlich verdient. Manchmal war auch die Politik sehr hilfreich dabei …

Alte und neue Technologien

Dieser Beitrag untersucht anhand historischer und aktueller Fallstudien, wie bestimmte Handlungsweisen bei der künstlichen Beleuchtung ihren schlechten Ruf bei Nutzern erzeugten. Im Mittelpunkt stehen technische Fehlentwicklungen, ignorierte Nutzerbedürfnisse und politisch-industrielle Fehlentscheidungen. Beginnend bei den frühen Leuchtstofflampen mit Glimmstarter beschreibe ich, wie das störende Flackern und eine bestimmte Unzuverlässigkeit dieser Technik über Jahrzehnte hinweg trotz existierender Lösungen bestehen blieben. Anschließend beschreibe ich die Entstehung und Vermarktung der Kompaktleuchtstofflampe (KLL)– einschließlich der Probleme durch langsame Startzeiten, mangelhafte Lichtqualität, erhöhte Ausfallraten sowie die ökologisch umstrittene Verwendung von Quecksilber. Politische Entscheidungen und Industriekampagnen, die diese Technologie trotz ihrer Defizite als ökologische Innovation propagierten, verstärkten die Akzeptanzprobleme zusätzlich. Der Beitrag zeigt, wie wiederholtes Ignorieren von Nutzererwartungen und Umweltaspekten über Jahrzehnte hinweg zu einem nachhaltigen Vertrauensverlust in bestimmte Lichttechnologien führte – und wie moderne LED-Technik diesen Ruf inzwischen teilweise rehabilitiert. 

In der guten alten Zeit, als der Glimmstarter regierte …

Edison hatte Wort gehalten und eine Lampe gebaut, die beim Drehen des Schalters sofort Licht gab. Das ist bis heute so geblieben: Niemand möchte stundenlang warten, bis Licht kommt. Genauer gesagt, es handelt sich um wenige Sekunden, die niemand abwarten will. Der einzige Unterschied zu 1890 ist, dass wir keinen Drehschalter mehr haben, jedenfalls in modernen Bauten. Dort geht es auf Knopfdruck.

Die so verwöhnten Menschen wurden an deren Arbeitsplatz mit einer Technik konfrontiert, die das Licht nach Meinung der Techniker “wirtschaftlich” lieferte, aber nicht sofort. In den frühen Tagen der Leuchtstofflampe (ca. 1930er/40er Jahre) war das Starten ein mechanischer Prozess. Der klassische Starter ist im Grunde eine kleine Glimmlampe mit einem Bimetall-Kontakt. Diesen fand die Technik wohl nicht so störend, dass eine meiner ersten Forschungsarbeiten dazu diente, bessere Glimmstarter auszusuchen, die die Lampe nicht mehr mehrfach flackern ließen.

Das war etwa 30 Jahre, nachdem mein Vater sich über die neue Beleuchtung in seinem Büro beschwert hatte. Er war nach Hause gekommen und hatte berichtet von der neuen Beleuchtung mit Leuchtstofflampen und seinen Kopfschmerzen. Es war üblich, solche Beschwerden ins Reich der Fabel zu verweisen und die Beschwerdeführer zum Nörgler zu erklären.

Dabei war die Lösung des Problems der flackernden Lampe längst bekannt, als ich Ende der 1960er die Starter untersuchte. Denn die Ingenieure wollten dieses unzuverlässige mechanische Bauteil (den Starter) schon immer loswerden. Der Starter war nämlich oft das erste Teil, das kaputtging. Nicht nur das. Wer damals den falschen Starter kaufte, stand zuweilen im Dunkeln oder erlebte eine Röhre, die nur an den Enden glühte, aber nie zündete. Ein Starter hielt zudem oft nur ein paar tausend Schaltvorgänge. Wenn er festklebte, glühten die Wendeln der Röhre dauerhaft durch, bis sie verbrannten. Deswegen hatte man die Rapidstartlampe erfunden. In den USA brachte die Firma General Electric (GE) im Jahr 1952 das erste kommerziell erfolgreiche Rapidstart-System auf den Markt.

Das Motiv der GE-Ingenieure war buchstäblich sehr einleuchtend: Das Startverhalten der Leuchtstofflampe war das größte Hindernis für die Akzeptanz im Wohnbereich und in gehobenen Büros. Das ständige Flackern der Glimmstarter (Preheat-Systeme) wurde als "billig" und unzuverlässig wahrgenommen. Und GE war das größte Unternehmen der Welt, was das künstliche Licht anbelangte. Dennoch dauerte die Flackerei bis in das neue Jahrhundert. Es wurde im Laufe der Zeit seltener.

Als ich mich mit den Glimmstartern beschäftigte, war mein Zimmernachbar an einer Technologie daran, die später Epoche machen würde, das elektronische Vorschaltgerät (EVG). Er bastelte an einem der ersten Exemplare. Das ist aber eine andere Geschichte, die ein andermal erzählt werden soll. Hier geht es um ein Ignorieren des Nutzerverhaltens, das auch dann griff, als das mächtigste Unternehmen der Branche die Lösung längst präsentiert hatte.

Neuauflage des Ignorierens des Startverhaltens einer Lampengattung

Die gemeinte Lampengattung ist mit der Firma verbunden, von der oben die Rede ist. Ihre Geschichte beginnt bei General Electric (GE) in den USA. Mitten in der ersten großen Ölkrise sucht man verzweifelt nach Wegen, Strom zu sparen. Der Ingenieur Edward E. Hammer biegt eine lange, dünne Glasröhre in eine enge Spiralform, damit sie in die Größe einer normalen Glühlampe passt. GE entschied sich gegen die Produktion. Die Maschinen zur Herstellung der gebogenen Glasröhren wären zu teuer gewesen (geschätzte 25 Millionen Dollar). So legt GE das Patent auf Eis.

Während GE zögerte, sahen die Europäer ihre Chance. Philips präsentierte 1980 die erste marktreife Kompaktleuchtstofflampe: die Philips SL*. Sie sah aus wie eine klobige Marmeladenglas-Konstruktion. Sie war schwer (wegen des eingebauten magnetischen Vorschaltgeräts), groß und unhandlich. Dennoch wurde sie eine Sensation, weil sie 80% weniger Strom verbrauchte und 10-mal länger hielt.

Die Designer bei Osram und Philips entwickelten die "U-Form" (die typischen Finger-Röhren), die leichter zu produzieren waren als Hammers Spirale. In den späten 80ern ersetzten kleine Platinen die schweren, brummenden Kupferspulen. Die Lampen wurden leichter, flackerten beim Start nicht mehr und leuchteten sofort heller.

Dabei bedeutete sofort leider nicht gleich. Viele Modelle brauchten 1–2 Minuten, um ihre volle Helligkeit zu erreichen ("Geduldslicht"). Volle Helligkeit hieß leider immer noch nicht die geplante Lichtqualität. Wenn man um das Jahr 2007 eine solche Lampe im Labor messen wollte, musste sie volle 24 Stunden warm werden, damit ihre Daten stabil blieben. Dass sie zuvor noch zwei Wochen eingebrannt werden musste, bis sie ihre Eigenschaften einigermaßen festigte, gehört noch dazu.

Da die Lampen wegen ihrer meist schlechten Lichtfarbe (grünlich-gelb) und noch schlechteren Farbwiedergabe (mit erheblicher Mühe bei der Bewertung auf Ra 80 getrimmt) meist nur in Garagen oder Kellern zu Hause waren, hat vermutlich niemand die Kompaktleuchtstofflampe (KLL) mit ihrem labormäßigen Erscheinungsbild gesehen. Für professionelle Anwendungen gab es andere KLL mit externem elektronischem Vorschaltgerät, die man an dem Stecksockel erkennen konnte.  Die hier gemeinten KLL waren solche mit integriertem Vorschaltgerät, das im Sockel saß.

Als die Debatte um das Glühlampenverbot der EU 2007 begann, wurde die KLL zur Energiesparlampe hochbefördert. Und zwar nicht die Technologie, sondern die Form mit dem integrierten Vorschaltgerät. Es half nicht, dass die Gegner argumentierten, man könne eine ökologische Revolution, die in der Ökodesign-Richtlinie von 2008 kulminieren sollte, Verordnung (EG) Nr. 244/2009, mit einer Technik vorantreibt, die massensweise Elektroschrott produziert. Denn der neue Stern am ökologischen Himmel, die KLL mit integriertem Vorschaltgerät, ging schneller kaputt, weil sich der Sockel erwärmte, was der Elektronik selten guttut. Und die Elektronik war selten hochwertig, weil die Energiesparlampe mit der Glühlampe konkurrieren sollte.

War der Vorwurf der Förderung des Elektronikschrotts noch relativ harmlos, verstießen die Freunde der auf den Thron der Ökologie gesetzten Lampe gegen eine der wichtigsten ökologischen Grundlagen: das Verbot von Quecksilber. Diese Substanz, von der man zwar gerne, aber sehr schwer Abschied nahm, ist praktisch in allen Lebenslagen verboten bzw. geächtet, seit man Mitte der 1950er Jahre in der Minimata-Bucht in Japan schreckliche Entdeckungen gemacht hatte. Besonders grausam war die Entdeckung, dass Methylquecksilber die Plazentaschranke durchbricht. Mütter, die selbst kaum Symptome zeigten, brachten Kinder mit schwersten Fehlbildungen und geistigen Behinderungen zur Welt. Dies bewies, dass Quecksilber direkt in die Gehirnentwicklung von Ungeborenen eingreift. Und nun sollte die ökologische Revolution der EU mit einer Technologie beginnen, die auf eben diesem Material beruhte.

In dieser Situation wirkte die Argumentation der Industrie besonders perfide. Als der Umweltminister Gabriel mit der Energiesparlampe Wahlkampf betrieb (z.B. hier) und sein Vorgänger Jürgen Trittin ihm beistand, half ihm die Industrie mit dem Argument, die Wunderlampe würde Energie sparen und so ein kleines Kohlekraftwerk einsparen helfen. So erfuhr die Öffentlichkeit, dass Kraftwerke immer Quecksilber über das Land streuen. (zu lesen unter z.B. Quecksilber hin, Quecksilber her oder Quecksilber - noch einmal aus den Jahren 2009 und 2010)

Wenn die Politik solche Hämmer ignoriert und einer Technologie den Vorrang einräumt, die auf einem äußerst giftigen Material beruht, wie ernst mag man denn die Unannehmlichkeit des Anlaufs einer Lampe beim Einschalten nehmen? (Hier hilft unsere Studie zur Ökologie der Energiesparlampe Download weiter) Der EU bliebe allerdings die Peinlichkeit erspart geblieben, die Energiesparlampe aus dem Verkehr zu ziehen, weil sie keine Energiesparlampe war. Seit 1. September 2021 dürfen keine klassischen Energiesparlampen mit Schraubgewinde (E27/E14) in den Verkehr gebracht  werden. (s. Energiesparlampen verboten, weil nicht energieeffizient). Somit wurde die Energiesparlampe lange vor mancher Halogenglühlampe aus dem Verkehr gezogen.

Heute gehen die Lichter wieder sofort an wie zu Zeiten Edisons. Sie werden häufig in E27-Sockeln geschraubt, auch wie zu Zeiten Edisons. Allerdings hat das neue Licht mit den früheren Versionen nur noch wenig zu tun. Was neu ist und wie es dazu kam, habe ich in dem Kapitel Epochen der Kunst der Lichtmacher dargelegt. Wer Interesse hat, zu wissen, was mit der neuen LED-Technologie möglich ist, was früher nicht denkbar war, sollte sich alles angucken, was alles auf der Basis dieser Technologie möglich ist. Das kleinste Objekt, das mir einfällt, ist eine winzige LED, deren Licht hilft, Tumorzellen zu töten. Das bislang Größte war ein Display, das eine ganze Straße in Las Vegas überdacht.

Dazwischen liegen solche Objekte wie auf diesem Foto, das den Ruf der künstlichen Beleuchtung erklärt. Es gehört zu meinen liebsten Aufnahmen, weil viele “Gewerke” für dieses Erscheinungsbild verantwortlich sind. Wer alles da beteiligt war, habe ich in einem anderen Beitrag erläutert: Wie kommt das Grauen in deutsche Büros?.