Die Methode Wissenschaft, mit der man Wissenschaft verhindert – zum Zwoten: HARKing

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

HARKing steht für Hypothesizing After the Results are Known, also Hypothesen aufstellen, nachdem man die Ergebnisse kennt. Es geht etwa so: Man befragt eine Zahl Menschen über alles Mögliche, rechnet alle Beziehungen zwischen den Antworten aus, z.B. als Korrelationen. Wenn man eine hinreichend große Korrelation gefunden hat, stellt man die passende Hypothese auf. Siehe da, man kann sie empirisch belegen. So kommen etwa Ergebnisse wie die Wirkung des rechtsdrehenden Wassers zusammen. Aus meiner Kindheit habe ich noch solche Aussagen im Gedächtnis wie diese: amerikanischen Psychologen ist der Nachweis gelungen, dass der Kaffee besser schmeckt, wenn man den Zucker rechtsherum rührt. Den empirischen Beweis hat man schon vorher errechnet. Mit solchen Methoden hat man immer die richtige Hypothese.

Seriöse wissenschaftliche Studien beginnen hingegen stets mit der Definition einer vernünftigen Hypothese, der Forschungsfrage. Wenn man die Meinung von wirklich großen Forschenden wie Albert Einstein dazu hört, hat man bereits mit der Formulierung einer Hypothese die größte Hürde zur Erkenntnisgewinnung genommen. „Fragen sind aller Erkenntnis Anfang“ oder „Fragen sind die Wiege der Weisheit“, so hören sich manche Weisheiten an, die normale Menschen formuliert haben. Aber auch die Großen der Kulturgeschichte wissen Antwort zu geben: „Dem guten Frager ist schon halb geantwortet.“ (Friedrich Nietzsche) oder „Ob ein Mensch klug ist, erkennt man an seinen Antworten. Ob ein Mensch weise ist, erkennt man an seinen Fragen.“ (Nagib Mahfuz).

Ein besonders auffälliges Beispiel für HARKING hat ein Hamburger Professor für Psychiatrie geliefert. Er stellte fest, dass man unruhige Kinder mit blauem Licht ruhigstellen kann. Zudem werden die Kinder, jedenfalls nach seiner Studie, um 44% aufmerksamer. Die Studie passte unheimlich gut in die Zeit. Erstens war die Sache mit dem Ruhigstellen schon seit 1973 durch einen gewissen John Ott aus den USA bekannt. Zweitens gab es ab 2008 Fördermittel für die Industrie, weil wir eine Wirtschaftskrise hatten. Mal sehen, was man aus einem Versuch noch alles herausholen kann. Es sollten 1000 Grundschulklassen mit dynamischem Licht beleuchtet werden.

So kam es zu der Sache mit Untersuchung der Aufmerksamkeit. In drei Schulen wurden Kinder unter „dynamisches“ blaues Licht gesetzt, wobei sie einen Aufmerksamkeitsbelastungstest ausführten. Dieser Test, d2-Test, ist zwar von seinem Autor Brickenkamp für den sog. Idiotentest für den TÜV erstellt worden. Wer wird denn schon wissen, dass er nicht für Kinder validiert ist. Zudem hat er einen gewaltigen Mangel für den diesmal vorgesehenen Zweck: Der d2-Test ist bekannt für seine Anfälligkeit bei Wiederholungen. Beim TÜV absolvierte man den nur einmal. Bei dem fraglichen Versuch mussten die Kinder zweimal denselben Test absolvieren, um eben den Unterschied von 44% zu dokumentieren.

Heureka! Die Kinder waren eben 44% aufmerksamer durch das Licht geworden. Und msn kann die Wirkung präzise ein- und ausschalten, wie das untere Bild zeigt. Dazu erklärte der Professor in einer Fernsehsendung, die Wirkung wäre wie beim Trinken einer Tasse Espresso.

Dumm nur, dass Kleinkinder keinen Espresso trinken dürfen. Und dass eine solche Wirkung vermutlich nur durch die Beeinflussung der Hormone der Kinder erzielt werden kann. (Den ganzen Vorgang haben wir seit 2009 ausführlich dokumentiert, z.B. hier KINDER ALS VERSUCHSOBJEKT und KINDER ALS VERSUCHSOBJEKT - RELOADED und KINDER ALS VERSUCHSOBJEKT NOCH EINMAL und BLAULICHT IN HH - AD ACTA? NICHT DOCH!). Dazu erklärte der Professor in einer von uns erzwungenen Anhörung, dass ihm die hormonelle Wirkung unbekannt sei. Zudem hält er auch die Wirkungen von Licht bei Erwachsenen (Lichttherapie) für unmöglich. Er hätte nur die Wirkung vom blauen dynamischen Licht auf Kinder testen wollen. Und siehe da, die Kinder waren schlauer und ruhiger geworden. Nur mal so.

Die Presse hatte die Sache frühzeitig begierig aufgenommen und sprach von "Blau macht schlau" und ähnlichem Unsinn.

Und wie geht das bitte?

Immerhin hat diese Studie es in die wissenschaftliche Literatur und in einen Normenentwurf geschafft. Dass man Kinder buchstäblich per Knopfdruck aktivieren oder beruhigen kann, wurde sogar in einer Fernsehshow „Die große Show der Naturwunder“ vom ARD präsentiert. Ein Triumph des HARKing! Und hier ist der Emotionswähler, den sich die Lehrerschaft gewünscht hatte.

HARKing ist eine gängige Methode. Hat man einmal festgestellt, dass man bestimmte Fragen „signifikant“ testen kann, ermittelt man neue Erkenntnisse schneller, als andere denken können. Man kann dem Auftraggeber ein Ergebnis völlig legal vorab garantieren und die Studie nachschieben. Wie diese todsicher gelingt, lässt sich im Voraus berechnen.

Der allergrößte Anteil der Studien, die ihre Erkenntnisse über HARKing gewinnen, wird aber von Forschenden ausgeführt, denen ihr Vorgehen nicht einmal bewusst ist. Man stößt zufällig auf Gemeinsamkeiten und erklärt diese mit einer geeigneten Studie.

(Gesamtheit aller statistischen Kniffe hier zu lesen)

Die Methode Wissenschaft, mit der man Wissenschaft verhindert – zum Ersten

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

In diesem Beitrag stelle ich eine Methode vor, die in allen Wissenschaften bewusst oder unbewusst angewendet wird und zu fehlerhaften Erkenntnissen führt. Später werde ich weitere Methoden erläutern, die alle mit der Statistik zusammenhängen. Am Ende zeige ich auf, wie die Methode in einer lebenswichtigen Frage angewendet wurde: Nicht-visuelle Wirkungen des Lichts. Diese betreffen Wirkungen, die von einer Unannehmlichkeit bis hin zu Krebsanfälligkeit reichen. Die Skala der Probleme und medizinischer Wirkungen wird hier behandelt.

Die Methode wird, leicht scherzhaft, P-Hacking genannt. P steht für Wahrscheinlichkeit, Hacking für das Bestreben, in einer Studie eine Hürde für die statistische Signifikanz zu nehmen. Deswegen heißt die Methode auch Signifikanzwahn. Ein Ergebnis wird nach der Konvention als bedeutsam anerkannt, wenn die Irrtumswahrscheinlichkeit unter 5% liegt oder p ≤0,05 beträgt. Geringere Irrtumswahrscheinlichkeiten, p≤0,01 oder p≤0,001, gelten als noch sicherer.

Dabei kann es vollkommen irrelevant sein, z.B. wenn es beispielsweise mit einer sehr hohen Zahl von Probanden ermittelt wurde. So beträgt die signifikante Differenz zwischen zwei Gruppen mit einer Stärke von 1000 Personen auf einer 5-stelligen Skala und einer Streuung von 1 ganze 0,0876. Man hätte Schwierigkeiten, die Differenz einzuzeichnen. Aber der Forschende will ein signifikantes Ergebnis vorweisen. Dabei ist dies wissenschaftlich vollkommen egal, denn dort kommt es auf eine saubere Methodik an und nicht auf ein Ergebnis, das auf wackeligen Füßen steht.

Der P-Hacker führt z.B. eine Reihe von Versuchen durch und sucht sich daraus die passenden Ergebnisse aus. So kann man z.B. nachweisen, dass zwischen dem Käseverzehr beim Frühstück und Strangulieren durch Bettlaken in der Nacht zuvor eine signifikante Beziehung existiert. Signifikant, aber sonst???

Würden solche Dinge nur ungeübten Anfängern passieren, könnte man gut damit leben. Leider unterlaufen selbst wichtigen Gremien, die sehr bedeutsame Fragen beurteilen, fatale Fehler wie folgender. Es geht um die Nachtarbeit, eine der Geißeln der Zivilisation. Ausgewiesene Experten der Nacht- und Schichtarbeit haben 2020 eine Leitlinie für Nacht und Schichtarbeit [hier] herausgearbeitet, in der eine unumstößliche Erkenntnis verkündet wird: „Eine Querschnittstudie (n=430) von Violanti et al. (2012) kommt zu dem Ergebnis, dass das Verletzungsrisiko bei Polizisten und Polizistinnen in der Nachtschicht 1,7-mal höher ist als die Verletzungsgefahr in der Tagschicht (IRR 1,72; 95%KI 1,26–2,36, p<0,001) …“ Irrtum nur in 0,1 % der Fälle möglich. Gut gehackt? Sehr gut sogar, denn IRR = 1,72 bedeutet etwa „Das Ergebnis hängt nicht davon ab, wer die Messung oder Bewertung vornimmt. Die Messung ist objektiv und zuverlässig.“

Wie soll man sich aber das Ergebnis erklären? Ob die Polizist:innen nachts die Brötchen anders schmieren als zum Frühstück? Oder wie verletzen sie sich überhaupt? Da diese Arbeitsmedizinische Leitlinie dazu helfen soll, die gesundheitlichen Folgen der Schichtarbeit zu vermeiden oder wenigstens zu mildern, wäre es doch nicht schlecht zu wissen, was zu einer häufigeren Verletzung von Polizist:innen in der Nacht führt. Der Laie kennt die Gründe bestens, der Fachmann tappt im Dunkeln. Die Polizeioberen müssen sich einen Reim darauf machen. Ob die nur darauf gewartet haben, dass Mediziner ihnen erklären, warum ihr Personal nachts höher gefährdet ist als tagsüber?

Mit einer ähnlichen Groteske wartet eine Studie auf, die in einer Tiroler Klinik durchgeführt wurde, um die Bedeutung von HCL (Human Centric Lighting) nachzuweisen. Es wurde gezeigt, dass bei Anwendung dieser Beleuchtung Patienten einer gerontopsychiatrischen Station eines Tiroler Krankenhauses weniger lange fixiert werden müssen. Es wurde studiert, wie häufig der Patient nach einem Sturz ansprechbar war und wie häufig dieser fixiert werden musste. Signifikant also. Damit das Ergebnis auch jeder glaubt, finden sich auch Diagramme in der Publikation, die das Geschehen in zahlenmäßige Relationen bringen.

Das Bild will zeigen, wie sich die betrachteten Fälle (was 3000 bedeuten steht leider nicht im Original) über 24 Stunden unterschiedlich je nach Art der Beleuchtung entwickeln.

Das Projekt sollte übrigens auch dazu dienen, eine Wissensbasis zu erstellen, wie dynamische Lichtsysteme in psychiatrischen Anstalten nicht-visuell wirken. Was sucht dies aber in der lichttechnischen Literatur? Ob die Studie vom  Marketing für Leuchten bezahlt worden ist? Der Verdacht lässt sich nicht von der Hand weisen, denn dynamisches Licht bedeutet, dass man zu den Lampen wesentlich teurere Steuergeräte verkauft.

Die besagte Studie ist eine von vielen, die herangezogen wurden, um einen internationalen Standard zu erstellen, der eine neue Beleuchtung für Arbeitsplätze rechtfertigen soll: integrative Beleuchtung (zu dieser Beleuchtung mehr hier) Es wurden Studien zusammengestellt, die sich wie folgt verteilen. Hier eine Auflistung der Quellen nach Thema:

  • Therapie: 3 Objekte, davon eines Delirium
  • Krebsrisiko: 3 Objekte
  • Demenz: 4 Objekte
  • Lernerfolg: 3 Objekte
  • Hormonforschung: 2 Objekte
  • Gemütszustände: 6 Objekte
  • Schlaf und Schläfrigkeit: 21 Objekte (von insgesamt 63)
  • Gesundheit: 10 Objekte (im Titel oder Publikationsorgan)

Alle diese Publikationen haben Signifikantes dieser oder jener Art ergeben. Was sagen sie aber zur Beleuchtung von Arbeitsplätzen aus?  Hier hört das P-Hacken auf und der Ernst des Lebens an. Man muss nachweisen, dass ein statistisch signifikantes Ergebnis bedeutsam ist (Relevanznachweis). Dann kommt der wesentlich schwierigere Teil, die Validation. Darf man aus einer Studie, die nachweist, dass eine dynamische Beleuchtung die Demenz verhindert, Konsequenzen für die Beleuchtung von Schulen oder Arbeitsplätzen ziehen?

Gewöhnlich hört der P-Hacker auf, wenn er gezeigt hat, dass Menschen auf dynamisches Licht – positiv – reagieren. Statistisch gesehen ... Später liest sich das abgeleitete Ergebnis etwa so an: „Integrative Beleuchtung kann ... die Leistungsfähigkeit in den nachfolgenden Tagen positiv beeinflussen.“ … wie aus 212 angeführten Studien ersichtlich. (aus ISO/TR 21783 Light and lighting — Integrative lighting — Non-visual effects (Licht und Beleuchtung – Integrative Beleuchtung – Nicht-visuelle Effekte), übersetzt vom Autor)

Dass die 212 Studien mit signifikanten Ergebnissen, auf denen die Aussagen von ISO/TR 21783 beruhten und beruhen, bei der Überarbeitung um 183 reduziert wurden, steht nirgendwo geschrieben. Man hat zudem 34 Neue hinzugezogen, aber wie durch ein Wunder blieben alle Aussagen erhalten. Das Letztere traut sich auch der P-Hacker nicht, er pickt nur Passendes zusammen. Es ist eine andere Geschichte, die getrennt erzählt werden muss.

(Gesamtheit aller statistischen Kniffe hier zu lesen)

Gefahren durch eine Grundgröße, die kaum jemand versteht

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Die Lichttechnik hat zwei Größen, die in keiner anderen Technik oder Wissenschaft vorkommen: den Raumwinkel und die Leuchtdichte. Den Ersteren erkläre ich wo anders. Wichtiger ist die Leuchtdichte, weil sie die Grundlage des Sehens bildet.

Wenn Ihnen Unangenehmes oder zuweilen Lebensgefährliches widerfährt, kann es durch ein mangelndes Verständnis dieser Größe bei Fachleuten oder dem Gesetzgeber handeln:

  • Sie können nicht schlafen, weil der Nachbar aus dem nächsten Haus mit einer legal erworbenen Lampe in Ihr Schlafzimmer leuchtet, obwohl das Bundesimmissionsgesetz Sie davor schützen will
  • Während einer Autofahrt an einem sonnigen Tag überfahren Sie ein Kind, das hinter einem Radfahrer die Straße überquert. Kein Richter glaubt Ihnen, dass Sie haben nichts sehen können
  • Auf der Autobahn verfolgt Sie ein Fahrzeug, dessen amtlich zugelassenen Lichter stark genug scheinen, um Sie wegbeamen zu können.

 

Das alles und noch mehr ist möglich, weil die Leuchtdichte nicht oder falsch verstanden wird. Ihre Rolle bei der Blendung, die uns bei der Arbeit quält, hatte ich anderswo beschrieben (Beim ersten Ziel schon die Zähne ausgebissen)

Konsequenterweise gehört die Leuchtdichte in die Liste der internationalen Basiseinheiten (SI-Einheiten). Da die CIE aber aus einem Messverein entstanden war, nimmt diese Rolle die Lichtstärke ein. Sie ist eine der 7 wichtigen physikalischen Basiseinheiten. Wobei das Wort physikalisch nur halb stimmt. Sie leitet sich von der physikalischen Strahlstärke ab und wird daraus berechnet, indem man das jeweilige Licht mit der Augenempfindlichkeit bewertet. Die Lichtstärke konnte man als Erstes präzise messen und daher international normen.

Der Leuchtdichte hingegen entspricht keine physikalische Größe, obwohl sie mit physikalischen Geräten gemessen wird. Wer genau wissen will, was sie ist, muss sich durch eine lange Definition kämpfen – und versteht am Ende … nichts. Spaßeshalber habe ich deren Definition aus dem CIE-Wörterbuch der Lichttechnik kopiert. Da sie nicht auf einen 4K-Monitor passte, musste ich das Bild verkleinern. Leider gibt die CIE selbst die Definition nicht mehr auf Deutsch (link). Hier ist das Prachtstück

Diese wahnsinnig lange Definition ist leider nicht aus einer Unfähigkeit heraus entstanden. Sie ist der Komplexität der Größe zu verdanken. Fachleute wie Laien versuchen, sie erklärbar zu machen, und scheuen dabei keine Klimmzüge. Das älteste Bild, mit dem man sie erklären wollte, sieht aus wie hier.

Die Lampe der alten Dame beleuchtet den Tisch und erzeugt das, was ihr das Sehen ermöglicht: die Leuchtdichte. Da nicht nur alte Damen diese brauchen, gibt es die entsprechenden Bilder auch für andere. Ein Dutzend und mehr davon habe ich unter Wunder der Lichttechnik - Wie aus einer Grundgröße viele werden - kommentiert.

Dabei entstehen Bilder, die sogar schlechter verständlich sind als die Definition. Hier habe ich drei Beispiele zusammengestellt, die besonders lustig aussehen. Oben sieht man einen Mann mit Kravatte, dessen Lampe aus der Zeit stammt, als er noch im Blaumann arbeitete, gezeichnet von einer BG. Die beiden unteren stammen auch von einer BG, aber sind mit der Landwirtschaft verbunden. Das letzte Bildchen erklärte dem Bauern die Vorschriften für die Beleuchtung von Sauställen.

Links kommt ein Lichtstrom aus einer Lampe. Eigentlich hat er keine Richtung. Aber lassen wir das gelten. Dieser führt zu einer Beleuchtungsstärke. Eigentlich stellt das Oval keine Beleuchtungsstärke dar. Die ist nämlich gerichtet. Und daraus geht ein Strahl ins Auge des Schweins, der immer schmaler wird. Er sieht ähnlich aus wie der antike Lichtstrahl, der nach der damaligen Lehre vom Auge ausging und das Sehen ermöglichte. Wie dem auch sei, das Schwein sieht, wie die Kuh auch, nur dichromatisch, weil es nur zwei Farbempfänger im Auge hat. Menschen haben drei. Nur dafür kann eine Leuchtdichte berechnet werden. Für den Fall, dass sich Vogelliebhaber oder Aquarianer auch so ein Bild basteln: Vögel, Fische und Reptilien haben vier Farbempfänger im Auge.

Aber auch verbale Erklärungen sind mehr oder weniger falsch. So erzählt mancher, Leuchtdichte sei Helligkeit. Wer es genauer machen will, bezeichnet sie als Größe, die der Helligkeit entspricht. In Licht.de liest man gar Kluges: „Die Leuchtdichte (Kurzzeichen: L) kann vom Auge wahrgenommen werden. Sie bestimmt den Helligkeitseindruck einer Fläche, der von Farbe und Material abhängt. Sagen wir netterweise, ganz falsch ist diese Umschreibung nicht. Aber auch nicht richtig. Was soll ein Mensch unter einem Helligkeitseindruck verstehen, der vom Material abhängt? Was hat das Material mit der Helligkeit zu tun? Und mit Farbe?

Solche Missverständnisse und Ungenauigkeiten wären nur für Fachleute interessant und für andere gleichgültig oder erträglich, wenn sie nicht zu Situationen führen, die unangenehm bis gefährlich sind. Zunächst zu einem alltäglichen Ärgernis. Manche Nachbarn stellen in ihrem Garten Scheinwerfer auf und denken, dass das Licht schwächer werde, wenn es den Nachbarn trifft. Das tut es, wenn man im Schlafzimmer die Beleuchtungsstärke misst, wie das Bundes-Immissionsschutzgesetz (BImSchG) vorgibt. Die zulässigen Werte variieren stark je nach Gebietsart (z.B. reine Wohngebiete: 1 lx, Kerngebiete/Gewerbegebiete: 5 lx).

Zwar wird in diesem Zusammenhang auch die Leuchtdichte genannt. Aber nicht einmal Fachleute können diese messen. So gibt es auch keine Grenzwerte. Das Messproblem ist nicht einmal eine erstrangig wichtige Sache. Die Wichtigere ist das mangelhafte Verständnis der Wirkung: Die Leuchtdichte ist die Konstante in einem optischen Strahlengang. Sie nimmt in der Luft kaum ab. Ihre Wirkung besteht so lange praktisch unverändert, bis die leuchtende Fläche klein genug scheint. Deswegen stören Sterne am nächtlichen Himmel trotz einer hohen Leuchtdichte nicht. Erst wenn sie eine Mindestgröße erreichen, wird ihre Leuchtdichte allein wirksam (Riccosches Gesetz).

Das Bundesimmissionsschutzgesetz begrenzt die Beleuchtungsstärke am Ort der Störung. Diese ist proportional der Fläche des störenden Objektes und dessen Leuchtdichte. Und nimmt mit dem Quadrat der Entfernung vom strahlenden Objekt ab. Das ist das übliche Verständnis von der Ausbreitung von Licht oder Schall. Dass die Leuchtdichte mit zunehmender Entfernung nicht abnimmt, ist niemandem bewusst. Auch nicht, dass sie in die Blendungsberechnung mit dem Quadrat ihres Wertes eingeht.

Folgende Objekte erzeugen am Einfallsort exakt die gleiche Beleuchtungsstärke. Ihre Blendwirkung ist aber sehr unterschiedlich und steigt mit dem Quadrat der Fläche. Daher kann Ihr Nachbar Sie mit einer Lampe stören, ohne gegen das Gesetz zu verstoßen. Und er ahnt nichts davon.

(Bitte um Nachsicht für die Abbildung. Man kann auf einem Bildschirm nur eine etwa annähernde Wirkung simulieren.)

Echt gefährlich wird die Sache mit der Beleuchtung von Fahrzeugen. Da die Gefahr schon sehr früh bekannt war, wird deren Beleuchtung seit der Entstehung des motorisierten Verkehrs gesetzlich geregelt. In Deutschland waren die Vorschriften zur Fahrzeugbeleuchtung historisch in der Straßenverkehrs-Zulassungs-Ordnung (StVZO) verankert, die mehrmals neu gefasst wurde:

  • Beginn 20. Jahrhundert: Schon mit dem Aufkommen der ersten Kraftwagen wurden Beleuchtungsvorschriften erlassen, die zunächst oft auf einfache Öllampen oder Karbidlampen abzielten.
  • 1937: Die StVZO, die heute noch in Teilen gültig ist, enthielt detaillierte Regelungen zur Beleuchtung (§§ 49a - 54 StVZO).

Die StVZO enthält heute auch Vorschriften für die Beleuchtung von Fahrrädern. Da diese aber sehr schwache Lichtquellen waren, gibt es keine Prüfung wie bei den KfZ. Etwa jeder zweite Fehler, der bei KfZ-Prüfungen beanstandet wird, betrifft die Einstellung der Scheinwerfer, weil diese den Gegenverkehr blenden können. Bei Fahrrädern hingegen gibt es keine Prüfungen. Auch die Entwicklung von Fahrradbeleuchtung selbst wird kaum streng kontrolliert.

Das war auch nicht nötig, weil viele Beleuchtungen von Kleinrädern selbst in der Nacht kaum blendeten, weil sie einfach zu schwach waren. Zudem gingen sie aus, wenn das Fahrrad stand. Seit es LED-Lampen gibt, ist es aus mit den üblichen Eigenschaften. Da LEDs Leuchtdichten haben, die in die gleiche Größenordnung gehören wie die der Sonne, können Fahrradlichter einen bei Sonnenschein so blenden, dass man nichts mehr dahinter erkennen kann. (mehr unter Warum Autos so blenden)

Was ist der Kenntnisstand beim verantwortlichen Bundesministerium? Auf die kleine Anfrage der Abgeordneten zu „Gefahren im Straßenverkehr durch Blendeffekte von Leuchtdioden“ ließ er u.a. erklären: „Erkenntnisse über Gefahren, dass Fahrräder oder Motorräder mit Einzellicht durch Fahrzeuge mit ECE-genehmigten Tagfahrleuchten, die aus mehreren Einzeldioden bestehen, übersehen werden, sind nicht bekannt.“ (Drucksache 17/2307) (hier abrufbar. Anm.: Der Vorgang stammt zwar aus 2010, das Ministerium hat aber seit 1937 Manches nicht mehr gelernt)

Warum blenden dann die Scheinwerfer der Autos nicht, die viel größere Beleuchtungsstärken erzeugen? Um den Gegenverkehr nicht zu blenden, darf bei Fahrrädern die Beleuchtungsstärke bei 3,4 Grad oberhalb des hellsten Punktes des Lichtkegels 2 Lux nicht überschreiten. Aber Viele moderne, zugelassene LED-Fahrradscheinwerfer bieten heute Helligkeiten von 30 Lux, 50 Lux oder sogar über 100 Lux an, um eine bessere Sicht für den Fahrer zu gewährleisten.

Fahrradlampen sind sehr unterschiedlich befestigt, aber nur selten so unverrückbar wie bei Autos. Man kann die gleiche Lampe auf kleine oder große Fahrräder montieren und dazu noch frei ausrichten. Niemand kann sie kontrollieren, kaum einem Fahrer ist bewusst, dass sein Fahrrad stärker blendet als ein Auto.

Auch hier erfolgt die gesetzliche Regelung über die Beleuchtungsstärke, obwohl Fachleute schon immer wussten, dass die Blendung von der Leuchtdichte bestimmt wird.

Die letzte Aussage bedarf einer Korrektur, die allerdings entscheidend für die Zulassung von Fahrzeugbeleuchtungen ist. Lichttechniker aus Karlsruhe, wo auch die Zulassungsstelle für die Fahrzeugbeleuchtung sitzt, haben zwei unzulässige Aussagen bezüglich Blendung getroffen. Die Erste heißt: Maßgeblich für die Sicherheit des Straßenverkehrs ist die physiologische Blendung. Dies beruht auf der Vorstellung, dass man damit die Störung der Sehleistung messe. Daher wäre die psychologische Blendung im Straßenverkehr unbedeutsam. Mit dieser Vorstellung verwarf der Bundesminister eine Kleine Anfrage im Bundestag.

Während man schon lange mit dieser Vorstellung lebt, ist die zweite unzulässige Aussage der Grund für die Zulassung des sog. Dränglerlichts. Diese wurde vor 35 Jahren in der Form von Xenon-Lampen auf den Markt gebracht und hat ein sehr hohes Potenzial für die Blendung des Gegenverkehrs. Deswegen mussten diverse Maßnahmen vorgeschrieben werden, um die Blendung zu vermeiden, so eine automatische Leuchtweiteregelung und eine Scheinwerferwaschanlage, weil schon Staubpartikel auf dem Scheinwerfer ausreichen, um den Gegenverkehr zu blenden.

Die Einführung dieser sehr bedenklichen Technologie, deren Beherrschung immer noch schwer ist, wurde möglich durch folgende Aussage: Für die physiologische Blendung ist die Lichtstärke maßgeblich, für die psychologische Blendung die Leuchtdichte. Daher wurde gesetzlich die Lichtstärke begrenzt. Bis heute! Bei den alten Scheinwerfern war der Unterschied egal, nicht so bei Xenon- oder LED-Scheinwerfern. Um die Blendung (physiologisch) gleich zu halten, kann man bei halb so großen Scheinwerfern eine doppelte Leuchtdichte vorsehen, bei einem Zehntel der Fläche ist die zehnfache Leuchtdichte zulässig. Bei der psychologischen Blendung geht die Leuchtdichte mit dem Quadrat in die Berechnung ein. Daher der Begriff „Dränglerlicht“.

Das Thema ist "aktenkundig" und wurde z.B. bei Lux Junior 2013 vorgetragen. Fazit: "Der Beitrag zeigt, dass die aktuelle Bewertung lichttechnischer Komponenten im Automobilbereich nicht die tatsächlich resultierende Blendung erfasst. Die angeführten Literaturquellen in Verbindung mit den Ergebnissen aus durchgeführten Voruntersuchungen verdeutlichen, dass ein Scheinwerfer ein wesentlich höheres Blendpotential aufweisen kann, als durch die gesetzeskonforme Abnahme ermittelt wird."

Zu guter Letzt noch eine Beleuchtung, die die Sicherheit im Straßenverkehr erhöhen soll, aber nach Ansicht von Augenärzten das Gegenteil erreicht. Die Rede ist von Tagfahrlichtern. Diese sind seit Langem vorgeschrieben. Anders als die übliche Beleuchtung, die zum Sehen und Gesehenwerden dient, dienen Tagfahrlichter nur zum Gesehenwerden. Sie hängen vorn am Fahrzeug, damit es gesehen wird. Auch deren Licht wird gesetzlich über die Lichtstärke geregelt. Dummerweise hat die Lichtstärke selten etwas mit Sichtbarkeit zu tun. Dafür sorgen am besten die Farbe, die Größe oder die Leuchtdichte.

Bei Tagfahrlichtern gibt es so schlimme Exemplare, dass ich in meinem Arbeitszimmer im ersten Stock geblendet werde, wenn ein Auto auf uns zukommt. Die Lichter stören sogar am Tage sechs Meter über der Straße. Für die Blendung bestens sorgt wieder die Leuchtdichte der LED.

Auch dieser Effekt ist aktenkundig. Auf eine Anfrage von Abgeordneten (Drucksache 17/2042) antwortete der Verkehrsminister einst so: "Wissenschaftliche Erkenntnisse oder Forschungsberichte zur Blendung durch Tagfahrleuchten mit Leuchtdioden sind der Bundesregierung nicht bekannt. " (mehr hier) Dabei hatte Peter Heilig, Augenarzt, die Sache aus der Sicht eines Augenarztes dokumentiert (hier)

Eine Gruppe von Augenärzten hatte schon vor 10 Jahren Front gegen „zu helle“ Scheinwerfer gemacht, die man z.B. hier lesen kann. Dem Bundesverkehrsminister, der sich ahnungslos stellte, war die Sache aber schon bekannt. Die folgende Frage hat er nach der einstigen Kenntnislage nämlich so beantwortet:

„2. Wie bewertet es die Bundesregierung, dass sich zunehmend Verkehrsteilnehmer durch starke Lichteinwirkung von Leuchtdioden geblendet fühlen und dadurch im Straßenverkehr verunsichert werden?"

Antwort: "In der Wissenschaft wird unterschieden zwischen physiologischer und psychologischer Blendung. Die physiologische Blendung setzt die Sehleistung des Auges herab. Bei der psychologischen Blendung wird eine Blendungserhöhung empfunden, die nicht messbar und individuell verschieden ist. Verkehrsteilnehmer können sich geblendet fühlen, ohne dass dies zu einer verringerten Sehleistung führt.“

So antwortete der Bundesverkehrsminister am 28.06.2010. Nicht ganz wahrheitsgemäß. Die psychologische Blendung ist nach der Vorstellung der Industrie so gut messbar, dass sie Werte für ihre Leuchten (UGR-Wert) dreistellig angibt.

Und so wertete jemand, der sich schon sehr lange mit dem Problem beschäftigt hatte, Professor Stephan Völker, TU Berlin, am 11. September 2012 (Blendung – Ein Rückblick über 100 Jahre Forschung, Tagungsband Light 2012, 20. Gemeinschaftstagung LiTG, NSV, LtG, SLG): „Der vorliegende Beitrag zeigt, dass es möglich scheint, die vorhandenen Blendungsbewertungsmodelle auf ein Modell zurückzuführen. Zurzeit fehlen noch einige Einflussgrößen, welche aber bereits in Kürze vorliegen dürften. Diese müssen anschließend für alle Anwendungsfälle (Innen-, Außen-, Kfz-, Sportstättenbeleuchtung, etc.) validiert werden.“

Kurz gesagt: Die Vorstellung von zwei unterschiedlichen Arten der Blendung kann nicht mehr aufrechterhalten werden. Man kann ein neues Verfahren finden. Dieses muss danach validiert werden. D.h., die jetzige Vorstellung ist ungültig. Ob sie jemals gültig gewesen ist, darauf sollte man besser nicht wetten.

Die hier dargestellte Problematik ist nicht eines unter vielen. Denn Blendung im Straßenverkehr gehört in die hohe Politik. So wollte der damalige Verkehrsminister Georg Leber 1972 die Führerscheine älterer Bürger zeitlich begrenzen und von einer Prüfung der Blendempfindlichkeit abhängig machen. Faktisch gab es kein objektives Argument dagegen. Die Maßnahme unterblieb nur wegen der hohen Bedeutung der Mobilität für ältere Menschen. Mittlerweile ist der durchschnittliche Deutsche 10 Jahre älter als 1972 (mittleres Alter 35,5 Jahre (1972) und 44,9 Jahre (2024)), wobei sich der Anteil der Bevölkerung ab 65 Jahren fast verdoppelt hat (ca. 13% 1972 und ca. 22% 2024). Fahrräder und Autos dürfen aber fröhlich blenden, weil die Vorstellungen des Gesetzgebers auf wissenschaftlichen Erkenntnissen fußen, die spätestens vor 10 Jahren als falsch und nicht valide erkannt worden sind. Hinzu kommt, dass der Bundesminister eine unwahre Angabe macht.

Und die Folgen? Eine ADAC Umfrage mit 1.089 Personen mit gültiger Fahrerlaubnis ergab:

  • 67 % der befragten Personen empfinden die erlebte Blendung als untragbar oder störend.
  • 60 % aller Teilnehmer haben Probleme, Objekte im Umfeld der blendenden Lichtquelle wahrzunehmen.
  • 49 % der Befragten kneifen die Augen zu, wenn sie der Blendung ausgesetzt sind, oder schließen sie sogar kurz.
  • 27 % der Umfrageteilnehmer fühlen sich fast immer oder regelmäßig geblendet.
  • 27 % der Befragten gaben an, ein Bild der Lichtquelle auch nach dem Passieren für eine begrenzte Zeit weiterhin zu sehen (Nachbild) oder sogar Schmerzen zu empfinden.

(ADAC e.V., Hg., "Verbraucherumfrage Blendung im Straßenverkehr", München, 2024) Die obigen Daten stammen aus Lux Junior 2024. Die KI fasst das Ergebnis wie folgt zusammen: "Eine repräsentative Umfrage des ADAC ergab, dass über 90 % der Autofahrenden im Straßenverkehr geblendet werden, wobei fast zwei Drittel dies als störend empfinden. Besonders problematisch sind dabei das Fernlicht und moderne Scheinwerfertechnologien wie LED, die zu Blendung führen, da sie oft eine höhere Leuchtkraft und Platzierung haben."

Der ADAC selber gab am 3. September 2025 eine Meldung über die Situation in ganz Europa heraus: "Gefahr durch Blendung: Viele Autofahrer sind betroffen." (mehr hier)

Blendung, die man nicht Blendung nennt

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Warum sich die Lichtforschung im Kreise dreht, lässt sich am Beispiel des Fehlens einer übergeordneten Bezeichnung aller Erscheinungen darstellen, die einem das Sehen erschweren oder unmöglich machen. Die allgemeine Sprache kennt aber diesen Begriff: Blendung.

Die Lichttechnik hat einen bekannten Begriff genommen, diesen aber nur für eine begrenzte Bedeutung benutzt. Diese Bedeutung hieß und heißt physiologische Blendung. Und manches, was nicht unter diese Bedeutung passte, wird psychologische Blendung genannt. Diese Bedeutung ist für den Laien unverständlich, aber die Ermittlung der Blendung beruht auf der subjektiven Beurteilung  von Laien. Bezeichnend ist eine Bemerkung der ersten Forschenden, die im Labor von AEG in Springe Versuche durchführten. Sie sagten: „Das Schwierigste war es, den Probanden zu erklären, was Blendung ist.“

So ist es auch. Bei meinen Versuchen wollten die Probanden gar nicht erst geblendet werden. Dabei wären die Bedingungen, die sie beurteilen sollten, nach der gängigen Vorstellung unangenehm bis unerträglich. Nach etwa 200 Probanden fing ich an, die Versuchspersonen nach dem Versuch zu fragen, was sie denn beurteilt hätten. Sie sagten, ich wäre nett zu ihnen gewesen, hätte Kaffee und Kuchen serviert, und mein Modell wäre sehr schön. Außerdem würden sie für 20 Minuten Arbeit einen vollen Stundenlohn bekommen. Sie wollten mich nicht mit einem negativen Urteil enttäuschen. Zumal bislang niemand sie nach ihrer Meinung gefragt hätte.

In der Psychologie nennt man das Versuchsleitereffekt. Und ist der Hawthorne-Effekt für Arme. Einen Kollegen hat es noch schlimmer erwischt. Er hatte lange blonde Haare und war überhaupt sehr angenehm. Eine Probandin tauchte eines Tages mit einer Schachtel Pralinen bei ihm auf und wollte sich dafür bedanken, dass sie nach ihrer Meinung gefragt wurde.

Es lohnt sich, erst einmal den Begriff Blendung in der Lichttechnik anzusehen und danach die allgemeIne Bedeutung. Und was der Letzteren entspricht, aber einen anderen Namen trägt.

Physiologische Blendung ist eine Form der Blendung, die zu einer messbaren Herabsetzung der Sehleistung führt, so etwa beeinträchtigte Kontrast- und Formenerkennung, verminderte Sehschärfe.

Psychologische Blendung ist eine subjektive Störempfindung oder ein Gefühl des Unbehagens, ausgelöst durch zu hohe Helligkeitskontraste (z. B. ein helles Fenster im Blickfeld bei der Arbeit), ohne dass die Sehleistung unmittelbar messbar herabgesetzt wird.

Was versteht der Mensch, der eine Blendung beurteilen soll, unter diesem Wort? Wem ist das Wort Blendung ein Begriff? Immer wenn sich eine solche Frage stellt, bietet Wikipedia eine Seite, auf der verschiedene Bedeutungen eines Wortes angeführt werden. Diese Seite heißt auf Deutsch „Begriffsklärungsseite“. Bei manchen Worten imponiert die Wikipedia-Liste der Bedeutungen durch ihre Länge, bei Blendung insbesondere durch ihre Diversität. So kommt das Wort Blendung sowohl im Rechtswesen (Strafe) als auch im Militärjargon vor. Aber auch die Kryptographie benutzt das Wort ebenso wie die Kürschnerei.

Ist Blendung im Rechtswesen eine Strafe, die zur Erblindung führt, also zu einem permanenten Schaden, so spricht das Militär davon, dem Feind nur für eine begrenzte Zeit die Sicht zu nehmen. Die Kryptographie spricht von einem Blender, wenn es sich um ein Zeichen handelt, das keine Bedeutung hat, auf Englisch dummy oder null. Es soll dem unbefugten Entzifferer der Nachricht eine Bedeutung vortäuschen, damit sich dieser dem Blender widmet und so die nützliche Nachricht übersieht. Im Alltagsleben spielt ein Blender die Rolle einer Null. Mal ist dieser ein Vorstadtcasanova, mal ein Politiker, dessen Fähigkeiten man überschätzen soll.

Allen Begriffen gemeinsam ist, dass eine Blendung einem die Sicht nimmt oder erschwert, auch in übertragenem Sinne. Das tun die Objekte, die eine physiologische Blendung verursachen, aber nicht die, die eine psychologische Blendung erzeugen. Man sieht genauso klar mit und ohne psychologische Blendung, nur ist eine Situation halt unangenehm, wenn Blendung herrscht.

Es gibt aber Fälle, wo man am Sehen gestört wird und die Sache unangenehm findet, die aber trotzdem nicht Blendung heißen. Aber erst einmal zu einer Situation, die äußerst angenehm ist, aber mit Blendung, besser gesagt, die Blendung merkt keiner.

Das ist zweifellos eine angenehme Situation, bei der jeder der beiden Teilnehmer durch die Kerzen beleuchtet wird. Gleichzeitig aber muss man die andere Person am Tisch durch die Kerzen hindurch sehen und wird somit etwas am Sehen gehindert. Auf die Idee, diese Blendung zu nennen, kommt so gut wie niemand.

Hingegen kann eine Situation von unmerklich bis unerträglich unangenehm sein, das Sehen von kaum merkbar bis kaum vorhanden stören, man nennt sie trotzdem nicht Blendung. Jedenfalls nicht auf Deutsch. Amerikaner sprechen da schon reflected glare wie „Blendung durch Reflexion“. Diese Erscheinung ist seit Jahrzehnten bekannt. Ich musste sie vor rund 50 Jahren beschreiben und Massnahmen dagegen in den Arbeitsschutz einbringen. Und wurde von der Computerindustrie als einer der Feinde der Technologie verfolgt. Mir ist noch gelungen, eine deutsche Norm zu erstellen, die die Störung beseitigt. Die Industrie schaffte aber 15 Jahre später eine internationale Norm (ISO 9241-3:1992 Ergonomische Anforderungen an Bürotätigkeiten mit Bildschirmgeräten (VDTs); Teil 3: Anforderungen an Bildschirmgeräte), die keine Anforderung an Entspiegelung enthält. Diese Norm endgültig abzuschaffen dauerte bis zum Jahr 2023!

Zunächst zum Effekt. Er sieht in schlimmen Fällen wie hier aus. Dieses Bild ist über 60 Jahre alt. Ich fand es 1975. Der Effekt entsteht, indem Papier und Druckfarbe glänzen. Im schlimmsten Fall dreht sich der Kontrast um, das weiße Papier scheint schwarz, während die schwarze Druckfarbe hell glänzt.

Während man im normalen Leben solche Erscheinungen nur dort erleben kann, wo man unter gerichtetem Licht Seiten mit Glanzpapier zu lesen versucht (z.B. im Zug oder im Flugzeug), gibt es den Effekt fast überall, wo Arbeitsräume direkt beleuchtet werden. Das war in der Zeit, als wir das Projekt „Licht und Gesundheit“ bearbeiteten, praktisch in allen deutschen Büros der Fall. Die messbare Wirkung hat Prof. Hartmann sogar quantitativ untersucht.

In der Regel merkt man den Effekt nicht bewusst. Man kann ihn durch vergleichende Untersuchungen unter der gleichen Beleuchtung mit und ohne Sehaufgabe ermitteln. Wenn der Effekt da ist, ermüden die Probanden stärker. Die Rede ist von einer verminderten  Wiedergabe des Kontrastes. Man bestimmt sie in einer vergleichenden Messung unter idealen Bedingungen und in der realen Situation. Das Ergebnis ist der Kontrastwiedergabefaktor. Dessen Bedeutung wurde von den Experten der LiTG so hoch eingeschätzt, dass sie schon sehr frühzeitig eine Arbeitsgruppe an eine Publikation setzte (LiTG-Publikation Nr. 13 Der Kontrastwiedergabefaktor CRF – ein Gütemerkmal der Innenraumbeleuchtung,  1991).

Dieses Gütemerkmal hat es nie in eine Norm für Beleuchtung geschafft. Und das aus gutem Grunde aus Sicht der Industrie. Man kann nämlich mit Hilfe einer CRF-Berechnung nachweisen, dass die viele Jahrzehnte lang bevorzugte Beleuchtungsart, die Allgemeinbeleuchtung, gar keine ist. Sie ist nämlich definiert durch z.B. Prof. Hentschel als „eine gleichmäßige Beleuchtung, die an allen Stellen des Arbeitsraumes etwa gleiche Sehbedingungen schafft“ (Hentschel, H.-J.: Licht und Beleuchtung, Siemens Berlin München 1972). Rechnerisch gibt es aber annehmbare Sehbedingungen nur an bestimmten Teilen eines Raums, was man u.a. daran erkennt, dass die Normen für Beleuchtung die Anordnung der Arbeitsplätze mit vorgegeben haben. Wenn man den Empfehlungen folgt, müssten große Teile der Büros leer stehen.

Das Bild zeigt links, wie sich die Normer die Belegung eines Büros vorstellen. Rechts sind alle störenden Informationen bereinigt worden. Man sieht, wo man optimale Sehbedingungen hergestellt haben will.

Amerikanische Lichttechniker haben in den 1960ern eine Methode entwickelt, mit der man berechnen kann, was die Beleuchtung an den leeren Stellen dieser Räume „wert“ ist. Die Methode heißt „ESI“ wie equivalent sphere illuminance. Hierbei wird der Kontrast auf einem Objekt unter idealen Bedingungen (gleichmäßig leuchtende Kuppel über dem Objekt) und unter realen Bedingungen gemessen. Wird die Sehleistung durch einen Kontrastverlust verringert, kann man die Beleuchtungsstärke ermitteln, die fiktiv diese entsprechende Leuchtdichte erzeugen würde. Diese Größe wird die „äquivalente“ Beleuchtungsstärke genannt. Im Falle des eingezeichneten Beispiels beträgt sie weniger als die Hälfte des physikalisch messbaren Wertes. In besonders schlimmen Fällen bleibt von den installierten 500 lx effektiv nur ein Zehntel übrig.

Wenn man die Definition von Prof. Hentschel ernst nimmt, sind Planungen auf der Basis von Beleuchtungsstärken die reinste Augenwischerei. Allgemeinbeleuchtung kann es nach der Feststellung eines anderen prominenten Professors für Lichttechnik, Bodmann, nur mit einer Indirektbeleuchtung geben. (Bodmann, H.W.; Eberbach, K.; Leszczynska, H., Lichttechnische und ergonomische Gütekriterien der Einzelplatzbeleuchtung im Büro, Wirtschaftsverlag NW, Bremerhaven, 1995, Forschungsbericht BAuA) Äquivalent wäre eine leuchtende Decke.

Bislang geht es um ein lösbares Problem, das man auch oft genug praktisch gelöst hat. Viel hartnäckiger hält sich ein anderes Phänomen, Kontrastverlust auf Bildschirmen. Die erste Anfrage diesbezüglich an mich kam 1970 von Kollegen aus der Entwicklung von Siemens, die wissen wollten, wie man einen Bildschirm entspiegeln soll. Die (vorerst) letzte Anfrage könnte kurz vor meinem Tode kommen. Mein letztes Gespräch hierzu war im Sommer 2025 mit einem Professor für Farbenlehre, der jetzt allein mit den Problemen kämpft.

Nicht, dass wir keinen Fortschritt gehabt hätten. Der „normale“ Büromensch, der 1975 bei einer ordentlichen Beleuchtung kaum was auf seinem Bildschirm sehen konnte, wird heute kaum eine Beschwerde haben. Dumm nur, dass dieser unter Computernutzern mittlerweile eine winzige Minderheit ausmacht. Die Zahl der aktiven Mobilfunk-Abonnements (Handyverträge, SIM-Karten) weltweit liegt bei über 8,7 Milliarden (Prognose für Ende 2024, nach dem Ericsson Mobility Report). Die Anzahl der Smartphone-Nutzer liegt Schätzungen zufolge bei etwa 4,88 Milliarden bis 5,28 Milliarden Menschen (Stand 2024/2025). Das entspricht etwa 60 % bis 65 % der Weltbevölkerung.

All diese Menschen benutzen ein zu kleines Display für ihren Bedarf, weil dieses in eine Hand passen muss. Und es gibt niemanden, der sich um ihre Beleuchtung kümmert. Bis auf wenige Ausnahmen sind die Displays schlecht geschützt gegen Licht. Der öffentliche Raum ist voller Menschen, die alle so gucken wie hier.

Das ist aber noch nicht alles. Denn auf den zu kleinen Displays erscheinen Farben, deren Empfindlichkeit gegen weißes Licht keine einzige Norm der Welt berücksichtigt. Noch eine Blendung, die niemand so nennt. Dagegen ist die oben berechnete Wirkung des Kontrastverlustes im Büro eine Kleinigkeit.

Aber auch wer beruflich Displays benutzen muss, egal welcher Qualität, wird „geblendet“. Für Leute, die Bilder mit hoher Farbqualität bearbeiten sollen, gibt es nur die Dunkelheit am Arbeitsplatz. Aber auch ganz „normale“ Bearbeiter, z.B. Cutterinnen beim Fernsehen, sind in zunehmendem Maße betroffen, weil die Qualität des gesendeten Materials viel höher ist als noch vor 20 Jahren. Für diese gibt es sogar Ausnahmen beim Arbeitsschutz.

Kaum jemand wird sich Gedanken um Ärzte machen, die einen operieren. Diese arbeiteten einst unter gleißend heller Beleuchtung, jetzt nur noch in grüner Kleidung im Schummerlicht, weil die Operation auf Bildschirmen zu bewundern ist. Es gibt sogar Dienstverträge, die den Ärzten Lichttage bescheren als Kompensation für Tage, die sie isoliert vom Tageslicht arbeiten müssen (Licht und Lichttage).

Das Arbeitsleben wie das öffentliche Leben haben in den letzten 50 Jahren eine gewaltige Transformation erlebt, durch die das relativ einfach zu beleuchtende Papier seinen Platz an Displays überlassen hat. Diese sind auf diverse Arten und Weisen lichtempfindlich. Die lichttechnische Normung hat dies alles nicht mitbekommen. Sie gibt Beleuchtungen vor, die der Sehleistung dienen sollen, aber geeignet sind, Sehleistung soweit zu stören, dass die Beleuchtung zu einer Gefahr werden kann.

 

 

 

Glanzleiche – Oder vom Elend des Physikers beim Umgang mit Empfindungen

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Blendung und „natürliche“ Farben - Das waren die Themen der letzten beiden Blogs. Doch die Beschreibung von Erscheinungen, mit denen der Techniker nicht gerade meisterhaft umgehen kann, ist damit nicht komplett. Erst richtig schwierig wird es, wenn man den Begriff oder die Erscheinung Glanz dazu nimmt.

Aber zuerst zu dem „Techniker“. Dieser ist ein Mensch, der einen Beruf ausübt, dessen Name vom griechischen Wort techne stammt. Und die heißt so viel wie Kunst, Gewerbe, Geschick, List, Betrug. Nicht eines davon, sondern alle zusammen. List und Betrug darf man allerdings nicht im Sinne des Strafrechts nehmen, sondern im Sinne von Geschick. Der Techniker überlistet Natur, Materialien, Naturgesetze u.ä., um etwas zu erzielen. So kann ein Mensch fliegen, ohne dass ihm Flügel wachsen.

Wenn der Techniker mit Glanz umgehen soll und dabei gewissenhaft objektive Größen benutzen, handelt er als Physiker, dessen Welt viel regelhafter ist als die des Technikers. Dies musste ich in meinen jungen Jahren tun, und die Sache war bitter ernst. Die Menschen, die am Computer arbeiteten, hatten Probleme mit den Augen, die sie auch heute haben, aber damals schimpften sie mehr. Also musste ich die sog. visuellen Probleme der Menschen ermitteln und Lösungen dafür finden. Diese wurden nicht in den Sand geschrieben, sondern in Normen, die heute 50 Jahre danach immer noch ihre Wirkung entfalten.

Eine meiner Diagnosen war, dass die Bildschirme glänzten. Ergo schrieb ich in den Normenentwurf, die dürfen nicht glänzen. Nun bestand die Arbeitswelt nicht nur aus glänzenden Bildschirmen. Wenn die nicht glänzen dürfen, warum dürfen andere? Also schrieb ich in den Normenentwurf, dass alle Teile des Arbeitsplatzes aus matten Oberflächen bestehen müssen. Die Vorstellung musste ich nicht einmal selbst entwickeln. Sie stand in der Beleuchtungsnorm DIN 5035 und verbot den Glanz schon vor über 50 Jahren.

Ein Mitglied unseres Normenausschusses nahm dann diesen Entwurf in seinen Betrieb und legte ihn seinen Büroorganisatoren vor. Deren Meinung war verheerend: eine Welt ohne Glanz. Matt wie platt.

Die besagten Herren waren noch gnädig. Große Computerfirmen gingen dagegen aggressiv vor. Sie hatten aber mit Zitronen gehandelt, denn dafür, dass Bildschirme glänzen sollen, gab es keine Begründung. Also floss die Idee in Normen, später in Sicherheitsregeln und ganz zuletzt in Arbeitsschutzvorschriften wie die EU-Richtlinie für die Arbeit mit Bildschirmen von 1990. Auch der Bundesarbeitsminister verschreibt den Betrieben in der ASR A6 (Bildschirmarbeit) von 2024: „Grundsätzlich sind an Bildschirmarbeitsplätzen Bildschirme mit entspiegelten (matten) Displays und matten Gehäuseoberflächen zu verwenden.“ Er lässt nur wenige Ausnahmen zu.

Die fehlende Begründung für glänzende Bildschirme kam später, als Computer auch Videos abspielen konnten. Auf matten Bildschirmen sahen schicke Filme gar nicht so schick aus. So bauten unbotmäßige Computerhersteller Laptops mit glänzenden Bildschirmen. Denn man kann nicht dauernd das Display wechseln, wenn man mal Büroarbeit macht und mal einen Porno einzieht.

Das Problem besteht bis heute, aber mit anderen Begründungen. Der technische Fortschritt hat zu Monitoren geführt, die weniger glänzen als die Vorschrift erlaubt. Aber Handys lassen sich schwer verkaufen, wenn ihre Displays tot aussehen. Da diese aber das ganze Gesicht vom Handy ausmachen, glänzen die dummen Dinger um die Wette. So auch mein iPhone, wenn es als Display für meine Drohne dienen soll, die bei Kaiserwetter den Berliner Wannsee ablichten will. Da ich kaum noch was sehe, haut die Drohne manchmal ab. Sie kommt eine halbe Stunde später reumütig wieder, wenn ihr Akku leer ist. Ob das sich auch ukrainische Drohnenpiloten leisten können? Zum Teufel mit dem Glanz, wenn mein Leben auf dem Spiel steht.

Die Probleme mit dem Glanz waren vermutlich vor meiner Geburt schon bekannt gewesen. Ich habe Farbe studiert bei einer der wenigen Koryphäen, denen es gelungen ist, ein Farbsystem aufzustellen (Anm.: Es war nicht Goethe). Sein wichtigstes Werk im Bereich der Farbsystematik ist das DIN-Farbsystem DIN 6164 (auch bekannt als DIN-Farbenkarte oder DIN-Farbenatlas). Er war Physiker und Farbmetriker und gilt als einer der führenden Vertreter der Farbwissenschaft in Deutschland im 20. Jahrhundert. Auch ihn wurmte die Frage des Glanzes, weil der Glanz nicht nur die vor dem Bildschirm stört. Er zerstört die Farben. Egal, wie ein Objekt aussieht, rot, grün oder lila, der Glanz ist fast immer weiß oder farblos.

Unter unserem Lehrer versuchten mehrere Kollegen, fast alle Ingenieure, eine Dissertation zu dem Thema zu schreiben. So entstand die Bezeichnung Glanzleiche. Die ist nicht ein optisch präpariertes Opfer in einem Tatort, sondern eine Doktorarbeit, von der man bereits zu Beginn sagte, dass die nichts wird.

Warum aber, wenn eine Arbeit von einer begnadeten Koryphäe betreut wird und von intelligenten Menschen ausgeführt? Die Gründe habe ich im Kapitel Warum sich die Forschung auf der Stelle dreht ausführlich erklärt. In diesem Kapitel geht es um Blendung, bei deren Erforschung man sich seit 120 Jahren die Zähne ausbeisst. Darin wird auch erklärt, dass Glanz eine Blendung ist. Er verhindert, dass man Dinge so sieht, wie sie sind. Weder ein Mensch noch eine Kamera können unter einer glänzenden Stelle erkennen, was darunter liegt. Und Blendung ist immer etwas, was das Erkennen erschwert. Glanz ist eine Form der Blendung, die man aber nicht so nennt. Das aus gutem Grund, denn Blendung klingt negativ, Glanz ist aber …?

Das Teuflische ist, dass der Glanz zu den vier Eigenschaften gehört, die uns das Erkennen eines physikalischen Objekts vollständig erklären: Helligkeit, Farbe, Glanz und Form. Hiervon wird nur die Form nicht von Physikern oder Technikern behandelt. Die anderen drei lernt man, wenn man Lichttechnik oder Farbenlehre studiert. Dummerweise hängen Farbe und Helligkeit eng zusammen. Und Glanz wird erheblich von der Form bestimmt. Und dies in Tateinheit mit Farbe.

Somit kann man Glanz als eine Erscheinung sehen, die uns das Sehen ermöglicht und aber auch erschwert bis unmöglich macht. Ob wir dies positiv oder negativ sehen, hängt von uns und unserer Situation ab und nicht von den physikalischen Eigenschaften. Bei manchen Dingen liegen positiv und negativ nur Millimeter auseinander, so z.B. auf schönen Frauengesichtern, wo positiv (Lipgloss) von negativ (glänzende Nasenspitze) eng beieinander liegen.

Es gibt auch Fälle, wo die Störung des Sehens den Gesamteindruck prägt und somit deren Beseitigung die Gesamterscheinung zerstört. So benutzt der Fotograf Catchlights, um den Augen Tiefe, Ausdruck und "Leben" zu verleihen. Ohne diesen Glanz wirken die Augen oft matt, leer oder „tot". Dasselbe gilt für Exponate in Galerien, die mit einer Scheibe geschützt werden müssen. Wenn diese mattiert ist, sind die Bilder tot. Portraitfotografen setzen Catchlights, wenn ein Gesicht ohne solche aufgenommen worden ist. Man kann den Effekt nachstellen, indem man Gesichter mit Glanzpunkten bearbeitet und diese entfernt.

Das Ganze hat selbst einen prägenden Effekt auf Wissenschaft und Technik. Der Glanz von Oberflächen hat einen signifikanten Einfluss auf Wissenschaft und Technik, insbesondere in den Bereichen Materialwissenschaft, Optik und Messtechnik. Möbel, Stoffe, Bekleidung, Kunstdruck und nicht zu vergessen Autos.

Wenn eine Sache so wichtig ist, müsste es von Fachleuten auf dem Gebiet nur so wimmeln. Dem ist nicht so. Die Szene wurde über mehrere Jahrzehnte von Richard S. Hunter (1906–1991) beherrscht, der schon in den 1930ern eine prägende Persönlichkeit war. Er war der Gründer des Unternehmens Hunter Associates Laboratory, Inc. (HunterLab), das weltweit Glanz- und Farbmessgeräte herstellt und damit maßgeblich zur Verbreitung seiner Messstandards beigetragen hat. Aber er war zuvor am National Bureau of Standards (NIST) tätig, wo er seine Methode entwickelte. Dazu gehörte auch ein Farbraum, der seinen Namen trägt: Hunter L, a, b Farbraum.

Hunter gelang es, die menschliche Wahrnehmung auf die Messung zu übertragen. Seine Geräte zielten darauf ab, die visuelle Wahrnehmung des menschlichen Auges (speziell im Hinblick auf kleine Farbunterschiede und Glanzeffekte) objektiv zu quantifizieren. Damit wurden HunterLab-Geräte zu einem unverzichtbaren Werkzeug, um die Produktkonsistenz über Lieferketten hinweg zu gewährleisten.

Hunter war keine Glanzleiche. Er hatte im Dezember 1927 seine Karriere als "Minor Laboratory Apprentice" (kleiner Laborlehrling) begonnen beim National Bureau of Standards (NBS), heute bekannt als NIST. Als wir zu Beginn des 21. Jahrhunderts eine vom Arbeitsminister beauftragte Studie zu Oberflächen von IT-Produkten durchführten (Einfluss von optischen Oberflächeneigenschaften von IT-Produkten auf Benutzer, BAUA Forschungsbericht Fb1066, 2006), war Hunter der Lieferant der meisten Erkenntnisse auf dem Gebiet. Und er war einer der Autoren der Studie, die Anlass für diesen Forschungsbericht war.

So konnten wir getrost schreiben:
„Maßgeblich für die Empfindung ist aber nicht die physikalische Verteilung des Lichts, sondern dessen situationsabhängige Beurteilung:

  • Glanz wird absichtlich erzeugt, um das Erscheinungsbild eines Gegenstands mit Leben zu erfüllen;
  • Glanz wird vermieden, um einen Gegenstand ungestört betrachten zu können.

 

Hunter hatte bereits 1936 zutreffend geschildert, dass es nicht nur einen Glanz gäbe, sondern viele:

  • Spiegelglanz": Helligkeitsempfindung in Verbindung mit gerichteter Reflexion auf einer Fläche (Original: specular gloss)
  • Kontrastglanz": Helligkeitsempfindung infolge relativ unterschiedlicher Helligkeit von spiegelnden und diffus reflektierenden Teilen der Fläche (Original: contrast gloss)
  • Bildschärfeglanz": Empfundene Schärfe der reflektierten Objekte (je schärfer, desto störender) (Original: DOI gloss (DOI: distinctness of image))
  • Haze" (ohne Übersetzung, könnte Dunst oder Eintrübung heißen): Haloartig empfundener Schleier in der Nähe der spiegelnden Stelle
  • Sheen" (ohne Übersetzung, könnte Schein oder Schimmer heißen): Glanzerscheinung auf matten Oberflächen unter streifendem Lichteinfall bzw. -ausfall
  • Absence-of-texture gloss" (ohne Übersetzung, könnte Strukturlosigkeit heißen): Empfundene Gleichmäßigkeit und Strukturlosigkeit (einer ansonsten mit Struktur versehenen Fläche).

Nicht jeder Physiker kapituliert vor dem Elend, Empfindungen messen zu müssen. Es dauert manchmal halt lange …

Natürliche Farben und sonstige Märchen

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Man liest sehr häufig in allen möglichen Publikationen, auch in wissenschaftlichen, etwas von natürlichen Farben. Gibt es die? Vielleicht!

Wenn es natürliche Farben gibt, muss es die zumindest in der Natur geben. Leider ist die Natur nachts grau bis schwarz, egal, wie die Tiere und Pflanzen aussehen. Erst wenn das Sonnenlicht auf diese fällt, entfalten sie Farben. Aber alles sieht morgens früh ganz anders aus als mittags, bei Regen anders als bei Sonnenschein.

Farben gibt es eigentlich gar nicht, außer im Farbeimer, auf dem z.B. geschrieben steht RAL 7000 (Fehgrau). Das ist die Farbe, die man sieht, wenn ein U-Boot der Bundesmarine tagsüber vor einem auftaucht. Aber abends bei einem Fest auf der Marinebasis wird das Boot garantiert nicht so aussehen wie mittags auf dem Wasser. Wir sehen trotzdem (fast) immer dasselbe Grau.

Schuld sind dafür zwei Standards, von denen nur einer geschrieben steht. Der geschriebene Standard heißt D65, wobei D für Tageslicht steht (Daylight) und 65 ein Kürzel von 6500 wie 6504 K. Das ist die sog. Farbtemperatur. Mit vollem Namen heißt das Objekt Normlichtart D65. Wenn der Farbeimer eine Substanz erhält, die auf einem U-Boot wie RAL 7000 ausschaut, dann wird das U-Boot mit D65 angestrahlt.

Den ungeschriebenen Standard  tragen wir oben im Kopf. Dieser nennt sich Konstanzphänomen. Ein roter Apfel erscheint uns auch unter gelblichem Glühlampenlicht oder im Schatten rot. (Eine Kamera macht aber echt zwei unterschiedlich aussehende Äpfel daraus.)

Die physikalisch nicht existierende Farbe eines Gegenstandes entsteht in unserem Gehirn unter dem Licht, das ihn beleuchtet. Also müsste es in der Natur „natürliches“ Licht geben. Dummerweise gibt es dieses auch nicht. Als Bewunderer der Farbe Blau habe ich an vielen Stellen der Erde versucht, blau zu sehen. Jedes Meer hat sein Blau, jeder Ozean auch. Das wussten wohl bereits die Griechen in der Antike, die zwar blau liebten, aber keinen Namen dafür hatten. Anstelle dessen wurden blaue Objekte genannt. Die Wahrnehmung und Benennung von Blau in den Sprachen erfolgten historisch sehr spät im Vergleich zu Farben wie Schwarz, Weiß und Rot. Homer beschrieb das Meer in der Odyssee zum Beispiel als "weinrot". (Blau bekam seit 2001 eine besondere Bedeutung, die man in dem Kapitel Geheimnisse in Blau lesen kann.)

Bevor man Homer Farbenblindheit bescheinigt, sollte man sich fragen, warum das Rote Meer so heißt oder das Schwarze. Beide sind nämlich blau. Ach, ja, die Türken nennen das Mittelmeer Weiss, obwohl dessen Blau viel tiefer ist als das vom Schwarzen Meer. Hoffentlich hört Homer da nicht zu.

Niemand kann absolute Farben sehen. Das Licht mit der Farbe D65 gibt es übrigens in kaum einem Bürogebäude, weil es scheußlich kalt wirkt. Es ist auch nicht Tageslicht, es heißt nur so. D65 ist etwa die Farbtemperatur des Himmels an einem lauen Sommertag über Wien abzüglich der Sonne. Man kann zwar so etwas nie in der Natur erleben, aber Normlichtarten sind halt mathematische Modelle. Da kann man die Sonne aus dem heiteren Himmel extrahieren, ohne rot zu werden.

Es gibt aber andere „Tageslichter“, so z.B. D50. Das benutzen die Fotografen und Drucker. D50 simuliert das Mittagshimmel-Tageslicht und ist der internationale Standard (ISO 3664-2000) für die visuelle Farbabstimmung von Druckvorlagen und Druckerzeugnissen. Dies soll gewährleisten, dass die Farben sowohl am Monitor als auch auf dem gedruckten Material unter standardisierten Bedingungen korrekt erscheinen. So ganz gelingen will es aber nicht.

Ein weiteres „Tageslicht“ D75 wurde früher häufig in den USA als Standard für die Farbabmusterung in Branchen wie Textil, Kunststoff und Papier verwendet. Dieser Standard lebt noch in Nischen.

Die Verkaufsräume können mit diesen grauenhaften Farben nichts anfangen. Deswegen gibt es bei denen TL84 (F11) mit 4100 K als Standard. Das sind allerdings IKEAs oder ähnliche Verkaufsstätten. Wer Lebensmittel verkaufen will, muss tiefer in die Trickkiste greifen, um das nicht mehr so frische Fleisch so natürlich wie frisch von der Schlachtbank scheinen zu lassen. Der deutsche Gesetzgeber wollte dem einen Riegel vorschieben und verbat sich optische Frischmacher (mehr kann man hier lesen: Brühwurst-Index und dessen Entwicklung)

Bei so vielen Interessen fällt es schwer, einen Standard für die Farbwiedergabe der Lichtquellen zu setzen. Der jetzt geltende Standard, auch CRI-Verfahren genannt, bestimmt einen Index Ra, der so komisch gestaltet ist, dass er auch Fachleute in die Irre führt. (s. ISO/TR 9241-610). Wenn ein Licht mit Ra = 100 bezeichnet wird, denken Leute  gleich an 100% = alle Farben werden – natürlich – wiedergegeben.

Nichts dergleichen ist wahr. Es werden diese trüben Farbmuster nach Meinung der Prüfer wiedergegeben, von denen niemand weiß, wo sie sitzen. Keine einzige gesättigte Farbe geht in die Prüfung ein. Zu guter Letzt sollen die Originale der gezeigten Farbmuster unauffindbar sein. Wenn Sie also demnächst im Baumarkt eine Lampe kaufen, sollten Sie wissen, was die Angabe CRI bzw. Ra bedeutet bzw. nicht bedeutet.

Noch eine Besonderheit: Ra wird für zwei unterschiedliche Lichtquellen bestimmt, wobei beide mit 100 enden. Die eine Bestimmung erfolgt mit der Glühlampe (Normlichtart A), der man bestimmt keine überragende Farbwiedergabe nachsagen kann. Natürlich wirkt deren Licht nur auf Freunde des Lagerfeuers. Die sind aber offenbar so zahlreich, dass man natürliche Farben nur in dessen Licht erlebt.

Die Skala des Index  Ra fängt auch nicht bei 0 an, Ra kann auch negativ werden, so etwa, wenn ein Licht das Erkennen von Farben gelinde gesagt stört. Deswegen ist man seit über 10 Jahren dabei, einen neuen Standard zu schaffen. Da unser neuester Beleuchtungsstandard gerade mal ein Jahr alt ist, wird es mit dem neuen Standard für Farbwiedergabe erst einmal nichts.

Lassen wir die Welt der künstlichen Lichter beiseite. Wie natürlich sind die Farben in einem wunderbar sonnenbelichteten ökologischen Haus mit energie sparenden Fenstern? Da sieht es schön düster aus. Den meisten Architekten ist nicht bekannt, dass die besten Fenstergläser nur die Einscheibengläser sind, die wohl die Urgroßeltern noch kannten. Wer sich ein energetisch optimiertes Haus bauen oder sein altes sanieren lässt, darf sich von Farben nicht viel erhoffen. Verglasungen, die man in unseren Breiten verwendet, schlucken bis zu 70 % (!) des einfallenden Sonnenlichtes und können Ra zwischen 97 und 77 reduzieren. Und sie schlucken alle „gesunden“ Strahlen (Ultraviolett und Infrarot) komplett. Nix mit perfekter Farbwiedergabe bei Tageslicht. Diese gibt es leider nur draußen.

Beim ersten Ziel schon die Zähne ausgebissen

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Ob Thomas Edison der größte Erfinder war, weiß ich nicht. Er war aber der größte Dokumentator. In seinem Notizbuch hat er fein säuberlich dokumentiert, wie viele tausend Glühfäden er ausprobieren musste, bis er den geeigneten fand. Heute ist so etwas kein Wunder; die Qualitätssicherung dokumentiert in der gleichen Weise mit allen Nachweisen für das Versagen. Aber Edisons Notizbuch enthielt etwas, was ihn als den Besten auszeichnet. Er schrieb, warum er etwas erfinden wollte. Vor den Experimenten mit seinen 9000 Versuchen mit Glühfäden hatte er ins Büchlein geschrieben: „Ich werde ein Licht erfinden, das so billig ist, dass sich nur Reiche Kerzenlicht leisten. Und es wird nicht blenden.

Es ist erreicht. Kerzenlicht benutzt man nur noch, wenn man blenden will, so etwa wie der Pastor die Gemeinde oder der Profi-Dater die Angebetete beim Candlelight-Dinner. Über das Blenden durch die alltägliche Beleuchtung im Büro wissen wir vermutlich weniger als vor 100 Jahren, als man glaubte, der Blendung durch Forschen näher gekommen zu sein.

Man teilte das Phänomen in zwei Teile auf. Den einen nannte man die physiologische Blendung, weil man sie an den Augen toter Rinder ermitteln konnte. Da blieb aber was übrig, worauf man keinen Reim machen konnte, weil alle Versuche, diese mit der Wirkung des Lichts zu verknüpfen, kläglich scheiterten. So nannte man sie die „psychologische“ Blendung. Ingenieure nennen alles, was sie nicht deuten können, psychologisch bedingt. So auch die Blendung. Die Angelsachsen nennen sie „discomfort“ glare, was ein Problem für sich ist. Denn es soll das Gegenteil von comfort bedeuten und wird deswegen ins Deutsche als Komfort übersetzt. Ein typischer falscher Freund. Komfort bedeutet Bequemlichkeit, Annehmlichkeit oder Behaglichkeit. Deswegen wird er von deutschen Arbeitgebern ungern benutzt.

Aber auch britische oder amerikanische Kollegen hatten ihre liebe Not damit. Denn die psychologische Blendung haben keine Psychologen untersucht, sondern meist nur Ingenieure, so wie ich auch. Ich hatte die Ehre, die auch heute in erster Linie genannten Forschenden persönlich kennenzulernen. So etwa

  • Dr. S.K. Guth Schöpfer der Guth-Formel (VCP Methode Visual Comfort Probability, heute eine Basis der UGR-Methode, die weltweit angewandt wird
  • Prof. R.G. Hopkinson Schöpfer der Hopkinson Glare Formula (British Glare Index (BGI), IES Glare Index), eine weitere Basis der UGR-Methode
  • Dr. G. Söllner Schöpfer der Söllner-Kurven, die in Deutschland bis zur Einführung der UGR-Methode benutzt wurden
  • Professor J.B. de Boer Schöpfer der de Boer-Skala zur Messung der psychologischen Blendung

Hopkinsons Arbeitsstätte (Building Research Station (BRS), später Building Research Establishment (BRE), gegründet 1921) war der Ursprung der modernen Blendungsmetriken. Sie war staatlich finanziert. Alle anderen Herren waren bei der lichttechnischen Industrie angestellt.

Hätte ich auf Guths Rat gehört, hätte ich meine Doktorarbeit über alles Mögliche geschrieben, nur nicht über die psychologische Blendung. Er hatte mir nämlich gesagt: „Du bist noch am Anfang. Lass das lieber sein. Ich habe 25 Jahre meines Lebens damit vergeudet." Ich hatte Rabatt, bei mir dauerte es nur drei Jahre.

In diesen drei Jahren habe ich festgestellt, dass alle, auch die hier aufgezählten Koryphäen, mit dem gleichen Wasser kochten. Bezeichnend für deren Arbeit ist eine Skala wie diese, die von de Boer zurückgeht. Er hatte es andersherum aufgestellt. Aber die Mitte war gleich und hieß BCD-Kriterium, border between comfort and discomfort. Eben dies war der Knackpunkt. Die Forschenden wollten nicht etwa feststellen, wie komfortabel eine Beleuchtung war, sondern nur, wann eine Blendung von „comfort“ zu „discomfort“ wird. Bereits der erste Psychologe, dem ich diese Skala zeigte, riet davon ab, sie zu benutzen. Sie wäre falsch konstruiert nach dem Postulat, dass Blendung etwas Negatives sei. Wer soll dies bestimmt haben? Thomas Edison. Er wollte den negativen Effekt vermeiden. War das alles?

In dem Kapitel Warum sich die Forschung auf der Stelle dreht erkläre ich, warum die Forschung sich im Kreise dreht. Dafür sind folgende Faktoren maßgeblich, die einzeln behandelt werden:

  • Konzeptionelle Mängel grundsätzlicher Art;
  • Fehlen eines übergeordneten Ziels, weil Vermeiden von Blendung zu wenig bedeutet;
  • Vielzahl von Erscheinungen mit demselben Effekt, die unberücksichtigt bleiben;
  • Unzureichendes Ziel der Sehleistung, das das Farberkennen ignoriert;
  • Gefährden statt nützen, wenn unsinnige Anforderungen gestellt werden;
  • Etablieren eines Gütemerkmals, das seinem eigenen Ziel widerspricht.

Symbolisch für alle Erklärungen symbolisch zeige ich den Raum, in der die jüngsten Blendungsbewertungen stattgefunden hatten, und in Vergleich dazu den ältesten. Ob je ein Mensch in der Lage sein wird, in einer solchen Umgebung als Proband so etwas wie „Komfort“ zu ermitteln? Selbst wenn man lauter Probanden finden würde, die das können, bleibt ein entscheidender Faktor übrig, der ausreicht, alle Blendungsuntersuchungen für obsolet zu erklären: Fehlen jeglicher Augenbelastung durch die Arbeit.

Kein Wunder, dass Untersuchungen zur Validität der UGR-Werte ein vernichtendes Urteil ergeben: „Blendungsmodelle wurden nach fehlenden Untersuchungsbedingungen und Inkonsistenzen geprüft. Es wurden Mehrdeutigkeiten gefunden wie die Einbeziehung von kleinen und großen Blendquellen und was überhaupt eine Blendquelle in komplexen Situationen mit mehreren Leuchten ist. … Die Blendungsmodelle wurden umgerechnet, um mit den Vorhersagen von 1949 von Luckiesh und Guth verglichen zu werden. Die Modelle zeigten eine geringe Aussagekraft. Wenn man Blendung in komplexeren Situationen [mehrere Leuchten, d. Autor] bewerten will, müssen die Modelle grundsätzlich neu formuliert werden.“ (Clear, R. D. Discomfort glare: What do we actually know?, Lighting Research and Technology, 2012).

Etwa gleich alt wie diese Aussage ist die Feststellung von Stephan Völker, Professor für Lichttechnik an der TU Berlin (Stephan Völker: Blendung – Ein Rückblick über 100 Jahre Forschung. Licht 2012 Gemeinschaftstagung): „Der vorliegende Beitrag zeigt, dass es möglich scheint, die vorhandenen Blendungsbewertungsmodelle auf ein Modell zurückzuführen. Zurzeit fehlen noch einige Einflussgrößen, welche aber bereits in Kürze vorliegen dürften. Diese müssen anschließend für alle Anwendungsfälle (Innen-, Außen-, Kfz-, Sportstättenbeleuchtung, etc.) validiert werden.“Tröstlich zu hören, dass man nach 100 Jahren hofft, in Kürze einige Einflussgrößen zu finden. Dann wird man, - hoffentlich – die Methode validieren, d.h. den Nachweis führen, dass sie etwas Bedeutsames ermittelt.

Die psychologische Blendung ist eine extrem bedeutsame Eigenschaft der künstlichen Beleuchtung, aber ein schlecht verstandener Begriff. Die in der Praxis eingesetzten Verfahren sind veraltet und nachweislich nicht valide.

Ob man die richtige Methode für die Blendungsbewertung finden wird, um danach sie zu validieren, kann ich nicht positiv  beantworten. Um eine eigene Antwort zu finden, empfehle ich das Kapitel Validieren – das leidige Problem durchzuarbeiten. Dieses Problem besteht nicht nur bezüglich der Blendung.

Hawthorne Effekt und sonstige Narrative in der Lichtwelt

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Dieses Buch wurde anlässlich des 100. Jahrestags eines der wichtigsten Ereignisse der Lichttechnik geschrieben: der Veröffentlichung der V(λ)-Kurve. Sie ermöglichte die Quantifizierung des Lichts und somit den Handel mit den Lichtprodukten. (mehr hier) Man weiß seitdem, was man kauft. Kurz gesagt: Helligkeit.

Das Jahr 1924 war aber auch der Beginn eines Ereignisses, das alle humanbezogenen Wissenschaften, Psychologie, Soziologie, Medizin … stark geprägt hat. Die Rede ist von Hawthorne Studies, deren Ziel der Nachweis der Wirkung der Qualität der Beleuchtung auf die menschliche Arbeitsleistung war. Am Ende wusste die Welt aber etwas Unerwartetes: Egal, wie das Licht auch war, leisteten Menschen mehr, wenn sie sich beobachtet fühlten. Es schien, die Qualität des Lichts würde die Leistung nicht beeinflussen. Somit misslang der Versuch, dem Käufer von Licht den Gegenwert dafür zu belegen. Mehr Licht = mehr Leistung ging nicht auf.

Die Hawthorne Studien und deren Folgen für die Lichttechnik habe ich in den Kapiteln

behandelt. Damit soll erklärbar werden, warum es in der Lichttechnik Legenden gibt, die sich über Jahrzehnte halten. Den Vorwurf einer Märchenerzählung hat nicht etwa ein Feind der Lichttechniker erhoben, und auch nicht in einem Provinzblatt. Er wurde von einem der renommiertesten Vertreter des Fachs erhoben und das vor dem Kongress der größten Lichttechnischen Gesellschaft der Welt, IES.

Aber noch viel älter als diese Legenden ist der Glaube, gutes Licht sei wichtig für den Arbeitsschutz. Dies kann man z.B. an den Vorschriften in vielen Ländern sehen, die Beleuchtung und Arbeitsschutz verbinden. Als die CIE in den 1990er Jahren eine internationale Umfrage startete, um festzustellen, in welchen Ländern es Vorschriften zu Beleuchtung und Arbeitssicherheit gibt und worauf diese beruhten, stellte sie fest, dass 14 Länder antworteten, dass sie Regeln und Vorschriften hätten. Auf die Frage „Gibt es Forschungsarbeiten zu Licht als Unfallursache, auf denen die nationalen Regeln beruhen?“, gab es keine einzige Antwort.

So etwas hielt die Lichttechniker nicht davon ab, zu behaupten, Licht sei bedeutsam für den Arbeitsschutz. Das geschah nicht etwa aus Überzeugung, sondern aus Marketinggründen. Denn seit dem Jahr 1935 sorgt der deutsche Staat dafür, dass deutsche Betriebe die Normen und Vorschriften für Beleuchtung einhalten, die die lichttechnische Industrie erarbeitet.

Woher kam aber der Glaube? Das kann ja nicht 1935 plötzlich entstanden sein. Die Antwort auf diese Frage zieht sich wie ein roter Faden durch das Buch. Zunächst waren es Sozialwissenschaftler, Architekten, Städtebauer, die die Bedeutung des Lichts für die menschliche Gesundheit propagierten. Dies habe ich z.B. im Kapitel Krankheiten der Finsternis – Geschichten aus New York und Chicago behandelt. Die Entstehung der Gartenstädte weltweit, die Entstehung und Verbreitung von Gartenlauben von Deutschland ausgehend in ganz Europa sind Beispiele dafür. All dies sorgte für den Glauben, gutes Licht = gesunde Umwelt.

Es fiel niemandem schwer, so zu glauben, weil das Helle auch jenseits der technischen Welt immer positiv gesehen wird. Es stand ja schon in der biblischen Schöpfungsgeschichte, dass Gott gesehen hatte, dass Licht gut war.

"Licht und Gesundheit" war am Ende der Industriellen Revolution Gegenstand von sozialpolitischen Bewegungen. Den Elan, den diese geschaffen hatten, nutzte ein gewisser Matthew Luckiesh, Direktor einer Lampenfabrik von General Electric, in unheimlich geschickter Weise. Dessen Buch Light and Health erschien vor 99 Jahren. Sein Anspruch: Tageslicht ist unerlässlich für ein gesundes Menschenleben, aber es ist unzuverlässig. Man kann es künstlich besser nachbauen. Dies sollte ein anderer Direktor eines Lichtherstellers etwa 75 Jahre später vor laufender Kamera einem Fernsehjournalisten gegenüber behaupten. So tief sitzt der Glaube.

Was 1935 geschehen war, ist eine deutsche Version der Hawthorne Studies. Der deutsche Staat sorgte mit einer Kampagne für „Gutes Licht“ dafür, dass die Leistung des Arbeiters steigen möge. Der Initiator des Ganzen, ein gewisser Albert Speer, sollte später Kriegsminister Hitlers werden. Seinerzeit wurde nicht nur der Arbeitsschutz unter die staatliche „Obhut“ genommen, sondern auch die Lichttechnische Gesellschaft (seinerzeit Deutsche Lichttechnische Gesellschaft e. V. (DLTG), später Deutsche Lichttechnische Gesellschaft e. V. (LiTG), 111 Jahre nach ihrer Gründung, LiTG, Deutsche Gesellschaft für LichtTechnik und LichtGestaltung e. V.). Sie bekam sogar einen Gauleiter.

Die damals geknüpften Bande zwischen der Lichttechnik und dem Arbeitsschutz wurde 1990 durch die EU gekappt. Diese erließ neue Arbeitsschutzgesetze, wonach alle normativen Regelungen, die die Gesundheit der arbeitenden Bevölkerung berühren, Sache des Staats sind. Somit dürfen Normen „privater“ Organisationen wie DIN oder VDI keine Bestimmungen enthalten, die für ein bestimmtes Niveau an Sicherheit sorgen sollen.

Am Ende steht nach 100 Jahren V(λ)-Kurve, dass der Staat den Betrieben Vorgaben für die Beleuchtung der Arbeitsstätten macht (ASR A3.4 Beleuchtung). Dummerweise kann man danach recht schlecht planen. Dazu gibt es, völlig ungefragt, Normen für die Beleuchtung von Arbeitsstätten (z.B. EN 12464-1 und -2 bzw. deutsche Versionen davon, die sich ein Ziel suchen mussten. Gesundheit und Sicherheit durften es nicht mehr sein. Was bleibt: Leistung.

So sagt der Anwendungsbereich der Norm aus: „Dieses Dokument legt Beleuchtungsanforderungen für Menschen an Arbeitsplätzen in Innenräumen fest, die den Anforderungen an den Sehkomfort und die Sehleistung …“ Kann sich wer was darunter vorstellen? Sehkomfort? In den 1347 definierten Begriffen des Internationalen Wörterbuchs der Lichttechnik (ILV) kommt der Sehkomfort nicht vor. Aber auch sonst ist er nur ein Schlagwort. Dann bleibt echt Sehleistung übrig. Wer da ein Kriterium erwartet, mit dem man ein normatives Werk von 103 Seiten begründet, wird entgeistert sein. Sie war in ILV einst so definiert: „Leistung des visuellen Systems, wie sie beispielsweise durch die Geschwindigkeit und die Genauigkeit gemessen wird, mit welcher eine Sehaufgabe gelöst wird.“ Sehaufgaben lösen?

Diese Definition gefiel den Europäern nicht, so formulierten sie etwas Besseres: „Sehleistung – Leistung des visuellen Systems“ (DIN EN 12665:2002 Licht und Beleuchtung, Grundlegende Begriffe und Kriterien für die Festlegung von Anforderungen an die Beleuchtung). Und was ist das visuelle System? Was leistet sie denn?

Wer so dumme Fragen stellt, ist selber schuld. Genau genommen weiß niemand, was das visuelle System ist. Bekannt ist nur, dass das Gehirn des Menschen etwa zur Hälfte zur Verarbeitung von visuellen Signalen dient (ISO 9241-610 Impact of light and lighting on users of interactive systems). Da das Gehirn 20% der Gesamtenergie verbraucht, ist das Sehen mit 10% (!) dabei.

Was soll man mit einer solchen Norm überhaupt anfangen? Man sollte nach deren Vorwort verfahren: „Sicherheit und Gesundheitsschutz - Grundsätzliche Anforderungen an die Beleuchtung hinsichtlich der Sicherheit und des Gesundheitsschutzes der Beschäftigten bei der Arbeit werden in Deutschland nicht in dieser Norm, sondern in der Arbeitsstättenverordnung
(ArbStättV) geregelt. In den Anwendungsbereich der ArbStättV fallen alle Arbeitsstätten. Die allgemeinen Anforderungen der ArbStättV hinsichtlich Beleuchtung werden in der Arbeitsstättenregel ASR A3.4 „Beleuchtung“ weiter konkretisiert."

Diese und weitere Narrative habe ich im Kapitel „Die Legende vom gesunden Licht reloaded“ behandelt und kommentiert. Denn was in Hawthorne nicht gelungen ist, der Nachweis einer Beziehung zwischen Lichtqualität und Arbeitsleistung, wird auch heute niemandem gelingen.

Wenn man keine Beziehung zwischen Lichtqualität und Leistung nachweisen konnte, heißt das, dass es diese nicht gibt? Diese Schlussfolgerung darf nicht gezogen werden. Die Wahrheit heißt, man kann sie nicht experimentell nachweisen. Der Hawthorne-Effekt heißt der Missetäter, der beim Experimentieren täuscht.

Kann man eine solche Beziehung nie nachweisen? Selbstverständlich kann man mit einigem Aufwand den Nachweis führen, dass geeignetes Licht zu besserer Leistung führt. Eine Methode besteht darin, dass man den Hawthorne-Effekt umgeht, indem die Beobachtung von Individuen entfällt. So kann man die Wirkung des Lichts auf die kollektive Leistung eines Werkes studieren. Noch sicherer ist eine retrospektive Studie, bei der man frühere Ereignisse nachträglich untersucht. Beides hatte mein Institut geplant. Gescheitert sind die Vorhaben nicht am Hawthorne-Effekt, sondern an der Struktur der Industrie.

Projekt 1 sollte nach 1990 in Autowerken stattfinden, die in der ehemaligen DDR neu entstanden waren. Sie gehörten westdeutschen Unternehmen, deren Werke eine andere Beleuchtung hatten. Was liegt näher als die Qualität der neuen Beleuchtung und der Arbeit zu untersuchen? Leider kann man so etwas im Labor durchführen, aber nicht in der Industrie. Man stelle sich vor, es wird nachgewiesen, dass ein Ausleger einer Firma effizienter oder qualitativ besser produziert als das Haupthaus! Projekt 1 tot!

Projekt 2 sollte zwischen den Werften einer Luftfahrtgesellschaft stattfinden, die Flugzeuge warten. Es sollte der Einfluss des Tageslichts auf Fehler untersucht werden. Da in der Luftfahrt-Industrie Fehler eine besondere Rolle spielen, wird die Qualität der geleisteten Arbeit ständig geprüft. Unentdeckte Fehler entdeckt man nach Unfällen. Da alles in der Vergangenheit liegt, werden keine Menschen bei der Arbeit beobachtet. Ergo kein Hawthorne-Effekt. Dafür gibt es leider zwei große Hindernisse: den Wettbewerb zwischen den Werften, die sich um die Aufträge reißen, und die Luftfahrtaufsicht, die sich sehr um die unentdeckten Fehler interessiert, die die Wartung überlebt haben sollen. Projekt 2 tot!

Das waren die Gründe hinter dem Namen eines Kapitels: Legendenbildung und Märchenerzählung – Ungewöhnliche Aktivitäten für Ingenieure …

Probleme mit der Beleuchtung, die andere verschuldet haben

Menschen werden mit Sehaufgaben beschäftigt,
die ihre Sehfähigkeit überfordern. Dafür kann man
nicht die Beleuchtung verantwortlich machen.

Erwin Hartmann, Professor für Sehphysiologie

Warum gibt es Beleuchtungen, mit denen die Menschen hadern? Eine Antwort darauf, dass die Beleuchtung irgendwie falsch sein muss, so falsch geplant, falsch ausgeführt, etc., kann häufig in die Irre führen. Eine solche Antwort könnte nur richtig sein, wenn die Beleuchtung eine eigenständige Einheit wäre, deren Funktion oder Eigenschaften nur durch sie selbst bestimmt wären. Im Folgenden führe ich kurz Erfahrungen aus Projekten an, bei denen nachweislich nicht die Beleuchtung oder deren Planer verantwortlich waren.

Wer dann? Als erstes seien zwei Verursacher genannt, die hinter den meisten Problemen stecken. Diese werden aber selten genannt, weil nicht erkannt.

Der erste der Missetäter ist das liebe Geld. Dessen Bedeutung erklärte mir ein Leuchtenentwickler, als ich ihm (und seinesgleichen) vorwarf, Lichtteppiche zu planen. Er seufzte und sagte: “Wir wären froh, wenn die Bauherren Licht wie Teppiche behandelten. Mit einem festen Budget und bereits früh in der Planung.“ Und er erklärte weiter, dass bei der Planung eines Bürohauses der Teppich recht oben anstünde und etwa mit dem vierfachen Wert pro Quadratmeter wie Licht verplant würde. So falsch lag er damit nicht. Man kann zwar keine Qualität erwarten, wenn man sinnlos Geld ausgibt. Aber von selbst entsteht auch keine Qualität.

Der zweite Verursacher steckt hinter dem Wort Quadratmeter wie Bürofläche. Bauen oder Mieten ist immer teuer. So machen diese an den Gesamtkosten eines Arbeitsplatzes rund 8 % aus. Damit man eine Vorstellung von der wahren Bedeutung hat, hier absolute Zahlen: Der durchschnittliche Bruttojahresgehalt für einen Sachbearbeiter in Deutschland liegt bei 41.000 € bis 50.000 €. Die Gesamtkosten betragen 63.000 € bis 76.500 €. Demnach liegt die Miete bei 6.000 € p.a.

Kein Wunder, dass die Unternehmen scharf darauf gucken. Schlimmer noch: Die Bürofläche verwalten nicht die Arbeitgeber, sondern Facility Manager, die häufig sparen ohne Rücksicht auf die Arbeit. Was hat das aber mit der Beleuchtung zu tun? Leider sehr viel. Unser lieber Arbeitsminister, derzeit die liebe Frau Bärbel Bas, empfiehlt als ein Musterarbeitsplatz für einen Büromenschen dieses:

Wenn man überschlägig berechnet, hat dieser Raum eine Fläche von 45 m² bis 80 m². Nach den Vorschriften, die auch Frau Bas kennt, RBBau, darf die Höchstfläche für einen Behördenleiter 21 m² nicht übersteigen. Ein Anspruch darauf bestand aber nie. Sachbearbeiter sollen 12 m² in Einzelzimmern und mit jeweils 6 m² in Mehrpersonenzimmern untergebracht werden. Was entsteht, wenn Frau Bas uns einen Musterarbeitsplatz empfiehlt, der mehr Fläche hat als ein Raum für Minister (42-48 m²), die Vorstellungen der Lichttechnik hingegen nur bei einer Besiedlung wie dieser funktionieren, …

… und pro Kopf nur 6 m² zur Verfügung stehen? Einfach: Stress! Trifft dieser nur die Leute im öffentlichen Dienst? Schön wär’s! Auch die Versicherungsaufsicht wacht darüber, dass kein Unternehmen zu viel Fläche baut. Allerdings braucht es keine Kontrolle, der wirtschaftliche Zwang reicht.

Nun zu Projekten, bei denen Licht zum Stress wurde.

Ein Verlag baut sich ein Hauptquartier …

Ein internationaler Verlag baut sich ein Hauptquartier auf einem schönen Hügel an einem sagenhaften deutschen Fluss … Geld spielt keine Rolle, weil dort die wichtigsten Mitarbeiter des Verlags arbeiten sollen: Lektoren, die die Qualität der Bücher maßgeblich bestimmen.

Als es zu Knatsch wegen der Beleuchtung kommt, erklärt der Lichtplaner, er habe die wenigen verfügbaren Leuchtenmodelle geprüft, die in die Schlitze in der Decke passten. Diese waren nicht geeignet für übliche Lampen, die 1,20 m lang sind. So hat er welche für 1,00 m-Lampen nehmen müssen. Und davon hätte es nur wenige gegeben. Da die Mittel für den Bau so gut wie erschöpft waren, hätte er eben die jetzigen Leuchten nehmen müssen.

Ursache der Misere: Denken an Licht, wenn der Rohbau steht und das Geld alle ist.

Noch ein Hauptquartier, aber ein sehr großes …

Eines der größten Unternehmen der Republik will sich eine neue Konzernzentrale bauen. Ein sehr bekannter Lichtguru hört die Signale und bietet seine Kreation an. Eine Hochdrucklampe, deren Licht mehrere Spiegel an den Punkt lenkt, an dem der Mensch sitzt. Er erklärt dem Vorstand seine „Philosophie“: Licht gehört dorthin, wo gearbeitet wird. Der Vorstand ist begeistert und will die Leuchte sehen. Ach, ja. Das muss noch gebaut werden. Macht nix, sogar das Modell der Kreation wird bezahlt.

Der Architekt, einer der größten seiner Zeit, hofft, dass die Büroplaner dem Treiben ein Ende setzen. Leider hofft er vergebens. So entsteht ein riesiges Gebäude, in dem vor dem Einzug des ersten Bewohners feststeht, wo er in seinem Arbeitszimmer zu sitzen hat. Soll der Raum anders genutzt werden, muss der Hausmeister kommen und die Lampe umhängen und die Spiegel justieren. Er kommt aber sehr selten, weil er noch weitere Probleme hat. Denn die Hochdrucklampen geben häufig ihren Geist auf, weil man diese nicht häufig ein- und ausschalten soll. Und die Mitarbeiter müssen sich überlegen, wie lange sie wegbleiben, bevor sie das Licht ausschalten. Die Lampe schaltet sich erst in 15 Minuten wieder an.

Ursache der Misere: In einem Bürohaus ziehen etwa 10% bis 15% der Mitarbeiter pro Jahr um, noch einmal so viele ändern die Besiedlung des Raums. Wer das vergisst …

Noch ein Hauptquartier, aber ein sehr teures …

Eines der größten internationalen Unternehmen Deutschlands baut auf einem der teuersten Grundstücke des Landes eine Zentrale. Die Mitarbeiter handeln nicht etwa mit Bananen, ihre Kundschaft handelt mit Milliarden, und sie verhandeln häufig mit denen. Selbst die Kunst am Bau ist Stadtgespräch. So soll der schöne Bau nicht mit Heizkörpern verunstaltet werden. Man beschließt die sogenannte Betonkernaktivierung. D.h., Heizen und Kühlen werden von der Betondecke und den Wänden besorgt. Die letzteren sind leider rar, weil es sich um Open Space handelt. Deswegen kommt die Kälte von oben nach unten, und die Wärme verschwindet in der Decke. So soll es werden, auch wenn die Physik eigentlich etwas Anderes sagt.

Um die Beleuchtung kümmert man sich erst, nachdem alles ziemlich fertig ist. Leider stellt es sich heraus, dass die akustischen Eigenschaften der Decke den Vorstellungen über einen Büroraum Hohn lachen. Da muss jede Menge Akustikmaterial dran. Akustikmaterial zeichnet sich durch seine Isolationswirkung aus. Dummerweise kann man die Decke deswegen nicht ganz verkleiden, weil dann die Klimatisierung nicht funktioniert. Ergo? Stopft man das Akustikmaterial um die Leuchte herum. Schwarzes Material um eine Leuchte herum? Beste Voraussetzungen für Blendung.

Zu allem Verdruss: Die Beleuchtungskörper für einen der teuersten Bürobauten nimmt man aus dem Lager, wo man alte Leuchten abgelegt hatte.

Die Krone der Katastrophe kommt, als die Leute einziehen. Die Akustik ist jenseits von Gut und Böse, so kommen viele Glaszellen zum Einsatz.

Ursache der Misere: Alles andere, nur nicht die Beleuchtung.

Und noch ein Hauptquartier, so ziemlich das Bestplatzierte …

Ein Unternehmen lässt sich auf einem der edelsten Böden der Republik ein imposantes Haus bauen, das als Zentrale dient. Leider reicht es nicht aus, dass man weitere Flächen in der Nähe kauft oder mietet. Ab und an wird „umorganisiert“ und die Zentrale mit neuen Mitarbeitern beglückt. Wir sollen ermitteln, warum das Haus diese stört. Was heißt stören, sie hassen es. Naheliegend ist anzunehmen, dass der Architekt völlig versagt haben muss. Dass Licht und Klima nicht funktionieren, müsste mit den Großräumen zusammenhängen. Weil sie immer damit zusammenhängen? Mal schauen!

Wir sollen ermitteln, was die Ursache der Unzufriedenheit ist. Vorerst wollen wir feststellen, wie es mit der Arbeitsfläche ausschaut. Es arbeiten 3.000 Personen im Haus. Weiterhin müssen 500 Personen aus den umliegenden Bürohäusern die Sozialflächen (Kantine, Pausenräume, Archive, Seminarräume) mitbenutzen. Wir berechnen, dass der Raum für etwa 1.800 Angestellte reicht. Es sind aber 3.000 + rechnerisch ein Drittel von 500 Leuten.

Was hatte der Architekt geplant? Das Haus war für genau 1.800 Personen geplant und auch so bezogen worden. Deren Klimatisierung und Beleuchtung waren genau für diese Zahl von Arbeitsplätzen berechnet worden. Was darf man erwarten, wenn man das Haus mit etwa 180% der vorgesehenen Belastung belegt und betreibt?

Ursache der Misere: Überbelegung

Mir liegt fern, irgendwelche Fehler weißzuwaschen. Auch Prof. Hartmann wollte nicht die Beleuchtung weißwaschen, sondern auf den wahren Kern der Probleme mit der Beleuchtung verweisen. Ähnlich kann man es mit der Klimatisierung erleben. Etwa die Hälfte der Beschwerden mit ihr wären nicht entstanden, wenn die Anlagen ordnungsgemäß betrieben und gewartet worden wären.

Muss ich verstehen, wenn meine LED so schnell durchbrennt?

Der Hersteller hat sich nicht geirrt.
Er hatte nur eine
kreative Auffassung der Wahrheit.

Anonymus

Dass ein technisches Datum Industriegeschichte schreibt, kommt nicht alle Tage vor. Die „1000 h“ für die Lebensdauer der Glühlampe, präzise gesagt, der Allgebrauchsglühlampe, hat es geschafft. Ihre Festlegung durch das Phoebus-Kartell gilt als Startschuss für eine allseits verhasste technische „Errungenschaft“, vorgeplantes Lebensende eines technischen Produktes, besser bekannt als geplante Obsoleszenz. Nicht nur Lampen, sondern Autos, Fernseher und andere hochwertige Industriegüter können der geplanten Obsoleszenz unterliegen. Gemeint ist, dass der Hersteller bestimmt, ob und wann ein Produkt nicht mehr funktioniert.

Über das Phoebus-Kartell wie über die geplante Obsoleszenz kursieren unzählige Legenden oder Gerüchte. Ich habe versucht, den wahren Kern verständlich zu machen, damit sich jeder seine Meinung bilden kann. Dazu schrieb ich in Genesis 2.0 Schöpfung der elektrischen Sonne zwei Kapitel. Das Kapitel Das Phoebus-Kartell – Gerücht - Legende – Realität behandelt den Begriff Kartell, um diesen von der technischen Normung zu unterscheiden, die ebenso Absprachen trifft. In dem Kapitel Angaben für die Lebensdauer von Leuchtmitteln werden Methoden zur Bestimmung der Lebensdauer von allen technischen Leuchtmitteln beschrieben. Der Zweck der Übung ist die Erklärung der Schwierigkeiten, den Schlüsselbegriff Lebensdauer zu verstehen. Vielleicht trägt zum Verständnis auch bei, dass Fachleute Seminare besuchen müssen, die 1.190 € + MWSt und 3 Tage Zeit kosten, um die Berechnung der Lebensdauer einer LED vornehmen zu können (hier).

Der Laie wie der Fachmann liest 50,000 Stunden und ist frustriert, wenn das schöne Ding keine 500 h hält. Wenn man dazu noch hört, dass es eine Jahrhundertglühlampe gibt, die seit 124 Jahren ununterbrochen leuchtet, ist man echt perplex! Hie 124  Jahre da 1000 h?

Der Schlüssel zum Verständnis ist schlicht und einfach die enorme Abhängigkeit von Lampen bzw. Leuchtmitteln von den Betriebsbedingungen. Dies gilt sogar für die Kerze oder Fackel. Ihre Lebensdauer ist am längsten, wenn man sie optimal aufstellt und kein Wind weht.

Bei derjenigen Lampe, der Glühlampe, deren Lebensdauer noch einfach zu verstehen ist, spielt die Betriebsspannung die erste Geige. Die Lebensdauer einer Lampe steigt oder fällt mit der dritten bis vierten Potenz der Spannung. Wird eine Lampe mit einer nur 13% höheren Spannung betrieben, lebt sie nur noch 30% der angegebenen 1000 h.

Wäre dies die einzige Wirkung, könnte man damit noch einigermaßen verständlich umgehen. Aber die Überspannung von 13% erhöht die Lichtleistung der Lampe um 150%. Und das Licht wird weißer. Wenn man die Lampe mit Unterspannung betreibt, glimmt sie so vor sich hin. Bei der Nennspannung, die der Hersteller so nennt, hat sie die vom Hersteller angegebenen Eigenschaften (Lichtstrom. Lichtfarbe, Spektrum etc.). Bei einer weiteren Steigerung wird das Licht immer weißer, bis sich die Lampe unsanft verabschiedet.

Im allgemeinen folgt der Lichtstrom exponentiell steigend der Spannung, wobei der Exponent 3,4 bis 3,8 beträgt. D.h., bei der doppelten Spannung erhält man etwa 16 Mal so viel Licht. Allerdings nicht sehr lange. Der Exponent für die Lebensdauer liegt typischerweise bei Werten zwischen 12 und 16 der Spannung. Nett ausgedrückt, wenn man eine Lampe mit doppelter Spannung betreibt, erhält man 16 Mal so viel Licht, aber ihre Lebensdauer wird um den Faktor 65.536 kürzer. Oder die Lampe leuchtet 0.01525878906 h. Das sind gerade 0,9 Minuten.

Immerhin, manche „Lampe“ lebt nicht einmal so lang. Die einst üblichen Blitzbirnen, die nichts anderes waren als überzüchtete Glühlampen, brannten in 1/30 Sekunden ab. Hingegen gab es für Hotelzimmer Lampen, die über 2000 h lebten. Und das alles unter den ordentlichen Nennbedingungen. Betreibt man eine solche Lampe mit halber Spannung, lebt sie 16.000.000 Stunden oder 1826 Jahre und 175 Tage.

Die Vertreter der Industrie behaupten, das Phoebus-Kartell habe die Lebensdauer der Lampen auf 1000 h begrenzt, um den Verbraucher zu schützen. Ich denke, allzu abwegig ist der Gedanke nicht. Zumal das Kartell Werbung mit Lebensdauern unterbunden hat. Auf jeden ist die Lebensdauer ein Politikum, bei dem sich die Hersteller ungern in die Karten gucken lassen. Ein tiefes Verständnis über die Lebensdauer ist in der Lichttechnik allgemein nicht erwünscht, wie man im „Handbuch für Beleuchtung“, Herausgeber Gesellschaften für Lichttechnik von vier deutschsprachigen Ländern, ermitteln kann. Hier spreche ich von Ermitteln, weil der Begriff Lebensdauer als solches nicht behandelt, geschweige denn definiert wird. In diesem Kompendium zur Beleuchtung gibt es nur Bemerkungen dazu und das nur zur Lebensdauer von Entladungslampen. Dort heißt es: „An dieser Stelle und im allgemeinen muß auf nähere Informationen über die Lampenlebensdauer verzichtet werden, weil die Betriebsbedingungen Betriebsbedingungen zu große Unterschiede aufweisen und starken Schwankungen unterliegen. Fehlschlüsse aus konkreten Angaben wären in der Praxis nicht zu vermeiden.“.

Was ist mit der Lebensdauer von LED? Warum liest man Angaben bis 100.000 h, wenn Leute behaupten, ihre LED hätte sehr schnell den Geist aufgegeben? Hier ist der Missetäter nicht die Betriebsspannung, sondern die Thermik. Ein LED-Element besteht aus einer eigentlich relativ winzigen Diode und einem riesigen Kühlkörper. Die Elemente werden häufig zu ganzen Modulen zusammengepackt, in denen viele Dioden leuchten. Sind die beiden aufeinander abgestimmt und wird die Diode betrieben, wie der Hersteller bestimmt hat, gelten die Lebensdauern, die der Hersteller angibt.

Allerdings muss man schon wissen, wie die zustande kommen. Eigentlich müsste der Hersteller eine wahnsinnige Formel abarbeiten: L70B10C10F10. Fangen wir vorne an. L70 heißt, die LED wird bei 70% ihrer Leuchtkraft (Lichtstrom) für tot erklärt. B10 sagt aus, dass höchstens 10% der Elemente diese Leistung unterschreiten dürfen. Bx ist somit ein Maß für die Ungleichmäßigkeit der Helligkeit der Elemente innerhalb eines LED-Moduls. C10 bedeutet, dass in einem Modul maximal 10% aller Elemente total ausgefallen sind. Last not least, F10 sagt aus, dass höchstens 10% der LED dürfen den L-Wert unterschreiten (inklusive Totalausfall).

Leider tun LED-Module uns nicht gefallen, dass sie einfach aufhören zu leuchten. Deswegen die komplizierte Angabe der Lebensdauer. Dummerweise gibt es auch noch weitere Probleme. Die genannten Zahlen sind statistische Werte, d.h. nicht aller Elemente eines Moduls haben den gleichen Zustand. Dann hat die Beleuchtung nicht nur Helligkeitsunterschiede, sondern auch erhebliche Farbunterschiede. Im schlimmsten Fall flackern die ausgefallenen Elemente vor sich hin.

Da man dem einfachen Menschen nicht zutraut, rätselhafte Angaben mit L70B10C10F10 zu entziffern, bekommt man oft eine Angabe in Jahren. Diese wird berechnet für einen Betrieb von 2 Stunden und 45 Minuten am Tag, also etwa 11% des Tages. Wer das aus welchem Grund so festgelegt hat, müsste man bei Interesse selbst ermitteln. Dafür gibt es leider keine Seminare. Also Vorsicht, wenn die Lebensdauer in Jahren statt in Stunden angegeben wird.