Glanzleiche – Oder vom Elend des Physikers beim Umgang mit Empfindungen

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Blendung und „natürliche“ Farben - Das waren die Themen der letzten beiden Blogs. Doch die Beschreibung von Erscheinungen, mit denen der Techniker nicht gerade meisterhaft umgehen kann, ist damit nicht komplett. Erst richtig schwierig wird es, wenn man den Begriff oder die Erscheinung Glanz dazu nimmt.

Aber zuerst zu dem „Techniker“. Dieser ist ein Mensch, der einen Beruf ausübt, dessen Name vom griechischen Wort techne stammt. Und die heißt so viel wie Kunst, Gewerbe, Geschick, List, Betrug. Nicht eines davon, sondern alle zusammen. List und Betrug darf man allerdings nicht im Sinne des Strafrechts nehmen, sondern im Sinne von Geschick. Der Techniker überlistet Natur, Materialien, Naturgesetze u.ä., um etwas zu erzielen. So kann ein Mensch fliegen, ohne dass ihm Flügel wachsen.

Wenn der Techniker mit Glanz umgehen soll und dabei gewissenhaft objektive Größen benutzen, handelt er als Physiker, dessen Welt viel regelhafter ist als die des Technikers. Dies musste ich in meinen jungen Jahren tun, und die Sache war bitter ernst. Die Menschen, die am Computer arbeiteten, hatten Probleme mit den Augen, die sie auch heute haben, aber damals schimpften sie mehr. Also musste ich die sog. visuellen Probleme der Menschen ermitteln und Lösungen dafür finden. Diese wurden nicht in den Sand geschrieben, sondern in Normen, die heute 50 Jahre danach immer noch ihre Wirkung entfalten.

Eine meiner Diagnosen war, dass die Bildschirme glänzten. Ergo schrieb ich in den Normenentwurf, die dürfen nicht glänzen. Nun bestand die Arbeitswelt nicht nur aus glänzenden Bildschirmen. Wenn die nicht glänzen dürfen, warum dürfen andere? Also schrieb ich in den Normenentwurf, dass alle Teile des Arbeitsplatzes aus matten Oberflächen bestehen müssen. Die Vorstellung musste ich nicht einmal selbst entwickeln. Sie stand in der Beleuchtungsnorm DIN 5035 und verbot den Glanz schon vor über 50 Jahren.

Ein Mitglied unseres Normenausschusses nahm dann diesen Entwurf in seinen Betrieb und legte ihn seinen Büroorganisatoren vor. Deren Meinung war verheerend: eine Welt ohne Glanz. Matt wie platt.

Die besagten Herren waren noch gnädig. Große Computerfirmen gingen dagegen aggressiv vor. Sie hatten aber mit Zitronen gehandelt, denn dafür, dass Bildschirme glänzen sollen, gab es keine Begründung. Also floss die Idee in Normen, später in Sicherheitsregeln und ganz zuletzt in Arbeitsschutzvorschriften wie die EU-Richtlinie für die Arbeit mit Bildschirmen von 1990. Auch der Bundesarbeitsminister verschreibt den Betrieben in der ASR A6 (Bildschirmarbeit) von 2024: „Grundsätzlich sind an Bildschirmarbeitsplätzen Bildschirme mit entspiegelten (matten) Displays und matten Gehäuseoberflächen zu verwenden.“ Er lässt nur wenige Ausnahmen zu.

Die fehlende Begründung für glänzende Bildschirme kam später, als Computer auch Videos abspielen konnten. Auf matten Bildschirmen sahen schicke Filme gar nicht so schick aus. So bauten unbotmäßige Computerhersteller Laptops mit glänzenden Bildschirmen. Denn man kann nicht dauernd das Display wechseln, wenn man mal Büroarbeit macht und mal einen Porno einzieht.

Das Problem besteht bis heute, aber mit anderen Begründungen. Der technische Fortschritt hat zu Monitoren geführt, die weniger glänzen als die Vorschrift erlaubt. Aber Handys lassen sich schwer verkaufen, wenn ihre Displays tot aussehen. Da diese aber das ganze Gesicht vom Handy ausmachen, glänzen die dummen Dinger um die Wette. So auch mein iPhone, wenn es als Display für meine Drohne dienen soll, die bei Kaiserwetter den Berliner Wannsee ablichten will. Da ich kaum noch was sehe, haut die Drohne manchmal ab. Sie kommt eine halbe Stunde später reumütig wieder, wenn ihr Akku leer ist. Ob das sich auch ukrainische Drohnenpiloten leisten können? Zum Teufel mit dem Glanz, wenn mein Leben auf dem Spiel steht.

Die Probleme mit dem Glanz waren vermutlich vor meiner Geburt schon bekannt gewesen. Ich habe Farbe studiert bei einer der wenigen Koryphäen, denen es gelungen ist, ein Farbsystem aufzustellen (Anm.: Es war nicht Goethe). Sein wichtigstes Werk im Bereich der Farbsystematik ist das DIN-Farbsystem DIN 6164 (auch bekannt als DIN-Farbenkarte oder DIN-Farbenatlas). Er war Physiker und Farbmetriker und gilt als einer der führenden Vertreter der Farbwissenschaft in Deutschland im 20. Jahrhundert. Auch ihn wurmte die Frage des Glanzes, weil der Glanz nicht nur die vor dem Bildschirm stört. Er zerstört die Farben. Egal, wie ein Objekt aussieht, rot, grün oder lila, der Glanz ist fast immer weiß oder farblos.

Unter unserem Lehrer versuchten mehrere Kollegen, fast alle Ingenieure, eine Dissertation zu dem Thema zu schreiben. So entstand die Bezeichnung Glanzleiche. Die ist nicht ein optisch präpariertes Opfer in einem Tatort, sondern eine Doktorarbeit, von der man bereits zu Beginn sagte, dass die nichts wird.

Warum aber, wenn eine Arbeit von einer begnadeten Koryphäe betreut wird und von intelligenten Menschen ausgeführt? Die Gründe habe ich im Kapitel Warum sich die Forschung auf der Stelle dreht ausführlich erklärt. In diesem Kapitel geht es um Blendung, bei deren Erforschung man sich seit 120 Jahren die Zähne ausbeisst. Darin wird auch erklärt, dass Glanz eine Blendung ist. Er verhindert, dass man Dinge so sieht, wie sie sind. Weder ein Mensch noch eine Kamera können unter einer glänzenden Stelle erkennen, was darunter liegt. Und Blendung ist immer etwas, was das Erkennen erschwert. Glanz ist eine Form der Blendung, die man aber nicht so nennt. Das aus gutem Grund, denn Blendung klingt negativ, Glanz ist aber …?

Das Teuflische ist, dass der Glanz zu den vier Eigenschaften gehört, die uns das Erkennen eines physikalischen Objekts vollständig erklären: Helligkeit, Farbe, Glanz und Form. Hiervon wird nur die Form nicht von Physikern oder Technikern behandelt. Die anderen drei lernt man, wenn man Lichttechnik oder Farbenlehre studiert. Dummerweise hängen Farbe und Helligkeit eng zusammen. Und Glanz wird erheblich von der Form bestimmt. Und dies in Tateinheit mit Farbe.

Somit kann man Glanz als eine Erscheinung sehen, die uns das Sehen ermöglicht und aber auch erschwert bis unmöglich macht. Ob wir dies positiv oder negativ sehen, hängt von uns und unserer Situation ab und nicht von den physikalischen Eigenschaften. Bei manchen Dingen liegen positiv und negativ nur Millimeter auseinander, so z.B. auf schönen Frauengesichtern, wo positiv (Lipgloss) von negativ (glänzende Nasenspitze) eng beieinander liegen.

Es gibt auch Fälle, wo die Störung des Sehens den Gesamteindruck prägt und somit deren Beseitigung die Gesamterscheinung zerstört. So benutzt der Fotograf Catchlights, um den Augen Tiefe, Ausdruck und "Leben" zu verleihen. Ohne diesen Glanz wirken die Augen oft matt, leer oder „tot". Dasselbe gilt für Exponate in Galerien, die mit einer Scheibe geschützt werden müssen. Wenn diese mattiert ist, sind die Bilder tot. Portraitfotografen setzen Catchlights, wenn ein Gesicht ohne solche aufgenommen worden ist. Man kann den Effekt nachstellen, indem man Gesichter mit Glanzpunkten bearbeitet und diese entfernt.

Das Ganze hat selbst einen prägenden Effekt auf Wissenschaft und Technik. Der Glanz von Oberflächen hat einen signifikanten Einfluss auf Wissenschaft und Technik, insbesondere in den Bereichen Materialwissenschaft, Optik und Messtechnik. Möbel, Stoffe, Bekleidung, Kunstdruck und nicht zu vergessen Autos.

Wenn eine Sache so wichtig ist, müsste es von Fachleuten auf dem Gebiet nur so wimmeln. Dem ist nicht so. Die Szene wurde über mehrere Jahrzehnte von Richard S. Hunter (1906–1991) beherrscht, der schon in den 1930ern eine prägende Persönlichkeit war. Er war der Gründer des Unternehmens Hunter Associates Laboratory, Inc. (HunterLab), das weltweit Glanz- und Farbmessgeräte herstellt und damit maßgeblich zur Verbreitung seiner Messstandards beigetragen hat. Aber er war zuvor am National Bureau of Standards (NIST) tätig, wo er seine Methode entwickelte. Dazu gehörte auch ein Farbraum, der seinen Namen trägt: Hunter L, a, b Farbraum.

Hunter gelang es, die menschliche Wahrnehmung auf die Messung zu übertragen. Seine Geräte zielten darauf ab, die visuelle Wahrnehmung des menschlichen Auges (speziell im Hinblick auf kleine Farbunterschiede und Glanzeffekte) objektiv zu quantifizieren. Damit wurden HunterLab-Geräte zu einem unverzichtbaren Werkzeug, um die Produktkonsistenz über Lieferketten hinweg zu gewährleisten.

Hunter war keine Glanzleiche. Er hatte im Dezember 1927 seine Karriere als "Minor Laboratory Apprentice" (kleiner Laborlehrling) begonnen beim National Bureau of Standards (NBS), heute bekannt als NIST. Als wir zu Beginn des 21. Jahrhunderts eine vom Arbeitsminister beauftragte Studie zu Oberflächen von IT-Produkten durchführten (Einfluss von optischen Oberflächeneigenschaften von IT-Produkten auf Benutzer, BAUA Forschungsbericht Fb1066, 2006), war Hunter der Lieferant der meisten Erkenntnisse auf dem Gebiet. Und er war einer der Autoren der Studie, die Anlass für diesen Forschungsbericht war.

So konnten wir getrost schreiben:
„Maßgeblich für die Empfindung ist aber nicht die physikalische Verteilung des Lichts, sondern dessen situationsabhängige Beurteilung:

  • Glanz wird absichtlich erzeugt, um das Erscheinungsbild eines Gegenstands mit Leben zu erfüllen;
  • Glanz wird vermieden, um einen Gegenstand ungestört betrachten zu können.

 

Hunter hatte bereits 1936 zutreffend geschildert, dass es nicht nur einen Glanz gäbe, sondern viele:

  • Spiegelglanz": Helligkeitsempfindung in Verbindung mit gerichteter Reflexion auf einer Fläche (Original: specular gloss)
  • Kontrastglanz": Helligkeitsempfindung infolge relativ unterschiedlicher Helligkeit von spiegelnden und diffus reflektierenden Teilen der Fläche (Original: contrast gloss)
  • Bildschärfeglanz": Empfundene Schärfe der reflektierten Objekte (je schärfer, desto störender) (Original: DOI gloss (DOI: distinctness of image))
  • Haze" (ohne Übersetzung, könnte Dunst oder Eintrübung heißen): Haloartig empfundener Schleier in der Nähe der spiegelnden Stelle
  • Sheen" (ohne Übersetzung, könnte Schein oder Schimmer heißen): Glanzerscheinung auf matten Oberflächen unter streifendem Lichteinfall bzw. -ausfall
  • Absence-of-texture gloss" (ohne Übersetzung, könnte Strukturlosigkeit heißen): Empfundene Gleichmäßigkeit und Strukturlosigkeit (einer ansonsten mit Struktur versehenen Fläche).

Nicht jeder Physiker kapituliert vor dem Elend, Empfindungen messen zu müssen. Es dauert manchmal halt lange …

Natürliche Farben und sonstige Märchen

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Man liest sehr häufig in allen möglichen Publikationen, auch in wissenschaftlichen, etwas von natürlichen Farben. Gibt es die? Vielleicht!

Wenn es natürliche Farben gibt, muss es die zumindest in der Natur geben. Leider ist die Natur nachts grau bis schwarz, egal, wie die Tiere und Pflanzen aussehen. Erst wenn das Sonnenlicht auf diese fällt, entfalten sie Farben. Aber alles sieht morgens früh ganz anders aus als mittags, bei Regen anders als bei Sonnenschein.

Farben gibt es eigentlich gar nicht, außer im Farbeimer, auf dem z.B. geschrieben steht RAL 7000 (Fehgrau). Das ist die Farbe, die man sieht, wenn ein U-Boot der Bundesmarine tagsüber vor einem auftaucht. Aber abends bei einem Fest auf der Marinebasis wird das Boot garantiert nicht so aussehen wie mittags auf dem Wasser. Wir sehen trotzdem (fast) immer dasselbe Grau.

Schuld sind dafür zwei Standards, von denen nur einer geschrieben steht. Der geschriebene Standard heißt D65, wobei D für Tageslicht steht (Daylight) und 65 ein Kürzel von 6500 wie 6504 K. Das ist die sog. Farbtemperatur. Mit vollem Namen heißt das Objekt Normlichtart D65. Wenn der Farbeimer eine Substanz erhält, die auf einem U-Boot wie RAL 7000 ausschaut, dann wird das U-Boot mit D65 angestrahlt.

Den ungeschriebenen Standard  tragen wir oben im Kopf. Dieser nennt sich Konstanzphänomen. Ein roter Apfel erscheint uns auch unter gelblichem Glühlampenlicht oder im Schatten rot. (Eine Kamera macht aber echt zwei unterschiedlich aussehende Äpfel daraus.)

Die physikalisch nicht existierende Farbe eines Gegenstandes entsteht in unserem Gehirn unter dem Licht, das ihn beleuchtet. Also müsste es in der Natur „natürliches“ Licht geben. Dummerweise gibt es dieses auch nicht. Als Bewunderer der Farbe Blau habe ich an vielen Stellen der Erde versucht, blau zu sehen. Jedes Meer hat sein Blau, jeder Ozean auch. Das wussten wohl bereits die Griechen in der Antike, die zwar blau liebten, aber keinen Namen dafür hatten. Anstelle dessen wurden blaue Objekte genannt. Die Wahrnehmung und Benennung von Blau in den Sprachen erfolgten historisch sehr spät im Vergleich zu Farben wie Schwarz, Weiß und Rot. Homer beschrieb das Meer in der Odyssee zum Beispiel als "weinrot". (Blau bekam seit 2001 eine besondere Bedeutung, die man in dem Kapitel Geheimnisse in Blau lesen kann.)

Bevor man Homer Farbenblindheit bescheinigt, sollte man sich fragen, warum das Rote Meer so heißt oder das Schwarze. Beide sind nämlich blau. Ach, ja, die Türken nennen das Mittelmeer Weiss, obwohl dessen Blau viel tiefer ist als das vom Schwarzen Meer. Hoffentlich hört Homer da nicht zu.

Niemand kann absolute Farben sehen. Das Licht mit der Farbe D65 gibt es übrigens in kaum einem Bürogebäude, weil es scheußlich kalt wirkt. Es ist auch nicht Tageslicht, es heißt nur so. D65 ist etwa die Farbtemperatur des Himmels an einem lauen Sommertag über Wien abzüglich der Sonne. Man kann zwar so etwas nie in der Natur erleben, aber Normlichtarten sind halt mathematische Modelle. Da kann man die Sonne aus dem heiteren Himmel extrahieren, ohne rot zu werden.

Es gibt aber andere „Tageslichter“, so z.B. D50. Das benutzen die Fotografen und Drucker. D50 simuliert das Mittagshimmel-Tageslicht und ist der internationale Standard (ISO 3664-2000) für die visuelle Farbabstimmung von Druckvorlagen und Druckerzeugnissen. Dies soll gewährleisten, dass die Farben sowohl am Monitor als auch auf dem gedruckten Material unter standardisierten Bedingungen korrekt erscheinen. So ganz gelingen will es aber nicht.

Ein weiteres „Tageslicht“ D75 wurde früher häufig in den USA als Standard für die Farbabmusterung in Branchen wie Textil, Kunststoff und Papier verwendet. Dieser Standard lebt noch in Nischen.

Die Verkaufsräume können mit diesen grauenhaften Farben nichts anfangen. Deswegen gibt es bei denen TL84 (F11) mit 4100 K als Standard. Das sind allerdings IKEAs oder ähnliche Verkaufsstätten. Wer Lebensmittel verkaufen will, muss tiefer in die Trickkiste greifen, um das nicht mehr so frische Fleisch so natürlich wie frisch von der Schlachtbank scheinen zu lassen. Der deutsche Gesetzgeber wollte dem einen Riegel vorschieben und verbat sich optische Frischmacher (mehr kann man hier lesen: Brühwurst-Index und dessen Entwicklung)

Bei so vielen Interessen fällt es schwer, einen Standard für die Farbwiedergabe der Lichtquellen zu setzen. Der jetzt geltende Standard, auch CRI-Verfahren genannt, bestimmt einen Index Ra, der so komisch gestaltet ist, dass er auch Fachleute in die Irre führt. (s. ISO/TR 9241-610). Wenn ein Licht mit Ra = 100 bezeichnet wird, denken Leute  gleich an 100% = alle Farben werden – natürlich – wiedergegeben.

Nichts dergleichen ist wahr. Es werden diese trüben Farbmuster nach Meinung der Prüfer wiedergegeben, von denen niemand weiß, wo sie sitzen. Keine einzige gesättigte Farbe geht in die Prüfung ein. Zu guter Letzt sollen die Originale der gezeigten Farbmuster unauffindbar sein. Wenn Sie also demnächst im Baumarkt eine Lampe kaufen, sollten Sie wissen, was die Angabe CRI bzw. Ra bedeutet bzw. nicht bedeutet.

Noch eine Besonderheit: Ra wird für zwei unterschiedliche Lichtquellen bestimmt, wobei beide mit 100 enden. Die eine Bestimmung erfolgt mit der Glühlampe (Normlichtart A), der man bestimmt keine überragende Farbwiedergabe nachsagen kann. Natürlich wirkt deren Licht nur auf Freunde des Lagerfeuers. Die sind aber offenbar so zahlreich, dass man natürliche Farben nur in dessen Licht erlebt.

Die Skala des Index  Ra fängt auch nicht bei 0 an, Ra kann auch negativ werden, so etwa, wenn ein Licht das Erkennen von Farben gelinde gesagt stört. Deswegen ist man seit über 10 Jahren dabei, einen neuen Standard zu schaffen. Da unser neuester Beleuchtungsstandard gerade mal ein Jahr alt ist, wird es mit dem neuen Standard für Farbwiedergabe erst einmal nichts.

Lassen wir die Welt der künstlichen Lichter beiseite. Wie natürlich sind die Farben in einem wunderbar sonnenbelichteten ökologischen Haus mit energie sparenden Fenstern? Da sieht es schön düster aus. Den meisten Architekten ist nicht bekannt, dass die besten Fenstergläser nur die Einscheibengläser sind, die wohl die Urgroßeltern noch kannten. Wer sich ein energetisch optimiertes Haus bauen oder sein altes sanieren lässt, darf sich von Farben nicht viel erhoffen. Verglasungen, die man in unseren Breiten verwendet, schlucken bis zu 70 % (!) des einfallenden Sonnenlichtes und können Ra zwischen 97 und 77 reduzieren. Und sie schlucken alle „gesunden“ Strahlen (Ultraviolett und Infrarot) komplett. Nix mit perfekter Farbwiedergabe bei Tageslicht. Diese gibt es leider nur draußen.

Beim ersten Ziel schon die Zähne ausgebissen

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Ob Thomas Edison der größte Erfinder war, weiß ich nicht. Er war aber der größte Dokumentator. In seinem Notizbuch hat er fein säuberlich dokumentiert, wie viele tausend Glühfäden er ausprobieren musste, bis er den geeigneten fand. Heute ist so etwas kein Wunder; die Qualitätssicherung dokumentiert in der gleichen Weise mit allen Nachweisen für das Versagen. Aber Edisons Notizbuch enthielt etwas, was ihn als den Besten auszeichnet. Er schrieb, warum er etwas erfinden wollte. Vor den Experimenten mit seinen 9000 Versuchen mit Glühfäden hatte er ins Büchlein geschrieben: „Ich werde ein Licht erfinden, das so billig ist, dass sich nur Reiche Kerzenlicht leisten. Und es wird nicht blenden.

Es ist erreicht. Kerzenlicht benutzt man nur noch, wenn man blenden will, so etwa wie der Pastor die Gemeinde oder der Profi-Dater die Angebetete beim Candlelight-Dinner. Über das Blenden durch die alltägliche Beleuchtung im Büro wissen wir vermutlich weniger als vor 100 Jahren, als man glaubte, der Blendung durch Forschen näher gekommen zu sein.

Man teilte das Phänomen in zwei Teile auf. Den einen nannte man die physiologische Blendung, weil man sie an den Augen toter Rinder ermitteln konnte. Da blieb aber was übrig, worauf man keinen Reim machen konnte, weil alle Versuche, diese mit der Wirkung des Lichts zu verknüpfen, kläglich scheiterten. So nannte man sie die „psychologische“ Blendung. Ingenieure nennen alles, was sie nicht deuten können, psychologisch bedingt. So auch die Blendung. Die Angelsachsen nennen sie „discomfort“ glare, was ein Problem für sich ist. Denn es soll das Gegenteil von comfort bedeuten und wird deswegen ins Deutsche als Komfort übersetzt. Ein typischer falscher Freund. Komfort bedeutet Bequemlichkeit, Annehmlichkeit oder Behaglichkeit. Deswegen wird er von deutschen Arbeitgebern ungern benutzt.

Aber auch britische oder amerikanische Kollegen hatten ihre liebe Not damit. Denn die psychologische Blendung haben keine Psychologen untersucht, sondern meist nur Ingenieure, so wie ich auch. Ich hatte die Ehre, die auch heute in erster Linie genannten Forschenden persönlich kennenzulernen. So etwa

  • Dr. S.K. Guth Schöpfer der Guth-Formel (VCP Methode Visual Comfort Probability, heute eine Basis der UGR-Methode, die weltweit angewandt wird
  • Prof. R.G. Hopkinson Schöpfer der Hopkinson Glare Formula (British Glare Index (BGI), IES Glare Index), eine weitere Basis der UGR-Methode
  • Dr. G. Söllner Schöpfer der Söllner-Kurven, die in Deutschland bis zur Einführung der UGR-Methode benutzt wurden
  • Professor J.B. de Boer Schöpfer der de Boer-Skala zur Messung der psychologischen Blendung

Hopkinsons Arbeitsstätte (Building Research Station (BRS), später Building Research Establishment (BRE), gegründet 1921) war der Ursprung der modernen Blendungsmetriken. Sie war staatlich finanziert. Alle anderen Herren waren bei der lichttechnischen Industrie angestellt.

Hätte ich auf Guths Rat gehört, hätte ich meine Doktorarbeit über alles Mögliche geschrieben, nur nicht über die psychologische Blendung. Er hatte mir nämlich gesagt: „Du bist noch am Anfang. Lass das lieber sein. Ich habe 25 Jahre meines Lebens damit vergeudet." Ich hatte Rabatt, bei mir dauerte es nur drei Jahre.

In diesen drei Jahren habe ich festgestellt, dass alle, auch die hier aufgezählten Koryphäen, mit dem gleichen Wasser kochten. Bezeichnend für deren Arbeit ist eine Skala wie diese, die von de Boer zurückgeht. Er hatte es andersherum aufgestellt. Aber die Mitte war gleich und hieß BCD-Kriterium, border between comfort and discomfort. Eben dies war der Knackpunkt. Die Forschenden wollten nicht etwa feststellen, wie komfortabel eine Beleuchtung war, sondern nur, wann eine Blendung von „comfort“ zu „discomfort“ wird. Bereits der erste Psychologe, dem ich diese Skala zeigte, riet davon ab, sie zu benutzen. Sie wäre falsch konstruiert nach dem Postulat, dass Blendung etwas Negatives sei. Wer soll dies bestimmt haben? Thomas Edison. Er wollte den negativen Effekt vermeiden. War das alles?

In dem Kapitel Warum sich die Forschung auf der Stelle dreht erkläre ich, warum die Forschung sich im Kreise dreht. Dafür sind folgende Faktoren maßgeblich, die einzeln behandelt werden:

  • Konzeptionelle Mängel grundsätzlicher Art;
  • Fehlen eines übergeordneten Ziels, weil Vermeiden von Blendung zu wenig bedeutet;
  • Vielzahl von Erscheinungen mit demselben Effekt, die unberücksichtigt bleiben;
  • Unzureichendes Ziel der Sehleistung, das das Farberkennen ignoriert;
  • Gefährden statt nützen, wenn unsinnige Anforderungen gestellt werden;
  • Etablieren eines Gütemerkmals, das seinem eigenen Ziel widerspricht.

Symbolisch für alle Erklärungen symbolisch zeige ich den Raum, in der die jüngsten Blendungsbewertungen stattgefunden hatten, und in Vergleich dazu den ältesten. Ob je ein Mensch in der Lage sein wird, in einer solchen Umgebung als Proband so etwas wie „Komfort“ zu ermitteln? Selbst wenn man lauter Probanden finden würde, die das können, bleibt ein entscheidender Faktor übrig, der ausreicht, alle Blendungsuntersuchungen für obsolet zu erklären: Fehlen jeglicher Augenbelastung durch die Arbeit.

Kein Wunder, dass Untersuchungen zur Validität der UGR-Werte ein vernichtendes Urteil ergeben: „Blendungsmodelle wurden nach fehlenden Untersuchungsbedingungen und Inkonsistenzen geprüft. Es wurden Mehrdeutigkeiten gefunden wie die Einbeziehung von kleinen und großen Blendquellen und was überhaupt eine Blendquelle in komplexen Situationen mit mehreren Leuchten ist. … Die Blendungsmodelle wurden umgerechnet, um mit den Vorhersagen von 1949 von Luckiesh und Guth verglichen zu werden. Die Modelle zeigten eine geringe Aussagekraft. Wenn man Blendung in komplexeren Situationen [mehrere Leuchten, d. Autor] bewerten will, müssen die Modelle grundsätzlich neu formuliert werden.“ (Clear, R. D. Discomfort glare: What do we actually know?, Lighting Research and Technology, 2012).

Etwa gleich alt wie diese Aussage ist die Feststellung von Stephan Völker, Professor für Lichttechnik an der TU Berlin (Stephan Völker: Blendung – Ein Rückblick über 100 Jahre Forschung. Licht 2012 Gemeinschaftstagung): „Der vorliegende Beitrag zeigt, dass es möglich scheint, die vorhandenen Blendungsbewertungsmodelle auf ein Modell zurückzuführen. Zurzeit fehlen noch einige Einflussgrößen, welche aber bereits in Kürze vorliegen dürften. Diese müssen anschließend für alle Anwendungsfälle (Innen-, Außen-, Kfz-, Sportstättenbeleuchtung, etc.) validiert werden.“Tröstlich zu hören, dass man nach 100 Jahren hofft, in Kürze einige Einflussgrößen zu finden. Dann wird man, - hoffentlich – die Methode validieren, d.h. den Nachweis führen, dass sie etwas Bedeutsames ermittelt.

Die psychologische Blendung ist eine extrem bedeutsame Eigenschaft der künstlichen Beleuchtung, aber ein schlecht verstandener Begriff. Die in der Praxis eingesetzten Verfahren sind veraltet und nachweislich nicht valide.

Ob man die richtige Methode für die Blendungsbewertung finden wird, um danach sie zu validieren, kann ich nicht positiv  beantworten. Um eine eigene Antwort zu finden, empfehle ich das Kapitel Validieren – das leidige Problem durchzuarbeiten. Dieses Problem besteht nicht nur bezüglich der Blendung.

Hawthorne Effekt und sonstige Narrative in der Lichtwelt

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Dieses Buch wurde anlässlich des 100. Jahrestags eines der wichtigsten Ereignisse der Lichttechnik geschrieben: der Veröffentlichung der V(λ)-Kurve. Sie ermöglichte die Quantifizierung des Lichts und somit den Handel mit den Lichtprodukten. (mehr hier) Man weiß seitdem, was man kauft. Kurz gesagt: Helligkeit.

Das Jahr 1924 war aber auch der Beginn eines Ereignisses, das alle humanbezogenen Wissenschaften, Psychologie, Soziologie, Medizin … stark geprägt hat. Die Rede ist von Hawthorne Studies, deren Ziel der Nachweis der Wirkung der Qualität der Beleuchtung auf die menschliche Arbeitsleistung war. Am Ende wusste die Welt aber etwas Unerwartetes: Egal, wie das Licht auch war, leisteten Menschen mehr, wenn sie sich beobachtet fühlten. Es schien, die Qualität des Lichts würde die Leistung nicht beeinflussen. Somit misslang der Versuch, dem Käufer von Licht den Gegenwert dafür zu belegen. Mehr Licht = mehr Leistung ging nicht auf.

Die Hawthorne Studien und deren Folgen für die Lichttechnik habe ich in den Kapiteln

behandelt. Damit soll erklärbar werden, warum es in der Lichttechnik Legenden gibt, die sich über Jahrzehnte halten. Den Vorwurf einer Märchenerzählung hat nicht etwa ein Feind der Lichttechniker erhoben, und auch nicht in einem Provinzblatt. Er wurde von einem der renommiertesten Vertreter des Fachs erhoben und das vor dem Kongress der größten Lichttechnischen Gesellschaft der Welt, IES.

Aber noch viel älter als diese Legenden ist der Glaube, gutes Licht sei wichtig für den Arbeitsschutz. Dies kann man z.B. an den Vorschriften in vielen Ländern sehen, die Beleuchtung und Arbeitsschutz verbinden. Als die CIE in den 1990er Jahren eine internationale Umfrage startete, um festzustellen, in welchen Ländern es Vorschriften zu Beleuchtung und Arbeitssicherheit gibt und worauf diese beruhten, stellte sie fest, dass 14 Länder antworteten, dass sie Regeln und Vorschriften hätten. Auf die Frage „Gibt es Forschungsarbeiten zu Licht als Unfallursache, auf denen die nationalen Regeln beruhen?“, gab es keine einzige Antwort.

So etwas hielt die Lichttechniker nicht davon ab, zu behaupten, Licht sei bedeutsam für den Arbeitsschutz. Das geschah nicht etwa aus Überzeugung, sondern aus Marketinggründen. Denn seit dem Jahr 1935 sorgt der deutsche Staat dafür, dass deutsche Betriebe die Normen und Vorschriften für Beleuchtung einhalten, die die lichttechnische Industrie erarbeitet.

Woher kam aber der Glaube? Das kann ja nicht 1935 plötzlich entstanden sein. Die Antwort auf diese Frage zieht sich wie ein roter Faden durch das Buch. Zunächst waren es Sozialwissenschaftler, Architekten, Städtebauer, die die Bedeutung des Lichts für die menschliche Gesundheit propagierten. Dies habe ich z.B. im Kapitel Krankheiten der Finsternis – Geschichten aus New York und Chicago behandelt. Die Entstehung der Gartenstädte weltweit, die Entstehung und Verbreitung von Gartenlauben von Deutschland ausgehend in ganz Europa sind Beispiele dafür. All dies sorgte für den Glauben, gutes Licht = gesunde Umwelt.

Es fiel niemandem schwer, so zu glauben, weil das Helle auch jenseits der technischen Welt immer positiv gesehen wird. Es stand ja schon in der biblischen Schöpfungsgeschichte, dass Gott gesehen hatte, dass Licht gut war.

"Licht und Gesundheit" war am Ende der Industriellen Revolution Gegenstand von sozialpolitischen Bewegungen. Den Elan, den diese geschaffen hatten, nutzte ein gewisser Matthew Luckiesh, Direktor einer Lampenfabrik von General Electric, in unheimlich geschickter Weise. Dessen Buch Light and Health erschien vor 99 Jahren. Sein Anspruch: Tageslicht ist unerlässlich für ein gesundes Menschenleben, aber es ist unzuverlässig. Man kann es künstlich besser nachbauen. Dies sollte ein anderer Direktor eines Lichtherstellers etwa 75 Jahre später vor laufender Kamera einem Fernsehjournalisten gegenüber behaupten. So tief sitzt der Glaube.

Was 1935 geschehen war, ist eine deutsche Version der Hawthorne Studies. Der deutsche Staat sorgte mit einer Kampagne für „Gutes Licht“ dafür, dass die Leistung des Arbeiters steigen möge. Der Initiator des Ganzen, ein gewisser Albert Speer, sollte später Kriegsminister Hitlers werden. Seinerzeit wurde nicht nur der Arbeitsschutz unter die staatliche „Obhut“ genommen, sondern auch die Lichttechnische Gesellschaft (seinerzeit Deutsche Lichttechnische Gesellschaft e. V. (DLTG), später Deutsche Lichttechnische Gesellschaft e. V. (LiTG), 111 Jahre nach ihrer Gründung, LiTG, Deutsche Gesellschaft für LichtTechnik und LichtGestaltung e. V.). Sie bekam sogar einen Gauleiter.

Die damals geknüpften Bande zwischen der Lichttechnik und dem Arbeitsschutz wurde 1990 durch die EU gekappt. Diese erließ neue Arbeitsschutzgesetze, wonach alle normativen Regelungen, die die Gesundheit der arbeitenden Bevölkerung berühren, Sache des Staats sind. Somit dürfen Normen „privater“ Organisationen wie DIN oder VDI keine Bestimmungen enthalten, die für ein bestimmtes Niveau an Sicherheit sorgen sollen.

Am Ende steht nach 100 Jahren V(λ)-Kurve, dass der Staat den Betrieben Vorgaben für die Beleuchtung der Arbeitsstätten macht (ASR A3.4 Beleuchtung). Dummerweise kann man danach recht schlecht planen. Dazu gibt es, völlig ungefragt, Normen für die Beleuchtung von Arbeitsstätten (z.B. EN 12464-1 und -2 bzw. deutsche Versionen davon, die sich ein Ziel suchen mussten. Gesundheit und Sicherheit durften es nicht mehr sein. Was bleibt: Leistung.

So sagt der Anwendungsbereich der Norm aus: „Dieses Dokument legt Beleuchtungsanforderungen für Menschen an Arbeitsplätzen in Innenräumen fest, die den Anforderungen an den Sehkomfort und die Sehleistung …“ Kann sich wer was darunter vorstellen? Sehkomfort? In den 1347 definierten Begriffen des Internationalen Wörterbuchs der Lichttechnik (ILV) kommt der Sehkomfort nicht vor. Aber auch sonst ist er nur ein Schlagwort. Dann bleibt echt Sehleistung übrig. Wer da ein Kriterium erwartet, mit dem man ein normatives Werk von 103 Seiten begründet, wird entgeistert sein. Sie war in ILV einst so definiert: „Leistung des visuellen Systems, wie sie beispielsweise durch die Geschwindigkeit und die Genauigkeit gemessen wird, mit welcher eine Sehaufgabe gelöst wird.“ Sehaufgaben lösen?

Diese Definition gefiel den Europäern nicht, so formulierten sie etwas Besseres: „Sehleistung – Leistung des visuellen Systems“ (DIN EN 12665:2002 Licht und Beleuchtung, Grundlegende Begriffe und Kriterien für die Festlegung von Anforderungen an die Beleuchtung). Und was ist das visuelle System? Was leistet sie denn?

Wer so dumme Fragen stellt, ist selber schuld. Genau genommen weiß niemand, was das visuelle System ist. Bekannt ist nur, dass das Gehirn des Menschen etwa zur Hälfte zur Verarbeitung von visuellen Signalen dient (ISO 9241-610 Impact of light and lighting on users of interactive systems). Da das Gehirn 20% der Gesamtenergie verbraucht, ist das Sehen mit 10% (!) dabei.

Was soll man mit einer solchen Norm überhaupt anfangen? Man sollte nach deren Vorwort verfahren: „Sicherheit und Gesundheitsschutz - Grundsätzliche Anforderungen an die Beleuchtung hinsichtlich der Sicherheit und des Gesundheitsschutzes der Beschäftigten bei der Arbeit werden in Deutschland nicht in dieser Norm, sondern in der Arbeitsstättenverordnung
(ArbStättV) geregelt. In den Anwendungsbereich der ArbStättV fallen alle Arbeitsstätten. Die allgemeinen Anforderungen der ArbStättV hinsichtlich Beleuchtung werden in der Arbeitsstättenregel ASR A3.4 „Beleuchtung“ weiter konkretisiert."

Diese und weitere Narrative habe ich im Kapitel „Die Legende vom gesunden Licht reloaded“ behandelt und kommentiert. Denn was in Hawthorne nicht gelungen ist, der Nachweis einer Beziehung zwischen Lichtqualität und Arbeitsleistung, wird auch heute niemandem gelingen.

Wenn man keine Beziehung zwischen Lichtqualität und Leistung nachweisen konnte, heißt das, dass es diese nicht gibt? Diese Schlussfolgerung darf nicht gezogen werden. Die Wahrheit heißt, man kann sie nicht experimentell nachweisen. Der Hawthorne-Effekt heißt der Missetäter, der beim Experimentieren täuscht.

Kann man eine solche Beziehung nie nachweisen? Selbstverständlich kann man mit einigem Aufwand den Nachweis führen, dass geeignetes Licht zu besserer Leistung führt. Eine Methode besteht darin, dass man den Hawthorne-Effekt umgeht, indem die Beobachtung von Individuen entfällt. So kann man die Wirkung des Lichts auf die kollektive Leistung eines Werkes studieren. Noch sicherer ist eine retrospektive Studie, bei der man frühere Ereignisse nachträglich untersucht. Beides hatte mein Institut geplant. Gescheitert sind die Vorhaben nicht am Hawthorne-Effekt, sondern an der Struktur der Industrie.

Projekt 1 sollte nach 1990 in Autowerken stattfinden, die in der ehemaligen DDR neu entstanden waren. Sie gehörten westdeutschen Unternehmen, deren Werke eine andere Beleuchtung hatten. Was liegt näher als die Qualität der neuen Beleuchtung und der Arbeit zu untersuchen? Leider kann man so etwas im Labor durchführen, aber nicht in der Industrie. Man stelle sich vor, es wird nachgewiesen, dass ein Ausleger einer Firma effizienter oder qualitativ besser produziert als das Haupthaus! Projekt 1 tot!

Projekt 2 sollte zwischen den Werften einer Luftfahrtgesellschaft stattfinden, die Flugzeuge warten. Es sollte der Einfluss des Tageslichts auf Fehler untersucht werden. Da in der Luftfahrt-Industrie Fehler eine besondere Rolle spielen, wird die Qualität der geleisteten Arbeit ständig geprüft. Unentdeckte Fehler entdeckt man nach Unfällen. Da alles in der Vergangenheit liegt, werden keine Menschen bei der Arbeit beobachtet. Ergo kein Hawthorne-Effekt. Dafür gibt es leider zwei große Hindernisse: den Wettbewerb zwischen den Werften, die sich um die Aufträge reißen, und die Luftfahrtaufsicht, die sich sehr um die unentdeckten Fehler interessiert, die die Wartung überlebt haben sollen. Projekt 2 tot!

Das waren die Gründe hinter dem Namen eines Kapitels: Legendenbildung und Märchenerzählung – Ungewöhnliche Aktivitäten für Ingenieure …

Probleme mit der Beleuchtung, die andere verschuldet haben

Menschen werden mit Sehaufgaben beschäftigt,
die ihre Sehfähigkeit überfordern. Dafür kann man
nicht die Beleuchtung verantwortlich machen.

Erwin Hartmann, Professor für Sehphysiologie

Warum gibt es Beleuchtungen, mit denen die Menschen hadern? Eine Antwort darauf, dass die Beleuchtung irgendwie falsch sein muss, so falsch geplant, falsch ausgeführt, etc., kann häufig in die Irre führen. Eine solche Antwort könnte nur richtig sein, wenn die Beleuchtung eine eigenständige Einheit wäre, deren Funktion oder Eigenschaften nur durch sie selbst bestimmt wären. Im Folgenden führe ich kurz Erfahrungen aus Projekten an, bei denen nachweislich nicht die Beleuchtung oder deren Planer verantwortlich waren.

Wer dann? Als erstes seien zwei Verursacher genannt, die hinter den meisten Problemen stecken. Diese werden aber selten genannt, weil nicht erkannt.

Der erste der Missetäter ist das liebe Geld. Dessen Bedeutung erklärte mir ein Leuchtenentwickler, als ich ihm (und seinesgleichen) vorwarf, Lichtteppiche zu planen. Er seufzte und sagte: “Wir wären froh, wenn die Bauherren Licht wie Teppiche behandelten. Mit einem festen Budget und bereits früh in der Planung.“ Und er erklärte weiter, dass bei der Planung eines Bürohauses der Teppich recht oben anstünde und etwa mit dem vierfachen Wert pro Quadratmeter wie Licht verplant würde. So falsch lag er damit nicht. Man kann zwar keine Qualität erwarten, wenn man sinnlos Geld ausgibt. Aber von selbst entsteht auch keine Qualität.

Der zweite Verursacher steckt hinter dem Wort Quadratmeter wie Bürofläche. Bauen oder Mieten ist immer teuer. So machen diese an den Gesamtkosten eines Arbeitsplatzes rund 8 % aus. Damit man eine Vorstellung von der wahren Bedeutung hat, hier absolute Zahlen: Der durchschnittliche Bruttojahresgehalt für einen Sachbearbeiter in Deutschland liegt bei 41.000 € bis 50.000 €. Die Gesamtkosten betragen 63.000 € bis 76.500 €. Demnach liegt die Miete bei 6.000 € p.a.

Kein Wunder, dass die Unternehmen scharf darauf gucken. Schlimmer noch: Die Bürofläche verwalten nicht die Arbeitgeber, sondern Facility Manager, die häufig sparen ohne Rücksicht auf die Arbeit. Was hat das aber mit der Beleuchtung zu tun? Leider sehr viel. Unser lieber Arbeitsminister, derzeit die liebe Frau Bärbel Bas, empfiehlt als ein Musterarbeitsplatz für einen Büromenschen dieses:

Wenn man überschlägig berechnet, hat dieser Raum eine Fläche von 45 m² bis 80 m². Nach den Vorschriften, die auch Frau Bas kennt, RBBau, darf die Höchstfläche für einen Behördenleiter 21 m² nicht übersteigen. Ein Anspruch darauf bestand aber nie. Sachbearbeiter sollen 12 m² in Einzelzimmern und mit jeweils 6 m² in Mehrpersonenzimmern untergebracht werden. Was entsteht, wenn Frau Bas uns einen Musterarbeitsplatz empfiehlt, der mehr Fläche hat als ein Raum für Minister (42-48 m²), die Vorstellungen der Lichttechnik hingegen nur bei einer Besiedlung wie dieser funktionieren, …

… und pro Kopf nur 6 m² zur Verfügung stehen? Einfach: Stress! Trifft dieser nur die Leute im öffentlichen Dienst? Schön wär’s! Auch die Versicherungsaufsicht wacht darüber, dass kein Unternehmen zu viel Fläche baut. Allerdings braucht es keine Kontrolle, der wirtschaftliche Zwang reicht.

Nun zu Projekten, bei denen Licht zum Stress wurde.

Ein Verlag baut sich ein Hauptquartier …

Ein internationaler Verlag baut sich ein Hauptquartier auf einem schönen Hügel an einem sagenhaften deutschen Fluss … Geld spielt keine Rolle, weil dort die wichtigsten Mitarbeiter des Verlags arbeiten sollen: Lektoren, die die Qualität der Bücher maßgeblich bestimmen.

Als es zu Knatsch wegen der Beleuchtung kommt, erklärt der Lichtplaner, er habe die wenigen verfügbaren Leuchtenmodelle geprüft, die in die Schlitze in der Decke passten. Diese waren nicht geeignet für übliche Lampen, die 1,20 m lang sind. So hat er welche für 1,00 m-Lampen nehmen müssen. Und davon hätte es nur wenige gegeben. Da die Mittel für den Bau so gut wie erschöpft waren, hätte er eben die jetzigen Leuchten nehmen müssen.

Ursache der Misere: Denken an Licht, wenn der Rohbau steht und das Geld alle ist.

Noch ein Hauptquartier, aber ein sehr großes …

Eines der größten Unternehmen der Republik will sich eine neue Konzernzentrale bauen. Ein sehr bekannter Lichtguru hört die Signale und bietet seine Kreation an. Eine Hochdrucklampe, deren Licht mehrere Spiegel an den Punkt lenkt, an dem der Mensch sitzt. Er erklärt dem Vorstand seine „Philosophie“: Licht gehört dorthin, wo gearbeitet wird. Der Vorstand ist begeistert und will die Leuchte sehen. Ach, ja. Das muss noch gebaut werden. Macht nix, sogar das Modell der Kreation wird bezahlt.

Der Architekt, einer der größten seiner Zeit, hofft, dass die Büroplaner dem Treiben ein Ende setzen. Leider hofft er vergebens. So entsteht ein riesiges Gebäude, in dem vor dem Einzug des ersten Bewohners feststeht, wo er in seinem Arbeitszimmer zu sitzen hat. Soll der Raum anders genutzt werden, muss der Hausmeister kommen und die Lampe umhängen und die Spiegel justieren. Er kommt aber sehr selten, weil er noch weitere Probleme hat. Denn die Hochdrucklampen geben häufig ihren Geist auf, weil man diese nicht häufig ein- und ausschalten soll. Und die Mitarbeiter müssen sich überlegen, wie lange sie wegbleiben, bevor sie das Licht ausschalten. Die Lampe schaltet sich erst in 15 Minuten wieder an.

Ursache der Misere: In einem Bürohaus ziehen etwa 10% bis 15% der Mitarbeiter pro Jahr um, noch einmal so viele ändern die Besiedlung des Raums. Wer das vergisst …

Noch ein Hauptquartier, aber ein sehr teures …

Eines der größten internationalen Unternehmen Deutschlands baut auf einem der teuersten Grundstücke des Landes eine Zentrale. Die Mitarbeiter handeln nicht etwa mit Bananen, ihre Kundschaft handelt mit Milliarden, und sie verhandeln häufig mit denen. Selbst die Kunst am Bau ist Stadtgespräch. So soll der schöne Bau nicht mit Heizkörpern verunstaltet werden. Man beschließt die sogenannte Betonkernaktivierung. D.h., Heizen und Kühlen werden von der Betondecke und den Wänden besorgt. Die letzteren sind leider rar, weil es sich um Open Space handelt. Deswegen kommt die Kälte von oben nach unten, und die Wärme verschwindet in der Decke. So soll es werden, auch wenn die Physik eigentlich etwas Anderes sagt.

Um die Beleuchtung kümmert man sich erst, nachdem alles ziemlich fertig ist. Leider stellt es sich heraus, dass die akustischen Eigenschaften der Decke den Vorstellungen über einen Büroraum Hohn lachen. Da muss jede Menge Akustikmaterial dran. Akustikmaterial zeichnet sich durch seine Isolationswirkung aus. Dummerweise kann man die Decke deswegen nicht ganz verkleiden, weil dann die Klimatisierung nicht funktioniert. Ergo? Stopft man das Akustikmaterial um die Leuchte herum. Schwarzes Material um eine Leuchte herum? Beste Voraussetzungen für Blendung.

Zu allem Verdruss: Die Beleuchtungskörper für einen der teuersten Bürobauten nimmt man aus dem Lager, wo man alte Leuchten abgelegt hatte.

Die Krone der Katastrophe kommt, als die Leute einziehen. Die Akustik ist jenseits von Gut und Böse, so kommen viele Glaszellen zum Einsatz.

Ursache der Misere: Alles andere, nur nicht die Beleuchtung.

Und noch ein Hauptquartier, so ziemlich das Bestplatzierte …

Ein Unternehmen lässt sich auf einem der edelsten Böden der Republik ein imposantes Haus bauen, das als Zentrale dient. Leider reicht es nicht aus, dass man weitere Flächen in der Nähe kauft oder mietet. Ab und an wird „umorganisiert“ und die Zentrale mit neuen Mitarbeitern beglückt. Wir sollen ermitteln, warum das Haus diese stört. Was heißt stören, sie hassen es. Naheliegend ist anzunehmen, dass der Architekt völlig versagt haben muss. Dass Licht und Klima nicht funktionieren, müsste mit den Großräumen zusammenhängen. Weil sie immer damit zusammenhängen? Mal schauen!

Wir sollen ermitteln, was die Ursache der Unzufriedenheit ist. Vorerst wollen wir feststellen, wie es mit der Arbeitsfläche ausschaut. Es arbeiten 3.000 Personen im Haus. Weiterhin müssen 500 Personen aus den umliegenden Bürohäusern die Sozialflächen (Kantine, Pausenräume, Archive, Seminarräume) mitbenutzen. Wir berechnen, dass der Raum für etwa 1.800 Angestellte reicht. Es sind aber 3.000 + rechnerisch ein Drittel von 500 Leuten.

Was hatte der Architekt geplant? Das Haus war für genau 1.800 Personen geplant und auch so bezogen worden. Deren Klimatisierung und Beleuchtung waren genau für diese Zahl von Arbeitsplätzen berechnet worden. Was darf man erwarten, wenn man das Haus mit etwa 180% der vorgesehenen Belastung belegt und betreibt?

Ursache der Misere: Überbelegung

Mir liegt fern, irgendwelche Fehler weißzuwaschen. Auch Prof. Hartmann wollte nicht die Beleuchtung weißwaschen, sondern auf den wahren Kern der Probleme mit der Beleuchtung verweisen. Ähnlich kann man es mit der Klimatisierung erleben. Etwa die Hälfte der Beschwerden mit ihr wären nicht entstanden, wenn die Anlagen ordnungsgemäß betrieben und gewartet worden wären.

Muss ich verstehen, wenn meine LED so schnell durchbrennt?

Der Hersteller hat sich nicht geirrt.
Er hatte nur eine
kreative Auffassung der Wahrheit.

Anonymus

Dass ein technisches Datum Industriegeschichte schreibt, kommt nicht alle Tage vor. Die „1000 h“ für die Lebensdauer der Glühlampe, präzise gesagt, der Allgebrauchsglühlampe, hat es geschafft. Ihre Festlegung durch das Phoebus-Kartell gilt als Startschuss für eine allseits verhasste technische „Errungenschaft“, vorgeplantes Lebensende eines technischen Produktes, besser bekannt als geplante Obsoleszenz. Nicht nur Lampen, sondern Autos, Fernseher und andere hochwertige Industriegüter können der geplanten Obsoleszenz unterliegen. Gemeint ist, dass der Hersteller bestimmt, ob und wann ein Produkt nicht mehr funktioniert.

Über das Phoebus-Kartell wie über die geplante Obsoleszenz kursieren unzählige Legenden oder Gerüchte. Ich habe versucht, den wahren Kern verständlich zu machen, damit sich jeder seine Meinung bilden kann. Dazu schrieb ich in Genesis 2.0 Schöpfung der elektrischen Sonne zwei Kapitel. Das Kapitel Das Phoebus-Kartell – Gerücht - Legende – Realität behandelt den Begriff Kartell, um diesen von der technischen Normung zu unterscheiden, die ebenso Absprachen trifft. In dem Kapitel Angaben für die Lebensdauer von Leuchtmitteln werden Methoden zur Bestimmung der Lebensdauer von allen technischen Leuchtmitteln beschrieben. Der Zweck der Übung ist die Erklärung der Schwierigkeiten, den Schlüsselbegriff Lebensdauer zu verstehen. Vielleicht trägt zum Verständnis auch bei, dass Fachleute Seminare besuchen müssen, die 1.190 € + MWSt und 3 Tage Zeit kosten, um die Berechnung der Lebensdauer einer LED vornehmen zu können (hier).

Der Laie wie der Fachmann liest 50,000 Stunden und ist frustriert, wenn das schöne Ding keine 500 h hält. Wenn man dazu noch hört, dass es eine Jahrhundertglühlampe gibt, die seit 124 Jahren ununterbrochen leuchtet, ist man echt perplex! Hie 124  Jahre da 1000 h?

Der Schlüssel zum Verständnis ist schlicht und einfach die enorme Abhängigkeit von Lampen bzw. Leuchtmitteln von den Betriebsbedingungen. Dies gilt sogar für die Kerze oder Fackel. Ihre Lebensdauer ist am längsten, wenn man sie optimal aufstellt und kein Wind weht.

Bei derjenigen Lampe, der Glühlampe, deren Lebensdauer noch einfach zu verstehen ist, spielt die Betriebsspannung die erste Geige. Die Lebensdauer einer Lampe steigt oder fällt mit der dritten bis vierten Potenz der Spannung. Wird eine Lampe mit einer nur 13% höheren Spannung betrieben, lebt sie nur noch 30% der angegebenen 1000 h.

Wäre dies die einzige Wirkung, könnte man damit noch einigermaßen verständlich umgehen. Aber die Überspannung von 13% erhöht die Lichtleistung der Lampe um 150%. Und das Licht wird weißer. Wenn man die Lampe mit Unterspannung betreibt, glimmt sie so vor sich hin. Bei der Nennspannung, die der Hersteller so nennt, hat sie die vom Hersteller angegebenen Eigenschaften (Lichtstrom. Lichtfarbe, Spektrum etc.). Bei einer weiteren Steigerung wird das Licht immer weißer, bis sich die Lampe unsanft verabschiedet.

Im allgemeinen folgt der Lichtstrom exponentiell steigend der Spannung, wobei der Exponent 3,4 bis 3,8 beträgt. D.h., bei der doppelten Spannung erhält man etwa 16 Mal so viel Licht. Allerdings nicht sehr lange. Der Exponent für die Lebensdauer liegt typischerweise bei Werten zwischen 12 und 16 der Spannung. Nett ausgedrückt, wenn man eine Lampe mit doppelter Spannung betreibt, erhält man 16 Mal so viel Licht, aber ihre Lebensdauer wird um den Faktor 65.536 kürzer. Oder die Lampe leuchtet 0.01525878906 h. Das sind gerade 0,9 Minuten.

Immerhin, manche „Lampe“ lebt nicht einmal so lang. Die einst üblichen Blitzbirnen, die nichts anderes waren als überzüchtete Glühlampen, brannten in 1/30 Sekunden ab. Hingegen gab es für Hotelzimmer Lampen, die über 2000 h lebten. Und das alles unter den ordentlichen Nennbedingungen. Betreibt man eine solche Lampe mit halber Spannung, lebt sie 16.000.000 Stunden oder 1826 Jahre und 175 Tage.

Die Vertreter der Industrie behaupten, das Phoebus-Kartell habe die Lebensdauer der Lampen auf 1000 h begrenzt, um den Verbraucher zu schützen. Ich denke, allzu abwegig ist der Gedanke nicht. Zumal das Kartell Werbung mit Lebensdauern unterbunden hat. Auf jeden ist die Lebensdauer ein Politikum, bei dem sich die Hersteller ungern in die Karten gucken lassen. Ein tiefes Verständnis über die Lebensdauer ist in der Lichttechnik allgemein nicht erwünscht, wie man im „Handbuch für Beleuchtung“, Herausgeber Gesellschaften für Lichttechnik von vier deutschsprachigen Ländern, ermitteln kann. Hier spreche ich von Ermitteln, weil der Begriff Lebensdauer als solches nicht behandelt, geschweige denn definiert wird. In diesem Kompendium zur Beleuchtung gibt es nur Bemerkungen dazu und das nur zur Lebensdauer von Entladungslampen. Dort heißt es: „An dieser Stelle und im allgemeinen muß auf nähere Informationen über die Lampenlebensdauer verzichtet werden, weil die Betriebsbedingungen Betriebsbedingungen zu große Unterschiede aufweisen und starken Schwankungen unterliegen. Fehlschlüsse aus konkreten Angaben wären in der Praxis nicht zu vermeiden.“.

Was ist mit der Lebensdauer von LED? Warum liest man Angaben bis 100.000 h, wenn Leute behaupten, ihre LED hätte sehr schnell den Geist aufgegeben? Hier ist der Missetäter nicht die Betriebsspannung, sondern die Thermik. Ein LED-Element besteht aus einer eigentlich relativ winzigen Diode und einem riesigen Kühlkörper. Die Elemente werden häufig zu ganzen Modulen zusammengepackt, in denen viele Dioden leuchten. Sind die beiden aufeinander abgestimmt und wird die Diode betrieben, wie der Hersteller bestimmt hat, gelten die Lebensdauern, die der Hersteller angibt.

Allerdings muss man schon wissen, wie die zustande kommen. Eigentlich müsste der Hersteller eine wahnsinnige Formel abarbeiten: L70B10C10F10. Fangen wir vorne an. L70 heißt, die LED wird bei 70% ihrer Leuchtkraft (Lichtstrom) für tot erklärt. B10 sagt aus, dass höchstens 10% der Elemente diese Leistung unterschreiten dürfen. Bx ist somit ein Maß für die Ungleichmäßigkeit der Helligkeit der Elemente innerhalb eines LED-Moduls. C10 bedeutet, dass in einem Modul maximal 10% aller Elemente total ausgefallen sind. Last not least, F10 sagt aus, dass höchstens 10% der LED dürfen den L-Wert unterschreiten (inklusive Totalausfall).

Leider tun LED-Module uns nicht gefallen, dass sie einfach aufhören zu leuchten. Deswegen die komplizierte Angabe der Lebensdauer. Dummerweise gibt es auch noch weitere Probleme. Die genannten Zahlen sind statistische Werte, d.h. nicht aller Elemente eines Moduls haben den gleichen Zustand. Dann hat die Beleuchtung nicht nur Helligkeitsunterschiede, sondern auch erhebliche Farbunterschiede. Im schlimmsten Fall flackern die ausgefallenen Elemente vor sich hin.

Da man dem einfachen Menschen nicht zutraut, rätselhafte Angaben mit L70B10C10F10 zu entziffern, bekommt man oft eine Angabe in Jahren. Diese wird berechnet für einen Betrieb von 2 Stunden und 45 Minuten am Tag, also etwa 11% des Tages. Wer das aus welchem Grund so festgelegt hat, müsste man bei Interesse selbst ermitteln. Dafür gibt es leider keine Seminare. Also Vorsicht, wenn die Lebensdauer in Jahren statt in Stunden angegeben wird.

Wenn ein Lieferant nicht liefert, was er verspricht

 Ein Lügner weiß, dass er ein Lügner ist,
aber wer nur Teile der Wahrheit ausspricht,
um zu täuschen, ist ein
Handwerker der Zerstörung.

Criss Jami

Am 25.09.2025 habe ich zwei „Standards“ kommentiert und erklärt, warum sie krank machen. Diese waren entstanden, ohne dass irgendjemand sie wollte. Ein Teil davon war durch Licht bedingt. Wäre dieser Umstand alternativlos, wäre es müßig, darüber zu reden. So als wenn man sich vor einem Hochofen über Hitze beklagt.

Dem ist es aber nicht so. Denn die „gute“ Lösung, die ich nach 1 ½ Jahrzehnten Forschung gefunden habe, die Indirektbeleuchtung, war schon in den 1920ern bekannt. (s. Erbschaft der 1920er Jahre – Wo Sie heutiges Wissen bestimmt ) Zugegebenermaßen auch ihr Manko, die Kosten. Die stattdessen normierte Lösung, war aber für die Unternehmen unvergleichlich teurer, wenn man alle Kosten berechnet. Denn die über viele Jahrzehnte gepriesene Lösung, die Allgemeinbeleuchtung, war erstens gar keine. Sie sollte überall die gleiche Lichtqualität erzeugen. Tat dies aber nicht, wie man es bereits aus den Abbildungen in den Normen sehen konnte. „Lichtqualität“, so es die überhaupt gab, gab es nur an bestimmten Stellen in den Räumen, ausgewiesen durch die Normen, die Allgemeinbeleuchtung predigten.

Und zweitens könnte deswegen nur mit einem immensen Aufwand an Bürofläche genutzt werden. Da sich niemand den Aufwand leisten wollte oder konnte, litten die Beschäftigten darunter. Sie wurden ständig gestört und haben versucht, Abhilfe zu schaffen. Und das ging so:

Wie kann es dazu kommen, dass ein Lieferant, die lichttechnische Industrie, anstatt versprochener Problemlösungen Probleme frei Haus liefert? Ein Grund liegt darin, dass die Industrie glaubt, sie darf den Betrieben vorgeben, wie diese ihre Arbeitsplätze aufstellen. Am deutlichsten konnte man dies an der Norm DIN 5035-7 „Beleuchtung mit künstlichem Licht — Teil 7: Visuelle Gestaltung von Räumen mit Bildschirmarbeit" sehen, die im Jahr 2015 erneuert werden sollte, nachdem wir sie zuvor abgeschossen hatten. Dort stand zu lesen: „6. Anordnung der Arbeitsplätze und der Arbeitsmittel: „Die grundlegenden Anforderungen an die Beleuchtung bilden die Basis für die Anordnung der Arbeitsplätze im Raum.“ Für einen Betrieb ist die Basis für die Anordnung der Arbeitsplätze im Raum der Arbeitsablauf sowie die elementaren Bedürfnisse der Mitarbeiter (Bewegung, Verkehr, Lärmvermeidung u.ä.). Die Lichttechnik schert sich nicht um die Interessen der Betriebe und derer Mitarbeiter.

Selbstverständlich kann ein Hersteller angeben, unter welchen Bedingungen sein Produkt funktioniert. Ich denke, er muss dies sogar immer spezifizieren, wenn es sich nicht um eine Selbstverständlichkeit handelt. Was er nicht darf, ist die Nutzung in seinem Sinne hintenrum durch Arbeitsschutzgesetze und -regeln zu erzwingen.

War das alles? Kaum zu glauben, aber seit der Erfindung der Glühlampe bis etwa Ende des 20. Jahrhunderts wurden die Normen für Beleuchtung nicht mit denen der Architektur koordiniert. Sie existierten nebeneinanderher, obwohl es praktisch keine Bauten ohne künstliche Beleuchtung gibt. Schlimmer noch, die Normen für die Beleuchtung wurden für Tageslicht und Kunstlicht immer getrennt entwickelt und behandelt. Wenn es denn bei den Normen allein geblieben wäre! Für das Tageslicht waren die Länder zuständig, weil die Bauordnung Ländersache ist, während für die künstliche Beleuchtung die Berufsgenossenschaften und der Bundesminister für Arbeit zuständig waren.

Wer denkt, das sei wohl etwas übertrieben dargestellt, sollte sich die allerneueste „globale“ Beleuchtungsnorm ISO/CIE 8995-1 angucken: Sie empfiehlt 8 verschiedene Eigenschaften für alle Arbeitsplätze. Die neunte Empfehlung kommt zusätzlich dazu, wenn es sich um einen Bildschirmarbeitsplatz handelt (mehr hier). Das gilt selbst für CAD-Arbeitsplätze, die schon in den 1960ern computerisiert waren. Deswegen heißen die so, Computer Aided Design. Es ist eine unglaubliche Leistung, die Entwicklung und die Auswirkungen einer der wichtigsten Technologien der Menschheitsgeschichte zu verschlafen.

Nachdem die deutschen Berufsgenossenschaften 1980 eine Sicherheitsregel erlassen hatten (ZH 1/618 - Sicherheitsregel für Bildschirmarbeitsplätze), unter der Erwartung, dass künftig jeder Arbeitsplatz ein Computerarbeitsplatz sein kann, machte sich die lichttechnische Industrie  daran, die „gute“ Beleuchtung dazu zu normen. Netterweise hat sie das Konzept illustriert:

Der Raum auf der rechten Seite fand keinen Zugang in die Norm, weil ich beanstandete, dass es solche Räume in Deutschland nicht gibt. Aber hier kann man schon erkennen, wie viel Raumfläche das Konzept braucht, um zwei winzige Tische hinzustellen. Zu den Tischen ist zudem zu sagen, dass es auch sie nicht so gab. Die damaligen Arbeitstische waren mindestens drei Mal so groß. Nur die Bedientische von Computern mit Fernschreibern darauf waren so klein. Die galten aber nicht als Büroarbeitstisch.

Den Raum links hingegen kann man massenweise finden. Nur nicht so möbliert. Die Normer wollten, dass alle Bildschirmarbeitsplätze im Rauminnern untergebracht werden. Und vor allem mickrig waren. Nicht, dass dies Sinn macht. Wenn andere Tische dort aufgestellt würden, würde es erkennbar sein, dass das Konzept nicht aufgehen kann. Da in realen Betrieben dieser Unsinn nicht berücksichtigt werden konnte, mussten die gestörten Mitarbeiter halt kreativ werden. Das Ergebnis steht in der Tabelle oben.

Ein mittlerweile verblichener Computerhersteller, Nixdorf, tat mir den Gefallen, die genormte Beleuchtung in einen etwas anderen Raum einzuzeichnen.

Wenn man in dem Bild die störende Information entfernt, sieht man deutlich, welcher Unsinn da gezeichnet steht (rechte Seite). Will man die angebliche Allgemeinbeleuchtung nutzen, muss der Arbeitsraum zu etwa 80% bis 90% leer stehen. Abgesehen von den Kosten: Wer will in einem solchen Raum arbeiten? Vor allem: Welcher Betriebsmensch, z.B. Facility Manager oder Büroorganisator, verinnerlicht das Konzept so, dass er die Kosten begründen kann? Dazu muss man wissen, dass die Büromiete nach dem Gehalt den zweitgrößten Posten ausmacht.

Später kam es viel besser. Diesmal wollte ein Ausschuss für Arbeitssicherheit der DGUV eine Sicherheitsregel für die Beleuchtung (BGR 131 „Natürliche und künstliche Beleuchtung von Arbeitsstätten“) erarbeiten. Da auch dieser sein Konzept bebildern wollte, entstand dieses Gebilde.

Auf der rechten Seite bedeuten die Kreuze, wo man Licht messen muss. Man beachte, wie viele der Messpunkte hinter dem Benutzer liegen. (Mehr zu diesem vorschriftsmäßigen Unsinn hier) Ich habe den Flächenbedarf für dieses Gebilde berechnet. Da man die Maße nicht so genau abgreifen kann, komme ich auf 45 m² bis 80 m². Man vergleiche dies mit der Realität eines Call Centers;

Wenn jemand hofft, dass ein solcher Unsinn möglichst schnell aus der Welt geschafft werden kann, dem wird geholfen. Die BGR 131 wurde tatsächlich abgeschafft. Jetzt steht der Unsinn (fast) komplett in ASR A3.4 Beleuchtung. Dies ist nach dem Vorwort Stand der Technik und mehr „Die Technischen Regeln für Arbeitsstätten (ASR) geben den Stand der Technik, Arbeitsmedizin und Hygiene sowie sonstige gesicherte wissenschaftliche Erkenntnisse für die Sicherheit und Gesundheit der Beschäftigten beim Einrichten und Betreiben von Arbeitsstätten wieder.“ So hilft der Bundesarbeitsminister den Betrieben mit der Einrichtung von gesunden und sicheren Arbeitsplätzen.

Es scheint, als würden Fachleute für Beleuchtung bzw. von ihnen beeinflusste Gremien immer wieder Anforderungen formulieren, die in der Praxis kaum umsetzbar sind. Oft entstehen dadurch Vorschriften und Regeln, die an der Realität vorbeigehen und von den Betrieben schlicht ignoriert werden müssen. Diese Diskrepanz zwischen Theorie und Praxis führt zu Regelwerken, die niemand wirklich erfüllen kann und die letztlich mehr Verwirrung stiften als Nutzen bringen. Wer dies nicht ganz glauben möchte, kann sich hier weiter amüsieren.

Wenn ernsthafte Fachleute ernsthafte Probleme besprechen, sollten sie sich hüten, ihre Lösung zu bebildern. Sonst lernen die einfachen Menschen, die von alledem keine Ahnung haben, dass die Experten noch weniger wissen als sie selbst.

Was machen die nicht-so-einfachen Menschen? Was sie könnten, wenn sie könnten, hat das Management-Netzwerk Linkedin ermittelt. Wenn sich deutsche Führungskräfte einen Arbeitsplatz nach ihrem Wunsch einrichten könnten …

Ich habe als Kommentar zur Lösung nach BGR 131 bzw. ASR A3.4 mit der sicheren Beleuchtung auch ein Bildchen gezeichnet. Bitte ausdrucken, ausschneiden, umbiegen und mit ins Büro nehmen.

Standards, die niemand setzen wollte

Das Aussortieren des Unwesentlichen ist der
Kern aller Lebensweisheit.

Laozi

Viele Leute hadern mit Normen und Standards, weil sie sich dadurch eingeengt fühlen. Das hatten Zeitungen übrigens am 22. Dezember 1917 befürchtet. An diesem Tag wurde DIN gegründet, damals noch Normenausschuß der deutschen Industrie genannt. Es wurde gesagt, Normung würde die Kreativität töten. Wenn das stimmt, ist die Kreativität längst mausetot, denn wir haben mittlerweile 35,000 Normen allein von DIN.

Während jeder einzelne Mensch auf dem Planeten das Recht hat, gegen DIN-Normen vorzugehen oder ggf. eine zu beantragen, ertragen wir „Standards“ geduldig, die nie geplant waren. Sie sind aber nicht einfach so da, also So-Da-Standards, sie haben eine Historie. Zwei davon haben es mir angetan, weil Millionen darunter leiden, ohne dass dagegen vorgegangen wird. Gegen diese habe ich Lösungen gefunden, die auch praktisch funktionieren. Dumm nur, dass sie nicht so verbreitet sind, wie ich es mir wünsche.

Mein erster Liebling hat nicht viel mit Licht zu tun. Er ist zwischen 1868 und 1984 entstanden. Die Rede ist von der Tastatur der Computer, die am 23. Juni 1868 als QWERTY-keyboard von Christopher Latham Sholes patentiert wurde. Die seltsame Verteilung der Buchstaben war dem Bemühen geschuldet, die Typenhebel der Maschine davon abzuhalten, einen Typenhebel-Salat zu produzieren. Erfolgreich nur für die englische Sprache. 

Die Idee wurde trotzdem weltweit mit kleinen Änderungen akzeptiert. Sie wurde erst mit dem Patent von IBM überflüssig, das für die IBM-Selectric erteilt wurde. Diese wurde am 21. Juli 1959 unter der US-Patentschrift Nr. 2.895.584 patentiert. Die Maschine hatte keine Typen mehr, sondern nur noch einen Kugelkopf. Eine Änderung des Tastaturlayouts indes unterblieb.

Es folgten Maschinen mit Tastaturen, die nichts mehr druckten. Sie waren Bildschirmterminals. Sholes‘ Tastatur war immer noch dabei. Sie wurde nur nach rechts verlängert, weil man neue Tasten brauchte. So kamen als erste Cursor-Tasten dazu. Weiter rechts davon wurde die Tastatur des Kalkulators angebaut. Die Terminals konnten auch rechnen. 

Fast präzise 100 Jahre nach Sholes‘ Maschine wurde die Maus von Douglas C. Engelbart am 9. Dezember 1968 erfunden: Engelbart stellte seine Erfindung im Rahmen einer Live-Präsentation in San Francisco der Öffentlichkeit vor, die später als "Mutter aller Demos" bekannt wurde. Sie blieb bis zum 24. Januar 1984 den Eingeweihten vorbehalten. An diesem Tag wurde der Apple Macintosh der Welt präsentiert. Seitdem gibt es praktisch keinen modernen Computer ohne Maus.

Am 6. April 1992 war es endlich so weit. An diesem Tag wurde Windows 3.1 vorgestellt, der einen Triumphzug auf den Bürotischen einleitete. Seitdem ist diese Anordnung „Standard“ weltweit.

Sie belastet alle Benutzer mehr oder weniger stark. Manche merken nichts, andere fühlen sich an der rechten Schulter unwohl. Viele können die Maus nicht mehr vernünftig halten und müssen daher sie links bedienen. Im schlimmsten Fall hilft nur eine Operation, RSI heißt die Malaise. Ein Standard, der krank macht. Niemand hat dies je beabsichtigt. Er war 1992 So-Da!

Meinen zweiten Liebling erleben Millionen Menschen im Büro täglich, er hat so viele Vorteile, dass er vermutlich mit 60% aller Büroarbeitsplätze ausmacht. Dumm nur, dass er hinderlich für die Beleuchtung ist. Wer darunter leidet, ahnt häufig nichts über die Ursache. Er macht einfach das Licht aus.

Anders als bei Maus und Tastatur lassen sich die Ereignisse, die zu dem Umstand geführt haben, nicht genau lokalisieren und datieren. Gemeint ist die Entstehung des rechteckigen Zellenbüros für zwei Personen. Sie lässt sich auch für weitere Gruppen mehrfach aneinanderreihen. Nennt sich Modulsystem. Seit Jahrzehnten werden die Bürogebäude nach einem festen Achsmaß gebaut. Es ist der kleinste Teiler der Fassade. Meist 1,25 m. Beträgt er 1,20 m, nennt man ihn Beamtenachse, weil er dem einfachen Beamten seine ihm zustehende Bürofläche beschert, 12 qm. Der übliche Angestellte bekommt eine Achse mit zwei Leuchten über seinem Kopf. Sollen drei statt zwei in einem Raum sitzen, kommt noch eine Scheibe dazu, + 6 qm.

Der Grundriss in diesem Bild ergibt sich vermutlich aus DIN 277 gemeinsam mit dem Bemühen, Grundstücke mit möglichst viel Büronutzfläche zu bebauen. Die Norm gibt es seit dem Jahr 1934 (sic!). Wie der Name sagt, „Grundflächen und Rauminhalte von Hochbauten“, beschreibt sie wichtige Daten der Gebäude.

Dass daraus rechteckige Räume entstanden sind, muss nicht der Norm angelastet werden. Diese Räume sind auch noch flach. Waren einst Büroräume bis 6 m oder gar darüber hoch, müssen diese in Deutschland mindestens 2,50 m hoch sein. Mit Ausnahme von Bayern, wo 2,40 m reichen sollen. Das gibt eine schlechtere Luft und auch eine schlechtere Lichtverteilung. Wenn einer gar im Stehen arbeitet, hängt die Beleuchtung kurz über seinem Kopf.

Beides, die Höhen von 6 m oder 2,50 m sind durch Licht bedingt. Frühe Bürohäuser waren auf Tageslicht angewiesen, während man später glaubte, mit künstlichem Licht dieses ersetzen zu können, daher die Höhe von 2,50 m. Wäre es nach dem Franzosen Le Corbusier gegangen, würden 2,20 m reichen. Der große Baumeister war bis zu seinem Tode dem deutschen Beamten gram, der ihn daran gehindert hat.

Übrigens, es war auch der deutsche Beamte, der die Architekten daran gehindert hat, das besagte Rechteck ohne Fenster zu bauen. Die Arbeitsstättenverordnung von 1975 schrieb senkrechte Fenster in Augenhöhe vor. Die Arbeitsmedizin hatte aber „nachgewiesen“, dass der Arbeitnehmer kein Tageslicht bräuchte, um gesund zu arbeiten. Der deutsche Beamte pfiff auf die Arbeitsmedizin -  und das war gut so.

Was brauchte man oder frau denn für ein Licht? Die „finale“ Antwort hieß: 500 lx. Wie man dazu gekommen sein will, kann man hier lesen: Basis der Festlegung von  Beleuchtungsstärkewerten in Beleuchtungsnormen. Praktischerweise bedeutete das, dass man nach unten offene Leuchten einsetzte, die eine gemeine Eigenschaft haben: Sie blenden durch ihre Reflexe auf dem Tisch und allem, was darauf steht. Zwar wurden dazu Raster zur Entblendung eingesetzt. Die helfen aber nicht gegen Reflexblendung.

So musste man die „optimale“ Anordnung erfinden, die man auch heute überall vorfindet. Man baut eine Leuchtenreihe fast direkt am Fenster, die zweite weiter im Raum. Dumm nur, dass das Licht dann vornehmlich die Ränder des Tisches beleuchtet.

Nicht schlimm für den findigen Lichttechniker. Man baut schräg-strahlende Leuchten. Nennt sich Batwing-Verteilung. Wenn das die armen Viecher wüssten. Form von nachtaktiven Tieren für die Beleuchtung von Tischen für tagaktive Menschen?

Ob das gut gegangen wäre, konnte man leider nicht erleben. Kaum war das Konzept ausgedacht, gab es schon Computer. Und deren Bildschirme glänzten gemeinerweise. So war es aus mit Batwing! Abgedunkelt war in. Auch wenn hochgestellte Persönlichkeiten die Charakteristik von tiefstrahlenden Leuchten breitstrahlend nannten, wollte sich das Licht nicht verbiegen lassen. Es flog mit Freuden dorthin, wo sie nicht viel Nutzen entfalten konnte. Egal, wo das Licht entlang flog, die Tastaturen wollten das Glänzen nicht aufgeben.

Es gab nur zwei mehr oder weniger schlechte Lösungen. Man richtet seine Zelte, sprich Bildschirm und Akte, in der Mitte zwischen den Leuchtenreihen an, wo es am dunkelsten ist. Da die Bildschirme viel Platz brauchten, bot die Büromöbelindustrie die geniale Lösung an, die sie einst nur den Sekretärinnen angeboten hatte: die Eckkombination.

Der Bildschirm steht vor dem Fenster und unter den Leuchten. Wenn man geradeaus guckt, ist einem die Blendung sicher. Die Leuchten spiegeln sich dazu noch wunderbar unter der Leuchte. Dafür liest man seinen Papierkram an der garantiert dunkelsten Stelle des Tisches. Der Platz nennt sich Schreib-Lesebereich. Der größte Teil des mühsam erzeugten Lichts landet entweder auf dem Teppich (links) oder auf den Bildschirmen, wo es nichts zu suchen hat.

Dieser Standard wurde nur durch den technischen Fortschritt teilweise überflüssig. Die Eckkombinationen sind weg. Aber die Anordnung der Leuchten hat sich in die Zeit gerettet, in der ein völlig neues Leuchtmittel regiert, die LED. Man erzeugt Licht viel wirtschaftlicher und beleuchtet damit vornehmlich die Tischränder oder den Teppich. Die 500 lx bekommt man, wenn man 700 lx am Tischrand mit 300 lx in der Mitte mittelt. Der Norm ist genüge getan.

Obwohl man moderne Leuchten bis 80 m Länge bauen kann (s. hier), aber auch in winzigen Größen in Millimetern, baut die Industrie massenweise immer noch 1,25 m Einheiten, deren Länge einst die „optimale“ Leuchtstofflampe bestimmt hatte, von der jeweils zwei pro Kopf den Bürohimmel über dem Menschen erleuchteten.

Müssen wir mit solchen „Standards“ leben? Ja und nein. Wenn die Beliebtheit der Zellenbüros nicht nachlässt, die vom Massenbüro über Großraumbüro und Kombibüro ein Jahrhundert Revolutionen überlebt hat, werden Architekten weiterhin mit Achsmaßen bauen. Sie werden bestenfalls kleinere oder größere Achsen nehmen. Das unberührbare Maß ist die Fläche pro Kopf. Für die Beamten ist die vorgeschrieben, deren KollegInnen in der Privatwirtschaft geht es auch ohne Vorschrift nicht besser.

Die Misere mit der Tastatur und Maus muss nicht sein. Ich habe dazu die Compact-Tastatur als Konzept erfunden, die 2007 international genormt wurde. Die steht seit Juli 2024 auch in der ASR A6 Bildschirmarbeit. Eigentlich war sie mehr oder weniger gut gemacht seit 1983 Teil eines Laptops. Wir müssen leider noch abwarten, dass alle Käufer die ASR oder solche Artikel wie hier lesen. Denn ausgeliefert werden PCs mit einer Tastatur, die etwa 1984 ohne Maus ausgedacht wurde, obwohl die Maus längst da war.

Und der dumme Standard mit zwei Leuchtenreihen am Himmel? Dass die krank macht, hatte ich schon 1990 mit dem Forschungsbericht „Licht und Gesundheit“ (hier kompletter Bericht) gezeigt. Wie man die Malaise erfolgreich los wird, steht nachgewiesen in der 1998er Ausgabe der Arbeit. Damals war noch die Indirektbeleuchtung die beste Lösung. Seit längerem kann man großflächige LED-Module nehmen, für die die Vorurteile gegenüber der Indirektbeleuchtung nicht gelten.

Ich hoffe, dass diese Ausführungen helfen, solche Räume wie unten Geschichte werden zu lassen. (Anm.: Dieser Raum ist nicht etwa lieblos zusammengewürfelt worden. Man hatte sich viel Mühe gegeben, um einen guten „Standard“ zu realisieren. Die Beleuchtung ist etwa 5 Jahre alt und hat die besten Aussichten, weitere 25 Jahre den Raum zu schmücken. )

HCL scheintot – Richtiges Licht zur rechten Zeit vertagt – Und …?

Das Aussortieren des Unwesentlichen ist der
Kern aller Lebensweisheit.

Laozi

Ich kann es kaum fassen, dass sich die lichttechnische Industrie eine vor 20 Jahren totsicher geglaubte Chance entgehen lässt. Wie im Kapitel Die Legende vom gesunden Licht reloaded dargelegt, wusste man schon vor 2001, dass Licht die wichtigsten Körperfunktionen regelt oder maßgeblich beeinflusst. Mit 2001 ist das Jahr gemeint, in dem der circadiane Lichtempfänger im Auge entdeckt wurde. Die gemeinten Wirkungen waren zu einem erheblichen Teil von Hollwich in den 1940ern und 1950ern beschrieben worden. ( hier) Freilich wollte die Industrie die nicht glauben. Stattdessen wurde Hollwich verteufelt. Dass man später anders dachte, kann man in Die Legende vom gesunden Licht reloaded lesen.

Zunächst zu den Wirkungen, die verschiedene Forschergruppen dargelegt haben. Die Aufzählung stammt vom internationalen Standard ISO 9241-610 Ergonomics of human-system interaction. Impact of light and lighting on users of interactive systems. Da dieser von der CIE jahrelang penibel geprüft worden ist, kann man davon ausgehen, dass alles stimmt.

Licht …

  • regelt Hormonausschüttung – Melatonin eingeschlossen, das seinerseits viele physiologische Prozesse beeinflusst
  • ändert persönliche “Körperzeit” des Individuums über die circadianen Rhythmen
  • bestimmt lebenswichtige Größen wie die Körperkerntemperatur
  • ändert thermisches Wohlbefinden durch die Beeinflussung der Hauttemperatur
  • steuert Gehirnaktivitäten über das Sehen hin us
  • beeinflusst Herzfunktionen
  • ändert Geschmackssinn
  • bestimmt Stimmung und Anregung
  • verursacht oder löst aus längerfristige biologische Wirkungen wie Krebsentwicklung oder Körperwachstum von Kindern.

All diese Effekte und noch mehr wurden durch Studien außerhalb des Einflussbereichs der Lichttechnik nachgewiesen. D.h., “wohlwollende” Interpretationen von Lichttechnikern sind ausgeschlossen. Warum lässt sich die lichttechnische Industrie die Chance entgehen, diesbezügliche Erkenntnisse umzusetzen? Meine Erklärung begründe ich nachfolgend.

Wie man in Genesis 2.0 Schöpfung der elektrischen Sonne lesen kann, hat mein Institut mit dem Forschungsbericht Licht und Gesundheit – Eine Untersuchung zum Stand der Beleuchtungstechnik in deutschen Büros von 1990 die Sichtweise auf die Wirkungen von Licht erheblich beeinflusst. Das Ziel dieser Studie war aber nicht allein, Lichtwirkungen zu ermitteln, sondern die schon zuvor bekannten Probleme mit besseren Beleuchtungssystemen zu beseitigen.

Der Forschungsbericht „Licht und Gesundheit“ erschien zuerst 1990 mit Ergebnissen an 2000 Arbeitsplätzen und einer repräsentativen Befragung von 1000 weiteren Personen. Die dritte Auflage von 1998 enthält die Ergebnisse der Erprobung von erfolgversprechenden Beleuchtungssystemen an weiteren 1.500 Arbeitsplätzen, die aufgrund der Studien vor 1990 entwickelt worden waren. Dieses Werk zeigt, dass man tatsächlich die subjektive Gesundheit des Menschen erheblich mit Licht fördern kann.

Es dürfte kaum eine Studie geben, deren Ergebnisse besser beschrieben und, vor allem, validiert worden sind. Was die Industrie davon hielt, kann man am besten mit den Worten einer Führungskraft einer führenden Herstellerfirma ausdrücken, für die ich 1991 arbeitete. Der Mann hatte die Studie gerade gelesen und sagte: „Hätten wir diese Arbeit vorher gesehen, hätten wir Ihnen nie einen Auftrag gegeben.“ Wie denn das?

Die Antwort ist relativ einfach. Das Ergebnis der Forschungsarbeit lässt sich kurz so wiedergeben: „Die Studie zeigt, dass man tatsächlich die subjektive Gesundheit des Menschen erheblich mit Licht fördern kann. Das erfolgt weitgehend durch Tageslicht am Arbeitsplatz und eine flexible künstliche Beleuchtung.“ Damals war nach dem deutschen Arbeitsrecht Tageslicht keine Beleuchtung für Arbeitsplätze. Und eine flexible Beleuchtung war für Leute, die mit einer einzigen Norm sämtlichen deutschen Betrieben und für alle Arbeitsplätze die Aufstellung und Anordnung vorgaben, eher ein Schimpfwort.

Was der besagte Herr auch nicht anerkennen wollte, war die Tatsache, dass die beste Leuchte an der Decke aus Sicht der Nutzer halb so viel kostete wie die von der Industrie bevorzugte. Zudem sollte jede Tischlampe, egal welcher Qualität, eine Verbesserung bedeuten. Das war zu viel des Guten. Funfact: Das Konzept der besagten Deckenleuchte (Indirekt-Direkt bzw. 2K) stammte nicht von mir, sondern von dem besagten Herrn.

Die Sache hat mich indes überhaupt nicht überrascht. Ich hatte fast dasselbe zwei Jahrzehnte zuvor mit der Büromöbelindustrie erlebt. Sie war damals auf dem Trip, den guten Bildschirmarbeitsplatz zu finden. Was sie fand, sah grauenhaft für jeden Büromenschen aus, weil alles nach schwerem Maschinenbau roch. Auch Wissenschaftler taten sich nicht durch anmutigere Konzepte hervor. Meine Schlussfolgerung war wie bei der Beleuchtung: Flexibel. Ein Arbeitsplatz besteht aus einer Platte, die groß genug ist, alle Arbeitsmittel aufzunehmen, Bildschirm, Tastatur, Maus, Papier, Kaffeetasse …. Der Benutzer muss in der Lage sein, diese nach seiner Vorstellung anzuordnen und ggf. schnell umzuordnen. Das war das Konzept einer Norm, die ich schrieb. (Bildquelle hier)

Das Konzept wurde von der Industrie für Büromöbel mit Gelächter aufgenommen. Sie beschwerte sich beim zuständigen Obmann und behauptete, ich hätte keine Ahnung. Der Obmann legte mir den Brief vor und fragte, was ich dazu denke. Ich sagte: „Es stimmt. Ich habe keine Ahnung. Aber ich will auch keine haben. Was die Industrie will, ist, dass wir uralte Tische in die Neuzeit retten.“

Die Computerindustrie hat nicht lachen können. Sie musste ihre Tastaturen so flach wie möglich machen und ihre Bildschirme flexibel aufstellbar und spiegelfrei.

Wenn man das damalige Konzept heute jemandem erklärt, sagt dieser, das sei doch selbstverständlich. Ist es auch. Mein Ziel war es, eine Norm zu schaffen, die sich irgendwann überflüssig macht. Nicht etwa, weil sie obsolet ist, sondern weil jeder ihr Ziel versteht und auf seine Art einsetzt und ggf. ergänzt. So gab die Norm einst vor, die Tastatur müsse weniger als 30 mm hoch sein. Heute wird man solche Tastaturen nicht mehr finden. Viele liegen bei 10 mm oder etwas darüber.

Aus dieser Erfahrung heraus ist mein Entsetzen zu verstehen, dass wir heute neue Beleuchtungsnormen haben, die kaum jemand mehr versteht, weil man bei der Lektüre irgendwann mal einschläft. Das neueste Werk, ISO/CIE 8995-1 für Arbeitsplätze im Innenraum, ist 113 Seiten lang, enthält 62 Tabellen auf ebenso vielen Seiten im Haupttext, dazu 20 Tabellen in den Anlagen. Wenn man sich ernsthaft überlegt, die Norm anzuwenden, muss man ISO 9241-307 durchackern, die Anforderungen für Bildschirmarbeitsplätze enthalten soll. Diese enthält 187 Tabellen im Hauptteil, 4 in den Anhängen. Dazu müsste man  52 Normen + 14 Literaturstellen (ISO/CIE 8995-1)  und 49 Literaturstellen, davon 37 Normen diverser Organisationen (ISO 9241-307) mitberücksichtigen.

Die 62 Tabellen enthalten zu jeder der angegebenen Arbeitsplätze 8 Anforderungen, zu denen welche hinzu kommen, die man sich selbst ableiten soll, wenn als 9. Anforderung ein Hinweis auf einen Bildschirmarbeitsplatz folgt, indem man sich durch 187 Tabellen durcharbeitet.

Wenn das alles wäre. Die biologischen Wirkungen des Lichts werden als wichtig erklärt und in einem Anhang beschrieben. Wie man diese mit den Anforderungen der Norm gemeinsam berücksichtigt, ist Sache einer anderen Norm (z.B. DIN/TS 67600).

Ach, ja. Die Norm erzählt, man solle die ambiente Beleuchtungsstärke statt der simplen horizontalen, vertikalen und zylindrischen realisieren. Dazu soll man an jeder Wand die Beleuchtungsstärken darauf mitteln, dazu die mittlere Beleuchtungsstärke an der Decke ermitteln und das Ganze durch 5 teilen. Sehr praktisch, wenn man die Werte z.B. an einer Abflughalle misst.

Für den unwahrscheinlichen Fall, dass tatsächlich irgendwo ein Bildschirmarbeitsplatz beleuchtet werden soll, wird der Lichtplaner garantiert nichts in den 187 Tabellen der Norm ISO 9241-307 finden, weil der zuständige Ausschuss die hierzu erforderliche Information vergessen hat. Dies ist etwa seit offiziell 2008 bekannt und wurde der ISO mehrfach gemeldet. Weil alles nicht fruchten wollte, haben deutsche Prüfstellen von meinem Ausschuss verlangt, eine Reparaturnorm zu erstellen, was 2013 erfolgte. Diese wurde viele Jahre später als ISO 9241-311 sogar ISO-Standard. ISO hat die nachweislich nicht anwendbare Norm bislang nicht zurückgezogen. Der Ausschuss, der ISO/CIE 8995-1 geschrieben hat, hat die nicht anwendbare Norm trotz meiner Warnung zitiert.

Auf diese Weise ist aus einer simplen Tabelle für Beleuchtungsstärken aus dem Jahr 1927 (Leffingwell, W.H.: Office Management Principles and Practice, A.W. Shaw Company, Chicago New York, 1927) ein Regelungetüm geworden. Dabei hat der zitierte Herr im Jahre 1927 (oder vielleicht früher?) alles Wissenswerte über Beleuchtung sehr gut zusammengefasst. Diese habe ich unter „Wie alt ist unser Wissen zu Beleuchtung?“ und „Alt ist nicht alt”  erklärt.

Wer statt simplizistisch einfacher Konzepte ein paar hundert Seiten Regelwerk für eine überschaubare technische Aufgabe produziert, muss entweder ein sehr komplexes Produkt haben, dessen Anwendung sich nicht einfacher beschreiben lässt. Oder er hat kein Konzept. Dann muss man es anderen Leuten überlassen, ein Konzept zu finden.

Ich will es nicht unbedingt der lichttechnischen Industrie vorhersagen, aber zu Bedenken geben, was mit den Machern (angeblich) komplizierter Produkte passieren kann. Von den o.g. zwei Industrien (Computerindustrie, Büromöbelindustrie) hat die erste fast komplett das Feld geräumt. Heute existiert von den einstigen Top 10 des Jahres 1975 nur noch IBM, und auch diese musste sich häuten. Die Computerindustrie blüht und gedeiht trotzdem, aber ohne die einstigen Größen wie DEC (Nummer II der Welt). Ebenso existiert von unserer einstigen Büromöbelindustrie nur noch der Schatten von einst. Den größten Teil haben amerikanische Firmen gekauft. Nicht einmal deren Normenausschuss, der Fachnormenausschuss Bürowesen FNBü, existiert mehr.

 

Aufstieg Dank Digitalisierung oder Quantität schlägt Qualität

Eine schwitzende Stirn ist nicht das Kriterium für die 
Qualität einer neuen Idee
Pavel Kosorin

Dieses Buch dokumentiert u.a. einen beispiellosen Aufstieg der elektrischen Sonne seit 1924. Künstliches Licht wurde zwar schon immer gebraucht (s. Epochen der Kunst der Lichtmacher), aber wie kam es, dass seine Bedeutung plötzlich so steil aufstieg? Erfunden wurde die Glühlampe schon mehrere Jahrzehnte früher. Wie ich in dem Kapitel “Erbe der 1920er Jahre“ darstelle, stammt viel Wissen in der heutigen Lichttechnik aus den 1920ern, wobei die Techniken dazu in den Jahrzehnten zuvor entwickelt worden waren. Was Besonderes hat sich 1924 ereignet?

Wie die CIE letztes Jahr feierte, hat sie im Jahre 1924 die sog. V(λ)-Kurve geschaffen. Diese bildet die Empfindlichkeitsfunktion des menschlichen Auges für Licht ab. Damit war zum ersten Mal möglich geworden, Licht zu “wiegen“. Und was man wog, setzte man dem Licht gleich. Man misst die Menge des Lichts, den Lichtstrom, den eine Lampe abgibt, in Lumen. Auf Lateinisch heißt Lumen schlicht Licht. So wurde der Lichtstrom = Licht gesetzt. Quantität wie Qualität.

So weiß man seit 1924, was man bekommt, wenn man 5 Thaler für eine Lampe bezahlt. Sie erzeuge sagen wir Mal 300 Lumen Licht (bitte um Nachsicht wegen der Tautologie). Man weiß auch, wie effizient die Lampe mit Energie umgeht. Ist sie eine alte kleine Glühlampe, macht sie 5 Lumen aus einem Watt, das man hinein steckt. So muss man für die 300 Lumen  60 W Energie in die Lampe stecken. Auch moderne kleine Glühlampen schaffen kaum mehr. Ist sie eine LED der Effizienzklasse A, dann erzeugt sie 210 Lumen daraus. Sie ist also 42 x effizienter als die gute alte Lampe. So muss man für die 300 Lumen nur noch 1,42 W aufwenden.

Effizienter ist die Lichtquelle – aber in was? Diese Frage beschäftigt viele Leute nicht nur seit 1924. Eindeutig ist die Sache nur, wenn man die Lampe zur Messung des Lichtstroms in die geeignete Einrichtung steckt, in eine Ulbrichtsche Kugel. Dort kann man bei der LED Klasse A an jedem Ort 42-mal mehr Beleuchtung messen als bei der kleinen alten Glühlampe. Mit der LED könnte nur noch eine Natriumdampflampe konkurrieren, die nur 40-mal so viel Licht produziert.

Die letztere Lampe wird allerdings kaum noch jemand kennen. Sie zierte und ziert belgische Autobahnen wie manche deutsche Landstraßen, war aber in keiner Wohnstube zu finden. Als ein Philips-Direktor vorschlug, dass man sie, die Natriumdampflampe, auch in Büros zulassen sollte, drohte mein Doktorvater damit, die erste Installation bei der Sekretärin des besagten Herrn vorzunehmen. Wir Studenten wollten mit ihr den Berliner Straßenstrich beleuchten, um den Freiern die Lust am käuflichen Sex zu vermiesen. Denn der Lampe fehlte an Wichtigem. Ihre Farbwidergabe war unterirdisch. Die Schönen der Nacht würden sich unter ihrem Licht in gruselige Hexen verwandeln.

Womit wir beim Thema Qualität wären. Diesen Begriff hatten die Alten Griechen vor etwa 2500 Jahren geprägt. Er ist vielen immer noch kein Begriff und musste im 20. Jahrhundert von Leuten wie Walter A. Shewhart (1920er/30er Jahre) oder W. Edwards Deming (Mitte des 20. Jahrhunderts) neu “erfunden" werden. Auch wenn diese Herren zu den Pionieren des technischen Fortschritts gehören, war ihr Begriff einseitig. Ihre Qualität ist sogar international genormt (ISO 9000ff). Aber der normale Mensch begreift etwas anderes darunter. Fatalerweise gibt es diese Dualität seit der Antike. Qualität ist die Eignung einer Sache für den vorgesehenen Zweck. Der gesunde Menschenverstand versteht darunter aber einfach “gut“ oder eine hohe Qualität.

Die Lichttechnik tat sich mit dem Qualitätsverständnis besonders schwer. Lichtqualität kam erst 2021 in das seit 1938 existierende Internationale Wörterbuch der Lichttechnik (hier). Die heutige Präsidentin der CIE ist stolz darauf, dies bewerkstelligt zu haben. Zuvor hatte sich ein Ausschuss der LiTG (heute Deutsche Gesellschaft für LichtTechnik + LichtGestaltung) vergeblich um die Qualität des Lichts bemüht, was man an der internen Bezeichnung der zuständigen Kommission (Qual-Ausschuss) erkennen kann. Da mir das Ganze hat die Hutschnur hochgehen lassen, habe ich  versucht, die Lichtqualität mithilfe eines bekannten Begriffs zu erklären, mit Gebrauchstauglichkeit alias Usability. Das Konzept habe ich hier erklärt.

Dabei benutzte ich als Beispiel für eine praktische Vorgehensweise ein Bild von IESNA, der lichttechnischen Gesellschaft von Nordamerika.  IESNA sah damals im Jahr 2000 in diesem Konzept einen neuen Meilenstein in der Geschichte der Beleuchtungstechnik. Ein Jahrzehnt später gab es kein IESNA mehr und das Zukunftskonzept verschwand wieder. Und die Deutsche Gesellschaft für LichtTechnik + LichtGestaltung, damals noch Deutsche Lichttechnische  Gesellschaft, hatte vergessen, dass sie einst ein Qualitätskonzept hatte. Im Jahre 1935 in der Norm DIN 5035.

Nach vielen Jahren des Mühens war dann in Deutschland ein vollständiges Konzept erschienen, dessen Beschreibung  immerhin 116 Seiten umfasste (hier). Mich erschütterte insbesondere der Titel: „Lichtqualität – ein Prozess statt einer Kennzahl“. Nicht etwa weil der Titel falsch war, sondern weil er voll zutraf. Die Publikation habe ich ausführlich dokumentiert und kommentiert (hier und da und dort und so weiter fort)-

Warum füllen die Autoren einer Broschüre 114 Seiten, um einen 2500 Jahre alten Begriff zu erklären? Und warum musste ich fast ebenso lange Kommentare dazu schreiben? Das liegt im Begriff selbst – Qualität. Während man Quantität mit einem Zollstock oder mit einer Waage messen kann und in einer einzigen Zahl ausdrückt, muss man bei der Bestimmung der Qualität erst einmal begründen und festlegen, warum man sie woran misst. Beispielsweise gibt es den Hammer seit der Urzeit, aber den Hammer gibt es immer noch nicht. Es gibt aber einen Schlosserhammer, Latthammer, Fäustel, Vorschlaghammer und sogar Schonhammer, der das Gegenteil vom Vorschlaghammer bewirkt, die Einschlagstelle zu zertrümmern.

Ähnlich ist es mit der Lichtqualität. Weiß man, was man mit dem Licht will, gibt es äußerst präzise definiertes Licht. So jagen Laserdioden und Lichtdioden, im Grunde beides dasselbe, unvorstellbare Mengen Daten über 5 Milliarden Kilometer Glasfaserkabel sicher um die Welt. Weiß man hingegen nicht, wofür sich eine Lichtquelle eignet, z.B. Lampen und Leuchten, dann sollte man nicht von Lichtqualität reden, sondern schlicht und einfach das technische Produkt beschreiben, auf dass jemand eine Verwendung dafür findet. So schaffen Lichtplaner, Lichtdesigner oder Angehörige ähnlicher Berufe die Beleuchtungsqualität, die die Anwender brauchen. In den Beschreibungen der Hersteller findet man nüchterne Daten, die ihre Produkte beschreiben.

Dumm nur, dass es in unseren Ausschüssen, die Beleuchtung normen, der letzte Lichtdesigner zuletzt vor vielen Jahren gesichtet worden ist. Auch sonst waren sie in der Minderheit und fanden selten Gehör. Selbst in dem Ausschuss, der die biologischen Wirkungen des Lichts auf den Menschen normt, gibt es seit Jahren keinen Lichtdesigner oder Planer. So bestimmt ein Gremium, das zu 70% aus Herstellern besteht, was an Lichtqualität verordnet wird. Diese wissen, was Quantität ist, und verwechseln dies häufig mit Qualität.

Der natürliche Partner des Architekten, was das künstliche Licht angeht, wäre der Lichtdesigner. Bei namhaften Projekten ist er das auch. Etwa 95% der Bauprojekte, die ich gekannt habe, wurden aber ohne Beteiligung von Lichtdesignern abgewickelt, was etwa dem Anteil von Leuchten entspricht, der über die Ladentheke beim Elektrogroßhandel geht. Die Planenden waren meist Elektroplaner. Und die Normen zur Beleuchtung werden so geschrieben, dass der möglichst nichts anderes machen kann, als die Hersteller wollen. Bei kleineren Bauprojekten trifft man eher ein Einhorn den einen Lichtdesigner.

Noch ein Seitenhieb auf die Auftraggeber. Man findet sie bei der Aufzählung der Ersteller der Normen nicht. Das war nicht immer so. Beleuchtung wurde einst in den 1930ern als übergeordnete Aufgabe verstanden, bei deren Normung alle betroffenen Kreise mitwirken sollten. Das Prinzip gilt unverändert bis heute. Es wird bei jeder Sitzung eines Normenausschusses geprüft, ob und wie die interessierten Kreise vertreten sind. Wer seine Interessen nicht vertritt, muss sich damit begnügen, was eben die wirklich interessierten Kreise ihm geben.