Die Methode Wissenschaft, mit der man Wissenschaft verhindert – Ignorieren – Der Architekt

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Der vermutlich wichtigste Ignorant des lichttechnischen Wissens ist der Architekt. Dieser ist etwa seit dem Ende der Eiszeit Gesamtverantwortlicher für den umbauten Raum. Später auch für den öffentlichen Raum wie z.B. Hippodamos von Milet. Er war zwar Staatstheoretiker, wurde aber auch als Architekt und Baumeister bezeichnet. Er ist bekannt dafür, dass er Licht in die Stadt gebracht hat.

In Genesis 2.0 - Schöpfung der elektrischen Sonne beschreibe ich, dass die Geschichte des künstlichen Lichts sich auch etwa in die Eiszeit zurückreicht. Da müsste der Architekt doch gemerkt haben, dass das Licht die Architektur formt. Den Spruch „Licht schafft den Raum“ kann man doch ohne Gewissensbisse unterschreiben.

Doch die Realität ist nicht so. Man kann bereits im Sprachgebrauch einen Unterschied zwischen dem Architekten und dem Techniker feststellen: Der Techniker spricht von Beleuchtung, der Architekt von Belichtung. Wer unterschiedlich über dasselbe spricht, könnte auch Unterschiedliches meinen. Dem ist tatsächlich so. Ein gut belichteter Raum ist auch in der Nacht gut belichtet, auch wenn dunkel, weil sich das Wort auf die Raumeigenschaften insgesamt bezieht. Ein gut beleuchteter Raum ist aber sofort dunkel, wenn man das Licht ausschaltet. Der Architekt ist auch heute derjenige, der für die Belichtung verantwortlich zeichnet. Ob er auch so über die Beleuchtung denkt?

Damit sich Architekten und Lichttechniker gut verständigen können, hatte bereits Albert Speer versucht, diese in eine kooperative Beziehung zu bringen. Denn es war bereits 1935 sonnenklar, dass künftig die künstliche Beleuchtung eine größere Rolle spielen würde. Mit der Kooperation hat es nicht geklappt. Selbst die Normung ging getrennte Wege. Die Tagesbeleuchtung (oder Belichtung?) und die künstliche Beleuchtung werden seit 1935 in getrennten Normen geregelt (DIN 5034 und DIN 5035). Bei der Normung des Tageslichts waren Architekten nicht nur stärker beteiligt, sie hatten über die Gesetzgebung (Bauordnungen) einen entscheidenden Einfluss. Hingegen entwickelten hauptsächlich Techniker die Normen für Kunstlicht, bis zum Ende des Jahrhunderts sogar unkoordiniert miteinander.

Gegen Ende der 1960er Jahre gab es ein versöhnendes Konzept, die Tageslichtergänzungsbeleuchtung. Es (oft abgekürzt als TGE) ist ein Beleuchtungskonzept, bei dem künstliches Licht (Kunstlicht) gezielt eingesetzt wird, um das natürlich einfallende Tageslicht in Innenräumen zu ergänzen und zu optimieren. Das nach dem Konzept benannte Forschungsprojekt wurde von der Lichtindustrie totgeschlagen, weil sie nicht die zweite Geige spielen wollte. Kurz danach kam die Industrie mit DIN 5035 (1972), womit sich die künstliche Beleuchtung als autarke Größe etablieren wollte. Ganz folgenlos blieb das Projekt indes nicht. Die Vorschrift der Verordnung für Arbeitsstätten von 1975, dass alle Arbeitsräume eine Sichtverbindung nach außen haben müssen, und die genaue Beschreibung der Eigenschaften in der ASR 7.1 sind eine direkte Folge davon.

Die getrennten Wege des Lichts in Arbeitsräume, hier über Fenster via Bauordnung, dort künstliches Licht von der Decke via technische Normung, führte 1975 zu der kuriosen Situation, dass für die Arbeitsstätten in Deutschland Tageslicht nicht als Beleuchtung zählte. Dumm nur, dass praktisch alle Arbeitsstätten Bauten sind und den Landesbauordnungen unterliegen. Da die Tageslichtsituation von der jeweiligen Bauordnung geregelt war, verzichtete der Bund darauf, Tageslicht in der Verordnung für Arbeitsstätten zu regeln: “Da eine gleichmäßige und stets gleichbleibende Beleuchtung der Arbeitsplätze, Arbeitsbereiche und Verkehrswege über den gesamten Tag nur durch künstliche Beleuchtung zu erreichen ist, wird in der Arbeitsstättenverordnung die allgemeine Forderung des § 120 a Abs. 2 GewO nach genügendem Licht nur für die Beleuchtung mit künstlichem Licht im einzelnen präzisiert.” (Opfermann, R.; Streit, W.: Arbeitsstätten - Arbeitsstättenverordnung und Arbeitsstätten- Richtlinien mit ausführlicher Kommentierung, Loseblattsammlung, Forkel Verlag, 1999)

Hätte ein Architekt jemals für eine „gleichmäßige und stets gleichbleibende Beleuchtung der Arbeitsplätze, Arbeitsbereiche und Verkehrswege“ plädiert? Ich denke, nein. Hier ist ein Statement, allerdings von einem der besten Architekten von Deutschland, über die Experten der künstlichen Beleuchtung: „Für sie [Licht-Ingenieure, zumeist Elektrotechniker] gab und gibt es überwiegend nur zwei Kriterien: die Ausbeute der Lichtmenge gemessen in Lichtstärke und den Aufwand im Verbrauch gemessen in elektrischer Energie. Wir hatten sehr schnell gelernt, dass die Beschränkung auf diese beiden Parameter für die Gestaltung der Architektur und die Erzeugung von Raumstimmung die kurzsichtigsten, um nicht zu sagen unsinnigsten Messgrößen darstellen.  (Meinhard von Gerkan: „Die Gestaltkraft des Lichts in der Architektur“, in: Flagge, I. (Hrsg.): Jahrbuch Licht und Architektur 2000, Müller, Köln, 2000)

Meinhard von Gerkan war kein Ignorant, sondern einer, der die Kooperation gesucht hatte. Andere, die sich nicht äußerten, stimmen mit den Füßen. Wenn über künstliches Licht diskutiert wird, wird man kaum einen Architekten sehen oder hören. Erst in jüngerer Zeit hört und liest man von „integrierter“ Planung, also einer Planung der Lichtsituation unter Berücksichtigung von Tageslicht und Kunstlicht (mehr hier)

Und die „lichttechnische“ Gesellschaft von Deutschland hat im November 2023 beschlossen, ihren Namen zu ändern. Sie heißt nicht mehr „Deutsche Lichttechnische Gesellschaft e. V.“, sondern „Deutsche Gesellschaft für LichtTechnik + LichtGestaltung.“  Das wäre ein Schritt in die richtige Richtung, mehr Architekten in den Bereich Licht anzulocken. In anderen Ländern brauchte man diesen Schritt nicht. So hieß und heißt die entsprechende Gesellschaft von Norwegen Lyskultur wie Lichtkultur. In ganz Skandinavien spielt das Licht (oder der Mangel daran) aufgrund der geografischen Lage eine existenzielle Rolle in der Architektur. In diesen Ländern hat sich oft eine Design- und Planungskultur entwickelt, in der Lichtgestaltung als integraler Bestandteil des architektonischen Entwurfs betrachtet wird. In anderen Ländern mit starker Design-Tradition (z. B. Niederlande, Italien) wird Licht oft als "Baumaterial" und zentrales Gestaltungselement verstanden, was den Einfluss von Architekten und Lichtdesignern auf die tatsächliche Anwendung von Konzepten der Beleuchtung – auch jenseits der reinen Normerfüllung – sehr hoch macht. In der Türkei bestimmen eher die Architekten die Beleuchtung.

In Deutschland kann man bestimmte Traditionen nicht einfach abschaffen. So ist zwar die Kunst des Ingenieurs auch älter als unsere Zeitrechnung, aber die Grundsätze der Architektur nach Vitruv, geschrieben 70 v.Chr. für Architektur, mit Firmitas (Festigkeit), Utilitas (Nützlichkeit, Usability) und Venustas (Schönheit), gehen über die Konzepte der Ingenieurskunst hinaus. Venustas wie Schönheit ist nicht messbar. Hingegen will man in der Lichttechnik alles auf das Messbare reduzieren, daher das Statement von von Gerkan. Wer Schönheit messen will, sollte den Rat des Bundeskanzlers Schmidt annehmen und einen Arzt aufsuchen. Allerdings hatten die Autoren der ersten Norm für die künstliche Beleuchtung als (ein) Ziel hierfür tatsächlich Schönheit angegeben.

Ob man mit Messbarem oder dem Gegenteil davon umgeht, lässt sich die Physik nicht verleugnen. So entstehen Gebäude unter Ignorieren bestimmter lichttechnischer Erkenntnisse, unter denen die Arbeitenden mächtig leiden. Beispielsweise weigerten sich z.B. Architekten lange Jahre lang, Außenjalousien einzubauen. Ich lernte Lichttechnik in einem solchen Gebäude, wo wir am Nachmittag bis 33 °C hatten, zuweilen auch im Winter. Der Architekt des Gebäudes war ein Freund des Planers, unseres Professors. Nach dem Bezug des Gebäudes nicht mehr. Deutschen Abgeordneten, deren Arbeitsplätze ich im Langen Eugen eingerichtet habe, ging es noch schlechter. Bei denen kam zu der Sonne noch die Computertechnik, so dass die Temperatur bis 40° ansteigen konnte. Die Angestellten des Bundestages verließen dann die Arbeitsräume, die Politiker und deren politischen Mitarbeiter mühten sich weiter ab. Änderungen an der Fassade wurden lange durch den Urheberschutz des Architekten verhindert. Erst die „beherzte“ Sanierung des Gebäudes (2002–2006) für den UN-Campus wurde behutsam und in Abstimmung mit den Denkmalschutzauflagen durchgeführt, um die Gesamtkonzeption Eiermanns zu erhalten.

Leider kann ich die damalige Lage nicht bebildern, aber das folgende Bild sagt viel darüber aus, was aus dem Ignorieren des lichttechnischen Wissens entstehen kann.

Der Raum gehört einem sehr bekannten Bürohaus, das einst als mustergültig fortschrittlich angesehen wurde, weil das gesamte Gebäude mit einem Doppelboden versehen wurde, um dem kommenden Computerzeitalter zu dienen. Zum Zeitpunkt des Baus herrschte in der Architektur der Glaube, dass Schwarz schick und edel sei. Die gesamte Beleuchtung des Raums ist darauf ausgerichtet, dass Licht nur die Sehobjekte treffen soll. So proklamiert durch Designer. Das Ergebnis dieses Raumdesigns ist aber, dass das Tageslicht bereits an einem trüben Novembertag blendet. Die schwarzen Möbel reflektieren nicht nur den Himmel, sondern insbesondere die Downlights. Wer jemals solche Leuchten gemessen hat, weiß, dass höchstens die Hälfte des darin erzeugten Lichts aus ihnen herauskommt. Solche Objekte werden in der Lichttechnik als „Lichttötungsmaschinen“ bezeichnet. Wer ihre Erscheinung als blendend bezeichnet, meint es nicht nett. Die grauen Stellwände sind übrigens neueren Datums.

Dass man einen solchen Raum nicht bauen sollte, hätte man damals aus zwei lichttechnischen Normen ableiten können. Warum guckt aber ein erfolgreicher Architekt nicht in eine DIN-Norm? Die Antwort fällt so aus, dass man sie schwer glauben kann. Normen von Bauwesen und vom Bereich Licht (NABau, Gründung 1947; FNL, Gründung 1941) wurden bis in die 1990er Jahre hinein nicht abgestimmt, obwohl es bestimmt kein Gebäude ohne künstliches Licht gibt. Es gibt keine finanziellen Anreize für einen Architekten, sich tiefer mit der künstlichen Beleuchtung zu beschäftigen. [Die Verordnung über die Honorare für Architekten- und Ingenieurleistungen enthält nur wenige Anreize für den Architekten, sich mit der künstlichen Beleuchtung zu beschäftigen. Dafür dürfen Ingenieure gestalterische Arbeiten nicht abrechnen. Sie auch https://www.gesetze-im-internet.de/hoai_2013/] Um den Bauschein (auch Baufreigabeschein genannt) zu erhalten, muss der Architekt nachweisen, dass das geplante Bauvorhaben alle relevanten öffentlich-rechtlichen Vorschriften erfüllt (z. B. Bebauungsplan, Baurecht, Statik, Brandschutz). Ob die Normen der Lichttechnik dazu gehört haben?

Leute, die Erkenntnisse aus der Lichttechnik ignorieren, führen oft an, ihre Studien seien alt. Und meinen, sie seien obsolet. Wann hätte aber ein Student der Lichttechnik die Chance, einen solchen Raum in einer Diplomarbeit zu untersuchen? In dem Baujahr des Gebäudes (etwa 1976) garantiert nicht, denn da gab es die 10:3:1 Regel so lange, dass keiner mehr darüber nachdenken würde. Diese Regel besagt, dass der Bereich der Sehaufgabe am hellsten sein soll (10). Die nähere Umgebung soll nicht viel dunkler sein (3). Die fernere Umgebung soll auch aufgehellt sein (1). Manche Leute vermuten, dass die Regel in den 1940er Jahren aufgestellt worden sei. Man kann aber nach tiefergehender Suche bereits in dem Buch von Leffingwell aus dem Jahr 1925 das Wissen entdecken, das eine solche Raumgestaltung verboten hätte.

Die besagte Regel bestimmt damit mehr oder weniger stark die technische Kultur der Beleuchtung. Dass sie falsch sei, kann man nicht nachweisen. Wer sie dennoch ignoriert, schafft Räume wie den oben, in denen sich die Menschen später über die Beleuchtung beschweren.

Die Ignorierung des lichttechnischen Wissens durch den Architekten beruht auf sehr tiefen Wurzeln.

(Gesamtheit aller statistischen und methodischen Kniffe hier zu lesen)

Die Methode Wissenschaft, mit der man Wissenschaft verhindert – Ignorieren – Hired Guns

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Im Jargon des Wilden Westens war der hired gun ein Revolverheld, den man mieten konnte. Die schlimmste Art unter denen war der Auftragskiller. So schlimm sind die hier angeführten Herrschaften nicht. Sie haben sich nur vor den Karren nicht honoriger Interessen spannen lassen. Bei einem habe ich sogar den Lohn erfahren: 250.000 $. Bei anderen müsste man spekulieren.

Ich kannte aber auch einen, den man für einen solchen hielt. Er nahm den Auftrag an, führte ihn auftragsgemäß aus. Als dem Auftraggeber das Ergebnis nicht schmeckte, geschah Unglaubliches. Man verbot ihm, über das Projekt zu reden. Es wurde eine Presseerklärung herausgegeben, das Projekt hätte das gewünschte Ergebnis erbracht. Ganz hinterhältig war die Veröffentlichung des Forschungsberichts mit seinem Inhalt, aber einem Executive Summary mit der Meinung des Auftraggebers. Man wusste, dass die meisten es dabei belassen, die Zusammenfassung zu lesen.

Die beiden ausgesuchten Fälle weisen mehrere Gemeinsamkeiten auf. Die Auftraggeber kamen aus der Computerindustrie. Die hired guns waren Professoren der Lichttechnik. Es ging um eine Regel, die beide in ihren Publikationen mehrfach hochgehalten hatten. Deswegen konnten sie nicht versuchen, sie zu falsifizieren. Ergo wählten sie den scheinbar sicheren Weg, die Regel für irrelevant zu erklären.

Dieses betraf den dunklen Bildschirm im hellen Raum. Den Computerherstellern ging es darum, aufzeigen zu lassen, dass dieser kein Problem für die Augen darstellt. Aber bereits die Vorfahren der damaligen Lichttechniker hatten festgestellt, dass zu große Helligkeitsunterschiede zwischen Teilen des Gesichtsfeldes Blendung bedeuten. Was ist aber zu groß?

Nach den Studien des Lehrers des einen Professors, des Herrn Bodmann, wäre ein Verhältnis von 1 : 10 gleichbedeutend mit einer Erscheinung von Schwarz für den dunkleren Teil. Dieses kann man aus der Dynamik des Auges ableiten. Dieses Organ kann sich zwar auf Leuchtdichten in einem Umfang von 10 hoch 11 anpassen. In Worten: Der Unterschied zwischen der untersten Leuchtdichte und der obersten, an die sich das Auge anpassen kann, liegt bei einem Faktor von 100 Milliarden. Wenn es dies häufig tun muss, reagiert es mit diversen Erscheinungen wie Augenbrennen, Tränenfluss oder gar mit Kopfschmerzen. Daher wurde die relative Gleichmäßigkeit der Helligkeiten zu einem wichtigen Gütemass einer Beleuchtung erklärt. Wenn der Bereich der Sehaufgabe eine Leuchtdichte von 10 hat, soll deren Umgebung bei mehr als 3 liegen. Ergo, ein Verhältnis von maximal 3:1 wäre nicht zu unterschiedlich in diesem Sinne.

Genau auf dieser Vorstellung basierte z.B. das Konzept der Allgemeinbeleuchtung, das seit den 1920ern empfohlen wurde und spätestens 1972 schriftlich in DIN 5035 festgelegt. Auch aus diesem Grunde erklärte man die Schreibtischleuchten für unzulässig. Von den moderneren Arbeitsplätzen mit Bildschirmen wurden diese in einer Sicherheitsregel der Berufsgenossenschaften 1980 sogar verbannt: „Einzelplatzbeleuchtung (Verwendung von Tischleuchten) an Bildschirm-Arbeitsplätzen ist im allgemeinen zu vermeiden.“ (aus ZH1/618 Sicherheitsregeln für Bildschirmarbeitsplätze, 1980)

Bei der besagten Regel geht es leicht erkennbar um das Konzept der Beleuchtung gemeinhin. Dieses besagt, dass ein hohes Leuchtdichteniveau für eine bessere Sehleistung sorge. In Abrede gestellt hat dies noch niemand. Würde das Auge aber gleichzeitig zwei Niveaus ausgesetzt werden, zwischen denen es wechseln muss, leide die Sehleistung. Auch dieses stellt niemand in Frage. Dennoch wäre es möglich, dass das Konzept insgesamt falsch wäre. Es wäre nicht das erste Mal, dass sich eine Wissenschaft irrt.

Ob sich die Berufsgenossenschaft auch vertan hat? Folgendes Video zeigt das Gegenteil. Hier wurde ein Auge in einem hellen Raum gefilmt, in dem es zwischen einem dunklen Bildschirm und einem helleren Blatt Papier wechselt. Den Leuchtdichteunterschied habe ich auf 1 : 3 gestellt, also noch annehmbar gering.

Wie man klar erkennt, reagiert die Pupille heftig bereits auf akzeptierte Unterschiede. Die Pupille ist der primäre Schutz des Auges gegen Helligkeitsschwankungen und reagiert am schnellsten. Danach folgt mit etwas Verspätung die neuronale Adaptation, die Veränderung der Empfindlichkeit der Netzhaut. Ganz am Ende folgt die photochemische Reaktion. Das ist die Regeneration bzw. Ausbleichung der Sehfarbstoffe (Rhodopsin in den Stäbchen und Iodopsin in den Zapfen).

Im normalen Leben macht dies nichts aus, für das Auge ist es sogar angenehm, Unterschiede in der Umgebung wahrzunehmen. Nur nicht, wenn dies erzwungen mit einem Takt bis zu 0,8 Sekunden passiert und bis 33.000 Mal am Tag. Dieses haben meine Mitarbeiter aus 40 Stunden Filmmaterial ausgearbeitet, in dem der Wechsel des Blicks und der Leuchtdichte am Arbeitsplatz gemessen wurde. Als Konsequenz zog die Berufsgenossenschaft den Schluss, dass unsere Empfehlung, dass die Bildschirme etwa so hell sein müssten wie die Arbeitsumgebung, befolgt werden müsse: Die Lösung hieß: Positivdarstellung, also helle Bildschirme mit dunkler Schrift. Heutige Menschen kennen praktisch nur noch solche.

Begründet wird die Vorschrift mit diversen Vorteilen der Positivdarstellung:

  • weniger Störungen durch Reflexionen
  • Angleichung der Leuchtdichten der Informationsträger und des Bildschirms
  • weniger Belastung durch den ständigen Wechsel der Helligkeiten (weniger Adaptation)
  • bessere Lesbarkeit der Zeichen durch die höhere Leuchtdichte des Untergrundes

Wie sah die Realität aus? Die Bildschirme hatten etwa 1/20 der Umgebungsleuchtdichte und waren dann laut Bodmann schwarz. Da die Designer auch die Gehäuse farblich ähnlich machen wollten, waren diese ebenso dunkel, die Tastatur eingeschlossen. Deswegen glänzten diese besonders schlimm. Auch auf schwarzen Bildschirmen sieht man die Umgebung wunderbar gespiegelt. Also eine Lose-lose-Situation. Insbesondere die schwarzen Tastaturen führten zu starken Augenbeschwerden. Die Lösung dafür musste nicht erst gefunden werden, sie gab es in alten Werken der  Lichttechnik.

Das Computerunternehmen mit den dunkelsten Bildschirmen beauftragte Prof. X mit einer „Lösung“. Da dieser aber an der 3 :1-Regel hing, musste die Lösung etwas anders lauten. Er ließ die Arbeitsleistung bei einem Test (d2-Test von Brickenkamp) untersuchen und stellte fest, erst bei einem Leuchtdichteunterschied von 100: 1 leide die Leistung. Welche? Danach fragte aber keiner.

Das ist so verwunderlich nicht, denn der Test ist validiert und ist robust gegen Umgebungseinflüsse. Gemessen wurde die Leistung im Test. Aber der Ersteller des Tests hatte dafür gesorgt, dass diese nur von persönlichen Merkmalen des Probanden abhängt.  Der sogenannte d2-Test ist ein standardisierter, neuropsychologischer Leistungstest zur Erfassung der Aufmerksamkeit und Konzentration unter Zeitdruck. Der d2-Test wurde ursprünglich entwickelt zur Eignungsauslese von Kraftfahrern. Somit war es unwahrscheinlich, dass der Test etwas anderes erbringen konnte als das gewünschte Ergebnis, nämlich dass der Bildschirm des Auftraggebers nicht zu dunkel sei. Allerdings wird man bei allen Lesetests stets dasselbe feststellen, weil Menschen in Versuchssituationen gleich gut lesen, wenn die Schrift nicht gerade auf Unleserlichkeit getrimmt ist.

Prof. Y hatte einen Auftraggeber, dem die vorgeschriebenen Farben für Gehäuse und Tastaturen Sorgen machten. Er musste für Deutschland graue Gehäuse anbieten (computerschmuddelgrau), während seine Designer schwarz liebten. Ein logistisches Problem eigentlich, man musste das gleiche Modell in zwei Farben vorhalten.  Das kostet! So kam der Auftrag zustande. Prof. Y hatte die besagte Regel auch in diversen Publikationen besungen. So zog er vor, den Einfluss der Gehäusefarbe des Bildschirms auf die Sehschärfe der Probanden zu studieren.

Die Sehschärfe ist ebenso robust gegen Umgebungseinflüsse. Dass der Test keinen Unterschied zwischen unterschiedlichen Gehäusefarben feststellen würde, hätte man gleich sagen können. Denn der Test von Prof. Y zeitigte auch keinen Unterschied beim Lesen von 6p-Schriften und 12p-Schriften, die so aussehen wie hier

Hier sind die Originaltexte der Studie von Prof. Y, dessen Test keinen Unterschied zwischen den abgebildeten drei Schriftblöcken feststellen konnte.

Wenn Probanden keinen Verlust an Lesevermögen bei solchen großen Unterschieden des Sehguts erleiden, was vermögen Gehäusefarben wohl ausmachen, die der Benutzer nur begrenzt sieht? Damit stand das Urteil von Prof. Y fest: „Die Leuchtdichte von Gehäusen von Computern spielt keine Rolle."

Lustigerweise musste man dem Herrn nicht einmal widersprechen. Denn er hatte drei Gehäusefarben untersucht, die nach den Regeln der Berufsgenossenschaft zulässig wären. Ihm ist das nicht aufgefallen, den Auftraggebern auch nicht (das Ganze ist hier zu lesen). So lautete das Fazit eines Forschungsprojektes, das sich mit diesem Urteil von Prof. Y beschäftigte: „Der Forschungsbericht bestätigt im Wesentlichen die Vorgaben der Normen, wie sie bereits im Jahre 1981 festgelegt worden waren.“

Das sind zwei Beispiele dafür, dass und wie vernünftiges lichttechnisches Wissen und dessen Anwendung ignoriert werden. Die Folgen können mehr Augenbelastung oder Unannehmlichkeit sein. Es bleibt aber zuweilen nicht bei solchen Auswirkungen.

In einem besonders eklatanten Fall wollte der Auftraggeber eine Absolution für eine Massnahme haben, die die Sicherheit der Republik gefährden könnte. Es ging um die Beleuchtung der Warten von Kernkraftwerken. Man fragte einen Professor für Lichttechnik, ob man im Falle einer Havarie die Beleuchtung auf ein Drittel reduzieren dürfe, weil man die Leistung der Notstromdiesel für andere Zwecke bräuchte. So kam diese Ausnahme in eine KTA-Regel (KTA 3904) .Das ist ein sicherheitstechnischer Standard des Kerntechnischen Ausschusses.  Die wichtigsten Regeln zur Ergonomie in der Warte (Kontrollraum) in kerntechnischen Anlagen finden sich in der KTA-Regel KTA 3904 des Kerntechnischen Ausschusses.

Diese Regel trägt den Titel "Warte, Notsteuerstelle und örtliche Leitstände in Kernkraftwerken" und befasst sich umfassend mit der Gestaltung dieser Bereiche unter Berücksichtigung ergonomischer Aspekte, darunter auch die Beleuchtung. Da solche Regeln sehr relevant sind, wurden in deren Entwürfen Aussagen von Einzelpersonen festgehalten, weil sie in diesem Stadium nicht vom gesamten Ausschuss verantwortet werden.Dumm nur, dass die Sache bei einer Havarie erfolgen sollte. In dieser Situation geht es darum, Schadenabwehrmaßnahmen zu planen. Dazu holt man stapelweise Schaltpläne mit zum Teil winzigen Details und muss diese in der schlimmsten Krisensituation auswerten, die man sich vorstellen kann. Ein drohender GAU in 20 Minuten. Wie unbedenklich ist die Reduzierung des Lichts auf ein Drittel? Der Experte wusste in anderen Situationen wohl davon zu berichten, dass die Sehleistung von der Beleuchtungsstärke abhängig sei. So hat er bei seiner Abschiedsvorlesung vor geladenen Gästen versucht, den Unterschied zwischen 500 lx und 250 lx für die Sehleistung zu demonstrieren. Derselbe Mann hatte aber für einen Standard für nukleare Sicherheit begründet, dass die Absenkung auf 150 lx in der Schaltwarte nichts ausmache.

Die wahre Situation in einem AKW war sogar schlimmer, als die Regel erlaubte. Die Planer haben nicht die Beleuchtung insgesamt auf ein Drittel herabgesetzt, sondern jeweils ein Drittel der Beleuchtung einer Phase gehängt. D.h., bei einer Havarie wären zwei Drittel der Warte ohne Beleuchtung gewesen.

Als wir diese Situation feststellten, war das Werk schon 17 Jahre in Betrieb, wobei Notübungen alle 3 Monate stattfanden. Dazu werden alle Notstromdiesel angeworfen und die Notfallsituation durchgespielt. Offenbar ohne Zeugen. Irgendwem müsste doch aufgefallen sein, dass zwei Drittel der Warte ohne Beleuchtung waren.

Im einem anderen Fall toppte die Situation der Technik alles Dagewesene. Bei dem Kernkraftwerk Krümmel kam es im Jahr 2007 zu einem bedeutenden Störfall, als nach einem Kurzschluss im externen Netz zwei von vier Notstromdieseln aufgrund mechanischer Probleme nicht richtig funktionierten. Es gab keine Kupplung zwischen der Turbine und dem Generator. Auch das war lange Jahre niemandem aufgefallen. Notstromdiesel sind keine Fahrraddynamos für Leute, die nur bei Tage  fahren. Sie werden für Leistungen für 3 bis 8 MW gebaut und alle 3 Monate geprüft. Offenbar nicht gründlich genug …. In Krümmel ist den Leuten nicht mal ein Licht aufgegangen, als kein Licht angegangen war.

Es mutet sich bizarr an, dass das Ignorieren von harmlos scheinenden Regeln der Lichttechnik, die Studenten im ersten Semester lernen, derartige Folgen nach sich ziehen kann. Die beschriebenen Fälle sind dabei nur wenige aus einer großen Zahl, die mir bekannt sind.

Was kümmert uns die Beleuchtung, wenn man nur den Schalter umdrehen muss, und gleich kommt Licht!

(Gesamtheit aller statistischen und methodischen Kniffe hier zu lesen)

Die Methode Wissenschaft, mit der man Wissenschaft verhindert – Ignorieren – die Patentlösung zum Ersten

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Die wirksamste Methode, die Wissenschaft zu behindern, besteht im Ignorieren. Man nimmt Erkenntnisse einfach nicht zur Kenntnis. Gemeint sind nicht die Fälle, wo geprüft und zu leicht befunden wird, sondern das bewusste Ignorieren. Dieses wird in zwei Arten praktiziert: passiv durch Nichtwahrnehmen und aktiv durch sinnlose Gegenstudien.

Als ich zu diesem Thema ein Beispiel aus der Praxis der Lichttechnik suchte, fielen mir lauter Beispiele ein, bei denen die Lichttechnik eher Opfer, denn Täter war. Deutlicher gesagt, ich musste für mehrere Jahrzehnte dafür kämpfen, dass die Erkenntnisse meines allerwichtigsten Forschungsprojekts bei Computerfirmen und Gerätedesignern Akzeptanz fanden. Die Erkenntnisse stammten hauptsächlich aus dem Bereich der Lichttechnik und wurden von Ergonomen und Arbeitsschützern gerne aufgenommen. Die Computerfirmen behaupteten hingegen immer wieder, es gäbe keine Literatur, die meine Erkenntnisse unterstütze. Da half nicht, dass man gleich eine Reihe Studien zitieren konnte. Wenn es nicht passt, wird eben ein ganzes Fachgebiet ignoriert.

Wenn die Sache aber bedeutsam scheint, reagiert man mit Gegenstudien, die ganz raffiniert von sogar renommierten Wissenschaftlern erstellt werden. Diese wissen manchmal nicht, wem sie da dienen. In den meisten Fällen aber stellen diese ihre methodischen Fähigkeiten denen zur Verfügung, die unliebsame Erkenntnisse loswerden wollen. Nicht ganz kostenlos.

Jemand, dessen Institution diesbezügliche Attacken seit fast einem Jahrhundert erleiden musste, Linda Rosenstock, die Präsidentin der US-amerikanischen Arbeitsschutzbehörde NIOSH, hat die Methoden wunderbar dokumentiert (in: Contributions to the History of Occupational and Environmental Protection, Antonio Grieco, Sergio Iavicoli and Giovani Berlinguer, Elsevier Science, ISBN 0 4445 0255 6, pdf zum Download hier) Dabei war das Aufhalten des Verbots von Asbest über 100 Jahre nicht mal das Schlimmste. Schlimmer noch ist die systematische Instrumentalisierung der Wissenschaft, um Wissen zu unterdrücken. Das ist das aktive Vorgehen, mit dem ich anfange.

In meiner Dissertation hatte ich nachgewiesen, dass die psychologische Blendung in der Sportstättenbeleuchtung keine Rolle spielte, wie sie in der Lichttechnik betrachtet wurde. Bemühungen, diese zu vermeiden, würden sogar dazu führen, dass sich die Fußballspieler stärker geblendet fühlten. Und dies hatte ich nicht nur mit den Stimmen von 70% der Profis der ersten Bundesliga belegt, sondern auch mit Berechnungen, gegen die niemand etwas sagen konnte. Das war kein Gefühl, sie sahen schlechter.

Das lichttechnische Wissen von damals sagte, um die Blendung durch die Scheinwerfer zu reduzieren, müsse man die Umgebung heller machen. (Diese Weisheit gilt immer noch, aber nicht immer.) Außerdem würden die Unterschiede der Leuchtdichte des Feldes und der Tribünen Ermüdung bei den Zuschauern und Spielern hervorrufen. Deswegen müssten die Tribünen beleuchtet werden wie das Feld. Beides stand in einer LiTG-Publikation herausgegeben von dem zuständigen Technisch-Wissenschaftlichen Ausschuss des Vereins. (LiTG-Fachausschuß „Sportstättenbeleuchtung". Beleuchtung von Sportstätten für das Farbfernsehen. LICHTTECHNIK 20 (1969) Nr. 11, S. 125 A.)

Weder damals noch heute konnte aber jemand Ermüdung bestimmen. Also war die Behauptung aus der Luft gegriffen. Zudem sagte die anwendbare lichttechnische Regel nicht aus, dass alles die gleiche Helligkeit haben müsse, sondern dass das Sehobjekt (hier das Feld) nicht heller sein soll, als der dreifachen Leuchtdichte der Umgebung entspricht. Die weitere Umgebung kann etwa um den Faktor 10 in der Helligkeit abfallen. Die Faustregel ist als solche seit den 1940ern bekannt als 10:3:1-Regel. Sie muss aber in den 1920ern bewusst geworden sein, z.B. Leffingwell (hier: Die unausgewogene Leuchtdichteverteilung oder wie eine Technik ihre Reputation verlor).

Die Regel darf aber nicht dazu verwendet werden, um schlechtere Sehverhältnisse herzustellen. Und diese wurden tatsächlich von den Fußballern beanstandet, weil hell beleuchtete Tribünen den Ball teilweise unsichtbar machen können. Dies kann man fotografisch nachweisen und auch berechnen. Die helle Tribüne sieht insbesondere bei Regen wie ein bunt geschecktes Fell aus, vor dem der Ball mal einen Kontrast hat und mal nicht. Wenn msn seine Flugbahn verfolgt, sieht er aus, als ob er hüpft. Der Effekt lässt sich mit einfachen Mitteln nachbilden.

Hinzukommt, dass die Beleuchtung mit Hochdrucklampen betrieben wurde, deren Licht nicht überall im Raum über dem Stadion ständig leuchtet. Bei der Olympiade in München 1972 hatten viele Sportfotografen schwarze Fotos bei 4000 lx geschossen, weil das Licht für Sekundenbruchteile wegbleibt. Die Kameras schossen aber mit 1/1000 bis 1/4000 Sekunden. Der unwiderlegbare Beweis des Effekts ist dieser Ball, der in sich scheckig ist, damit ein Stück von ihm immer Kontrast hat. Mittlerweile gibt es ihn nicht mehr, weil die Beleuchtung besser geworden ist.

So habe ich empfohlen, die Tribünen möglichst nur mit Streulicht zu beleuchten und relativ dunkel zu lassen. Dies würde den Zuschauern wie den Spielern zugutekommen und dazu die Kosten gewaltig reduzieren, weil die Beleuchtung der Tribünen eingespart wird. So wird es heute auch gemacht.

Das war der Firma Philips, damals Wortführer in der Normung, zu viel. Sie beauftragte einen Doktoranden, die psychologische Blendung bei Sportstätten zu untersuchen. Mein Doktorvater, einer der führenden Köpfe der Lichttechnik, schrieb die Firma an und empfahl, die Arbeit nicht zu beginnen, weil diese Art Blendung nachgewiesenermaßen irrelevant wäre. Die Firma ignorierte die Warnung wortlos. Der Doktorand sollte später höhere Weihen erklimmen und wurde Professor und sogar CIE-Präsident und bekam einen Lifetime Award für seine Forschung, der noch später nach ihm benannt wurde. Die KI liefert mehrere Dutzend Publikationen unter seinem Namen, in Google Scholar umfassen seine Publikationen mehr als zehn Seiten. Aber über seine Dissertation konnte ich nichts finden.

Als hochdekorierter Experte durfte er 2009 eine Keynote-Rede vor einem europäischen Kongress halten, die zukünftige „heiße“ Fragen der Lichttechnik thematisierte (Lux Europa, 2009). Er nannte dazu drei Aspekte. Hiervon war der erste Aspekt psychologische Blendung. (Lighting tomorrow: what’s hot: „For indoor lighting, the UGR system is used for glare evaluation. The empirical research from both USA and Europe, on which the UGR system is based, dates mainly back to the late fifties and early sixties of last century (e.g. Luckiesh, Hopkinson, Guth, Sollner, Bodmann, Fischer)). Ignorieren lohnt sich also doch nicht.

Einen schlimmeren Fall erlebte ich mit einem Computerhersteller, der ein Prüfzeichen für einen Laptop bekommen wollte. Für das deutsche Prüfzeichen (GS = geprüfte Sicherheit) musste er einen matten Monitor nachweisen. Das schwedische Zeichen (TCO) bekam man ohne diesen auch nicht. Beides aus gutem Grund. Danach sollten wir beauftragt werden, nachzuweisen, dass der Monitor nicht glänzt. Dieser war aber absichtlich glänzend gemacht worden. So bot ich an, man solle nicht versuchen nachzuweisen, dass der Monitor nicht glänze, sondern dass der Glanz nicht störe, weil die Nutzer auch etwas Positives darin sähen. Aber dass Glänzendes nicht glänze, könne man nicht nachweisen. Kann man das?

Dieses Kunststück brachte ein Institut der Universität Loughborough fertig. Allerdings erfolglos. Denn beim zuständigen deutschen Ausschuss war der Vorgang bekannt. Und die Verantwortlichen der TCO weigerten sich, das Gutachten in Kenntnis zu nehmen.

Das Papier war zwar zwecklos, verschwand aber nicht, wo es hingehörte. Es wurde in einem wissenschaftlichen Journal eines der vier größten Verlage der Welt publiziert und gilt seitdem als seriöse Quelle. Die Autoren hatten allerdings „vergessen“, den Sponsor der Arbeit zu nennen. Eigentlich ein Grund, die Publikation zurückzuziehen. Für uns war der Auftraggeber erledigt. Wir für den auch.

Etwa 10 Jahre danach wurde das Papier für einen internationalen Normungsantrag als Beleg eingereicht. Wissenschaftliche Studien der Universität Loughborough hätten gezeigt, dass … Als ich dagegen Einspruch einlegte, fragte der zuständige Leiter der zuständigen Kommission, ob ich zu einem Protest befugt sei. Ein Drang zur Wahrheitsfindung sieht anders aus.

Hier könnte eine lange Liste von Versuchen folgen, eine eindeutige Sachlage zu ignorieren und trotzdem eine angebliche Erkenntnis durchzusetzen, die den eigenen Interessen besser passt. Es gibt Wissenschaftler, die sich für solche Zwecke anheuern lassen, die auf Englisch hired guns genannt werden, also Auftragskiller. Sie bringen niemanden um, nur die Wahrheit. Bei der modernsten Art braucht man keine Wissenschaftler mehr, sondern nur zu diesem Zweck gegründete Verlage, die Bücher und Zeitschriften herausgeben und Kongresse veranstalten. Alles auf dem Papier, Pardon, im Netz. Eine (nicht vollständige) Liste heißt Beal's List of Potential Predatory Journals and Publishers (hier)

(Gesamtheit aller statistischen und methodischen Kniffe hier zu lesen)

Die Methode Wissenschaft, mit der man Wissenschaft verhindert – zum Dritten: SHARKing

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Die Meister des HARKing sind aber solche, die sich ebenso in SHARKing auskennen. Das ist das Entfernen einer Hypothese, nachdem man weiß, dass kein positives Ergebnis (also nach p-hacking) herausgekommen ist. Die Hypothese verschwindet ganz leise. Und niemand merkt es, weil niemand ihr nachweint.

SHARKing steht im allgemeinen Sprachgebrauch für aggressives, unfaires Verhalten und stammt aus dem Pool-Billard. Das Wort wird auch bei sexuellen Missbrauchsfällen angewendet. Bei wissenschaftlichen Studien wird die Methode häufig angewendet, um das Bekanntwerden peinlicher Resultate zu vermeiden. Eigentlich gibt es in der Methodenlehre keine peinlichen Resultate. Wenn eine Studie methodisch richtig angelegt und durchgeführt wird, ist das Ergebnis gleichgültig. Peinlich ist nur das Unterdrücken davon, denn von nichts lernt die Wissenschaft besser als von Fehlern. Dass eine Studie verschwindet, kommt einer Fälschung gleich. Leider sind auch Forschende Menschen und wollen nicht ständig erfolglos geforscht haben. Deswegen dürfte SHARKING viel weiter verbreitet sein, als man wahrnehmen will.

In der Lichttechnik soll sogar ein komplettes Projekt so verschwunden sein. Es hieß PLACAR und sollte dazu dienen, Lampen zu entwickeln, die die melanopische Wirkung von Licht unterstützen täten. Das Projekt wurde von den Größten der Branche initiiert, vom Forschungsminister finanziert und ist… unauffindbar! Es sollte einem Dilemma nicht nur der Lichttechnik abhelfen: der (behaupteten) kanzerogenen Wirkung der nächtlichen Beleuchtung.

Wie in der Literatur seit etwa Mitte 1985 belegt, steht Licht in einer nachweisbaren Beziehung zur Entstehung und Fortentwicklung von Krebserkrankungen. Wer mehr wissen will, kann unter dem Suchwort ALAN (artificial light at night) oder LAN (light at night) viele Quellen finden (hier). Frühere Studien haben gezeigt, dass die Häufung von Krebserkrankungen nördlich wie südlich des Äquators ähnlich zunehmen.

Die Beziehung der Krebsentwicklung zur Beleuchtung wurde für die Lichttechnik relevant, als die WHO, die Weltgesundheitsorganisation, Nachtarbeit im Jahr 2007 als „wahrscheinlich karzinogen“ einstufte. Eine Begründung dafür beruht auf der Wirkung des nächtlichen Lichtes auf die Entwicklung des Melatonin im Blut, die durch die Beleuchtung gehemmt wird. Da der Stoff als Krebszellenfänger gilt, liegt es nahe, dass sein Fehlen im Blut die Entstehung von Krebserkrankungen fördert. Tatsächlich gibt es Studien, die dies belegen (Al-Naggar, R. A., & Anil, S. (2016). Artificial Light at Night and Cancer: Global Study. Asian Pacific Journal of Cancer Prevention: APJCP) (Weiteres wird in dem internationalen Standard ISO/TR 9241-610 - Impact of light and lighting on users of interactive systems ausführlich dargelegt). Eine komplette Dokumentation zur Nachtarbeit bietet die WHO hier an.

In der Lichttechnik war das Entsetzen aus zwei Gründen groß: Zum einen hatte man versucht, mit viel Licht in der Nacht die Leistung von Arbeitern zu erhöhen. Dazu gab es eine großangelegte Studie in einem VW-Werk, nach deren Ergebnissen man die Arbeit in der Nacht mit 2000 lx sicherer machen würde. Zum anderen aber möchte kein Unternehmer Produkte verkaufen, die der Gesundheit schaden. Gerade die Lichttechnik fühlte sich betroffen, weil sie immer behauptete, Beleuchtung diene der Sicherheit und Gesundheit bei der Arbeit. Und nun das!

Da man weder die Nachtarbeit verbieten kann noch auf die Beleuchtung verzichten, wurde nach einer Lösung gesucht, bei der die Beleuchtung das Sehen fördert, aber keine anderen physiologischen Wirkungen entfaltet, also das Melatonin im Blut nicht beeinflusst.

Die Lösung hieß PLACAR. PLACAR steht für „Plasma LAmpen für CirCAdiane Rhythmen“. Diese Lampen sollten den natürlichen Tag-Nacht-Rhythmus unterstützen. Zu Beginn sah es sehr gut aus für das Vorhaben: „Ein Fernziel der PLACAR-Forscher ist es unter anderem, die Voraussetzungen zu schaffen, um die derzeitigen Lichtquellen zumindest teilweise durch intelligente Lichtquellen bzw. Beleuchtungssysteme zu ersetzen, die in Abhängigkeit von der Tageszeit unterschiedliche Lichtspektren mit unterschiedlichen Intensitäten aussenden. Bereits zur Halbzeit, dem sogenannten 1. Meilenstein, des dreijährigen Projektes konnten nun sehr gute Ergebnisse präsentiert werden.“[https://www.scinexx.de/news/technik/intelligentes-licht-macht-muede/]. Im Buch wird dem Thema ein ganzes Kapitel gewidmet, weil Planar die letzte Plasmalampe sein wird, die je entwickelt wurde (hier).

Es existiert nach einem Forschungsprojekt mit einer Laufzeit über mehr als drei Jahre ein dürfter Abschlussbericht von 12 Seiten. Darin wird ausgeführt, man habe eine „Morgenlampe“ entwickeln wollen. Diese sollte eine Hochdrucklampe sein, die bläulicheres „Morgenlicht“ produzieren sollte. Die Lampe ändere aber während der Brenndauer ihr Spektrum und müsse noch daher weiterentwickelt werden. Eine Natriumdampfhochdrucklampe, die Nachtlampe, sollte noch weiterentwickelt werden, um einen Farbwiedergabeindex von 80 statt von 20 zu erreichen. Der Bericht endet mit dem Statement: „Erst bei den letzten, zeitaufwendigen Untersuchungen des Langzeitverhaltens wurden eine deutliche Lichtstromabnahme und eine Farbdrift von Blau zu Gelb bei der „Morgenlampe“ verzeichnet. Um dies noch korrigieren zu können und um mehr Sicherheit bei den Aussagen zum Langzeitverhalten der „Abendlampe“ zu erhalten, wurde die Bearbeitungszeit um 5 Monate verlängert.“ In Klartext: Die Lampe alterte zu schnell. Übrigens keine Seltenheit bei Leuchtmitteln, die Natrium enthalten, einem äußerst aggressiven Element.

Typischer Fall von SHARKing. Die Hypothese, man könne eine Lampe entwickeln, die die biologischen Wirkungen von Licht (zu wenig Licht am Morgen = fehlende Aktivierung + zu viel Licht am Abend = Entstehung von Krebs, schlechter Schlaf) mit einem Schlag ins Positive wenden würde, konnte nicht so einfach begraben werden. Also musste sie verschwinden. Der Ehrlichkeit halber muss ich aber erwähnen, dass dieses Projekt nicht das Größte war, das ganz leise verschwunden ist. Es war das Projekt 5th Generation of Computers von Japan.[hier]

Im Übrigen bedeutet für echte Wissenschaftler ein Fehlschlag der hier erläuterten Art überhaupt kein Problem. Denn Forschen heißt lernen. Und gelernt hat man ja.

Am Ende haben sich die Wissenschaftler, denen wir die Erkenntnisse in der Chronobiologie verdanken, relativ unfair aus der Affäre gezogen. Die führenden Forschenden des Fachs zogen eine Bilanz ihrer Studien hinsichtlich der nicht-visuellen Wirkungen des Lichts (Brown T., Brainard G., Cajochen C., Czeisler C., Hanifin J., Lockley S. et al. (2021). Recommendations for Healthy Daytime, Evening, and Night-Time Indoor Light Exposure) und empfahlen, die nächtliche Beleuchtung ab 19 Uhr drastisch zu reduzieren. Künstliche Beleuchtung am Tage soll hingegen etwa um den Faktor 3 bis 5 erhöht werden, ab 23 Uhr soll aber Dunkelheit herrschen.

Zu guter Letzt liegen die Werte, die abends und nachts gelten unter der Wirkung eines normalen Monitors. Denn nicht nur die Beleuchtung verschiebt circadiane Rhythmen, sondern Bildschirme ebenso.

Empfohleme minimale und maximale Beleuchtung in  MEDI <30 Jahre ∼50 Jahre >75 Jahre
Tag (7 Uhr–19 Uhr) 250 300 ≥ 425
Abend (19 Uhr –23 Uhr) ≤ 10 ≤ 12 ≤ 17
Nachts (23 Uhr–7 Uhr) ≤ 1 ≤ 2

(MEDI bedeutet melanopic equivalent daylight illuminance, was übersetzt „melanopisch äquivalente Tageslichtbeleuchtungsstärke“. MEDI bewertet eine biologische Wirkung des Lichts auf den menschlichen Körper. Dabei wird die Produktion von Melatonin beeinflusst und der menschliche Biorhythmus gesteuert. Die Umrechnung stelle ich hier dar. )

(Gesamtheit aller statistischen Kniffe hier zu lesen)

Die Methode Wissenschaft, mit der man Wissenschaft verhindert – zum Zwoten: HARKing

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

HARKing steht für Hypothesizing After the Results are Known, also Hypothesen aufstellen, nachdem man die Ergebnisse kennt. Es geht etwa so: Man befragt eine Zahl Menschen über alles Mögliche, rechnet alle Beziehungen zwischen den Antworten aus, z.B. als Korrelationen. Wenn man eine hinreichend große Korrelation gefunden hat, stellt man die passende Hypothese auf. Siehe da, man kann sie empirisch belegen. So kommen etwa Ergebnisse wie die Wirkung des rechtsdrehenden Wassers zusammen. Aus meiner Kindheit habe ich noch solche Aussagen im Gedächtnis wie diese: amerikanischen Psychologen ist der Nachweis gelungen, dass der Kaffee besser schmeckt, wenn man den Zucker rechtsherum rührt. Den empirischen Beweis hat man schon vorher errechnet. Mit solchen Methoden hat man immer die richtige Hypothese.

Seriöse wissenschaftliche Studien beginnen hingegen stets mit der Definition einer vernünftigen Hypothese, der Forschungsfrage. Wenn man die Meinung von wirklich großen Forschenden wie Albert Einstein dazu hört, hat man bereits mit der Formulierung einer Hypothese die größte Hürde zur Erkenntnisgewinnung genommen. „Fragen sind aller Erkenntnis Anfang“ oder „Fragen sind die Wiege der Weisheit“, so hören sich manche Weisheiten an, die normale Menschen formuliert haben. Aber auch die Großen der Kulturgeschichte wissen Antwort zu geben: „Dem guten Frager ist schon halb geantwortet.“ (Friedrich Nietzsche) oder „Ob ein Mensch klug ist, erkennt man an seinen Antworten. Ob ein Mensch weise ist, erkennt man an seinen Fragen.“ (Nagib Mahfuz).

Ein besonders auffälliges Beispiel für HARKING hat ein Hamburger Professor für Psychiatrie geliefert. Er stellte fest, dass man unruhige Kinder mit blauem Licht ruhigstellen kann. Zudem werden die Kinder, jedenfalls nach seiner Studie, um 44% aufmerksamer. Die Studie passte unheimlich gut in die Zeit. Erstens war die Sache mit dem Ruhigstellen schon seit 1973 durch einen gewissen John Ott aus den USA bekannt. Zweitens gab es ab 2008 Fördermittel für die Industrie, weil wir eine Wirtschaftskrise hatten. Mal sehen, was man aus einem Versuch noch alles herausholen kann. Es sollten 1000 Grundschulklassen mit dynamischem Licht beleuchtet werden.

So kam es zu der Sache mit Untersuchung der Aufmerksamkeit. In drei Schulen wurden Kinder unter „dynamisches“ blaues Licht gesetzt, wobei sie einen Aufmerksamkeitsbelastungstest ausführten. Dieser Test, d2-Test, ist zwar von seinem Autor Brickenkamp für den sog. Idiotentest für den TÜV erstellt worden. Wer wird denn schon wissen, dass er nicht für Kinder validiert ist. Zudem hat er einen gewaltigen Mangel für den diesmal vorgesehenen Zweck: Der d2-Test ist bekannt für seine Anfälligkeit bei Wiederholungen. Beim TÜV absolvierte man den nur einmal. Bei dem fraglichen Versuch mussten die Kinder zweimal denselben Test absolvieren, um eben den Unterschied von 44% zu dokumentieren.

Heureka! Die Kinder waren eben 44% aufmerksamer durch das Licht geworden. Und msn kann die Wirkung präzise ein- und ausschalten, wie das untere Bild zeigt. Dazu erklärte der Professor in einer Fernsehsendung, die Wirkung wäre wie beim Trinken einer Tasse Espresso.

Dumm nur, dass Kleinkinder keinen Espresso trinken dürfen. Und dass eine solche Wirkung vermutlich nur durch die Beeinflussung der Hormone der Kinder erzielt werden kann. (Den ganzen Vorgang haben wir seit 2009 ausführlich dokumentiert, z.B. hier KINDER ALS VERSUCHSOBJEKT und KINDER ALS VERSUCHSOBJEKT - RELOADED und KINDER ALS VERSUCHSOBJEKT NOCH EINMAL und BLAULICHT IN HH - AD ACTA? NICHT DOCH!). Dazu erklärte der Professor in einer von uns erzwungenen Anhörung, dass ihm die hormonelle Wirkung unbekannt sei. Zudem hält er auch die Wirkungen von Licht bei Erwachsenen (Lichttherapie) für unmöglich. Er hätte nur die Wirkung vom blauen dynamischen Licht auf Kinder testen wollen. Und siehe da, die Kinder waren schlauer und ruhiger geworden. Nur mal so.

Die Presse hatte die Sache frühzeitig begierig aufgenommen und sprach von "Blau macht schlau" und ähnlichem Unsinn.

Und wie geht das bitte?

Immerhin hat diese Studie es in die wissenschaftliche Literatur und in einen Normenentwurf geschafft. Dass man Kinder buchstäblich per Knopfdruck aktivieren oder beruhigen kann, wurde sogar in einer Fernsehshow „Die große Show der Naturwunder“ vom ARD präsentiert. Ein Triumph des HARKing! Und hier ist der Emotionswähler, den sich die Lehrerschaft gewünscht hatte.

HARKing ist eine gängige Methode. Hat man einmal festgestellt, dass man bestimmte Fragen „signifikant“ testen kann, ermittelt man neue Erkenntnisse schneller, als andere denken können. Man kann dem Auftraggeber ein Ergebnis völlig legal vorab garantieren und die Studie nachschieben. Wie diese todsicher gelingt, lässt sich im Voraus berechnen.

Der allergrößte Anteil der Studien, die ihre Erkenntnisse über HARKing gewinnen, wird aber von Forschenden ausgeführt, denen ihr Vorgehen nicht einmal bewusst ist. Man stößt zufällig auf Gemeinsamkeiten und erklärt diese mit einer geeigneten Studie.

(Gesamtheit aller statistischen Kniffe hier zu lesen)

Die Methode Wissenschaft, mit der man Wissenschaft verhindert – zum Ersten

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

In diesem Beitrag stelle ich eine Methode vor, die in allen Wissenschaften bewusst oder unbewusst angewendet wird und zu fehlerhaften Erkenntnissen führt. Später werde ich weitere Methoden erläutern, die alle mit der Statistik zusammenhängen. Am Ende zeige ich auf, wie die Methode in einer lebenswichtigen Frage angewendet wurde: Nicht-visuelle Wirkungen des Lichts. Diese betreffen Wirkungen, die von einer Unannehmlichkeit bis hin zu Krebsanfälligkeit reichen. Die Skala der Probleme und medizinischer Wirkungen wird hier behandelt.

Die Methode wird, leicht scherzhaft, P-Hacking genannt. P steht für Wahrscheinlichkeit, Hacking für das Bestreben, in einer Studie eine Hürde für die statistische Signifikanz zu nehmen. Deswegen heißt die Methode auch Signifikanzwahn. Ein Ergebnis wird nach der Konvention als bedeutsam anerkannt, wenn die Irrtumswahrscheinlichkeit unter 5% liegt oder p ≤0,05 beträgt. Geringere Irrtumswahrscheinlichkeiten, p≤0,01 oder p≤0,001, gelten als noch sicherer.

Dabei kann es vollkommen irrelevant sein, z.B. wenn es beispielsweise mit einer sehr hohen Zahl von Probanden ermittelt wurde. So beträgt die signifikante Differenz zwischen zwei Gruppen mit einer Stärke von 1000 Personen auf einer 5-stelligen Skala und einer Streuung von 1 ganze 0,0876. Man hätte Schwierigkeiten, die Differenz einzuzeichnen. Aber der Forschende will ein signifikantes Ergebnis vorweisen. Dabei ist dies wissenschaftlich vollkommen egal, denn dort kommt es auf eine saubere Methodik an und nicht auf ein Ergebnis, das auf wackeligen Füßen steht.

Der P-Hacker führt z.B. eine Reihe von Versuchen durch und sucht sich daraus die passenden Ergebnisse aus. So kann man z.B. nachweisen, dass zwischen dem Käseverzehr beim Frühstück und Strangulieren durch Bettlaken in der Nacht zuvor eine signifikante Beziehung existiert. Signifikant, aber sonst???

Würden solche Dinge nur ungeübten Anfängern passieren, könnte man gut damit leben. Leider unterlaufen selbst wichtigen Gremien, die sehr bedeutsame Fragen beurteilen, fatale Fehler wie folgender. Es geht um die Nachtarbeit, eine der Geißeln der Zivilisation. Ausgewiesene Experten der Nacht- und Schichtarbeit haben 2020 eine Leitlinie für Nacht und Schichtarbeit [hier] herausgearbeitet, in der eine unumstößliche Erkenntnis verkündet wird: „Eine Querschnittstudie (n=430) von Violanti et al. (2012) kommt zu dem Ergebnis, dass das Verletzungsrisiko bei Polizisten und Polizistinnen in der Nachtschicht 1,7-mal höher ist als die Verletzungsgefahr in der Tagschicht (IRR 1,72; 95%KI 1,26–2,36, p<0,001) …“ Irrtum nur in 0,1 % der Fälle möglich. Gut gehackt? Sehr gut sogar, denn IRR = 1,72 bedeutet etwa „Das Ergebnis hängt nicht davon ab, wer die Messung oder Bewertung vornimmt. Die Messung ist objektiv und zuverlässig.“

Wie soll man sich aber das Ergebnis erklären? Ob die Polizist:innen nachts die Brötchen anders schmieren als zum Frühstück? Oder wie verletzen sie sich überhaupt? Da diese Arbeitsmedizinische Leitlinie dazu helfen soll, die gesundheitlichen Folgen der Schichtarbeit zu vermeiden oder wenigstens zu mildern, wäre es doch nicht schlecht zu wissen, was zu einer häufigeren Verletzung von Polizist:innen in der Nacht führt. Der Laie kennt die Gründe bestens, der Fachmann tappt im Dunkeln. Die Polizeioberen müssen sich einen Reim darauf machen. Ob die nur darauf gewartet haben, dass Mediziner ihnen erklären, warum ihr Personal nachts höher gefährdet ist als tagsüber?

Mit einer ähnlichen Groteske wartet eine Studie auf, die in einer Tiroler Klinik durchgeführt wurde, um die Bedeutung von HCL (Human Centric Lighting) nachzuweisen. Es wurde gezeigt, dass bei Anwendung dieser Beleuchtung Patienten einer gerontopsychiatrischen Station eines Tiroler Krankenhauses weniger lange fixiert werden müssen. Es wurde studiert, wie häufig der Patient nach einem Sturz ansprechbar war und wie häufig dieser fixiert werden musste. Signifikant also. Damit das Ergebnis auch jeder glaubt, finden sich auch Diagramme in der Publikation, die das Geschehen in zahlenmäßige Relationen bringen.

Das Bild will zeigen, wie sich die betrachteten Fälle (was 3000 bedeuten steht leider nicht im Original) über 24 Stunden unterschiedlich je nach Art der Beleuchtung entwickeln.

Das Projekt sollte übrigens auch dazu dienen, eine Wissensbasis zu erstellen, wie dynamische Lichtsysteme in psychiatrischen Anstalten nicht-visuell wirken. Was sucht dies aber in der lichttechnischen Literatur? Ob die Studie vom  Marketing für Leuchten bezahlt worden ist? Der Verdacht lässt sich nicht von der Hand weisen, denn dynamisches Licht bedeutet, dass man zu den Lampen wesentlich teurere Steuergeräte verkauft.

Die besagte Studie ist eine von vielen, die herangezogen wurden, um einen internationalen Standard zu erstellen, der eine neue Beleuchtung für Arbeitsplätze rechtfertigen soll: integrative Beleuchtung (zu dieser Beleuchtung mehr hier) Es wurden Studien zusammengestellt, die sich wie folgt verteilen. Hier eine Auflistung der Quellen nach Thema:

  • Therapie: 3 Objekte, davon eines Delirium
  • Krebsrisiko: 3 Objekte
  • Demenz: 4 Objekte
  • Lernerfolg: 3 Objekte
  • Hormonforschung: 2 Objekte
  • Gemütszustände: 6 Objekte
  • Schlaf und Schläfrigkeit: 21 Objekte (von insgesamt 63)
  • Gesundheit: 10 Objekte (im Titel oder Publikationsorgan)

Alle diese Publikationen haben Signifikantes dieser oder jener Art ergeben. Was sagen sie aber zur Beleuchtung von Arbeitsplätzen aus?  Hier hört das P-Hacken auf und der Ernst des Lebens an. Man muss nachweisen, dass ein statistisch signifikantes Ergebnis bedeutsam ist (Relevanznachweis). Dann kommt der wesentlich schwierigere Teil, die Validation. Darf man aus einer Studie, die nachweist, dass eine dynamische Beleuchtung die Demenz verhindert, Konsequenzen für die Beleuchtung von Schulen oder Arbeitsplätzen ziehen?

Gewöhnlich hört der P-Hacker auf, wenn er gezeigt hat, dass Menschen auf dynamisches Licht – positiv – reagieren. Statistisch gesehen ... Später liest sich das abgeleitete Ergebnis etwa so an: „Integrative Beleuchtung kann ... die Leistungsfähigkeit in den nachfolgenden Tagen positiv beeinflussen.“ … wie aus 212 angeführten Studien ersichtlich. (aus ISO/TR 21783 Light and lighting — Integrative lighting — Non-visual effects (Licht und Beleuchtung – Integrative Beleuchtung – Nicht-visuelle Effekte), übersetzt vom Autor)

Dass die 212 Studien mit signifikanten Ergebnissen, auf denen die Aussagen von ISO/TR 21783 beruhten und beruhen, bei der Überarbeitung um 183 reduziert wurden, steht nirgendwo geschrieben. Man hat zudem 34 Neue hinzugezogen, aber wie durch ein Wunder blieben alle Aussagen erhalten. Das Letztere traut sich auch der P-Hacker nicht, er pickt nur Passendes zusammen. Es ist eine andere Geschichte, die getrennt erzählt werden muss.

(Gesamtheit aller statistischen Kniffe hier zu lesen)

Gefahren durch eine Grundgröße, die kaum jemand versteht

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Die Lichttechnik hat zwei Größen, die in keiner anderen Technik oder Wissenschaft vorkommen: den Raumwinkel und die Leuchtdichte. Den Ersteren erkläre ich wo anders. Wichtiger ist die Leuchtdichte, weil sie die Grundlage des Sehens bildet.

Wenn Ihnen Unangenehmes oder zuweilen Lebensgefährliches widerfährt, kann es durch ein mangelndes Verständnis dieser Größe bei Fachleuten oder dem Gesetzgeber handeln:

  • Sie können nicht schlafen, weil der Nachbar aus dem nächsten Haus mit einer legal erworbenen Lampe in Ihr Schlafzimmer leuchtet, obwohl das Bundesimmissionsgesetz Sie davor schützen will
  • Während einer Autofahrt an einem sonnigen Tag überfahren Sie ein Kind, das hinter einem Radfahrer die Straße überquert. Kein Richter glaubt Ihnen, dass Sie haben nichts sehen können
  • Auf der Autobahn verfolgt Sie ein Fahrzeug, dessen amtlich zugelassenen Lichter stark genug scheinen, um Sie wegbeamen zu können.

 

Das alles und noch mehr ist möglich, weil die Leuchtdichte nicht oder falsch verstanden wird. Ihre Rolle bei der Blendung, die uns bei der Arbeit quält, hatte ich anderswo beschrieben (Beim ersten Ziel schon die Zähne ausgebissen)

Konsequenterweise gehört die Leuchtdichte in die Liste der internationalen Basiseinheiten (SI-Einheiten). Da die CIE aber aus einem Messverein entstanden war, nimmt diese Rolle die Lichtstärke ein. Sie ist eine der 7 wichtigen physikalischen Basiseinheiten. Wobei das Wort physikalisch nur halb stimmt. Sie leitet sich von der physikalischen Strahlstärke ab und wird daraus berechnet, indem man das jeweilige Licht mit der Augenempfindlichkeit bewertet. Die Lichtstärke konnte man als Erstes präzise messen und daher international normen.

Der Leuchtdichte hingegen entspricht keine physikalische Größe, obwohl sie mit physikalischen Geräten gemessen wird. Wer genau wissen will, was sie ist, muss sich durch eine lange Definition kämpfen – und versteht am Ende … nichts. Spaßeshalber habe ich deren Definition aus dem CIE-Wörterbuch der Lichttechnik kopiert. Da sie nicht auf einen 4K-Monitor passte, musste ich das Bild verkleinern. Leider gibt die CIE selbst die Definition nicht mehr auf Deutsch (link). Hier ist das Prachtstück

Diese wahnsinnig lange Definition ist leider nicht aus einer Unfähigkeit heraus entstanden. Sie ist der Komplexität der Größe zu verdanken. Fachleute wie Laien versuchen, sie erklärbar zu machen, und scheuen dabei keine Klimmzüge. Das älteste Bild, mit dem man sie erklären wollte, sieht aus wie hier.

Die Lampe der alten Dame beleuchtet den Tisch und erzeugt das, was ihr das Sehen ermöglicht: die Leuchtdichte. Da nicht nur alte Damen diese brauchen, gibt es die entsprechenden Bilder auch für andere. Ein Dutzend und mehr davon habe ich unter Wunder der Lichttechnik - Wie aus einer Grundgröße viele werden - kommentiert.

Dabei entstehen Bilder, die sogar schlechter verständlich sind als die Definition. Hier habe ich drei Beispiele zusammengestellt, die besonders lustig aussehen. Oben sieht man einen Mann mit Kravatte, dessen Lampe aus der Zeit stammt, als er noch im Blaumann arbeitete, gezeichnet von einer BG. Die beiden unteren stammen auch von einer BG, aber sind mit der Landwirtschaft verbunden. Das letzte Bildchen erklärte dem Bauern die Vorschriften für die Beleuchtung von Sauställen.

Links kommt ein Lichtstrom aus einer Lampe. Eigentlich hat er keine Richtung. Aber lassen wir das gelten. Dieser führt zu einer Beleuchtungsstärke. Eigentlich stellt das Oval keine Beleuchtungsstärke dar. Die ist nämlich gerichtet. Und daraus geht ein Strahl ins Auge des Schweins, der immer schmaler wird. Er sieht ähnlich aus wie der antike Lichtstrahl, der nach der damaligen Lehre vom Auge ausging und das Sehen ermöglichte. Wie dem auch sei, das Schwein sieht, wie die Kuh auch, nur dichromatisch, weil es nur zwei Farbempfänger im Auge hat. Menschen haben drei. Nur dafür kann eine Leuchtdichte berechnet werden. Für den Fall, dass sich Vogelliebhaber oder Aquarianer auch so ein Bild basteln: Vögel, Fische und Reptilien haben vier Farbempfänger im Auge.

Aber auch verbale Erklärungen sind mehr oder weniger falsch. So erzählt mancher, Leuchtdichte sei Helligkeit. Wer es genauer machen will, bezeichnet sie als Größe, die der Helligkeit entspricht. In Licht.de liest man gar Kluges: „Die Leuchtdichte (Kurzzeichen: L) kann vom Auge wahrgenommen werden. Sie bestimmt den Helligkeitseindruck einer Fläche, der von Farbe und Material abhängt. Sagen wir netterweise, ganz falsch ist diese Umschreibung nicht. Aber auch nicht richtig. Was soll ein Mensch unter einem Helligkeitseindruck verstehen, der vom Material abhängt? Was hat das Material mit der Helligkeit zu tun? Und mit Farbe?

Solche Missverständnisse und Ungenauigkeiten wären nur für Fachleute interessant und für andere gleichgültig oder erträglich, wenn sie nicht zu Situationen führen, die unangenehm bis gefährlich sind. Zunächst zu einem alltäglichen Ärgernis. Manche Nachbarn stellen in ihrem Garten Scheinwerfer auf und denken, dass das Licht schwächer werde, wenn es den Nachbarn trifft. Das tut es, wenn man im Schlafzimmer die Beleuchtungsstärke misst, wie das Bundes-Immissionsschutzgesetz (BImSchG) vorgibt. Die zulässigen Werte variieren stark je nach Gebietsart (z.B. reine Wohngebiete: 1 lx, Kerngebiete/Gewerbegebiete: 5 lx).

Zwar wird in diesem Zusammenhang auch die Leuchtdichte genannt. Aber nicht einmal Fachleute können diese messen. So gibt es auch keine Grenzwerte. Das Messproblem ist nicht einmal eine erstrangig wichtige Sache. Die Wichtigere ist das mangelhafte Verständnis der Wirkung: Die Leuchtdichte ist die Konstante in einem optischen Strahlengang. Sie nimmt in der Luft kaum ab. Ihre Wirkung besteht so lange praktisch unverändert, bis die leuchtende Fläche klein genug scheint. Deswegen stören Sterne am nächtlichen Himmel trotz einer hohen Leuchtdichte nicht. Erst wenn sie eine Mindestgröße erreichen, wird ihre Leuchtdichte allein wirksam (Riccosches Gesetz).

Das Bundesimmissionsschutzgesetz begrenzt die Beleuchtungsstärke am Ort der Störung. Diese ist proportional der Fläche des störenden Objektes und dessen Leuchtdichte. Und nimmt mit dem Quadrat der Entfernung vom strahlenden Objekt ab. Das ist das übliche Verständnis von der Ausbreitung von Licht oder Schall. Dass die Leuchtdichte mit zunehmender Entfernung nicht abnimmt, ist niemandem bewusst. Auch nicht, dass sie in die Blendungsberechnung mit dem Quadrat ihres Wertes eingeht.

Folgende Objekte erzeugen am Einfallsort exakt die gleiche Beleuchtungsstärke. Ihre Blendwirkung ist aber sehr unterschiedlich und steigt mit dem Quadrat der Fläche. Daher kann Ihr Nachbar Sie mit einer Lampe stören, ohne gegen das Gesetz zu verstoßen. Und er ahnt nichts davon.

(Bitte um Nachsicht für die Abbildung. Man kann auf einem Bildschirm nur eine etwa annähernde Wirkung simulieren.)

Echt gefährlich wird die Sache mit der Beleuchtung von Fahrzeugen. Da die Gefahr schon sehr früh bekannt war, wird deren Beleuchtung seit der Entstehung des motorisierten Verkehrs gesetzlich geregelt. In Deutschland waren die Vorschriften zur Fahrzeugbeleuchtung historisch in der Straßenverkehrs-Zulassungs-Ordnung (StVZO) verankert, die mehrmals neu gefasst wurde:

  • Beginn 20. Jahrhundert: Schon mit dem Aufkommen der ersten Kraftwagen wurden Beleuchtungsvorschriften erlassen, die zunächst oft auf einfache Öllampen oder Karbidlampen abzielten.
  • 1937: Die StVZO, die heute noch in Teilen gültig ist, enthielt detaillierte Regelungen zur Beleuchtung (§§ 49a - 54 StVZO).

Die StVZO enthält heute auch Vorschriften für die Beleuchtung von Fahrrädern. Da diese aber sehr schwache Lichtquellen waren, gibt es keine Prüfung wie bei den KfZ. Etwa jeder zweite Fehler, der bei KfZ-Prüfungen beanstandet wird, betrifft die Einstellung der Scheinwerfer, weil diese den Gegenverkehr blenden können. Bei Fahrrädern hingegen gibt es keine Prüfungen. Auch die Entwicklung von Fahrradbeleuchtung selbst wird kaum streng kontrolliert.

Das war auch nicht nötig, weil viele Beleuchtungen von Kleinrädern selbst in der Nacht kaum blendeten, weil sie einfach zu schwach waren. Zudem gingen sie aus, wenn das Fahrrad stand. Seit es LED-Lampen gibt, ist es aus mit den üblichen Eigenschaften. Da LEDs Leuchtdichten haben, die in die gleiche Größenordnung gehören wie die der Sonne, können Fahrradlichter einen bei Sonnenschein so blenden, dass man nichts mehr dahinter erkennen kann. (mehr unter Warum Autos so blenden)

Was ist der Kenntnisstand beim verantwortlichen Bundesministerium? Auf die kleine Anfrage der Abgeordneten zu „Gefahren im Straßenverkehr durch Blendeffekte von Leuchtdioden“ ließ er u.a. erklären: „Erkenntnisse über Gefahren, dass Fahrräder oder Motorräder mit Einzellicht durch Fahrzeuge mit ECE-genehmigten Tagfahrleuchten, die aus mehreren Einzeldioden bestehen, übersehen werden, sind nicht bekannt.“ (Drucksache 17/2307) (hier abrufbar. Anm.: Der Vorgang stammt zwar aus 2010, das Ministerium hat aber seit 1937 Manches nicht mehr gelernt)

Warum blenden dann die Scheinwerfer der Autos nicht, die viel größere Beleuchtungsstärken erzeugen? Um den Gegenverkehr nicht zu blenden, darf bei Fahrrädern die Beleuchtungsstärke bei 3,4 Grad oberhalb des hellsten Punktes des Lichtkegels 2 Lux nicht überschreiten. Aber Viele moderne, zugelassene LED-Fahrradscheinwerfer bieten heute Helligkeiten von 30 Lux, 50 Lux oder sogar über 100 Lux an, um eine bessere Sicht für den Fahrer zu gewährleisten.

Fahrradlampen sind sehr unterschiedlich befestigt, aber nur selten so unverrückbar wie bei Autos. Man kann die gleiche Lampe auf kleine oder große Fahrräder montieren und dazu noch frei ausrichten. Niemand kann sie kontrollieren, kaum einem Fahrer ist bewusst, dass sein Fahrrad stärker blendet als ein Auto.

Auch hier erfolgt die gesetzliche Regelung über die Beleuchtungsstärke, obwohl Fachleute schon immer wussten, dass die Blendung von der Leuchtdichte bestimmt wird.

Die letzte Aussage bedarf einer Korrektur, die allerdings entscheidend für die Zulassung von Fahrzeugbeleuchtungen ist. Lichttechniker aus Karlsruhe, wo auch die Zulassungsstelle für die Fahrzeugbeleuchtung sitzt, haben zwei unzulässige Aussagen bezüglich Blendung getroffen. Die Erste heißt: Maßgeblich für die Sicherheit des Straßenverkehrs ist die physiologische Blendung. Dies beruht auf der Vorstellung, dass man damit die Störung der Sehleistung messe. Daher wäre die psychologische Blendung im Straßenverkehr unbedeutsam. Mit dieser Vorstellung verwarf der Bundesminister eine Kleine Anfrage im Bundestag.

Während man schon lange mit dieser Vorstellung lebt, ist die zweite unzulässige Aussage der Grund für die Zulassung des sog. Dränglerlichts. Diese wurde vor 35 Jahren in der Form von Xenon-Lampen auf den Markt gebracht und hat ein sehr hohes Potenzial für die Blendung des Gegenverkehrs. Deswegen mussten diverse Maßnahmen vorgeschrieben werden, um die Blendung zu vermeiden, so eine automatische Leuchtweiteregelung und eine Scheinwerferwaschanlage, weil schon Staubpartikel auf dem Scheinwerfer ausreichen, um den Gegenverkehr zu blenden.

Die Einführung dieser sehr bedenklichen Technologie, deren Beherrschung immer noch schwer ist, wurde möglich durch folgende Aussage: Für die physiologische Blendung ist die Lichtstärke maßgeblich, für die psychologische Blendung die Leuchtdichte. Daher wurde gesetzlich die Lichtstärke begrenzt. Bis heute! Bei den alten Scheinwerfern war der Unterschied egal, nicht so bei Xenon- oder LED-Scheinwerfern. Um die Blendung (physiologisch) gleich zu halten, kann man bei halb so großen Scheinwerfern eine doppelte Leuchtdichte vorsehen, bei einem Zehntel der Fläche ist die zehnfache Leuchtdichte zulässig. Bei der psychologischen Blendung geht die Leuchtdichte mit dem Quadrat in die Berechnung ein. Daher der Begriff „Dränglerlicht“.

Das Thema ist "aktenkundig" und wurde z.B. bei Lux Junior 2013 vorgetragen. Fazit: "Der Beitrag zeigt, dass die aktuelle Bewertung lichttechnischer Komponenten im Automobilbereich nicht die tatsächlich resultierende Blendung erfasst. Die angeführten Literaturquellen in Verbindung mit den Ergebnissen aus durchgeführten Voruntersuchungen verdeutlichen, dass ein Scheinwerfer ein wesentlich höheres Blendpotential aufweisen kann, als durch die gesetzeskonforme Abnahme ermittelt wird."

Zu guter Letzt noch eine Beleuchtung, die die Sicherheit im Straßenverkehr erhöhen soll, aber nach Ansicht von Augenärzten das Gegenteil erreicht. Die Rede ist von Tagfahrlichtern. Diese sind seit Langem vorgeschrieben. Anders als die übliche Beleuchtung, die zum Sehen und Gesehenwerden dient, dienen Tagfahrlichter nur zum Gesehenwerden. Sie hängen vorn am Fahrzeug, damit es gesehen wird. Auch deren Licht wird gesetzlich über die Lichtstärke geregelt. Dummerweise hat die Lichtstärke selten etwas mit Sichtbarkeit zu tun. Dafür sorgen am besten die Farbe, die Größe oder die Leuchtdichte.

Bei Tagfahrlichtern gibt es so schlimme Exemplare, dass ich in meinem Arbeitszimmer im ersten Stock geblendet werde, wenn ein Auto auf uns zukommt. Die Lichter stören sogar am Tage sechs Meter über der Straße. Für die Blendung bestens sorgt wieder die Leuchtdichte der LED.

Auch dieser Effekt ist aktenkundig. Auf eine Anfrage von Abgeordneten (Drucksache 17/2042) antwortete der Verkehrsminister einst so: "Wissenschaftliche Erkenntnisse oder Forschungsberichte zur Blendung durch Tagfahrleuchten mit Leuchtdioden sind der Bundesregierung nicht bekannt. " (mehr hier) Dabei hatte Peter Heilig, Augenarzt, die Sache aus der Sicht eines Augenarztes dokumentiert (hier)

Eine Gruppe von Augenärzten hatte schon vor 10 Jahren Front gegen „zu helle“ Scheinwerfer gemacht, die man z.B. hier lesen kann. Dem Bundesverkehrsminister, der sich ahnungslos stellte, war die Sache aber schon bekannt. Die folgende Frage hat er nach der einstigen Kenntnislage nämlich so beantwortet:

„2. Wie bewertet es die Bundesregierung, dass sich zunehmend Verkehrsteilnehmer durch starke Lichteinwirkung von Leuchtdioden geblendet fühlen und dadurch im Straßenverkehr verunsichert werden?"

Antwort: "In der Wissenschaft wird unterschieden zwischen physiologischer und psychologischer Blendung. Die physiologische Blendung setzt die Sehleistung des Auges herab. Bei der psychologischen Blendung wird eine Blendungserhöhung empfunden, die nicht messbar und individuell verschieden ist. Verkehrsteilnehmer können sich geblendet fühlen, ohne dass dies zu einer verringerten Sehleistung führt.“

So antwortete der Bundesverkehrsminister am 28.06.2010. Nicht ganz wahrheitsgemäß. Die psychologische Blendung ist nach der Vorstellung der Industrie so gut messbar, dass sie Werte für ihre Leuchten (UGR-Wert) dreistellig angibt.

Und so wertete jemand, der sich schon sehr lange mit dem Problem beschäftigt hatte, Professor Stephan Völker, TU Berlin, am 11. September 2012 (Blendung – Ein Rückblick über 100 Jahre Forschung, Tagungsband Light 2012, 20. Gemeinschaftstagung LiTG, NSV, LtG, SLG): „Der vorliegende Beitrag zeigt, dass es möglich scheint, die vorhandenen Blendungsbewertungsmodelle auf ein Modell zurückzuführen. Zurzeit fehlen noch einige Einflussgrößen, welche aber bereits in Kürze vorliegen dürften. Diese müssen anschließend für alle Anwendungsfälle (Innen-, Außen-, Kfz-, Sportstättenbeleuchtung, etc.) validiert werden.“

Kurz gesagt: Die Vorstellung von zwei unterschiedlichen Arten der Blendung kann nicht mehr aufrechterhalten werden. Man kann ein neues Verfahren finden. Dieses muss danach validiert werden. D.h., die jetzige Vorstellung ist ungültig. Ob sie jemals gültig gewesen ist, darauf sollte man besser nicht wetten.

Die hier dargestellte Problematik ist nicht eines unter vielen. Denn Blendung im Straßenverkehr gehört in die hohe Politik. So wollte der damalige Verkehrsminister Georg Leber 1972 die Führerscheine älterer Bürger zeitlich begrenzen und von einer Prüfung der Blendempfindlichkeit abhängig machen. Faktisch gab es kein objektives Argument dagegen. Die Maßnahme unterblieb nur wegen der hohen Bedeutung der Mobilität für ältere Menschen. Mittlerweile ist der durchschnittliche Deutsche 10 Jahre älter als 1972 (mittleres Alter 35,5 Jahre (1972) und 44,9 Jahre (2024)), wobei sich der Anteil der Bevölkerung ab 65 Jahren fast verdoppelt hat (ca. 13% 1972 und ca. 22% 2024). Fahrräder und Autos dürfen aber fröhlich blenden, weil die Vorstellungen des Gesetzgebers auf wissenschaftlichen Erkenntnissen fußen, die spätestens vor 10 Jahren als falsch und nicht valide erkannt worden sind. Hinzu kommt, dass der Bundesminister eine unwahre Angabe macht.

Und die Folgen? Eine ADAC Umfrage mit 1.089 Personen mit gültiger Fahrerlaubnis ergab:

  • 67 % der befragten Personen empfinden die erlebte Blendung als untragbar oder störend.
  • 60 % aller Teilnehmer haben Probleme, Objekte im Umfeld der blendenden Lichtquelle wahrzunehmen.
  • 49 % der Befragten kneifen die Augen zu, wenn sie der Blendung ausgesetzt sind, oder schließen sie sogar kurz.
  • 27 % der Umfrageteilnehmer fühlen sich fast immer oder regelmäßig geblendet.
  • 27 % der Befragten gaben an, ein Bild der Lichtquelle auch nach dem Passieren für eine begrenzte Zeit weiterhin zu sehen (Nachbild) oder sogar Schmerzen zu empfinden.

(ADAC e.V., Hg., "Verbraucherumfrage Blendung im Straßenverkehr", München, 2024) Die obigen Daten stammen aus Lux Junior 2024. Die KI fasst das Ergebnis wie folgt zusammen: "Eine repräsentative Umfrage des ADAC ergab, dass über 90 % der Autofahrenden im Straßenverkehr geblendet werden, wobei fast zwei Drittel dies als störend empfinden. Besonders problematisch sind dabei das Fernlicht und moderne Scheinwerfertechnologien wie LED, die zu Blendung führen, da sie oft eine höhere Leuchtkraft und Platzierung haben."

Der ADAC selber gab am 3. September 2025 eine Meldung über die Situation in ganz Europa heraus: "Gefahr durch Blendung: Viele Autofahrer sind betroffen." (mehr hier)

Blendung, die man nicht Blendung nennt

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Warum sich die Lichtforschung im Kreise dreht, lässt sich am Beispiel des Fehlens einer übergeordneten Bezeichnung aller Erscheinungen darstellen, die einem das Sehen erschweren oder unmöglich machen. Die allgemeine Sprache kennt aber diesen Begriff: Blendung.

Die Lichttechnik hat einen bekannten Begriff genommen, diesen aber nur für eine begrenzte Bedeutung benutzt. Diese Bedeutung hieß und heißt physiologische Blendung. Und manches, was nicht unter diese Bedeutung passte, wird psychologische Blendung genannt. Diese Bedeutung ist für den Laien unverständlich, aber die Ermittlung der Blendung beruht auf der subjektiven Beurteilung  von Laien. Bezeichnend ist eine Bemerkung der ersten Forschenden, die im Labor von AEG in Springe Versuche durchführten. Sie sagten: „Das Schwierigste war es, den Probanden zu erklären, was Blendung ist.“

So ist es auch. Bei meinen Versuchen wollten die Probanden gar nicht erst geblendet werden. Dabei wären die Bedingungen, die sie beurteilen sollten, nach der gängigen Vorstellung unangenehm bis unerträglich. Nach etwa 200 Probanden fing ich an, die Versuchspersonen nach dem Versuch zu fragen, was sie denn beurteilt hätten. Sie sagten, ich wäre nett zu ihnen gewesen, hätte Kaffee und Kuchen serviert, und mein Modell wäre sehr schön. Außerdem würden sie für 20 Minuten Arbeit einen vollen Stundenlohn bekommen. Sie wollten mich nicht mit einem negativen Urteil enttäuschen. Zumal bislang niemand sie nach ihrer Meinung gefragt hätte.

In der Psychologie nennt man das Versuchsleitereffekt. Und ist der Hawthorne-Effekt für Arme. Einen Kollegen hat es noch schlimmer erwischt. Er hatte lange blonde Haare und war überhaupt sehr angenehm. Eine Probandin tauchte eines Tages mit einer Schachtel Pralinen bei ihm auf und wollte sich dafür bedanken, dass sie nach ihrer Meinung gefragt wurde.

Es lohnt sich, erst einmal den Begriff Blendung in der Lichttechnik anzusehen und danach die allgemeIne Bedeutung. Und was der Letzteren entspricht, aber einen anderen Namen trägt.

Physiologische Blendung ist eine Form der Blendung, die zu einer messbaren Herabsetzung der Sehleistung führt, so etwa beeinträchtigte Kontrast- und Formenerkennung, verminderte Sehschärfe.

Psychologische Blendung ist eine subjektive Störempfindung oder ein Gefühl des Unbehagens, ausgelöst durch zu hohe Helligkeitskontraste (z. B. ein helles Fenster im Blickfeld bei der Arbeit), ohne dass die Sehleistung unmittelbar messbar herabgesetzt wird.

Was versteht der Mensch, der eine Blendung beurteilen soll, unter diesem Wort? Wem ist das Wort Blendung ein Begriff? Immer wenn sich eine solche Frage stellt, bietet Wikipedia eine Seite, auf der verschiedene Bedeutungen eines Wortes angeführt werden. Diese Seite heißt auf Deutsch „Begriffsklärungsseite“. Bei manchen Worten imponiert die Wikipedia-Liste der Bedeutungen durch ihre Länge, bei Blendung insbesondere durch ihre Diversität. So kommt das Wort Blendung sowohl im Rechtswesen (Strafe) als auch im Militärjargon vor. Aber auch die Kryptographie benutzt das Wort ebenso wie die Kürschnerei.

Ist Blendung im Rechtswesen eine Strafe, die zur Erblindung führt, also zu einem permanenten Schaden, so spricht das Militär davon, dem Feind nur für eine begrenzte Zeit die Sicht zu nehmen. Die Kryptographie spricht von einem Blender, wenn es sich um ein Zeichen handelt, das keine Bedeutung hat, auf Englisch dummy oder null. Es soll dem unbefugten Entzifferer der Nachricht eine Bedeutung vortäuschen, damit sich dieser dem Blender widmet und so die nützliche Nachricht übersieht. Im Alltagsleben spielt ein Blender die Rolle einer Null. Mal ist dieser ein Vorstadtcasanova, mal ein Politiker, dessen Fähigkeiten man überschätzen soll.

Allen Begriffen gemeinsam ist, dass eine Blendung einem die Sicht nimmt oder erschwert, auch in übertragenem Sinne. Das tun die Objekte, die eine physiologische Blendung verursachen, aber nicht die, die eine psychologische Blendung erzeugen. Man sieht genauso klar mit und ohne psychologische Blendung, nur ist eine Situation halt unangenehm, wenn Blendung herrscht.

Es gibt aber Fälle, wo man am Sehen gestört wird und die Sache unangenehm findet, die aber trotzdem nicht Blendung heißen. Aber erst einmal zu einer Situation, die äußerst angenehm ist, aber mit Blendung, besser gesagt, die Blendung merkt keiner.

Das ist zweifellos eine angenehme Situation, bei der jeder der beiden Teilnehmer durch die Kerzen beleuchtet wird. Gleichzeitig aber muss man die andere Person am Tisch durch die Kerzen hindurch sehen und wird somit etwas am Sehen gehindert. Auf die Idee, diese Blendung zu nennen, kommt so gut wie niemand.

Hingegen kann eine Situation von unmerklich bis unerträglich unangenehm sein, das Sehen von kaum merkbar bis kaum vorhanden stören, man nennt sie trotzdem nicht Blendung. Jedenfalls nicht auf Deutsch. Amerikaner sprechen da schon reflected glare wie „Blendung durch Reflexion“. Diese Erscheinung ist seit Jahrzehnten bekannt. Ich musste sie vor rund 50 Jahren beschreiben und Massnahmen dagegen in den Arbeitsschutz einbringen. Und wurde von der Computerindustrie als einer der Feinde der Technologie verfolgt. Mir ist noch gelungen, eine deutsche Norm zu erstellen, die die Störung beseitigt. Die Industrie schaffte aber 15 Jahre später eine internationale Norm (ISO 9241-3:1992 Ergonomische Anforderungen an Bürotätigkeiten mit Bildschirmgeräten (VDTs); Teil 3: Anforderungen an Bildschirmgeräte), die keine Anforderung an Entspiegelung enthält. Diese Norm endgültig abzuschaffen dauerte bis zum Jahr 2023!

Zunächst zum Effekt. Er sieht in schlimmen Fällen wie hier aus. Dieses Bild ist über 60 Jahre alt. Ich fand es 1975. Der Effekt entsteht, indem Papier und Druckfarbe glänzen. Im schlimmsten Fall dreht sich der Kontrast um, das weiße Papier scheint schwarz, während die schwarze Druckfarbe hell glänzt.

Während man im normalen Leben solche Erscheinungen nur dort erleben kann, wo man unter gerichtetem Licht Seiten mit Glanzpapier zu lesen versucht (z.B. im Zug oder im Flugzeug), gibt es den Effekt fast überall, wo Arbeitsräume direkt beleuchtet werden. Das war in der Zeit, als wir das Projekt „Licht und Gesundheit“ bearbeiteten, praktisch in allen deutschen Büros der Fall. Die messbare Wirkung hat Prof. Hartmann sogar quantitativ untersucht.

In der Regel merkt man den Effekt nicht bewusst. Man kann ihn durch vergleichende Untersuchungen unter der gleichen Beleuchtung mit und ohne Sehaufgabe ermitteln. Wenn der Effekt da ist, ermüden die Probanden stärker. Die Rede ist von einer verminderten  Wiedergabe des Kontrastes. Man bestimmt sie in einer vergleichenden Messung unter idealen Bedingungen und in der realen Situation. Das Ergebnis ist der Kontrastwiedergabefaktor. Dessen Bedeutung wurde von den Experten der LiTG so hoch eingeschätzt, dass sie schon sehr frühzeitig eine Arbeitsgruppe an eine Publikation setzte (LiTG-Publikation Nr. 13 Der Kontrastwiedergabefaktor CRF – ein Gütemerkmal der Innenraumbeleuchtung,  1991).

Dieses Gütemerkmal hat es nie in eine Norm für Beleuchtung geschafft. Und das aus gutem Grunde aus Sicht der Industrie. Man kann nämlich mit Hilfe einer CRF-Berechnung nachweisen, dass die viele Jahrzehnte lang bevorzugte Beleuchtungsart, die Allgemeinbeleuchtung, gar keine ist. Sie ist nämlich definiert durch z.B. Prof. Hentschel als „eine gleichmäßige Beleuchtung, die an allen Stellen des Arbeitsraumes etwa gleiche Sehbedingungen schafft“ (Hentschel, H.-J.: Licht und Beleuchtung, Siemens Berlin München 1972). Rechnerisch gibt es aber annehmbare Sehbedingungen nur an bestimmten Teilen eines Raums, was man u.a. daran erkennt, dass die Normen für Beleuchtung die Anordnung der Arbeitsplätze mit vorgegeben haben. Wenn man den Empfehlungen folgt, müssten große Teile der Büros leer stehen.

Das Bild zeigt links, wie sich die Normer die Belegung eines Büros vorstellen. Rechts sind alle störenden Informationen bereinigt worden. Man sieht, wo man optimale Sehbedingungen hergestellt haben will.

Amerikanische Lichttechniker haben in den 1960ern eine Methode entwickelt, mit der man berechnen kann, was die Beleuchtung an den leeren Stellen dieser Räume „wert“ ist. Die Methode heißt „ESI“ wie equivalent sphere illuminance. Hierbei wird der Kontrast auf einem Objekt unter idealen Bedingungen (gleichmäßig leuchtende Kuppel über dem Objekt) und unter realen Bedingungen gemessen. Wird die Sehleistung durch einen Kontrastverlust verringert, kann man die Beleuchtungsstärke ermitteln, die fiktiv diese entsprechende Leuchtdichte erzeugen würde. Diese Größe wird die „äquivalente“ Beleuchtungsstärke genannt. Im Falle des eingezeichneten Beispiels beträgt sie weniger als die Hälfte des physikalisch messbaren Wertes. In besonders schlimmen Fällen bleibt von den installierten 500 lx effektiv nur ein Zehntel übrig.

Wenn man die Definition von Prof. Hentschel ernst nimmt, sind Planungen auf der Basis von Beleuchtungsstärken die reinste Augenwischerei. Allgemeinbeleuchtung kann es nach der Feststellung eines anderen prominenten Professors für Lichttechnik, Bodmann, nur mit einer Indirektbeleuchtung geben. (Bodmann, H.W.; Eberbach, K.; Leszczynska, H., Lichttechnische und ergonomische Gütekriterien der Einzelplatzbeleuchtung im Büro, Wirtschaftsverlag NW, Bremerhaven, 1995, Forschungsbericht BAuA) Äquivalent wäre eine leuchtende Decke.

Bislang geht es um ein lösbares Problem, das man auch oft genug praktisch gelöst hat. Viel hartnäckiger hält sich ein anderes Phänomen, Kontrastverlust auf Bildschirmen. Die erste Anfrage diesbezüglich an mich kam 1970 von Kollegen aus der Entwicklung von Siemens, die wissen wollten, wie man einen Bildschirm entspiegeln soll. Die (vorerst) letzte Anfrage könnte kurz vor meinem Tode kommen. Mein letztes Gespräch hierzu war im Sommer 2025 mit einem Professor für Farbenlehre, der jetzt allein mit den Problemen kämpft.

Nicht, dass wir keinen Fortschritt gehabt hätten. Der „normale“ Büromensch, der 1975 bei einer ordentlichen Beleuchtung kaum was auf seinem Bildschirm sehen konnte, wird heute kaum eine Beschwerde haben. Dumm nur, dass dieser unter Computernutzern mittlerweile eine winzige Minderheit ausmacht. Die Zahl der aktiven Mobilfunk-Abonnements (Handyverträge, SIM-Karten) weltweit liegt bei über 8,7 Milliarden (Prognose für Ende 2024, nach dem Ericsson Mobility Report). Die Anzahl der Smartphone-Nutzer liegt Schätzungen zufolge bei etwa 4,88 Milliarden bis 5,28 Milliarden Menschen (Stand 2024/2025). Das entspricht etwa 60 % bis 65 % der Weltbevölkerung.

All diese Menschen benutzen ein zu kleines Display für ihren Bedarf, weil dieses in eine Hand passen muss. Und es gibt niemanden, der sich um ihre Beleuchtung kümmert. Bis auf wenige Ausnahmen sind die Displays schlecht geschützt gegen Licht. Der öffentliche Raum ist voller Menschen, die alle so gucken wie hier.

Das ist aber noch nicht alles. Denn auf den zu kleinen Displays erscheinen Farben, deren Empfindlichkeit gegen weißes Licht keine einzige Norm der Welt berücksichtigt. Noch eine Blendung, die niemand so nennt. Dagegen ist die oben berechnete Wirkung des Kontrastverlustes im Büro eine Kleinigkeit.

Aber auch wer beruflich Displays benutzen muss, egal welcher Qualität, wird „geblendet“. Für Leute, die Bilder mit hoher Farbqualität bearbeiten sollen, gibt es nur die Dunkelheit am Arbeitsplatz. Aber auch ganz „normale“ Bearbeiter, z.B. Cutterinnen beim Fernsehen, sind in zunehmendem Maße betroffen, weil die Qualität des gesendeten Materials viel höher ist als noch vor 20 Jahren. Für diese gibt es sogar Ausnahmen beim Arbeitsschutz.

Kaum jemand wird sich Gedanken um Ärzte machen, die einen operieren. Diese arbeiteten einst unter gleißend heller Beleuchtung, jetzt nur noch in grüner Kleidung im Schummerlicht, weil die Operation auf Bildschirmen zu bewundern ist. Es gibt sogar Dienstverträge, die den Ärzten Lichttage bescheren als Kompensation für Tage, die sie isoliert vom Tageslicht arbeiten müssen (Licht und Lichttage).

Das Arbeitsleben wie das öffentliche Leben haben in den letzten 50 Jahren eine gewaltige Transformation erlebt, durch die das relativ einfach zu beleuchtende Papier seinen Platz an Displays überlassen hat. Diese sind auf diverse Arten und Weisen lichtempfindlich. Die lichttechnische Normung hat dies alles nicht mitbekommen. Sie gibt Beleuchtungen vor, die der Sehleistung dienen sollen, aber geeignet sind, Sehleistung soweit zu stören, dass die Beleuchtung zu einer Gefahr werden kann.

 

 

 

Glanzleiche – Oder vom Elend des Physikers beim Umgang mit Empfindungen

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Blendung und „natürliche“ Farben - Das waren die Themen der letzten beiden Blogs. Doch die Beschreibung von Erscheinungen, mit denen der Techniker nicht gerade meisterhaft umgehen kann, ist damit nicht komplett. Erst richtig schwierig wird es, wenn man den Begriff oder die Erscheinung Glanz dazu nimmt.

Aber zuerst zu dem „Techniker“. Dieser ist ein Mensch, der einen Beruf ausübt, dessen Name vom griechischen Wort techne stammt. Und die heißt so viel wie Kunst, Gewerbe, Geschick, List, Betrug. Nicht eines davon, sondern alle zusammen. List und Betrug darf man allerdings nicht im Sinne des Strafrechts nehmen, sondern im Sinne von Geschick. Der Techniker überlistet Natur, Materialien, Naturgesetze u.ä., um etwas zu erzielen. So kann ein Mensch fliegen, ohne dass ihm Flügel wachsen.

Wenn der Techniker mit Glanz umgehen soll und dabei gewissenhaft objektive Größen benutzen, handelt er als Physiker, dessen Welt viel regelhafter ist als die des Technikers. Dies musste ich in meinen jungen Jahren tun, und die Sache war bitter ernst. Die Menschen, die am Computer arbeiteten, hatten Probleme mit den Augen, die sie auch heute haben, aber damals schimpften sie mehr. Also musste ich die sog. visuellen Probleme der Menschen ermitteln und Lösungen dafür finden. Diese wurden nicht in den Sand geschrieben, sondern in Normen, die heute 50 Jahre danach immer noch ihre Wirkung entfalten.

Eine meiner Diagnosen war, dass die Bildschirme glänzten. Ergo schrieb ich in den Normenentwurf, die dürfen nicht glänzen. Nun bestand die Arbeitswelt nicht nur aus glänzenden Bildschirmen. Wenn die nicht glänzen dürfen, warum dürfen andere? Also schrieb ich in den Normenentwurf, dass alle Teile des Arbeitsplatzes aus matten Oberflächen bestehen müssen. Die Vorstellung musste ich nicht einmal selbst entwickeln. Sie stand in der Beleuchtungsnorm DIN 5035 und verbot den Glanz schon vor über 50 Jahren.

Ein Mitglied unseres Normenausschusses nahm dann diesen Entwurf in seinen Betrieb und legte ihn seinen Büroorganisatoren vor. Deren Meinung war verheerend: eine Welt ohne Glanz. Matt wie platt.

Die besagten Herren waren noch gnädig. Große Computerfirmen gingen dagegen aggressiv vor. Sie hatten aber mit Zitronen gehandelt, denn dafür, dass Bildschirme glänzen sollen, gab es keine Begründung. Also floss die Idee in Normen, später in Sicherheitsregeln und ganz zuletzt in Arbeitsschutzvorschriften wie die EU-Richtlinie für die Arbeit mit Bildschirmen von 1990. Auch der Bundesarbeitsminister verschreibt den Betrieben in der ASR A6 (Bildschirmarbeit) von 2024: „Grundsätzlich sind an Bildschirmarbeitsplätzen Bildschirme mit entspiegelten (matten) Displays und matten Gehäuseoberflächen zu verwenden.“ Er lässt nur wenige Ausnahmen zu.

Die fehlende Begründung für glänzende Bildschirme kam später, als Computer auch Videos abspielen konnten. Auf matten Bildschirmen sahen schicke Filme gar nicht so schick aus. So bauten unbotmäßige Computerhersteller Laptops mit glänzenden Bildschirmen. Denn man kann nicht dauernd das Display wechseln, wenn man mal Büroarbeit macht und mal einen Porno einzieht.

Das Problem besteht bis heute, aber mit anderen Begründungen. Der technische Fortschritt hat zu Monitoren geführt, die weniger glänzen als die Vorschrift erlaubt. Aber Handys lassen sich schwer verkaufen, wenn ihre Displays tot aussehen. Da diese aber das ganze Gesicht vom Handy ausmachen, glänzen die dummen Dinger um die Wette. So auch mein iPhone, wenn es als Display für meine Drohne dienen soll, die bei Kaiserwetter den Berliner Wannsee ablichten will. Da ich kaum noch was sehe, haut die Drohne manchmal ab. Sie kommt eine halbe Stunde später reumütig wieder, wenn ihr Akku leer ist. Ob das sich auch ukrainische Drohnenpiloten leisten können? Zum Teufel mit dem Glanz, wenn mein Leben auf dem Spiel steht.

Die Probleme mit dem Glanz waren vermutlich vor meiner Geburt schon bekannt gewesen. Ich habe Farbe studiert bei einer der wenigen Koryphäen, denen es gelungen ist, ein Farbsystem aufzustellen (Anm.: Es war nicht Goethe). Sein wichtigstes Werk im Bereich der Farbsystematik ist das DIN-Farbsystem DIN 6164 (auch bekannt als DIN-Farbenkarte oder DIN-Farbenatlas). Er war Physiker und Farbmetriker und gilt als einer der führenden Vertreter der Farbwissenschaft in Deutschland im 20. Jahrhundert. Auch ihn wurmte die Frage des Glanzes, weil der Glanz nicht nur die vor dem Bildschirm stört. Er zerstört die Farben. Egal, wie ein Objekt aussieht, rot, grün oder lila, der Glanz ist fast immer weiß oder farblos.

Unter unserem Lehrer versuchten mehrere Kollegen, fast alle Ingenieure, eine Dissertation zu dem Thema zu schreiben. So entstand die Bezeichnung Glanzleiche. Die ist nicht ein optisch präpariertes Opfer in einem Tatort, sondern eine Doktorarbeit, von der man bereits zu Beginn sagte, dass die nichts wird.

Warum aber, wenn eine Arbeit von einer begnadeten Koryphäe betreut wird und von intelligenten Menschen ausgeführt? Die Gründe habe ich im Kapitel Warum sich die Forschung auf der Stelle dreht ausführlich erklärt. In diesem Kapitel geht es um Blendung, bei deren Erforschung man sich seit 120 Jahren die Zähne ausbeisst. Darin wird auch erklärt, dass Glanz eine Blendung ist. Er verhindert, dass man Dinge so sieht, wie sie sind. Weder ein Mensch noch eine Kamera können unter einer glänzenden Stelle erkennen, was darunter liegt. Und Blendung ist immer etwas, was das Erkennen erschwert. Glanz ist eine Form der Blendung, die man aber nicht so nennt. Das aus gutem Grund, denn Blendung klingt negativ, Glanz ist aber …?

Das Teuflische ist, dass der Glanz zu den vier Eigenschaften gehört, die uns das Erkennen eines physikalischen Objekts vollständig erklären: Helligkeit, Farbe, Glanz und Form. Hiervon wird nur die Form nicht von Physikern oder Technikern behandelt. Die anderen drei lernt man, wenn man Lichttechnik oder Farbenlehre studiert. Dummerweise hängen Farbe und Helligkeit eng zusammen. Und Glanz wird erheblich von der Form bestimmt. Und dies in Tateinheit mit Farbe.

Somit kann man Glanz als eine Erscheinung sehen, die uns das Sehen ermöglicht und aber auch erschwert bis unmöglich macht. Ob wir dies positiv oder negativ sehen, hängt von uns und unserer Situation ab und nicht von den physikalischen Eigenschaften. Bei manchen Dingen liegen positiv und negativ nur Millimeter auseinander, so z.B. auf schönen Frauengesichtern, wo positiv (Lipgloss) von negativ (glänzende Nasenspitze) eng beieinander liegen.

Es gibt auch Fälle, wo die Störung des Sehens den Gesamteindruck prägt und somit deren Beseitigung die Gesamterscheinung zerstört. So benutzt der Fotograf Catchlights, um den Augen Tiefe, Ausdruck und "Leben" zu verleihen. Ohne diesen Glanz wirken die Augen oft matt, leer oder „tot". Dasselbe gilt für Exponate in Galerien, die mit einer Scheibe geschützt werden müssen. Wenn diese mattiert ist, sind die Bilder tot. Portraitfotografen setzen Catchlights, wenn ein Gesicht ohne solche aufgenommen worden ist. Man kann den Effekt nachstellen, indem man Gesichter mit Glanzpunkten bearbeitet und diese entfernt.

Das Ganze hat selbst einen prägenden Effekt auf Wissenschaft und Technik. Der Glanz von Oberflächen hat einen signifikanten Einfluss auf Wissenschaft und Technik, insbesondere in den Bereichen Materialwissenschaft, Optik und Messtechnik. Möbel, Stoffe, Bekleidung, Kunstdruck und nicht zu vergessen Autos.

Wenn eine Sache so wichtig ist, müsste es von Fachleuten auf dem Gebiet nur so wimmeln. Dem ist nicht so. Die Szene wurde über mehrere Jahrzehnte von Richard S. Hunter (1906–1991) beherrscht, der schon in den 1930ern eine prägende Persönlichkeit war. Er war der Gründer des Unternehmens Hunter Associates Laboratory, Inc. (HunterLab), das weltweit Glanz- und Farbmessgeräte herstellt und damit maßgeblich zur Verbreitung seiner Messstandards beigetragen hat. Aber er war zuvor am National Bureau of Standards (NIST) tätig, wo er seine Methode entwickelte. Dazu gehörte auch ein Farbraum, der seinen Namen trägt: Hunter L, a, b Farbraum.

Hunter gelang es, die menschliche Wahrnehmung auf die Messung zu übertragen. Seine Geräte zielten darauf ab, die visuelle Wahrnehmung des menschlichen Auges (speziell im Hinblick auf kleine Farbunterschiede und Glanzeffekte) objektiv zu quantifizieren. Damit wurden HunterLab-Geräte zu einem unverzichtbaren Werkzeug, um die Produktkonsistenz über Lieferketten hinweg zu gewährleisten.

Hunter war keine Glanzleiche. Er hatte im Dezember 1927 seine Karriere als "Minor Laboratory Apprentice" (kleiner Laborlehrling) begonnen beim National Bureau of Standards (NBS), heute bekannt als NIST. Als wir zu Beginn des 21. Jahrhunderts eine vom Arbeitsminister beauftragte Studie zu Oberflächen von IT-Produkten durchführten (Einfluss von optischen Oberflächeneigenschaften von IT-Produkten auf Benutzer, BAUA Forschungsbericht Fb1066, 2006), war Hunter der Lieferant der meisten Erkenntnisse auf dem Gebiet. Und er war einer der Autoren der Studie, die Anlass für diesen Forschungsbericht war.

So konnten wir getrost schreiben:
„Maßgeblich für die Empfindung ist aber nicht die physikalische Verteilung des Lichts, sondern dessen situationsabhängige Beurteilung:

  • Glanz wird absichtlich erzeugt, um das Erscheinungsbild eines Gegenstands mit Leben zu erfüllen;
  • Glanz wird vermieden, um einen Gegenstand ungestört betrachten zu können.

 

Hunter hatte bereits 1936 zutreffend geschildert, dass es nicht nur einen Glanz gäbe, sondern viele:

  • Spiegelglanz": Helligkeitsempfindung in Verbindung mit gerichteter Reflexion auf einer Fläche (Original: specular gloss)
  • Kontrastglanz": Helligkeitsempfindung infolge relativ unterschiedlicher Helligkeit von spiegelnden und diffus reflektierenden Teilen der Fläche (Original: contrast gloss)
  • Bildschärfeglanz": Empfundene Schärfe der reflektierten Objekte (je schärfer, desto störender) (Original: DOI gloss (DOI: distinctness of image))
  • Haze" (ohne Übersetzung, könnte Dunst oder Eintrübung heißen): Haloartig empfundener Schleier in der Nähe der spiegelnden Stelle
  • Sheen" (ohne Übersetzung, könnte Schein oder Schimmer heißen): Glanzerscheinung auf matten Oberflächen unter streifendem Lichteinfall bzw. -ausfall
  • Absence-of-texture gloss" (ohne Übersetzung, könnte Strukturlosigkeit heißen): Empfundene Gleichmäßigkeit und Strukturlosigkeit (einer ansonsten mit Struktur versehenen Fläche).

Nicht jeder Physiker kapituliert vor dem Elend, Empfindungen messen zu müssen. Es dauert manchmal halt lange …

Natürliche Farben und sonstige Märchen

Die Wahrheit ist selten rein und nie einfach.

Oscar Wilde

Man liest sehr häufig in allen möglichen Publikationen, auch in wissenschaftlichen, etwas von natürlichen Farben. Gibt es die? Vielleicht!

Wenn es natürliche Farben gibt, muss es die zumindest in der Natur geben. Leider ist die Natur nachts grau bis schwarz, egal, wie die Tiere und Pflanzen aussehen. Erst wenn das Sonnenlicht auf diese fällt, entfalten sie Farben. Aber alles sieht morgens früh ganz anders aus als mittags, bei Regen anders als bei Sonnenschein.

Farben gibt es eigentlich gar nicht, außer im Farbeimer, auf dem z.B. geschrieben steht RAL 7000 (Fehgrau). Das ist die Farbe, die man sieht, wenn ein U-Boot der Bundesmarine tagsüber vor einem auftaucht. Aber abends bei einem Fest auf der Marinebasis wird das Boot garantiert nicht so aussehen wie mittags auf dem Wasser. Wir sehen trotzdem (fast) immer dasselbe Grau.

Schuld sind dafür zwei Standards, von denen nur einer geschrieben steht. Der geschriebene Standard heißt D65, wobei D für Tageslicht steht (Daylight) und 65 ein Kürzel von 6500 wie 6504 K. Das ist die sog. Farbtemperatur. Mit vollem Namen heißt das Objekt Normlichtart D65. Wenn der Farbeimer eine Substanz erhält, die auf einem U-Boot wie RAL 7000 ausschaut, dann wird das U-Boot mit D65 angestrahlt.

Den ungeschriebenen Standard  tragen wir oben im Kopf. Dieser nennt sich Konstanzphänomen. Ein roter Apfel erscheint uns auch unter gelblichem Glühlampenlicht oder im Schatten rot. (Eine Kamera macht aber echt zwei unterschiedlich aussehende Äpfel daraus.)

Die physikalisch nicht existierende Farbe eines Gegenstandes entsteht in unserem Gehirn unter dem Licht, das ihn beleuchtet. Also müsste es in der Natur „natürliches“ Licht geben. Dummerweise gibt es dieses auch nicht. Als Bewunderer der Farbe Blau habe ich an vielen Stellen der Erde versucht, blau zu sehen. Jedes Meer hat sein Blau, jeder Ozean auch. Das wussten wohl bereits die Griechen in der Antike, die zwar blau liebten, aber keinen Namen dafür hatten. Anstelle dessen wurden blaue Objekte genannt. Die Wahrnehmung und Benennung von Blau in den Sprachen erfolgten historisch sehr spät im Vergleich zu Farben wie Schwarz, Weiß und Rot. Homer beschrieb das Meer in der Odyssee zum Beispiel als "weinrot". (Blau bekam seit 2001 eine besondere Bedeutung, die man in dem Kapitel Geheimnisse in Blau lesen kann.)

Bevor man Homer Farbenblindheit bescheinigt, sollte man sich fragen, warum das Rote Meer so heißt oder das Schwarze. Beide sind nämlich blau. Ach, ja, die Türken nennen das Mittelmeer Weiss, obwohl dessen Blau viel tiefer ist als das vom Schwarzen Meer. Hoffentlich hört Homer da nicht zu.

Niemand kann absolute Farben sehen. Das Licht mit der Farbe D65 gibt es übrigens in kaum einem Bürogebäude, weil es scheußlich kalt wirkt. Es ist auch nicht Tageslicht, es heißt nur so. D65 ist etwa die Farbtemperatur des Himmels an einem lauen Sommertag über Wien abzüglich der Sonne. Man kann zwar so etwas nie in der Natur erleben, aber Normlichtarten sind halt mathematische Modelle. Da kann man die Sonne aus dem heiteren Himmel extrahieren, ohne rot zu werden.

Es gibt aber andere „Tageslichter“, so z.B. D50. Das benutzen die Fotografen und Drucker. D50 simuliert das Mittagshimmel-Tageslicht und ist der internationale Standard (ISO 3664-2000) für die visuelle Farbabstimmung von Druckvorlagen und Druckerzeugnissen. Dies soll gewährleisten, dass die Farben sowohl am Monitor als auch auf dem gedruckten Material unter standardisierten Bedingungen korrekt erscheinen. So ganz gelingen will es aber nicht.

Ein weiteres „Tageslicht“ D75 wurde früher häufig in den USA als Standard für die Farbabmusterung in Branchen wie Textil, Kunststoff und Papier verwendet. Dieser Standard lebt noch in Nischen.

Die Verkaufsräume können mit diesen grauenhaften Farben nichts anfangen. Deswegen gibt es bei denen TL84 (F11) mit 4100 K als Standard. Das sind allerdings IKEAs oder ähnliche Verkaufsstätten. Wer Lebensmittel verkaufen will, muss tiefer in die Trickkiste greifen, um das nicht mehr so frische Fleisch so natürlich wie frisch von der Schlachtbank scheinen zu lassen. Der deutsche Gesetzgeber wollte dem einen Riegel vorschieben und verbat sich optische Frischmacher (mehr kann man hier lesen: Brühwurst-Index und dessen Entwicklung)

Bei so vielen Interessen fällt es schwer, einen Standard für die Farbwiedergabe der Lichtquellen zu setzen. Der jetzt geltende Standard, auch CRI-Verfahren genannt, bestimmt einen Index Ra, der so komisch gestaltet ist, dass er auch Fachleute in die Irre führt. (s. ISO/TR 9241-610). Wenn ein Licht mit Ra = 100 bezeichnet wird, denken Leute  gleich an 100% = alle Farben werden – natürlich – wiedergegeben.

Nichts dergleichen ist wahr. Es werden diese trüben Farbmuster nach Meinung der Prüfer wiedergegeben, von denen niemand weiß, wo sie sitzen. Keine einzige gesättigte Farbe geht in die Prüfung ein. Zu guter Letzt sollen die Originale der gezeigten Farbmuster unauffindbar sein. Wenn Sie also demnächst im Baumarkt eine Lampe kaufen, sollten Sie wissen, was die Angabe CRI bzw. Ra bedeutet bzw. nicht bedeutet.

Noch eine Besonderheit: Ra wird für zwei unterschiedliche Lichtquellen bestimmt, wobei beide mit 100 enden. Die eine Bestimmung erfolgt mit der Glühlampe (Normlichtart A), der man bestimmt keine überragende Farbwiedergabe nachsagen kann. Natürlich wirkt deren Licht nur auf Freunde des Lagerfeuers. Die sind aber offenbar so zahlreich, dass man natürliche Farben nur in dessen Licht erlebt.

Die Skala des Index  Ra fängt auch nicht bei 0 an, Ra kann auch negativ werden, so etwa, wenn ein Licht das Erkennen von Farben gelinde gesagt stört. Deswegen ist man seit über 10 Jahren dabei, einen neuen Standard zu schaffen. Da unser neuester Beleuchtungsstandard gerade mal ein Jahr alt ist, wird es mit dem neuen Standard für Farbwiedergabe erst einmal nichts.

Lassen wir die Welt der künstlichen Lichter beiseite. Wie natürlich sind die Farben in einem wunderbar sonnenbelichteten ökologischen Haus mit energie sparenden Fenstern? Da sieht es schön düster aus. Den meisten Architekten ist nicht bekannt, dass die besten Fenstergläser nur die Einscheibengläser sind, die wohl die Urgroßeltern noch kannten. Wer sich ein energetisch optimiertes Haus bauen oder sein altes sanieren lässt, darf sich von Farben nicht viel erhoffen. Verglasungen, die man in unseren Breiten verwendet, schlucken bis zu 70 % (!) des einfallenden Sonnenlichtes und können Ra zwischen 97 und 77 reduzieren. Und sie schlucken alle „gesunden“ Strahlen (Ultraviolett und Infrarot) komplett. Nix mit perfekter Farbwiedergabe bei Tageslicht. Diese gibt es leider nur draußen.