Wie man Wissen mit Wissenschaft verhindert

Die Methode Wissenschaft, mit der man Wissenschaft verhindert

Anmerkung zum Verständnis

In diesem Kapitel werde ich einige methodische Tricks behandeln, mit denen man das Ziel wissenschaftlicher Arbeiten in dessen Gegenteil umkehrt - Verhinderung neuer Erkenntnisse statt Erkenntnisgewinn. Zugegebenermaßen beschränken sich diesbezügliche Aktivitäten nicht auf die Lichtwelt, aber sie werden insbesondere auf diesem Gebiet häufig angewendet. Nicht alle, die man bei ihrem Treiben erwischen kann, betrügen oder manipulieren bewusst. Der Anteil derer, die bemüht sind, etwas Neues gefunden zu haben, dürfte nicht allzu gering ausfallen. Nicht zu vergessen jene, die im Glauben an die „gute“ Sache gewisse Ungenauigkeiten passieren lassen, die sie ansonsten geißeln würden. Beispielsweise wenn Klimaaktivisten von Solaranlagen berichten, die nicht zufälligerweise in Freiburg stehen, dem Ort von Deutschland mit der höchsten Sonnenscheindauer.

Allerdings betreiben nicht alle die Methode, die ich gerne science faction nenne. Es ist ein Wortspiel und bezeichnet einen eigentlich schlimmen Vorgang: Man führt eine oder mehrere unumstößliche Fakten an, z.B. dass es heller wird, je mehr Licht in einem Raum ist. Oder dass ein Versuch ergeben hätte, dass Sekretärinnen in hellen Büros besser tippen als in der Dunkelheit. Diese Fakten müssen keineswegs konstruiert oder erfunden sein. Sie sind allesamt wahr. Zudem kann man kann sie nicht widerlegen oder auch nur in Zweifel ziehen. Denn sie sind plausibel. Danach nimmt man diese wahren und plausiblen Fakten und mischt sie mit noch mehr Plausiblem. So etwa, dass man bei gutem Licht weniger ermüde, weil man dieselbe Arbeitsmenge mit sehr viel weniger Aufwand schaffen würde. Danach kann man einen Schritt weiter gehen und erklären, dass gutes Licht gesund sei, weil man durch eine geringere Ermüdung weniger an den Folgen der Arbeit leiden muss. Und schon hat man den Nachweis, dass man durch mehr Beleuchtungsstärke mehr leistet und weniger ermüdet. Denn gutes Licht bedeutet mehr Beleuchtungsstärke, jedenfalls so wie die Lichttechnik seit Jahrzehnten suggeriert.

P-Hacker – der beliebteste Trick Forschender aller Gattungen

Der Name P-Hacker leitet sich aus dem Begriff Probability, also Wahrscheinlichkeit ab. Alle Forschende berechnen am Ende eines Experimentes den Grad der Wahrscheinlichkeit ab, dass sie einem Irrtum zum Opfer fallen, wenn sie dem Studienergebnis folgen. Im Allgemeinen begnügt man sich damit, dass die Irrtumswahrscheinlichkeit unter 5% liegt. Kurz geschrieben p ≤ 0,05.

Was ist, wenn p ≤ 0,10 ist? Dann irrt man sich in einem aus 10 Fällen. Auch nicht schlecht, aber die Konvention sagt, dass nur Ergebnisse mit p ≤ 0,05 signifikant seien. Und signifikant bedeutet …? Eigentlich bedeutet es genau das, was die Zahl aussagt. Man kann sich in nur 5% der Fällen irren. Leider liest man das aber anders und denkt, eine Studie sei nichts wert, wenn sie nichts Signifikantes ermitteln konnte. Die meisten Forschenden neigen daher dazu, aus den vorliegenden Daten etwas Signifikantes auszulesen. Man führt z.B. eine Reihe von Versuchen durch und sucht sich die passenden Ergebnisse aus. So kann man z.B. nachweisen, dass zwischen dem Käseverzehr beim Frühstück und Strangulieren durch Bettlaken eine signifikante Beziehung existiert.

Das hört sich ganz schön absurd an. Wer soll so etwas glauben? Z.B. ausgewiesene Experten der Arbeitsmedizin. Diese haben 2020 eine Leitlinie für Nacht und Schichtarbeit1Gesundheitliche Aspekte und Gestaltung von Nacht- und Schichtarbeit, Registernummer 002 – 030 @ abgerufen 17.10.2022 herausgearbeitet, in der eine unumstößliche Erkenntnis verkündet wird: „Eine Querschnittstudie (n=430) von Violanti et al. (2012) kommt zu dem Ergebnis, dass das Verletzungsrisiko bei Polizisten und Polizistinnen in der Nachtschicht 1,7-mal höher ist als die Verletzungsgefahr in der Tagschicht (IRR 1,72; 95%KI 1,26–2,36, p<0,001) …“ Das Ergebnis dieser Studie fällt sogar glaubhafter aus als viele andere, denn p < 0,001 bedeutet, dass man sich nur in einem aus 1000 Fällen irren kann.

Wie soll man sich aber das Ergebnis erklären? Ob die Polizist:innen nachts die Brötchen zum Frühstück anders schmieren als tagsüber? Oder wie verletzen sie sich überhaupt? Da eine Arbeitsmedizinische Leitlinie dazu helfen soll, die gesundheitlichen Folgen der Schichtarbeit zu vermeiden oder wenigstens zu mildern, wäre es doch nicht schlecht zu wissen, was zu einer häufigeren Verletzung von Polizist:innen in der Nacht führt. Der Laie kennt die Gründe bestens, der Fachmann tappt im Dunkeln.

Allein wegen solcher Aussagen heißt die Methode auch Signifikanzwahn. Wenn man beobachtet, zu welch grotesken Ergebnissen manches Projekt so kommt, wird man gerne bestätigen, dass Wahnsinn die richtige Bezeichnung ist. So ergab eine Studie zum Thema HCL (H wie Human, C wie Centric, L wie Lighting) ein signifikantes Ergebnis, dass bei Anwendung dieser Beleuchtung Patienten einer gerontopsychiatrischen Station eines Tiroler Krankenhauses weniger lange fixiert werden müssen. Es wurde u.a. studiert, wie häufig der Patient nach einem Sturz ansprechbar war und wie häufig dieser fixiert werden musste. Die Zahl der Stürze hat sich durch die Beleuchtung nicht geändert. Aber die Schwere – Gott sei Dank – hat abgenommen. So waren doppelt so viele Patienten nach dem Sturz ansprechbar. Signifikant also. Damit das Ergebnis auch jeder glaubt, finden sich auch Diagramme in der Publikation, die das Geschehen in zahlenmäßige Relationen bringen. So begründet man, dass dynamisches Licht tatsächlich gesund macht. Was HCL wohl mit dynamischem Licht zu tun hat? Dieses ist der Sammelbegriff für Beleuchtungen, die sich vorteilhaft auf den Menschen auswirken sollen. In den Dynamikzimmern ändert sich die Beleuchtung nach bestimmten Regeln. Und irgendetwas scheint sich auch zu ändern. Die Frage ist was. Das wird hier leider nicht erklärt.2PSYLICHT – Psychophysiological impacts of future lighting technologies applied to psychiatric clinics @ abgerufen 18.18.2022 (Was die Zahlen 0 – 3000 bedeuten, muss man aus dem Text versuchen zu erklären.)

Das Projekt soll übrigens auch dazu dienen, eine Wissensbasis zu erstellen, wie dynamische Lichtsysteme in psychiatrischen Anstalten nicht-visuell wirken. Was sucht dies aber in der lichttechnischen Literatur? Eine Reihe solcher Untersuchungen wurde dafür herangezogen, im Jahre 2022 einen ISO-Technical Report zu erstellen, der begründen soll, dass die Beleuchtung auch der Gesundheit dient.3ISO/CIE/TR 21783:2022 Light and lighting — Integrative lighting — Non-visual effects Wie man aus Studien in gerontologischen Psychiatrie Erkenntnisse für die Beleuchtung eines Büros oder einer Küche ableitet? Dies erläutere ich weiter unten unter Validierung. Wie man daraus aber einen Standard ableitet? Das gemeinte Standarddokument, ISO/TR 21783, leitete im Entwurf Aussagen wie „Integrative Beleuchtung kann ... die Leistungsfähigkeit in den nachfolgenden Tagen positiv beeinflussen.“ aus 212 angeführten Studien ab. Um die Wissenschaftlichkeit zu unterstreichen, wurden zu jedem einzelnen Statement drei Studien angeführt. So weit so gut. Als wir gegen diesen Entwurf Einspruch erhoben und damit nicht ganz allein waren, wurden 183 von 212 entfernt, dafür 34 neue Studien hinzugezogen. Wie durch ein Wunder blieben aber alle Aussagen erhalten. Nur stimmten die Bezüge zwischen den angeblichen Erkenntnissen und den Studien nicht mehr. Was tat man dann? Sie wurden gestrichen. Im veröffentlichten Text stehen die Weisheiten und die Literaturstellen ohne Bezug zueinander da. Somit gelten die Weisheiten als absolute Feststellungen. Wissenschaftliche Studien haben ergeben, dass …

Wenn man diesen Standard bei der Gestaltung der Beleuchtung anwenden will, sollte man wissen, auf welchen Studien dessen Erkenntnisse beruhen. Hier eine Auflistung der Quellen nach Thema:

  • Therapie: 3 Objekte, davon eines Delirium
  • Krebsrisiko: 3 Objekte
  • Demenz: 4 Objekte
  • Lernerfolg: 3 Objekte
  • Hormonforschung: 2 Objekte
  • Gemütszustände: 6 Objekte
  • Schlaf und Schläfrigkeit: 21 Objekte (von insgesamt 63)
  • Gesundheit: 10 Objekte (im Titel oder Publikationsorgan)

 

Alle diese Publikationen haben Signifikantes dieser oder jener Art ergeben. Was sagen sie aber zur Beleuchtung von Arbeitsplätzen aus? Eine Frage der Validierung: Alles könnte auf Tatsachen beruhen, aber dennoch  aber nichts bedeuten, was das Thema angeht.

Validierung ist leider nicht das einzige Problem der P-Hacker. Ein anderes ist viel enger mit der Signifikanz verbunden. Das ist die Relevanz. Statistische Verfahren, die die Irrtumswahrscheinlichkeit berechnen, kümmern sich nicht darum, wie bedeutsam die so gewonnene Erkenntnis ist. Wenn man die Fallzahl erhöht, wird jeder kleine Unterschied irgendwann statistisch signifikant. Man kann sogar präzise berechnen, bei welcher Größe der Probandenzahl ein gewisser Unterschied signifikant wird. Man stelle sich vor, man lässt zwei Räume mit unterschiedlicher Beleuchtung nach dem o.g. Kriterium, Fixierung der Patienten, bewerten. Wenn der Unterschied bei 20 Patienten 0,5 Skalenteile beträgt und leider nicht signifikant unterschiedlich ausfällt, kann man aus den so gewonnenen Daten berechnen, dass man bei 200 Probanden das gewünschte Ergebnis bekäme. Wenn man bei seiner Studie sauber gearbeitet hat, kann man also mit größter Wahrscheinlichkeit ein signifikantes Ergebnis vorhersagen, wenn der Auftraggeber den Aufwand bezahlen will. Übrigens, das Vorgehen ist legal und mathematisch einwandfrei und hilft oft, wichtige Erkenntnisse zu sammeln. Leider auch dazu, gewünschte Aussagen als Erkenntnis zu verkaufen.

So können nicht nur P-Hacker zu ihrem Wunschergebnis kommen. Auch Leute mit der entgegengesetztem Wunsch, Unterschiede gering erscheinen zu lassen, nutzen die Methode. Beispielsweise wollte ein Unternehmen gegen eine Vorschrift vorgehen, die helle Tastaturen verlangte, weil die Beleuchtung auf dunklen Tastaturen Reflexe produziert und blendet. Man beauftragte ein renommiertes Institut, das die Auswirkung der Farbe auf das Sehen untersuchte. Dazu wurde ein Kriterium aufgestellt, das Laien nicht ohne Weiteres als problemhaft feststellen können, die Sehschärfe. Es wurde untersucht, ob die Sehschärfe bei unterschiedlicher Tastaturfarbe unterschiedlich ausfällt. Sie tat es nicht. Denn die Sehschärfe ist nur in geringem Maße von der Umgebungshelligkeit abhängig. Wenn man einen Versuch mit einer üblichen Größe an Probandenzahl fährt, steht das Ergebnis bereits vorher fest.4Die angeführte Studie betraf eine deutsche Vorschrift. Deswegen wurde der Fall im Auftrag einer Arbeitsschutzbehörde untersucht. Weitere Aussführungen hier: Cakir, A; Cakir, G.: Einfluss von optischen Oberflächeneigenschaften von IT-Produkten auf Benutzer, BAuA Forschungsbericht 1066, Wirtschaftsverlag NW Verlag für neue Wissenschaft GmbH, Bremerhaven, 2006 @ abgerufen 22.10.2022 Genau dies war der Grund für die Durchführung der Studie gewesen.

HARKing – Wenn man schlauer geworden ist …

Eine seriöse wissenschaftliche Arbeit beginnt immer mit einer vernünftigen Hypothese. Wenn man die Meinung von wirklich großen Forschenden wie Albert Einstein dazu hört, hat man bereits mit der Formulierung einer Hypothese die größte Hürde zur Erkenntnisgewinnung genommen. „Fragen sind aller Erkenntnis Anfang“ oder „Fragen sind die Wiege der Weisheit“, so hören sich manche Weisheiten an, die normale Menschen formuliert haben. Aber auch die Großen der Kulturgeschichte wissen Antwort zu geben: „Dem guten Frager ist schon halb geantwortet.“ (Friedrich Nietzsche) oder „Ob ein Mensch klug ist, erkennt man an seinen Antworten. Ob ein Mensch weise ist, erkennt man an seinen Fragen.“ (Nagib Mahfuz).

Leute, die Harking (Hypothesizing After the Results are Known) betreiben, haben weiserweise immer die richtigen Hypothesen aufgestellt, die sich am Ende stets als richtig erweisen. Wie das? Sie stellen die Hypothesen erst dann auf, wenn sie die Ergebnisse ihrer Untersuchung kennen. Sehr praktisch! Ein besonders zutreffendes Beispiel für HARKing lieferte im Jahr 2009 ein Hamburger Professor für Kinderpsychiatrie. Er stellte fest, dass man unruhige Kinder mit blauem Licht ruhig stellen kann. Zudem werden die Kinder, jedenfalls nach seiner Studie, um 44% aufmerksamer.5Die Zahl 44% wird an verschiedenen Stellen angeführt. Die Originalstudie wurde vom Universitätsklinikum Hamburg Eppendorf veröffentlicht, aber die Dokumente wurden kurz danach gelöscht und durch neue ersetzt. Uns liegen folgende Zahlen vor: Fehlerabnahme -44,9% (im d2-Test), Zunahme der Lesegeschwindigkeit +34,8%. Besseres Leseverständnis +64,0%. Das Dokument trägt den Titel: „Personal Light - Wirksamkeit des Dynamic Lighting von Philips in Hamburger Schulklassen“. Als Verantwortliche wird angegeben: AG Epidemiologie und Evaluation am Zentrum für Geburtshilfe, Kinder- und Jugendmedizin des Universitätsklinikums Hamburg-Eppendorf. Die Folien tragen das Wappen der Universität Hamburg und den Namen Philips im Banner.  Wir argumentierten dagegen, dass dieser Versuch nicht zulässig wäre, weil die vermeintliche Wirkung nur über eine hormonelle Beeinflussung der Kinder zustande gekommen sein kann. Der Professor erklärte öffentlich, dass ihm solche Wirkungen nicht bekannt wären und auch nicht möglich schienen. Er hätte nur die Wirkung vom blauen dynamischen Licht auf Kinder testen wollen. Und siehe da, die Kinder waren schlauer und ruhiger geworden.6Wegen der möglichen Auswirkungen dieser Studie haben wir uns an den Hamburger Senat gewandt und die Anwendung der Ergebnisse auf Schulen verhindert. Mehr zu lesen hier oder da.

Immerhin hat diese Studie es in die wissenschaftliche Literatur und in einen Normenentwurf geschafft. Dass man Kinder buchstäblich per Knopfdruck aktivieren oder beruhigen kann, wurde sogar in einer Fernsehshow „Die große Show der Naturwunder“ vom ARD präsentiert. Ein Triumph des HARKing!

HARKing ist eine gängige Methode. Hat man einmal festgestellt, dass man bestimmte Fragen „signifikant“ testen kann, ermittelt man neue Erkenntnisse schneller als andere denken können. Man kann dem Auftraggeber ein Ergebnis vorab garantieren und die Studie nachschieben.

SHARKing – wenn alles nicht hilft

Die Meister des HARKing sind aber solche, die sich ebenso in SHARKing auskennen. Das ist das Entfernen einer Hypothese, nachdem man weiß, dass kein positives Ergebnis (also nach p-hacking) herausgekommen ist. Die Hypothese verschwindet ganz leise. Und niemand merkt es, weil niemand ihr nachweint. Es soll sogar ein komplettes Projekt so verschwunden sein. Es hieß Placar und sollte dazu dienen, Lampen zu entwickeln, die die melanopische Wirkung unterstützen täten. Das Projekt wurde von den Größten der Branche initiiert, vom Forschungsminister finanziert und ist… unauffindbar!

PLACAR steht für „Plasma LAmpen für CirCAdiane Rhythmen. Diese Lampen sollten den natürlichen Tag-Nacht-Rhythmus unterstützen. Zu Beginn sah es sehr gut aus für das Vorhaben: „Ein Fernziel der PLACAR-Forscher ist es unter anderem die Voraussetzungen zu schaffen, um die derzeitigen Lichtquellen zumindest teilweise durch intelligente Lichtquellen bzw. Beleuchtungssysteme zu ersetzen, die in Abhängigkeit von der Tageszeit unterschiedliche Lichtspektren mitunterschiedlichen Intensitäten aussenden. Bereits zur Halbzeit, dem so genannten 1. Meilenstein, des dreijährigen Projektes konnten nun sehr gute Ergebnisse präsentiert werden.“7Bericht von scinexx @ abgerufen 22.10.2022

Obwohl ich mehrere Beteiligte an dem Projekt persönlich kenne, konnte ich später nur bruchstückhaft Informationen auftreiben.8Eine der wenigen Veröffentlichungen zum PLACAR Projekt war: Rudolph, H. Verbundforschungsprojekt PLACAR Leuchten für Plasmalampen zur Beeinflussung circadianer Rhythmen, TRILUX GmbH & Co. KG, in DGP Deutsche Gesellschaft für Photobiologie und TU Berlin: Licht und Gesundheit - Eine Sondertagung der TU Berlin und der DGP mit DAfP und LiTG 13. und 14. März 2008, Hrsg: Kaase, H., Serick, F. Die wahrscheinlich entscheidenden Details stehen in einem Bericht des Projektpartners, der die Lampe hatte entwickeln sollen. Dort ist die Rede von einer Farbwiedergabe von 20, die man hoffe, im Laufe des Projekts zu steigern. Damit lag die Lampe dort, wo die gelben Laternen mit Natriumdampflampen standen: Vollkommen ungeeignet für Beleuchtungszwecke allgemein. Dann ist es kein Wunder, dass das Projekt unauffindbar in der Versenkung verschwunden ist.

Existieren tut nach einem Forschungsprojekt mit einer Laufzeit über mehr als drei Jahren ein dürrer Abschlussbericht von 12 Seiten. Darin wird ausgeführt, man habe eine „Morgenlampe“ entwickeln wollen. Diese sollte eine Hochdrucklampe sein, das bläulicheres „Morgenlicht“ produzieren sollte. Diese ändere aber während der Brenndauer ihr Spektrum und müsse noch daher weiter entwickelt werden. Das als „Abendlampe“ vorgesehene Produkt, eine Natriumdampfhochdrucklampe, sollte noch weiter entwickelt werden, um einen Farbwiedergabeindex von 80 statt von 20 zu erreichen. Sie dachte aber nicht daran. Der Bericht endet mit dem Satz: „Erst bei den letzten, zeitaufwendigen Untersuchungen des Langzeitverhaltens wurden eine deutliche Lichtstromabnahme und eine Farbdrift von Blau zu Gelb bei der „Morgenlampe“ verzeichnet. Um dies noch korrigieren zu können und um mehr Sicherheit bei den Aussagen zum Langzeitverhalten der „Abendlampe“ zu erhalten, wurde die Bearbeitungszeit um 5 Monate verlängert.“9Abschlussbericht der G.L.E. mbH, Vorhabenbezeichnung: Plasma-Lampen für circadiane Rhythmen (PLACAR) Teilvorhaben: Hochdruckentladungslampen zur positiven Beeinflussung des circadianen Rhythmus, Laufzeit des Vorhabens: 01.04.2006 bis 31.08.2009 In Klartext: Die Lampe alterte zu schnell. Übrigens keine Seltenheit bei Leuchtmitteln, die Natrium enthalten, ein äußerst aggressives Element.10Vor 30 Jahren wurde eine Lampe ohne Elektroden entwickelt, die in einem elektromagnetischen Feld Licht erzeugte. Eigentlich eine ideale Konstellation. Ihr war kein langes Leben beschieden, weil sie mit Natrium arbeitete. Das Material, das das Leuchtmittel einschloss, erblindete zu schnell.

Typischer Fall von SHARKing. Die Hypothese, man könne eine Lampe entwickeln, die die biologischen Wirkungen von Licht (zu wenig Licht am Morgen = fehlende Aktivierung, zu viel Licht am Abend = Krebsentstehung, schlechter Schlaf) mit einem Schlag ins Positive wenden würde, konnte nicht so einfach begraben werden. Also musste sie verschwinden. Der Ehrlichkeit halber muss ich aber erwähnen, dass dieses Projekt nicht dass größte war, das ganz leise verschwunden ist. Es war das Projekt 5th Generation of Computers von Japan.115th Generation Computer Systems war ein 10-Jahre-Projekt, das die Computertechnik revolutionieren sollte. Es wurde vom mächtigen japanischen Handels und Industrieministerium MITI in 1982 aus der Taufe gehoben. Es sollte erfolgreich werden wie die japanische Autoindustrie, die die einst mächtige US-Autoindustrie in ihrem eigenen Land schlagen konnte. Als das Projekt in den 1990er Jahren still verschwand, haben nicht einmal Informatiker dessen Ableben gemerkt.

Im Übrigen, für echte Wissenschaftler bedeutet ein Fehlschlag der hier erläuterten Art überhaupt kein Problem. Denn Forschen heißt lernen. Und gelernt hat man ja.

Ignorieren – die Patentlösung

Die wirksamste Methode, die Wissenschaft zu behindern, besteht im Ignorieren. Man nimmt Erkenntnisse einfach nicht zur Kenntnis. Als ich zu diesem Thema ein Beispiel aus der Praxis der Lichttechnik suchte, fielen mir lauter Beispiele ein, bei denen die Lichttechnik eher Opfer denn Täter war. Genaugenommen, musste ich für mehrere Jahrzehnte dafür kämpfen, dass die Erkenntnisse meines wichtigsten Forschungsprojekts bei Computerfirmen und Gerätedesignern Akzeptanz fanden. Sie stammten hauptsächlich aus dem Bereich der Lichttechnik und wurden von Ergonomen und Arbeitsschützern gerne aufgenommen. Die Computerfirmen behaupteten hingegen immer wieder, es gäbe keine Literatur, die meine Erkenntnisse unterstütze. Da half nicht, dass man gleich eine Reihe Studien zitieren konnte.

Nicht selten wird man hören, eine lichttechnische Erkenntnis sei „alt“. Will sagen, sie wurde vor langer Zeit gewonnen. Das stimmt sogar. Was nicht stimmt, ist die Behauptung, sie sei älteren Datums und daher obsolet. Warum soll man etwas deutlich und klar Erklärtes immer wieder erneut untersuchen? Diesen Gedanken möchte ich am Beispiel des hier abgebildeten Raums erläutern.

Der Raum gehört einem sehr bekannten Bürohaus, das einst als mustergültig fortschrittlich angesehen wurde, weil das gesamte Gebäude mit einem Doppelboden versehen wurde, um dem kommenden Computerzeitalter zu dienen. Zum Zeitpunkt des Baus herrschte in der Architektur der Glaube, dass Schwarz schick und edel sei. Die gesamte Beleuchtung des Raums ist darauf ausgerichtet, dass Licht nur die Sehobjekte treffen soll. Das Ergebnis dieses Raumdesigns ist, dass das Tageslicht bereits an einem trüben Novembertag blendet. Die schwarzen Möbel reflektieren nicht nur den Himmel, sondern insbesondere die Downlights. Wer jemals solche Leuchten gemessen hat, weiß dass höchstens die Hälfte des darin erzeugten Lichts aus ihnen heraus kommt. Solche Objekte werden in der Lichttechnik als „Lichttötungsmaschinen“ bezeichnet. Die Stellwände sind übrigens neueren Datums.

Wann hätte ein Student der Lichttechnik die Chance, einen solchen Raum in einer Diplomarbeit zu untersuchen? In dem Baujahr des Gebäudes (etwa 1976) garantiert nicht, denn da gab es die 10:3:1 Regel so lange, dass keiner mehr darüber nachdenken würde. Diese Regel besagt, dass der Bereich der Sehaufgabe am hellsten sein soll (10). Die nähere Umgebung soll nicht viel dunkler sein (3). Die fernere Umgebung soll auch aufgehellt sein (1). Manche Leute vermuten, dass die Regel in den 1940er Jahren aufgestellt worden sei. Man kann aber nach tiefergehender Suche bereits in dem Buch von Leffingwell aus dem Jahr 1925 das Wissen finden, das eine solche Raumgestaltung verboten hätte.12William Henry Leffingwell, Office Management - Principles and Practice, London: A. W. Shaw Company, 1925. Der Architekt des Gebäudes hätte indes nicht in der Historie kramen müssen, die Norm DIN 5035 von 1972 enthielt sinnvolle Bereiche für Reflexionsgrade von Raumflächen und Möbeln, bei deren Einhaltung ein vernünftiges Erscheinungsbild hätte erstellt werden können. Dem Studenten der Lichttechnik hätte sein Betreuer gesagt, er solle seine Zeit etwas Sinnvollerem widmen.

Warum guckt aber ein erfolgreicher Architekt nicht in eine DIN-Norm? Die Antwort fällt so aus, dass man sie schwer glauben kann. Normen von Bauwesen und vom Bereich Licht (NABau, Gründung 1947; FNL, Gründung 1941) wurden bis in die 1990er Jahre hinein nicht koordiniert, obwohl es bestimmt kein Gebäude ohne künstliches Licht gibt. Es gibt keine finanziellen Anreize für einen Architekten, sich tiefer mit der künstlichen Beleuchtung zu beschäftigen.13Die Verordnung über die Honorare für Architekten- und Ingenieurleistungen enthält nur wenige Anreize für den Architekten, sich mit der künstlichen Beleuchtung zu beschäftigen. Dafür dürfen Ingenieure gestalterische Arbeiten nicht abrechnen. Siehe auch https://www.gesetze-im-internet.de/hoai_2013/ Zudem versteht sich die Gemeinschaft um Licht eher als eine geschlossene Gesellschaft denn als ein offener technischer Bereich. So darf jeder Erwachsene Mensch einen Antrag auf die Normung eines Sachverhalts stellen und neue Normenentwürfe kommentieren. Wie CIE-Publikationen entstehen, weiß ich hingegen bis heute nicht genau, obwohl meine erste Publikation dort bereit 1975 erfolgte. Deren Arbeit verfolge ich bereits seit 1967, weil meine Professoren wichtige Experten der CIE waren. Und ich selbst war lange genug im nationalen Komitee der CIE.

Nun zurück zum Thema Ignorieren. Meine Publikation von 1975 zeigte, dass die Empfindung Blendung nicht, wie seit mehr als 100 Jahren kritiklos angenommen, eine einzige Dimension darstellt, sondern mindestens zwei. Dies geriet aber schnell in Vergessenheit, obwohl ein anderer Doktorand, der dasselbe Thema bearbeitete und über meine Arbeit Bescheid wusste, später sogar CIE-Präsident wurde (Wout van Bommel). Dieser bekleidete hohe Posten in der Industrie. Am Ende seiner Karriere gab er in einer Keynote als dringende Aufgabe der kommenden Jahrzehnte in der Lichttechnik Blendung als eines der drei Themen an.14Wout van Bommel: Lighting tomorrow: what’s hot , Lux Europe, 2009, Istanbul Und dies im Hinblick auf die zunehmende Bedeutung der LED in der Zukunft. Seine Worte: „Good glare restriction in solid state lighting requires innovative optical designs. Here a totally new glare evaluation system is needed as the present systems have been empirically developed for circumstances totally different from solid state lighting.” (in deutscher Übersetzung: Eine gute Blendungsbegrenzung für Festkörper-Beleuchtung [LED] erfordert neue optische Designs. Hierfür wird ein vollständig neues Blendungsbewertungssystem benötigt, weil die jetzige aus empirischen Untersuchungen heraus entwickelt wurde, deren Umstände völlig anders waren.)

Das Thema Blendung, bereits ein Problem für Edison, harrt im Jahr 2022 einer grundsätzlichen Lösung. Dass das Thema dringend erledigt werden muss, behandelte ein Professor des Fachs, Völker, zum 100. Jubiläum der Lichttechnischen Gesellschaft.15Stephan Völker: Blendung – Ein Rückblick über 100 Jahre Forschung. Licht 2012 Gemeinschaftstagung Dessen Worte: „Der vorliegende Beitrag zeigt, dass es möglich scheint, die vorhandenen Blendungsbewertungsmodelle auf ein Modell zurückzuführen. Zurzeit fehlen noch einige Einflussgrößen, welche aber bereits in Kürze vorliegen dürften. Diese müssen anschließend für alle Anwendungsfälle (Innen-, Außen-, Kfz-, Sportstättenbeleuchtung, etc.) validiert werden.“ Wie unten noch gezeigt wird, ist das Validieren bereits ein großes Problem. Die Entwicklung eines Blendungsmodells würde nach Meinung von Völker gar noch mehrere Dissertationen erfordern. Will sagen, wir wissen nicht, was Blendung ist. Welche dieser Dissertationen heute nach 10 Jahren entstanden sind, steht nicht in der Literatur. Immerhin steht das Problem Blendung auf der Prioritätenliste der CIE Forschung für die Zukunft. Immerhin.16CIE Research Strategy Top Priority Topics: Integrated Glare Metric for Various Lighting Applications @

Die LED Beleuchtung, die van Bommel bereits 2009 als Grund für die Entwicklung eines neuen Blendungssystems angeführt hatte, wurde allerdings in Europa quasi mit Staatgewalt eingeführt. Die EU hat, angefangen mit der Glühlampe, alle anderen Leuchtmittel nach und nach praktisch komplett verboten. Im Zuge dieses Verbots wurde aber ein altes Problem wieder eingeführt, dessen Ignorierung auch Jahrzehnte gedauert hatte. Flimmern, jetzt unter neuem Namen flicker. Viele LED-Beleuchtungen widersprechen den EU-Arbeitsschutzvorschriften, weil Flimmern eindeutig eine Gefährdung ist. Im Straßenverkehr kann es auch eine direkte Gefahr bedeuten.

Flimmern und Flackern, eine Eigenschaft der Beleuchtung, der bereits die erste geschriebene Beleuchtungsnorm von 1935 ein Ende bereiten sollte, bildet im Jahre 2022 einen wichtigen Streitpunkt in Brüssel bei der Neufassung der EU-Öko-Design-Richtlinie.17RICHTLINIE 2009/125/EG DES EUROPÄISCHEN PARLAMENTS UND DES RATES vom 21. Oktober 2009 zur Schaffung eines Rahmens für die Festlegung von Anforderungen an die umweltgerechte Gestaltung energieverbrauchsrelevanter Produkte (Neufassung) Das Flimmern war einst zwar zu spät, aber erfolgreich beseitigt worden. Mit den Bemühungen, eine Energiesparlampe zu kreieren einerseits und LED als Standardlichtquelle einzuführen andererseits kam sie zurück und erfasste mehr Bereiche denn je.

 

Zunächst das Problem: Flimmern bedeutet zeitlich schnelle Änderungen der Helligkeit. Erfolgt der Vorgang langsam, wird er Flackern genannt. In der Norm DIN 5035 vom Jahre 1935 liest man noch von einer zeitlichen und örtlichen Stabilität. Die Flimmerfreiheit gehörte zu den behandelten Aspekten einer jeden Norm, weil flimmerndes Licht u.U. eine Unfallgefahr bedeutet. Daher gehört die Flimmerfreiheit zu den Qualitätsmerkmalen der Beleuchtung seit es Lichtnormen gibt.18Tralau, B., Dehoff, P., Liedtke, C.: Die Dimensionen der Lichtqualität: Ein neues ganzheitliches Konzept für Planung und Anwendung, Licht 2012, Tagungsband, 20. Gemeinschaftstagung Deutsche Lichttechnische Gesellschaft e.V.

Mit der Einführung der Leuchtstofflampe ab 1938 fingen die Menschen an, sich über Flimmern zu beschweren. Fachleute wiesen die Beschwerden als unbegründet zurück, weil der Lichtstrom einer Lampe nur mit 100 Hz (Europa) und 120 Hz (USA) schwanken würde, die das menschliche Auge nicht wahrnehmen kann. Die Flimmerverschmelzungsfrequenz des menschlichen Auges (FVF) läge aber weit darunter, ergo könne ein Mensch das Flimmern überhaupt nicht wahrnehmen.19Flimmerverschmelzungsfrequenz (FVF) ist diejenige Frequenz, oberhalb der das menschliche Auge wechselhaftes Licht als Dauerlicht empfindet. Präzise gesagt, FVF ist die Frequenz, bei der eine Folge von Lichtreizen als ein kontinuierliches Licht wahrgenommen wird. Die Frequenz läge schon bei sehr empfindlichen Personen (Kleinkinder) weit unter 50 Hz. Man konnte sich dabei immerhin auf honorige Wissenschaftler wie Manfred v. Ardenne berufen.

Spätere Untersuchungen20Schmidt, Lang, Heckmann: Physiologie des Menschen mit Pathophysiologie. 31. Auflage. Springer Verlag, Heidelberg 2010, ISBN 978-3-642-01650-9, S. 366 zeigten zwar, dass die FVF bis 90 Hz betragen kann, aber auch dann liegt die Frequenz des Lichts mit 100 Hz darüber. Kein Problem also!

Soweit die wissenschaftlich untermauerte Begründung, dass das Leuchtstofflampenlicht unmöglich flimmern konnte. Woher kommen aber die Beschwerden? Auf das Naheliegendste ist seltsamerweise niemand gekommen, Augenbewegungen. Wie Oberschüler im Physikunterricht vorgeführt bekommen, sehen Glimmlampen, die man an drei Phasen des Drehstroms betreibt, bei ruhendem Auge ruhig aus. Wenn man den Kopf hin und her bewegt, sieht man sie hingegen veränderlich. Dasselbe passiert mit LED. Betrachtet mit ruhendem Auge an einem unbewegten Ort, kann ihr Licht flimmerfrei sein. Wenn sich die Augen bewegen, z.B. vor einem großen Bildschirm, oder die LED, z.B. an einem Auto, kann es wunderbar flimmern.

Obwohl die Fachleute den Beschwerden scheinbar nicht glaubten, bot man doch Lösungen an, die sich ganz plausibel anhörten. Jedenfalls lernen das die Studenten der Lichttechnik ohne Protest. Die eine Lösung heißt Duo-Schaltung und besteht aus zwei Lampen, deren Lichtmaxima gegeneinander verschoben sind. Rechnerisch beträgt dann die Flimmerfrequenz 200 Hz. Noch besser scheint die Dreiphasenschaltung zu sein, bei der jede dritte Lampe an einer Phase hängt. Dann hat man 300 Hz. Dummerweise hörten damit die Beschwerden nicht auf.21Bei der Duo-Schaltung werden zwei Lampen zeitlich versetzt betrieben. Damit sich ihr Licht mischt, müssten sie aber örtlich an gleicher Stelle betrieben werden. Das geht leider schlecht. Also mischt sich das Licht unvollkommen. Bei der Dreiphasenschaltung werden die drei Stränge des Drehstroms jeweils an eine benachbarte Lampe angeschlossen. Mischen tut sich ihr Licht, wenn sie zusammen angebracht sind. Das macht aber wenig Sinn.

Die von Fachleuten über Jahrzehnte vehement bestrittene Störung wies ein Forschungsprojekt als eine Gesundheitsgefährdung nach.22Wilkins, A.J.; Nimmo-Smith, I.; Slater, A.I.; Bedocs, L.: Fluorescent lighting, headaches and eyestrain, Lighting Research and Technology, 1989, S. 11-18 Etwa die Hälfte der Kopfschmerzen, die Menschen in einem Büro empfanden, verschwanden, als man die Ursache, das Flimmern, beseitigte. Das Problem wurde in der Lichttechnik erst in den 1990er Jahren anerkannt, als man die technische Lösung hinreichend perfektioniert hatte, das elektronische Vorschaltgerät. Dieses war gegen Ende der 1960er Jahre erdacht worden, aber wegen der hohen Kosten eher vernachlässigt.

Während man mit dem elektronische Vorschaltgerät große Lampen flimmerfrei betreiben konnte, weigerten sich die sog. Energiesparlampen, also Kompaktleuchtstofflampen, den Dienst. Diese waren im Jahre 1974 nach der Ölkrise auf den Markt gekommen und hatten sich in den 1980er Jahren weit verbreitet. Ihr Flimmern leider auch. Dies ließ sich mit einem entsprechenden Vorschaltgerät beseitigen. Das war aber zu teuer.

Exakt dasselbe erlebt man nun mit den LEDs. Diese sind zwar nicht so instabil wie einst die Kompaktlampe, besitzen aber eine für Beleuchtungszwecke unangenehme Eigenschaft. Sie sind zu schnell. Denn eine LED ist nichts anderes als eine auf Beleuchtung getrimmte Laserdiode. Sie erlischt bei jedem Nulldurchgang des Stroms. Folgerichtig würde sie bei einem Gleichstrombetrieb nicht flimmern. Tut sie auch nicht. Bei einer sehr hohen Frequenz kann man auch kein Flimmern empfinden. Wozu also der ganze Streit um Flicker, mit dem man sich selbst bei der EU-Kommission befassen muss? Und warum führt man eine Technologie mit einem bekannten Fehler ein, wenn auch Rezepte gegen diesen Fehler bestehen? (Mehr zu diesem Problem in der angeführten Literatur23Hier beispielhaft einige Literaturstellen zum Thema Flicker: empfehlenswert: leicht verständliche Erklärungen https://www.energie-umwelt.ch/definitionen/1425, detaillierte Angaben zu Techniken, Messungen etc. https://www.derlichtpeter.de/de/lichtflimmern/. Zu gesundheitlichen Wirkungen: Arnold Wilkins; Jennifer Veitch; Brad Lehman: LED lighting flicker and potential health concerns: IEEE standard PAR1789 update, oder BATRA, SUNIL; PANDAV, CHANDRAKANT S.; AHUJA, SONIA: Light Emitting Diode Lighting Flicker, its Impact on Health, and the Need to Minimise it. Zu den Begriffen: Temporal Light Artefacts – TLA Flimmern und Stroboskopeffekt, ZVEI Die Elektroindustrie, 2017. @ abgerufen 22.09.2022.)

Validieren – das leidige Problem

Um die Bedeutung des Validierens zu verstehen, muss man weder Techniker noch Wissenschaftler sein. Man weiß es nämlich auch so, vielleicht nur nicht, dass es Validieren heißt. Gültigkeit wäre ein einfachere Erklärung. Wenn auf einem Gerät, das eine Ware wiegt, eine Zahl erscheint, möchte man wissen, ob das wirklich das Gewicht ist. Wenn das wahr ist, bedeutet die Anzeige auf dem Gerät das Gewicht der Ware. Idealerweise ist die Waage auch geeicht. Dann entspricht die Anzeige dem wahren Gewicht.

Die Antwort ist nicht immer so einfach, denn man kann nicht alles auf eine Waage legen. So misst man das Gewicht von einem Felsstück, indem man sein Volumen berechnet und daraus das Gewicht ableitet. Aber nicht alle Felsstücke mit den gleichen Abmessungen und aus dem gleichen Material weisen dasselbe Gewicht auf. Auf der Erde ändert sich das Gewicht eines Objektes etwas von Ort zu Ort, während im All fliegende Felsstücke erst ein Gewicht bekommen, wenn sie auf der Erde oder auf dem Mond gelandet sind.

Die Fragestellung, die sich hier so trivial anmutet, bildete in den 1970er Jahren den Grund für eine der größten Katastrophen des Industriezeitalters.24

Am 28. März 1979 havarierte der Reaktor auf Three Mile Island. Die psychologischen und politischen Folgen fielen sogar noch schwerer aus als der Unfall selbst. Die Mannschaften erkannten den Unfall und setzten den Reaktor unter Wasser, um den radioaktiven Prozess zu stoppen. Als alles Wasser in den Reaktor gepumpt worden war und ein ausreichender Wasserstand angezeigt wurde, war aber gar kein Wasser darin. Im Reaktor war Wasserstoff entstanden, und das Kühlwasser war dadurch herausgepresst worden. Wieso zeigten die Geräte aber einen ausreichenden Wasserstand an? Die Anzeige zeigte eigentlich nur die Menge des eingepumpten Wassers an, dass unter Berücksichtigung des Gefäßes in einen Pegel umgerechnet wurde.

Hätte man den Pegel im Reaktor selbst gemessen, hätten die Mannschaften gleich gemerkt, dass der Wasserstand nicht stieg. Die Anzeige der für die Sicherheit wichtigsten Größe, für den Wasserstand in einem Reaktor, zeigte nicht diese selbst. Die Mannschaften in der Warte glaubten aber, sie würden den Wasserstand ablesen, weil an der Anzeige stand, sie würde den Wasserstand anzeigen. Das tat sie aber nicht. Angezeigt wurde die Höhe des Wassers, das es erreichen würde, wenn es im Reaktor geblieben wäre. Ein bis dato unbekannter Effekt hatte dafür gesorgt, dass im Reaktor überhaupt kein Wasser war.

Die Antworten auf das Problem unterscheiden sich je nach Disziplin recht stark im Wortlaut, aber nicht in der Zielsetzung. So bedeutet Validierung z.B. beim Chipentwurf den Vergleich des Chipdesigns mit der vorgegebenen Spezifikation, und in der Informatik die Nachweisführung, dass ein System die Praxisanforderungen erfüllt. Es geht darum, dass eine gemessene Größe der zu messenden entspricht, so z.B. wenn man den Intelligenzquotienten misst und behauptet, er würde die Überlebensfähigkeit eines Individuums angeben. Tut er das?

Die Lichttechnik muss sich mit sehr ernsthaften Validierungsproblemen befassen, denn alle ihre Größen sind linear und nach physikalischen Entitäten definiert. So soll die Leuchtdichte der Helligkeit entsprechen. Ohne Zweifel entspricht sie nur der Strahldichte einer Quelle. Aber die Helligkeit, in der wir leben, bestimmt, wie gut wir sehen. Dies kann jeder im Laufe eines Tages und einer Nacht selbst feststellen, falls er es noch nicht wissen sollte. Eine solche Ahnungslosigkeit ist aber sehr unwahrscheinlich, weil das die allgemeine Lebenserfahrung lehrt. Was bedeutet aber eine Verdoppelung der Leuchtdichte z.B. für das Lesen einer Zeitung? Wenn man diese Frage beantworten will, stößt man auf unerwartete Schwierigkeiten. Das eine Experiment zeigt gar nichts an, während man bei anderen eine kleine oder aber auch eine größere Steigerung feststellen kann.

Selbst bei sorgfältig geplanten Experimenten mit Lesen wird man feststellen, dass sich das Aufzeigen einer Beziehung zwischen der lichttechnischen Größe und der menschlichen Leistung schwierig gestaltet. Lesen ist ein komplexer intellektueller Vorgang und eignet sich also eher nicht zum Nachweis einer Beziehung zur Helligkeit. Was tun? Man kann z.B. die Erkennungsgeschwindigkeit von kleinen Objekten zum Maßstab nehmen. Oder die Fähigkeit, kleine Objekte überhaupt zu erkennen. Dies gelingt tatsächlich im Labor. Aber was sagt ein schnelleres Erkennen von kleinen Fliegen über unsere Fähigkeit zum Löten von Widerständen in eine Platine oder zum Feststellen von Tippfehlern beim Korrekturlesen aus? Das ist eine Frage der Validierung.

Die Fragestellung lässt sich auch an einem anderen Beispiel verdeutlichen: die Frage der Blendung. Diese war bekannt, bevor sich die (elektrische) Lichttechnik als solche formte. Aber auch in unserem Zeitalter weiß man nicht so genau, was sie ist und welche Größe man nehmen kann, um Blendung zu charakterisieren. Man hat sich vor etwa 70 Jahren die Aufgabe leicht gemacht und postuliert, man könne Blendung u.U. sogar messen. Sie hänge mit der Streuung von Licht im Auge zusammen. Da man sie mit physiologischen (oder physikalischen) Methoden bestimmen konnte, wurde sie physiologische Blendung genannt. Ihre wichtigste Anwendung findet diese Größe im Straßenverkehr. Es wird versucht zu vermeiden, dass sich entgegenkommende Autofahrer mit ihren Scheinwerfern blenden. Die dazu angestellten Untersuchungen wurden so gedeutet, dass die wirksame Größe die Lichtstärke sei. So bauten seit jeher die gesetzlichen Bestimmungen zur Begrenzung der Blendung auf der Lichtstärke auf.25Bei Autoscheinwerfern misst man die Beleuchtungsstärke in bestimmten Entfernungen. Diese ist direkt proportional der Lichtstärke. Zudem glaubt der zuständige Verkehrsminister, dass die physiologische Blendung die maßgebliche Größe für den Straßenverkehr sei.

Die Lage änderte sich mit der Einführung von Xenon-Lampen, die sehr hell sind, d.h. eine sehr hohe Leuchtdichte besitzen. Diese erfüllen zwar die gesetzlichen Bestimmungen, die auf der Lichtstärke aufbauen, jedoch hat der Volksmund ihnen sehr schnell einen bezeichnenden Namen gegeben: Dränglerlicht. Mit der Einführung von LED-Scheinwerfern änderte sich die Lage noch einmal. Sie blenden sehr stark, wenn die Scheinwerfer nicht richtig eingestellt sind. Da die Kraftfahrzeuge eine stabilere Justierung haben als Fahrräder, blenden nunmehr kleine Fahrradscheinwerfer mehr als die Autoleuchten.

Das Ganze ist eine weitere Frage der Validität. Zum einen stimmt es nicht oder bedingt, dass die physiologische Blendung das Problem der Verkehrsteilnehmer darstellt. Es könnte eher die sog. psychologische Blendung sein, so genannt, weil die Empfindung zwar existiert, aber bislang nicht mit einer physiologischen Vorgang in Verbindung gebracht werden konnte. Für diese wird die Leuchtdichte als die maßgebliche lichttechnische Größe bezeichnet. Allerdings muss man diese Vorstellung in Zweifel ziehen, denn man kann eine in Lichtstärke angegebene Größe mathematisch in Leuchtdichte umrechnen. D.h., es ist einerlei, ob man die Wirkgröße als Lichtstärke oder Leuchtdichte angibt. Die Lichtstärke einer Quelle ergibt sich aus der Leuchtdichte und der leuchtenden Fläche.

Nicht so die Blendwirkung. Während man ermittelt hat, dass die physiologische Blendung mit der Lichtstärke linear wächst, gilt für die psychologische eine quadratisch mit der Leuchtdichte zunehmende Wirkung. So erklärt sich, warum die helleren, aber kleineren Scheinwerfer stärker blenden als die früheren mit einer größeren Fläche. Völker gibt dazu an, dass allgemein eine quadratische Beziehung zwischen der Leuchtdichte und der Blendung gilt.26Völker weist nach, dass die psychologische Blendung über den gesamten geometrischen Bereich der heute verfügbaren Scheinwerfer eine deutliche Abhängigkeit von der Scheinwerfergröße aufweist.27Stephan Völker: Blendung – Ein Rückblick über 100 Jahre Forschung. Licht 2012 Gemeinschaftstagung

Das Validieren ist, wie man an diesem Beispiel sieht, keine theoretische Angelegenheit, sondern eine sehr praktische. Und weil der Bewertungsmaßstab für Autoscheinwerfer nicht valide ist, fühlen sich Millionen geblendet.

Die Bedeutung des Validierens wird mit der neuesten Entwicklung auf diesem Gebiet enorm zunehmen. Denn man hat im letzten Jahrzehnt die Aufgabe der Beleuchtung geändert, die seit der Erfindung der ältesten Lampe, also ca. 17.000 Jahre, bestanden hat. Die Beleuchtung diente über die gesamte Zivilisationsgeschichte dazu, Objekte und Umgebungen zu beleuchten, damit man diese sehen kann. Dies gilt seit Kurzem nicht mehr. Beleuchtung soll jetzt auch die Gesundheit fördern. Es sollen andere darüber befinden, ob dies Sinn macht. Wenn man aber davon ausgeht, dass es Sinn macht, muss man sehen, welches Licht diese Wirkung auslösen soll. Es ist das Licht, dass direkt in das Auge eintritt. Für die gesamte Geschichte der Menschheit war es nur das reflektierte Licht, das die Gegenstände und die Umgebung sichtbar machte. Wenn wir es in 120 Jahren künstliches Licht nicht geschafft haben, die Wirkungen auf das Sehen ganz zu verstehen, wie erfolgreich wird man wohl werden, die Wirkungen auf die Gesundheit und Physiologie zu validieren?

In der üblichen Vorgehensweise wird Validierung in dem Sinne verstanden, dass man zunächst bestimmt, was ein Produkt, z.B. eine Software, leisten soll, und danach die Eigenschaften des Produktes an den Anforderungen bewertet. Dahinter steckt, unschwer zu erkennen, eine Qualitätsbestimmung. Die Qualitätswissenschaft misst die Eigenschaften von z.B. einem Kraftfahrzeug nicht an irgendwelchen allgemeinen Kriterien, sondern an seiner Eignung für den vorgesehenen Zweck. So wird manchem teuren Sportwagen eine nur geringe Qualität zugeschrieben, wenn es sich um den Transport von Baumaterialien geht. Dafür muss sich ein „hochwertiger“ LKW nicht für den Personentransport eignen. Seine Qualität ist gering. Allerdings gemessen an der vorliegenden Aufgabe. Allgemein heißt es: Qualität ist Eignung für den vorgesehenen Zweck.28Siehe ISO 9000ff. und Erläuterungen dazu https://de.wikipedia.org/wiki/Qualit%C3%A4tsmanagementnorm.

In diesem Sinne wäre für die Beleuchtung eine Qualitätsbeschreibung erforderlich. Denn ob eine gegebene Beleuchtung eine Qualität aufweist, kann man nur dann ermitteln, wenn die Anforderungen dazu klar festgelegt sind. Es hat aber fast ein Jahrhundert gedauert, bis der Begriff Qualität Eingang in die Lichttechnik gefunden hat. Leider handelt es sich dabei um eine Definition, die andernorts schon längst vorliegt. Die Anforderungen muss man noch erarbeiten.29Der Begriff Beleuchtungsqualität wurde ins Internationale Wörterbuch der Beleuchtungstechnik erst im Jahre 2021 aufgenommen: 17-29-029 lighting quality - degree of excellence to which the totality of lighting characteristics fulfils user needs and expectations or other applicable requirements. Es geht also darum, wie gut eine Beleuchtung die Bedürfnisse und Erwartungen des Benutzers erfüllt oder andere anwendbare Anforderungen.

Zwar entspricht der erste Teil der allgemeinen Qualitätsdefinition. Aber dort fehlt der zweite Teil: andere anwendbare Anforderungen.

Die Anforderungen erarbeiten, an denen man die Qualität des Lichts misst, ist eigentlich nicht nötig in allen Fällen, in denen die Lichttechnik eine Zwecklösung anbietet. So kann man z.B. Flakscheinwerfer an ihrer Lichtstärke und am Fehlen von Streulicht messen. Oder Operationsleuchten an der Farbwiedergabe, der erzeugten Beleuchtungsstärke und deren Gleichmäßigkeit. Schwierig wird die Antwort allerdings, wenn man nicht so genau angeben kann, wozu eine Beleuchtung eigentlich dient.

Eine hervorragende Erklärung hierzu kann man aus der Methode der Ermittlung der Beleuchtungsstärken in DIN EN 12464-1 ableiten, die die Norm angeblich benutzt. Diese Norm gibt Werte für verschiedene Beleuchtungsstärken vor (getrennt im Bereich der Sehaufgabe, Umgebung, Wand, Decke und zylindrische Beleuchtungsstärke). Hierzu wird, wie bereits angeführt, erklärt:

Die Werte gelten für übliche Sehbedingungen und berücksichtigen die folgenden Faktoren:

  • psychophysiologische Aspekte wie Sehkomfort und Wohlbefinden;
  • Anforderungen an Sehaufgaben;
  • visuelle Ergonomie;
  • praktische Erfahrung;
  • Beitrag zur Betriebssicherheit;
  • Wirtschaftlichkeit.“

 

Demnach kann man die Qualität einer gegebenen Beleuchtung kaum feststellen, weil man keine fassbaren Kriterien finden kann. Anforderungen an Sehaufgaben? Wessen Anforderungen an welche Sehaufgaben? Beitrag zur Betriebssicherheit? Betriebssicherheit wovon? Wirtschaftlichkeit? Seit wann ist die Wirtschaftlichkeit eines Gegenstands ein Qualitätskriterium, das man gemeinsam mit Wohlbefinden verrechnen kann, um zu einer funktionellen Größe - Beleuchtungsstärke - zu kommen?

Vor allem an dem Faktor Wirtschaftlichkeit erkennt man, dass es sich um eine hohle Phrase handelt. Denn das Wort taucht im gesamten lichttechnischen Normenwerk nur einmal, und nur an dieser Stelle auf. Wirtschaftlichkeit bedeutet im Allgemeinen „Übereinstimmung mit dem Prinzip, mit den gegebenen Mitteln den größtmöglichen Ertrag zu erwirtschaften oder für einen bestimmten Ertrag die geringstmöglichen Mittel einzusetzen”. Das bedeutet, dass man die Wirtschaftlichkeit einer Beleuchtung nur in Verbindung mit der Erfüllung der Aufgaben dieser bestimmen kann. Diese gegen die Aufgaben zu verrechnen, ist daher ausgemachter Unsinn.

Da man anstelle von klaren Qualitätskriterien ein Sammelsurium von Faktoren nennt, die man angeblich irgendwie berücksichtigt, fehlt der Lichttechnik der Qualitätsbegriff. Das einzige Werk, das sich mit diesem Thema befasst, die LiTG-Broschüre30Dehoff, P.; Tralau, B.: Lichtqualität - ein Prozess statt einer Kennzahl Methodik zum Erfassen der Anforderungen an eine Lichtlösung und zu ihrer Bewertung zur Bestimmung ihrer Qualität, Deutschen Lichttechnischen Gesellschaft e.V., Berlin, 2017 ISBN 978-3-927787-58-2 zum Thema, trägt ausgerechnet den Titel „Lichtqualität – Ein Prozess statt einer Kennzahl. Und geht von zwei dominierenden Ansätzen aus, und nur von diesen:

Lichtqualität ergibt sich aus der Summe von Faktoren, die eine Lichtlösung beschreiben und in keinem Zusammenhang zur Beleuchtungsstärke stehen (Stein, Reynolds und McGuiness, 1986).“

Weder in dem einen noch in dem anderen Ansatz zur Bestimmung der Lichtqualität gibt es also einen Zusammenhang mit der Beleuchtungsstärke. Warum steht aber in jeder lichttechnischen Veröffentlichung dieser Begriff in vielfacher Wiederholung? Meine Antwort ist: Niemand kennt ein Kriterium, an dem man die Güte einer Beleuchtung misst, weil Licht und Beleuchtung eine horizontale Technologie ist. Man erzeugt Licht für verschiedene Zwecke. Ist der Zweck angegeben, ist die Bestimmung der Qualität einfach. Da Licht aber nicht nur die beabsichtigte Wirkung hervorruft, sondern viele Nebeneffekte hat, kann das für einen vorgegebenen Zweck erzeugte Licht auch unbeabsichtigte Wirkungen hervorrufen. Manche davon können sogar positiv sein.

Wer also lichttechnische Größen oder ihre Wirkungen validieren will, wird damit selten Glück haben. Die Tabelle unten zeigt ein Beispiel für eine Qualitätsbewertung aus der LiTG-Schrift. Es zeigt lediglich eine Bewertung für Büros mit vier Gruppen von Anforderungen (Skala 1 = schwach relevant, 3 = sehr relevant).

Ob es jemals einem Lichtplaner gelingen wird, all diese Anforderungen angemessen zu berücksichtigen und so eine qualitativ hochwertige Bürobeleuchtung zu erstellen?

Kurz und bündig gesagt: Die Lichttechnik hat ein ungelöstes Qualitätsproblem und damit ein Validierungsproblem für Studien generell.

Technik ist keine Wissenschaft

Bei aller Kritik an ihr muss man vor den Augen halten, dass die Lichttechnik keine Wissenschaft ist und auch nicht von Wissenschaftlern betrieben wird. Zwar gibt es mehrere Universitätsinstitute für Lichttechnik, deren Vorgehen unterscheidet sich aber selbst bei wissenschaftlichen Arbeiten von der Vorgehensweise von Akademikern, die sich ausschließlich der Wissenschaft verpflichtet fühlen bzw. Grundlagenforschung betreiben.

Die Wissenschaft beruht auf dem Bestreben, Wissen zu generieren und akkumulieren. Hierbei sollen Fehler und Irrtümer möglichst vermieden werden. Und zwar für unbestimmte Zeit. Eine Erkenntnis darf nur einmal publiziert werden. Alle späteren Autoren dürfen sie nur zitieren, und das gilt auch für den Autor selbst. Wissenschaftliche Publikationen werden auch dann nicht zurückgezogen, wenn sich die Autoren geirrt haben. Die Logik dahinter ist, dass auch ein Irrtum einen Erkenntnisgewinn darstellen kann, vielleicht einen entscheidenden, denn an Fehlern kann man sogar besser lernen als am Erfolg.

Dies hat seinen Preis. Die Wissenschaft ist extrem konservativ, man darf nicht einmal sehr naheliegende Vermutungen veröffentlichen. Ein Papier mit einer Aussage wie „ich habe die Erfahrung, dass …“ wird in kaum einer Publikation zu finden sein. Der Autor muss sich zurücknehmen und möglichst distanziert in dritter Form möglichst wohl begründet schreiben. Damit eine später auftauchende bessere Erkenntnis akzeptierbar bleibt, werden die Bedingungen, unter denen eine Erkenntnis entsteht, penibel beschrieben. Zudem beginnt jede gute Arbeit mit einer Bilanzierung des Bekannten. Und zu jeder Publikation gehört eine Diskussion ihrer Schwachstellen. Denn die Wissenschaft impliziert, dass keine Studie perfekt sein kann und dass ein Fortschritt nicht nur möglich ist, sondern sehr wahrscheinlich.

Anders in der Technik. Sie unterliegt dem Prinzip der Alterung. Wichtige Erkenntnisse aus 20 oder gar 50 Jahren können mit einem Strich Makulatur werden. Eine neue Technik muss nicht gut sein, sondern nur besser. Diese Vorstellung kann man am Beispiel der Erstellung von Kugeln für Kugellager erläutern. Kugeln sind bekanntlich rund, was aber entweder einer oberflächlichen Betrachtung stammt oder einer mathematischen Darstellung einer Kugel. In Wirklichkeit ist keine einzige Kugel rund. Man legt die Materialstücke, aus denen später eine Kugel werden soll, in eine Kugelmühle, wie sie einst zum Mahlen von Stein oder ähnlich entwickelt wurde. Nach einer bestimmten Zeit sind die Materialstücke recht rund. Sie werden für übliche Kugellager eingesetzt. Will man sehr leise Kugellager herstellen, muss man die Prozedur fortsetzen, bis die erforderliche Annäherung an die Kugelform erreicht ist.

Braucht man sehr präzise Kugeln, bleibt nur der Weg, aus den feinen Kugeln die feinsten auszusuchen. Aber auch diese sind nicht absolut rund, sondern rund genug. Erreicht man in der Technik einen angestrebten Zustand eines Produktes nicht auf Anhieb, muss man sich überlegen, ob der Zwischenstand reicht. Dann kommt das Produkt auf den Markt. Und es kann jetzt jeder Erfahrungen damit sammeln, manchmal auch trübe – Stichwort Montagsauto. Dieses „Produkt“ deutet nicht etwa auf einen Unfall hin oder Versagen, es gehört vielmehr zur technischen Entwicklung. Bei mechanischen Objekten wie Autos oder Druckern spricht der Qualitätsingenieur von MTBF (mean time between failures), also von der anzunehmenden Zeit, bis ein Fehler auftritt. Die angestrebte MTBF wird nicht etwa zu Produktionsbeginn erreicht, sondern nach einer fest geplanten Zeit.

Bei Softwareprodukten hat MTBF sogar einen Namen, release oder version. Mit release 0,9 zeigt der Entwickler an, dass sein Produkt noch nicht den ihm vorschwebenden Zustand erreicht hat, aber schon gut brauchbar ist. Bekannte Produkte wie Windows von Microsoft haben derzeit die Versionsnummer 11, wobei diese bedeutet, dass sie die elfte Generalüberholung ist. Bei MacOS von Apple ist die Versionsnummer bei 14 angekommen. Bei Autos herrscht die Tradition der Versionsnummerierung zwar nicht. Aber zwischen der Postkutsche, die das Vorbild des ersten Autos bildete, und einem modernen Auto liegen sicherlich 30 oder mehr Versionen.

Während der Volksmund solche Praktiken geißelt, siehe „Montagsauto“ oder „Bananensoftware“ (Software, die beim Kunden reift), weiß jeder Entwickler, dass technischer Fortschritt nur selten auf einem anderen Weg zu erreichen ist. Hätte man bei der Entwicklung der Beleuchtungstechnik die obige Tabelle der Anforderungen zuerst aufgestellt und dann die Entwicklung betrieben, wäre die Lichttechnik vermutlich nicht viel weiter als  zu Zeiten von Edison.

Dies soll keine Entschuldigung für die Irrungen und Wirrungen der Lichttechnik sein. Es erklärt, warum die Geschichte der Technik neben einem imponierenden Erfolg auch viele Pleiten aufzuweisen hat.