Toxikologie
In Sachen Toxikologie muss weiter zurückgegangen werden als in den Themen Immunologie, Neurologie und Umweltmedizin. Bei den letzteren ging es u. a. darum aufzuzeigen, dass es sich nicht um völlig Neues, Unbekanntes handelt und die wissenschaftlichen Wurzeln schon Jahrzehnte zurückreichen. In Sachen Toxikologie aber wurde so gründlich Destruktion betrieben, dass die wissenschaftlichen Grundlagen, insbesondere die wissenschaftliche Begrifflichkeit rekonstruiert werden muss, bevor auf die modernen Herausforderungen – Giftcocktails, Overload, Toxikokinetik – eingegangen werden kann.
Die Dosis macht das Gift. Das ist die Definition der Toxikologie nach Paracelsus, ein Paradigmenwechsel der Neuzeit von der Mystik zur Naturwissenschaft – im Anfang des 16. Jahrhunderts (*1493 – †1541 – Lehre; „Archidoxien“ 1526). Die Definition lautet im Wortlaut: „Alle Dinge sind Gift, allein die Dosis macht, dass ein Ding kein Gift sei.“ (Septem Defensiones 1538). Paracelsus definiert in diesem Hauptwerk 7 Ursachen von Krankheiten. Eine davon ist die toxische Dosis. Dieses „Alle Dinge sind Gift“ klingt sehr modern, als hätte er den Umweltbericht des Sachverständigenbeirates von 1987 gekannt (s. u.).
Dieses Kapitel müsste nicht davon anfangen, wenn es nicht heute eine neue Zielrichtung gäbe.
Paracelsus hat von der Wirkung auf die Dosis geschlossen, nicht umgekehrt. Die Erklärung für die Wirkung war gefragt. Heute werden Gründe für den Ausschluss einer Wirkung gesucht. Das ist schon eine Perversion an sich: die Unbedenklichkeitstoxikologie. Diese produziert Unbedenklichkeit durch drei Paracelsus-Perversionen. Perversion ist hier im ursprünglichen Sinn gemeint: Umkehr der Richtung, Kopfstand, Vorzeichenwechsel.
Da wird zum Ersten der erste Halbsatz – Alle Dinge sind Gift – ins Gegenteil verkehrt – Gift als Ausnahme. Zum zweiten wird der Dosisbegriff rechnerisch relativiert (Streichung des Zeitfaktors) und schließlich wird die Akutschwelle – d. h. die sofortige Reaktion, also die stärkste toxische Dosis zum Maßstab überhaupt. So wird die chronische Dosis marginalisiert und die chronische Vergiftung zum allgemeinen Normalzustand.
Ad 1: Jahrzehntelang war der Nachweis einer ubiquitären Verbreitung gleichbedeutend mit Unbedenklichkeit. Was überall zu finden ist, was allgemein anzutreffen ist, gilt als normal und damit unbedenklich. Untersuchungsbedarf wurde bisher immer nur dann gesehen, wenn auffällige – im Sinne von herausragende – Werte bekannt wurden. Doch in den 80er Jahren kamen erste Zweifel auf. Die chemische Analytik konnte nämlich noch tiefer als in den Mikrobereich hinabschauen. Man fand etwa Blei in Pinguineiern. Man erkannte, dass DDT oder HCB den lipophilen Pfad der Nahrungskette durchdrungen hatten, Stoffe, die dort nichts verloren hatten. Wegen der Akkumulation solcher Stoffe in der Biosphäre, stellt sich die Frage nach der chronischen Schwelle von dieser Seite her und es wurde erkannt, dass für Cadmium, Blei, Nitrat im Trinkwasser und den Ultragiften Dioxin und PCB, sowie einige Pestiziden die Belastungsgrenze erreicht war (SRU 1987, Ziffer 94*). So ist seit 1987 wissenschaftliche Erkenntnis, dass gilt:
Normal ≠ gesund
Normal ist hier im ursprünglichen Sinne gemeint, nämlich dass es eine Norm ist und zwar in dem mathematischen Sinn der Normalverteilung nach Gauss. Die Wirkschwelle liegt nicht mehr außerhalb der Normalverteilung. Die Unbedenklichkeitstoxikologie stellt den Paracelsus auf den Kopf, indem sie von „nichts ist Gift“ ausgeht. Paracelsus wusste es schon vor 500 Jahren besser und der Sachverständigenbeirat zählt eine Stoffliste auf, deren ubiquitäre Wirkung erweisen ist. So zerstört die Unbedenklichkeitstoxikologie den Dosisbegriff
Ad 2 wurde für Unbedenklichkeit der Dosisbegriff schon seit langem amputiert. Amputationsopfer ist der Zeitfaktor. Die Habersche Regel lautet:
Dosis ist Konzentration mal Zeit.
Bei einer chronischen Vergiftung ist die Zahl für die Konzentration klein und die Zahl für die Zeit groß. Die große Zahl wird weggelassen. So hat man dann eine kleine Zahl, die keine Dosis ist, aber eine kleine Dosis vortäuscht. Damit wird dann gar eine Wirkung ausgeschlossen, selbst wenn das Toxin und seine in der Literatur beschriebene Wirkung feststehen.
Es ist ein Missbrauch von Wissenschaft, sie dazu zu benutzten, etwas auszuschließen, was plausiblerweise naheliegt, nur um genauere wissenschaftliche Studien und Bewertungsinstrumente zu blockieren. Denn es ist aufwändig, die Dosis, die kein Gift ist, von der zu unterscheiden, die es ist, ganz besonders dann, wenn sie sich auf Jahre verteilt. Dennoch wissen wir über die Epidemiologie Bescheid.
Ad 3 wird der Maßstab extrem verbogen: „Zeitnähe“ wird notorisch als toxikologisches Hauptkriterium ins Spiel gebracht. Die akute Wirkschwelle wird als toxische Wirkschwelle überhaupt festgelegt. Es ist der Größe des Fehlers durchaus angemessen, dass statt die Dosis der Langzeitexposition zu bestimmen nach neuen Krankheitsdefinitionen gesucht wird, die absurder nicht sein könnten – wie etwa Toxikopie (Hysterie durch Toxikologiebücher) oder der Wahn vergiftet zu sein. Das ist grobes Verbiegen von Wissenschaft.
Dass kleine Dosen über eine lange Zeit schwere Schäden anrichten können, hat die Epidemiologie gezeigt. Die Erkennung von Berufskrankheiten beruht darauf.
Diese Pathologie ist langsam. Hier gibt es keine zeitnahen Reaktionen, nur sehr kleine Konzentrationen und es gibt immer Kombinationswirkungen. In Sachen TE hat die WHO durch vier Schweregrade dem Rechnung getragen. Dazu die passenden Dosen aufzufinden, ist eine anspruchsvolle Aufgabe für die Toxikologie und darin hat sie bisher versagt. Sie wurde auch zum Versagen gedrängt. Sie könnte schon, wenn sie wollte, sie hat Ansätze erarbeitet. Dann aber kam die Wende Ende der 80er Jahre.
Deshalb kennen wir, wie im Folgenden erläutert werden wird, die Dosis eigentlich nicht. Das liegt in der Sache, denn schließlich ist es die Aufgabe Nichts zu messen und das möglichst genau. Aber es gibt Zugänge, die zu diesem schwarzen Loch führen und die Größenordnung ist schon in den 80erJahren sichtbar geworden. Der Unterschied beträgt einen Faktor 1 000 und zwar mit erstaunlicher Regelmäßigkeit bei Stoffen, die ganz unterschiedliche physikalische, chemische und vor allem biochemische Eigenschaften besitzen, wie etwa Lösemittel und Arsen. Der Faktor kann noch höher sein, wenn man ein Problem einer Exposition auch noch in Einzelstoffe zerlegt. Dann kann die Fehlerquote wesentlich höher werden (s. u.).
Ernsthafte Bemühungen gab es in den 80er Jahren und die Ergebnisse zeigen, dass es in der Tat aufwändig ist, sich einer Dosis für die Langzeitbelastung anzunähern. Man schaue sich nur die EPA-Bewertung von Dioxin an (EPA ##): auf 2 500 Seiten werden alle Informationen verarbeitet, die es gelang beizubringen, und der Bewertungsband selbst ist 100 Seiten stark. Aber auf diesem Weg wurden Methoden entwickelt, die geeignet sind, unseren Lebensraum zu retten. Das wurde erkannt und prompt erfolgte die Rolle rückwärts (vgl. Teil I).
Dagegen ist eine ganz neue Toxikologie gesetzt worden, eine, die nicht erklärt, sondern ausschließt. Das ist nun eigentlich Thema von Teil III: Verwirrung stiften, Begriffe umdeuten und Gesetze unterlaufen. Da es aber mit der Attitude der Wissenschaft daherkommt, muss zunächst der Stand der Wissenschaft geklärt werden. Es ist im Folgenden nicht leicht die Grenze zu ziehen, da diese Vermischung mit den veralteten Kriterien schon weit fortgeschritten ist und tatsächlich Studien auftauchen, in den das Rad schon wieder neu erfunden wird.
Deshalb ist es notwendig, Toxikologie von Grund auf zu rekonstruieren und dem allgemeinen Bewusstsein zugänglich zu machen.
Also fangen wir mit der Dosis an.
Paracelsus und die Dosis
Nochmal: nach Paracelsus geht es darum, die Ursache einer pathologischen Veränderung aufzuklären. Seine Dosisdefinition diente der Sachaufklärung. Die Frage ist, welche Dosisdefinition hilfreich ist.
Maßstäbe
Zu Zeiten des Paracelsus wäre die Antwort auf die Frage nach der Dosis etwa: zwei Blätter einer bestimmten Pflanze oder zwei Tropfen einer bestimmten Tinktur. Die Wirkstoffe kannte damals niemand. Für die Dosisbestimmung muss ich das auch nicht in jedem Fall wissen. Der Grund etwa für die enorme Giftigkeit des grünen Knollenblätterpilzes wurden erst Ende der 60er Jahre aufgeklärt: ein verzweigtes Peptid. Für die Dosisbestimmung genügt, dass ein Knollenblätterpilz in der Champignonsauce lebensgefährlich ist. Das genügt für den medizinischen und den rechtlichen Nachweis.
Es gibt noch mehr Einflussgrößen in Sachen Pflanzengifte: etwa der Erntezeitpunkt oder der Standort der Pflanze, das Tinktur-rezept etc. pp. Der Giftmischer musste schon etwas wissen, ganz besonders wenn er dies unauffällig gestalten wollte, musste genau wissen, wie er ein langes Siechtum erzeugt. Genauso entstehen heute Umweltkranke: langsam und zu spät bemerkt.
Welche Definition ist demnach hilfreich: Anzahl bestimmter Pflanzenteile? deren Gewicht? Trocken oder Frisch? Anzahl der Stiche / Bisse? Tropfen der Tinktur? Arbeitsdefinition: der regelmäßige berufliche Umgang mit Schadstoffen? Regelmäßige berufliche Tätigkeit mit Schadstoffemissionen? Genaue Angabe einer Substanz in Gramm?
Heute wird wohl jeder die letztere Antwort ankreuzen. Aber gerade das kann täuschen. Entweder man kennt die Substanz gar nicht oder es war immer ein Gemisch, ggf. ein Gemisch deren Rezeptur im Laufe der Zeit wechselte. Oder die Beweisführung der Dosis-Wirkungsbeziehung liefert nur die Beziehung aber keinen Zahlenwert. M. a. W. die Erfüllung der letzteren Forderung kann aus den verschiedensten Gründen völlig in die Irre führen oder ist auch geeignet, gezielt eine bereits feststehende Erkenntnis in Frage zu stellen.
Genauigkeit
„Dosisbestimmung“ ist nur scheinbar einfach oder nur in seltenen Fällen.
70 g Salz bewirkt Nierenversagen. Das kann man mit der Küchenwaage bestimmen. Umgerechnet auf den Schiffbrüchigen, der wahnsinnig vor Durst Meerwasser trinkt, ergeben sich 2 l.
Im Tierversuch kann man die Dosis abmessen und ins Futter mischen. Dann kennt man die Dosis exakt, aber eben nur im Labor. Die Giftbeimengung wird sorgfältig homogenisiert, konstant über die Testzeit – das ist keine realistische Situation. Dennoch bekommt man keine eindeutige Zahl als Repräsentant für die Dosis. Denn es gilt nur die Statistik: Für jede so ermittelte Dosis muss die Prävalenz angegeben werden, d.h. der Anteil der Versuchstiere, die adverse Reaktionen aufwiesen.
Die Bestimmung der tödlichen Dosis ist noch relativ einfach, schnell herstellbar und die Übertragung auf den Menschen ist weniger problematisch als die Bestimmung der Dosis, die für Organschäden verantwortlich ist. Die LD50 ist die letale Dosis, bei der 50% der Tiere überleben. Schon die Angabe LC50 – also die letale Konzentration etwa in der Raumluft – ist nicht eindeutig: wieviel Atemzüge? Minuten? Oder …? Wie schnell geht es mit Blausäure im Gewächshaus? Und wie groß ist das Risiko in einem Lösemitteltank?
Also ist schon die „einfache“ letale Dosis zum einen der Mittelwert einer flachen Gauß-Verteilung und schon inhalativ noch von einer Zeitgröße abhängig.
Es gibt in der Toxikologie demnach nur Wertebereiche. Deshalb ist immer eine Spreizung zu betrachten.
Gibt es nun Ergebnisse aus dem Tierversuch, wird für den Menschen abgeleitet. Dies ist nicht mehr wissenschaftlich zugänglich. Es gibt nur grobe Faustregeln. Für den Unterschied von Mensch und Tier wird eine Zehnerpotenz veranschlagt. Für die Schwankungsbreite der Suszeptilität der Individuen gilt als Ansatz eine weitere Zehnerpotenz.
Für die Dosis kann demzufolge nur der Exponent angegeben werden. Der Wert der Mantisse ist unerheblich. Alle die Angaben auf zwei Stellen genau täuschen eine Präzision vor, die nicht existiert. So etwas wird schon im Praktikum als Fehler angekreidet: Wer hinschreibt, was aus dem Taschenrechner kommt, hat nicht verstanden, was der da eigentlich macht.
Die „Dosis“ ist also eine Bandbreite, ein Wertebereich geringer Präzision in der Abgrenzung. Der Dosis kann nur eine gewisse Wahrscheinlichkeit des Eintretens adverser Wirkungen zugeordnet werden. Toxikologische Daten sind demgemäß nicht exakt, sondern sich überlappende Bereiche. Das liegt an der Elastizität der Biologie.
Unpräzise ist derjenige, der glaubt, die Dosis für eine bestimmte Wirkung ließe sich mit nur einer Zahl angeben. Völlig neben der Sache liegt derjenige, der glaubt, er könne gar mit einer solchen Zahl ein Ausschlusskriterium definieren.
Da gibt es noch eine Merkwürdigkeit des wissenschaftlichen Interesses. In Toxikologiebüchern kann man manchmal finden, dass mit Erstaunen über Fälle berichtet wird, dass Menschen eine mehrfach tödliche Dosis überlebt haben. Auffälligerweise fehlt aber das Gegenteil: etwa das Erstaunen über ein Ableben bei einem Bruchteil derselben. Diese Asymmetrie ist wissenschaftlich nicht begründbar. Fälle hoher Suszeptilität scheinen nicht interessant genug zu sein. Tja „Stärke“ imponiert und Schwäche ist nicht der Mühe wert. Es ist nicht die Aufgabe der Wissenschaft, es besonders toll zu finden, wenn einer die mehrfache tödliche Dosis überlebt hat, und es als rätselhaft abzutun, wenn ein anderer schon einen Bruchteil davon nicht verträgt.
Die Dosis-Verteilung hat demzufolge auch noch eine Schieflage: sie gilt nicht für empfindliche Personen.
Das Umweltgutachten des SRU fordert, das „Hauptaugenmerk“ auf „Risikogruppen“, mit höherer Belastung und höherer Suszeptilität (SRU 1987, Ziffer 1251 ff) zu richten. Darin steckt bereits die Hinwendung zu einer besonders sorgfältigen Befassung mit dem Phänomen der chemischen Sensitivität. Im Zusammenhang mit diesem Thema war die Rolle rückwärts besonders heftig.
Addition
Bei der Höchstmengenverordnung spielt eine zweite Statistik mit hinein: der Nahrungskorb. Es wird nicht streng konservativ die Konzentration in der Nahrung begrenzt, die dann grenzwertig ist, wenn diese Nahrung fast ausschließlich zur Ernährung herangezogen wird, sondern man zieht die Statistik des sogenannten Nahrungskorbs heran. Bei einseitiger Ernährung schützen diese Begrenzungen nicht.
Aussagekräftige Epidemiologien zu Ernährungsgewohnheiten gibt es nur wenige. Auch in meiner Praxis ist mir nur einmal ein Nahrungsgift als mögliche Ursache einer Sensibilisierung untergekommen. Bekannt ist etwa die nigerianische, nahrungsmittelbedingte ataktische Neuropathie (Marquart, Schäfer 1994, S. 559). Ursache ist der Verzehr ungeschälter Maniokwurzel, deren Schalen viel Zyanid enthalten. Es gibt also sehr wohl Krankheitsbilder durch einseitige Ernährung. In Sachen Pestizidrückstände gibt es die Verdünnung durch den Nahrungskorb und die Verdünnung durch die Handelskette, letztlich ein Vabanque-Spiel. Solange überhöhte Giftbelastungen selten sind und solange „normal = gesund“ noch Gültigkeit hatte, ist diese Vabanque kein realistisches Risiko. In einer Welt aber, in der gilt „normal ≠ gesund“ in der Artensterben bei den Arten am Ende der Nahrungskette ist die allgemeine ingestive Belastung ein wirklich schwarzes Loch: es gibt auffälligen Häufungen, die epidemiologisch Erkenntnischancen bietet. Es gibt hohe Zahlen der Allergiker, der Dialysepatienten, chronisch Erschöpfte und die entsprechenden großen Mengen passender Schadstoffe. Doch es wird notorisch betont, wissenschaftlich sei der Zusammenhang nicht herzustellen (Wichmann, ##, Fülgraf, Handbuch der Umweltmedizin, Loseblattsammlung seit 19##, Rezension: Merz ##). Dies ist das schwarze Loch: keine Addition und ADI-Werte. Die HöchstmengenVO wirkt so als Verteiler von Gift und je gleichmäßiger das gelingt, desto schwerer ist eine Giftwirkung fassbar oder anders ausgedrückt, je höher das Niveau, desto schwerer gelingt der Nachweis eines Zusammenhanges mit den Umweltschadstoffen. Es ist eine Art Selbstläufer, der die Vergiftungskrankheiten zwangsläufig fördert. Es ist die Installation einer Abwärtsspirale.
Die Dosis bei Nahrungsmitteln ergibt sich aus Nahrungsanteil und Konzentration. Es ist also grundsätzlich möglich den Giftcocktail gemäß HMVO-Höchstwerte – d. h. bei Ausreizung dieser Grenzwerte – zu berechnen. Aber das tut keiner. Möglicherweise ergäbe sich eine tödliche Dosis in wenigen Tagen, wenn für einen durchschnittlichen Nahrungsmittelkorb alle Höchstmengen ausgereizt werden. Sicher aber ergäbe sich eine krankmachende Dosis. Eine rationale Auseinandersetzung mit „Umweltbelastung“ erfordert eine solche Rechnung – etwa als Quersummentest. Aber es wird nicht addiert. Weder die krebserzeugende, noch die neurotoxische, noch die immuntoxische Wirkungen, um die wichtigsten zu nennen, werden addiert. Wie man am besten addiert, wissen wir nicht genau und die Ansätze der 80er und 90er Jahre in diese Richtung wurden torpediert. Es wird krampfhaft die Theorie aufrechterhalten, jeder Stoff wirke unabhängig vom anderen. Das ist nicht einmal plausibel, geschweige wissenschaftlich. Wenn wir addieren (TVOC, TEQ vgl. u.), machen wir stets Fehler. Wenn wir nicht addieren, liegen wir soweit von der Realität entfernt, dass kein Kontakt mehr zur Realität der wissenschaftlichen Erkenntnis besteht. Das nennt sich dann Unbedenklichkeit. Die allgemeine Überschreitung des Verträglichen gilt als gesicherte Erkenntnis seit Mitte der 80er Jahre (SRU 1987, Ziff. 94*). Übungen in Sachen Addition zum Zwecke der besseren Risikoeingrenzung wäre der logisch nächste Schritt gewesen. Das wurde auch so verstanden, weshalb alle diese Vorstöße in diese Richtung massiv abgewürgt worden sind.
Die Frage liegt nahe, wieviel Erkrankungen durch den allgemein-durchschnittlichen Pestizidcocktail in der Nahrung tatsächlich ausgelöst werden. Die Antwort liegt im Dunkeln. Das Dunkel ist das Ergebnis einer Wissenschaftsperversion, die Sachverhaltsaufklärung blockiert.
Diese Dunkelheit wird besonders durch die MAK (Maximale Arbeitsplatzkonzentration) gepflegt: strenge Trennung in Einzelsubstanzen und kein Bezug zur Expositionsdauer. Sie sind toxikologisch nicht aussagekräftig: die Dosis bleibt offen und wird zusätzlich in viele Teile aufgespalten. Die MAK schützen – vielleicht – vor Akutreaktionen nach einem 8-h-Tag bei der seltenen Situation einer Ein-Stoff-Belastung. Auf längere Sicht macht eine solche grenzwertige Belastung krank und zwar je mehr Komponenten mitwirken umso schneller.
Die MAK sind andererseits – nämlich rechtlich – echte Grenzwerte im rechtlichen Sinne also verbindlich. Deshalb sind sie auch so nachhaltig: wissenschaftlich seit Ende der 70er Jahre obsolet, rechtlich aber entscheidend. Damit erfüllen sie den rechtlichen Objektivitätsbegriff, und liefern so auch den Ansatz zum Mobbing: alles nur subjektiv, da objektiv ja alles in Ordnung ist. Dies Unterlaufen der Gesetze ist Thema des Teil III.
Die rechtliche Situation ist dergestalt, dass veraltete, zu hohe Grenzwerte die „Objektivität“ darstellen und darüber hinaus sogar als Ausschlusskriterium herangezogen werden, was der toxikologische Dosisbegriff nicht erlaubt. So sieht es der zuständige Sachverständigenbeirat:
„Grenz- und Richtwerte … müssen unterhalb des Wertes festgesetzt werden, bei dem nicht tolerierbare Schäden auftreten. Die genaue Grenzziehung ist wissenschaftlich nicht oder höchstens teilweise begründbar und daher … stets umstritten. …. Im Verständnis der Öffentlichkeit trennen diese Werte entgegen ihrer wissenschaftlichen Definition einen Bereich der Gefährdung, der jenseits eines Grenzwertes liegt von einem diesseits gelegen Bereich der Sicherheit. Tatsächlich handelt es sich aber in vielen Fällen beiderseits … um … Wahrscheinlichkeiten des Schutzes …. “ (SRU 1987, Ziffer 30)
Der Sachverständigenbeirat – höchste Autorität in Sachen Umwelttoxikologie – verbietet hier die voreilige Redeweise von Unbedenklichkeit in Zusammenhang mit Grenzwerten und lässt keinen Raum für Ausschlüsse unterhalb von Grenzwerten, welcher rechtlichen Wertigkeit auch immer (Vertiefung Teil III). Dafür muss hier an dieser Stelle der toxikologische Dosisbegriff von Grund auf rekonstruiert werden.
Es geht bei Dosen immer nur um Wahrscheinlichkeit mit großer Bandbreite. Das ist aber noch nicht die ganze Wahrheit. Die Nichtbeachtung des Zeitfaktors und der Additivität führt sehr weit in die Irre, vor allem dann, wenn ein Bereich definiert wird, der angeblich völlig ohne biologische Reaktion sein soll, als ewig sicher, unabhängig von der Anzahl der Schadstoffe.
Dies ist die konzeptionelle Absicherung einer allgemeinen ubiquitären Vergiftung der Biosphäre.
Das Wirkschwellenkonzept
Die Toxikologie behauptet, es gäbe für alle Wirkungen eine untere Schwelle, die lebenslang vertragen wird – außer bei Krebs. Nun hat die Epidemiologie das widerlegt. Nervenschäden nach Jahrzehnten des beruflichen Kontaktes, sowie Immundefekte usw. sind die Grundlagen vieler anerkannter Berufskrankheiten. Die lebenslange Toleranz ist eher die Ausnahme.
Allerdings wird dieser Schluss nicht gezogen, da die Epidemiologie damit ja das Wirkschwellenkonzept widerlegt. So wird letzteres nicht auf den Müllhaufen der Irrtümer entsorgt, sondern wirkt weiter zur Konstruktion von Ausschlussbegründungen. Wer immer sich vergiftet fühlt, dem wird entgegen gehalten, dass in diesem Bereich ja gar keine Wirkung stattfinden kann und insofern objektiv eine toxische Wirkung ausgeschlossen werden kann. Der organisatorische Ausdruck dieses Konzeptes ist das ADI-Konzept (ADI = Acceptable Daily Intake, manchmal als DTA, duldbare tägliche Aufnahme, eingedeutscht). Das liefert die Grunddaten der toxikologischen Bewertung fernab der Realität – d. h. i. a. R. einen Faktor 1000 zu hoch. Das ADI-Konzept ist durch diesen Abstand in allen konkreten Fällen vor Kritik geschützt, weil keiner glaubt, dass diese Diskrepanz zu überwinden ist.
Deshalb ist es zunächst eher eine Aufgabe der Glaubhaftmachung, um diese Diskrepanz zu überwinden. Dazu bedarf es mehrere Schritte:
Wirkschwellenkonzept im Langzeittest (Epidemiologie), immanente Kritik des ADI-Konzept (falsches Versuchstier, falscher Aufnahmeweg etc.) und schließlich der Nachweis der tatsächlichen Folgen durch Langzeitstudien (Probandentests, Veteranenstudie, EPA-Innenraumproblematik. etc.).
Meine Vermutung ist, dass das Wirkschwellenkonzept absichtlich so konstruiert wurde, um den Zeitfaktor loszuwerden. Das ist hervorragend geglückt. Die besondere Raffinesse der Konstruktion liegt auch darin, dass sie als Grundsatz formuliert ist. Damit gilt es für alle Ewigkeit, unabhängig davon, wie viele Ausnahmen erkannt werden. Es rettet schließlich den falschen Grundsatz auf Dauer, wenn stets alles, was dagegen spricht, als Ausnahme bezeichnet wird. Dann muss stets die wissenschaftliche-öffentliche Diskussion nachweisen, dass diese und jene Ausnahme festgestellt werden muss. Bei jeder Substanz geht dann das Ganze von vorn los. Derzeit ist bereits so weit, dass sich auch bei Krebsgefahr stets der Nachsatz eingeschlichen hat, dass aber die Dosis zu gering sei.
So wird ein Bereich der Sicherheit konstruiert, der nicht existiert und an dem alle Argumente zerschellen. Solche Konstruktionsprodukte haben eben die Eigenschaft, argumentresistent zu sein. Der große Abstand zur Realität wirkt sich als Schutz aus: Es ist die quasi eingebaute Resignation der Betroffenen und deren Ärzte, sowie auch Anwälte und schließlich der allgemein Ratlosigkeit der Öffentlichkeit, die das alles rätselhaft findet. Die Realität wird ausgeschlossen und dann als rätselhaft nicht richtig geglaubt.
Also muss jetzt die Realität rekonstruiert werden und dazu müssen folgende Fragen in den nächsten Kapitel abgearbeitet werden: Gibt es eine untere Wirkschwelle? Sind die ADI-Werte allgemein anwendbar? Gibt es Nachweise erheblich niedrigere Dosis-Wirkungsbeziehungen?
Konzeption und Realisierung durch Fabian Küfner




