Philosophia naturalis, 1991, Band 28, Heft 2

Realität, Anpassung und Evolution

Olaf Diettrich

Summary: A coherent description of cognitive and organic evolution as implicitly suggested by the evolutionary epistomology (EE) requires the application of functional theories and the abandonment of structural theories such as the notion of an ontological reality imposing a teleological horizon on the development of empirical theories contrastding with the nonconvergent character of organic evolution. For this it is shown that the mental category of reality does not need to be explained by an ontological reality. The mental category of reality rather has developed phylogenetically as a tool to establish approved theories definitively. What we call the structure of reality reflects exclusively the boundary conditions arising from man's own mental and physical development. Abandoning the notion of structural information leads to the identification of dynamic phenomena in evolution. This is shown for organic, cultural and social evolution. In biology this is decribed under the label of nonlinear genetics. It is shown that in all evolution the classical terms of adaptation and selection would describe only special cases of interaction and interpretation. The contextual character of adaptive traits is discussed with a special view to the ability of rational thinking.

Inhaltsverzeichnis

1. Einleitung 1
2. Funktionale und strukturelle Theorien 2
3. Die funktionale und entwicklungsgeschichtliche Deutung der Realität 5
4. Zeit, Kausalität und Erhaltungssätze in realitätsfreier Darstellung 12
4.1. Der Zeitpfeil 12
4.2. Kausalität, Metrik und Erhaltungssätze 13
5. Konstruktivismus und Solipsismusproblem 13
6. Organische, kognitive und kulturelle Evolution 16
7. Nicht-lineare Genetik 19
8. Fitness, Arterhaltung und Rationalität 23
9. Literaturhinweise 26

1. Einleitung

Realität und Anpassung sind zwei Begriffe, deren Beziehungen bislang nur wenig Konfliktstoff in die Biologie getragen haben.

Trotz dieser nie bestrittenen Verbindung wird die Evolution der kognitiven Methoden zur Erschließung der Umwelt, zu der letztlich auch die Entwicklung physikalischer Theorien gehört, grundsätzlich anders beschrieben als die organische Evolution.

Die organische Evolution wird im Rahmen des Neodarwinismus dargestellt als das Wirken autonomer organischer und damit endogener Modifikationen (Mutationen etc.), auf deren Resultate die Umwelt durch Selektionsmechanismen reagiert. In Zusammenhang mit der kognitiven Evolution hingegen ist von einer autonom existierenden und sich autonom verändernden exogenen Umwelt die Rede, die der Mensch oder sonst eine kognitive Intelligenz mit Lernprozessen und Theorienbildung beantwortet. In diesen Darstellungen ist das Verhältnis von Actio zu Reactio gerade umgekehrt. (Siehe auch J. Piaget, 1975, S. 76 ff.)

Für Biologen und Physiker (bzw. für Genetiker und Verhaltenswissenschaftler) waren solche paradigmatischen Differenzen selten Gegenstand der Diskussion. Es stand außer Zweifel, daß das gemeinsame Theoriengut auf das Empirisch-methodische und auf die physikalisch-chemischen Grundlagen organischer Prozesse und Strukturen beschränkt bleiben würde.

Diese Übereinkunft wurde erstmals und unmittelbar durch das Aufkommen der evolutionären Erkenntnistheorie (EE) berührt, die als biologische Theorie in nicht-biologischen Bereichen interveniert. Biologisch ist die EE nicht nur weil sie vornehmlich von Biologen - Konrad Lorenz, Rupert Riedl und anderen - aus biologischen Betrachtungen hergeleitet wurde, sondern vor allem, weil sie die Entwicklung menschlicher Erkenntnisfähigkeit und die Bildung von Kategorien, auf denen die Naturbeschreibung aufbaut, als Phänomen der Phylogenese und damit als biologisches Phänomen sieht.

Damit ist der Konflikt vorprogrammiert. Die akzeptierte Diskrepanz zweier Disziplinen wird zum Problem der inneren Konsistenz, mit dem sich eine Evolutionstheorie von allgemeinerem Geltungsanspruch auseinander zu setzen hat. Dies ist bislang allerdings weniger zwischen den Vertretern der davon unmittelbar betroffenen Disziplinen diskutiert worden, als vielmehr von Philosophen, die die Autonomie ihrer erkenntnistheoretischen Ansätze durch den biologischen Erklärungsanspruch in Frage gestellt sahen. Daraus mag die Neigung resultieren, den z. Zt. vielfach noch unbefriedigenden theoretischen Entwicklungsstand der EE zum Anlaß zu nehmen, die Zukunftsaussichten der EE eher gering zu bewerten, statt den biologischen Ansatz als Möglichkeit eines neuen Paradigmas zu sehen, unabhängig davon, ob man mit all dem einverstanden sein kann, was bislang in dieser Hinsicht versucht wurde.

Auch Physiker tun sich in ihrer Anerkennung des in der EE schlummernden Potentials schwer, vor allem wenn sich abzeichnet, daß sich die Kategorien ihrer Naturbeschreibung wie Raum und Zeit und vielleicht sogar die Realitätskategorie selbst als entwicklungsgeschichtlich bedingte Humanspezifika herausstellen könnten. Auf der anderen Seite ist die Physik stets mit hohem erkenntnistheoretischen Anspruch befrachtet worden. Physik, so ein gängiges Vorurteil, sei mehr als jede andere Wissenschaft geeignet, das Wirken der unbelebten Welt zu dekodieren und damit zur Lösung vieler Weltprobleme beizutragen. Die Hoffnung, daß die präziseren Methoden der Physik auch zu präziseren Erkenntnissen über ihre Grundlagen führen, hat viele bewogen, ihr erkenntnistheoretisches Heil weniger in der Philosophie als in der Physik zu suchen. Tatsächlich jedoch gilt, daß alles, was Physiker zu den philosophischen Grundlagen der Physik beigetragen haben, Aussagen von nebenberuflichen Philosophen sind. Nichts davon läßt sich aus den Methoden herleiten, denen die Physiker ihre Erfolge verdanken.

Das alte Realitätsproblem - gibt es so etwas wie eine ontologische Realität, und wenn ja, haben die Resultate unserer Beobachtungen und Forschung etwas mit der Beschaffenheit dieser Realität zu tun - diese Fragen haben Physiker genausowenig lösen können wie das Induktionsproblem, das die alte Erfahrung beschreibt, daß wir von gemachten Beobachtungen auf kommende Beobachtungen schließen können, obwohl uns schon Hume überzeugend erklärt hat, dass dies eigentlich garnicht erklärt werden kann. Die viel zitierten und oft beschriebenen philosophischen Grundlagen der Physik sind alles andere als befriedigend. Alles was wir wissen ist, wie man Physik betreiben muß, um damit Natur beherrschen zu können. Physik und darüber hinaus jede empirische Naturwissenschaft ist ein gut funktionierendes und bewährtes Mittel zur Lösung humanspezifischer Probleme. Wieso und warum dies so gut geht ist ein Rätsel, das sich mit physikalischen Methoden allein nicht lösen läßt.

Hier soll ein neuer Versuch unternommen werden, diesen Problemkreis im Rahmen einer evolutionären Erkenntnistheorie anzugehen. Ausgangspunkt ist die Möglichkeit, die Kategorien menschlichen Denkens einschließlich der Realitätskategorie selbst als Resultat einer autonomen Phylogenese darzustellen. Autonom soll heißen, daß die kognitiven Kategorien nicht das mehr oder weniger vorgegebene Resultat der Anpassung an Realkategorien sind, wie es in den Darstellungen der klassischen EE heißt. (Sie könnten es sein, wenn sich Realkategorien ontologisch begründen ließen. Der Umkehrschluß jedoch, daß Menschen andernfalls keine Realitätskategorie entwickelt hätten, ist nicht zu halten, wenn sich dafür auch andere plausible Gründe angeben lassen). Dieser Ansatz verlangt vor allem die Beantwortung der Fragen: Was ist mit der Aussage gemeint, Realität sei keine Realkategorie sondern ein Humanspezifikum? Was hat es mit den Bewertungskriterien für empirische Theorien auf sich, von denen es heißt, daß sie die Spezifität der Realität widerspiegeln, d.h. kann man auf die Realitätskategorie verzichten, ohne gleichzeitig die Methoden der empirischen Wissenschaften zu diskreditieren? Gibt es Auswirkungen auf Aussagen oder Fragestellungen in den Natur- oder Geisteswissenschaften? Das Konzept einer autonomen Evolution auch im kognitiven Bereich, so darf vermutet werden, verlangt erhebliche Umstellungen im Begründungskanon klassischer Theorien, eröffnet aber auch neue Möglichkeiten.

2. Funktionale und strukturelle Theorien

Die EE stützt sich wesentlich auf die beiden folgenden Elemente:

Dem funktionalen Theorienbegriff steht der strukturell definierte Theorienbegriff gegenüber, der eine Theorie auffaßt als Abbild oder Modell eines Gegenstandes, eines Objektbereichs oder allgemein eines bestimmten Ausschnitts der Natur. Der strukturelle Theorienbegriff geht davon aus, daß zwischen den Strukturen einer Theorie und denen des Objektbereichs eine gewisse Isomorphie besteht. Theorien, so ließe sich sagen, strukturieren die Vorstellungen, die wir von den Dingen haben; und sofern die Vorstellungen anschaulich sind, können wir sie auffassen als ein Abbild ihres Gegenstandes.

Während eine Theorie unter funktionalem Aspekt um so besser ist, je besser sie das vorgelegte Problem löst, ist eine strukturelle Theorie um so besser, je genauer die Isomorphie zum Objektbereich ist. Nach gängiger Vorstellung sind funktionale und strukturelle Theorien äquivalent in dem Sinne, daß strukturelle Theorien genau dann, wenn sie isomorph zu den Strukturen der Realität sind, auch funktional von Nutzen sind, und damit dazu beitragen können, Probleme zu bewältigen bzw. Natur zu beherrschen. Die unterstellte Äquivalenz funktionaler Theorien und "wahrer" struktureller Theorien stellt gleichzeitig die wesentliche Legitimation für alle Naturwissenschaft dar: Naturbeherrschung auf dem Wege der Ergründung realer Strukturen anzustreben, gilt als heuristischer Imperativ. Umgekehrt gilt Realität als die einzige Quelle kompetenter Bewertungskriterien für Theorien.

Daraus resultiert, daß der Entwicklung der Theorien im eigentlichen Sinne eine finale Qualität zugewiesen werden muß. Die Richtung ihres Fortschritts, so heißt es, ist nicht das Resultat einer unabhängigen Evolution, sondern wird durch die Strukturen der Realität festgelegt, genauer durch Randbedingungen, in denen sich Realität artikuliert. Anders gesagt, der kognitiven Evolution wird im Gegensatz zur organischen unterstellt, daß sie teleologisch bestimmt und geleitet wird. Das Resultat dieser Entwicklung müßte daher, wenn auch nur asymptotisch und nicht notwendigerweise monoton, in eine Darstellung münden, die als endgültige und korrekte Beschreibung der Realität gelten könnte. Bei der organischen Evolution hingegen ist es unbestritten, daß sie nicht gegen eine einheitliche Spezies (die Krone der Schöpfung sozusagen) konvergiert.

Die Aussage, daß strukturelle Theorien gleichzeitig funktional nützliche Theorien sein können (genauer, daß die Struktur einer Theorie ihre funktionale Qualität determiniert), berührt das Kernproblem der Erkenntnisgewinnung schlechthin. Die Welt mit Hilfe struktureller Theorien auf nutzbare Weise beschreiben zu wollen, entspricht der Vorstellung, daß die (physische) Welt algorithmisch komprimierbar ist, wie Solomonoff (1964) es nennt, d.h., daß es mathematisch darstellbare Strukturen gibt, mit deren Hilfe sich, obwohl sie wesentlich einfacher sind als die Welt als Ganzes, dennoch Wahrnehmungen auf reproduzierbare Weise extra- bzw. interpolieren lassen, was uns befähigt, unsere Lebensorganisation auf relativ wenige Erfahrungen zu gründen. Die Frage, warum die Welt algorithmisch komprimierbar ist, ist eine andere Form der Frage, warum induktives Schließen erfolgreich ist, denn beides spiegelt die Überzeugung, daß Wissen, geeignet behandelt, sich selbst zu vermehren vermag. Dazu fragt P. C. W. Davies (1990): "...how can we know anything without knowing everything?" und im Anschluß daran "Why is the universe knowable?" Ähnlich fragt G. Vollmer (1980 S. 54): "Wie kommt es, daß Erkenntnis- und Realkategorien aufeinander passen?" womit gemeint ist, warum wir im Erkenntnisraum genauso extrapolieren können wie im Realraum, oder allgemeiner, warum sich die Welt als Objekt unserer Bemühungen auf die Vorstellungen reduzieren läßt, die wir uns in Form sogenannter realer Strukturen von ihr machen. Alle diese Fragen haben einen gemeinsamen Nenner: Sie gehen von der Existenz einer unabhängigen Realität aus, über deren Strukturen wir a priori nichts wissen können. Insbesondere können wir nicht wissen, ob und wie wir Beobachtungen zu interpolieren haben. Es ist das Konzept der unabhängigen Realität selbst, das sich auf diese Weise fragen lassen muß, wieso es sich überhaupt bewähren kann.

Von der Äquivalenz funktionaler und struktureller Theorien auszugehen, ist auch noch aus zwei anderen Gründen problematisch:

Von einer Äquivalenz zwischen funktionalen und strukturellen Theorien geht auch Konrad Lorenz (1983 S.99) in seiner schon fast klassischen Parabel von den Hufen der Steppenbewohner aus, die man im übertragenen Sinne als Abbild des Steppenbodens auffassen könne. Was Lorenz hier implizit behauptet, ist, daß man von der funktionalen Anpassung auf ein Stück Struktur der Realität schließen könne - oder von der Passung auf die Geltung

Ein ähnliches Äquivalenzpostulat wird in der evolutionären Erkenntnistheorie diskutiert (G. Wagner, 1987 S. 64): Insoweit der kognitive Apparat des Menschen wie jedes andere biologische Organ einen Anpassungswert repräsentiert, müsse die Struktur menschlicher Erkenntnis eine wenn auch nur partielle Isomorphie zur Struktur der Realität aufweisen. Wir wollen dies das starke Äquivalenzpostulat nennen. Es unterstellt, daß die Struktur eines Problems die Struktur seiner Lösung determiniert. Davon zu unterscheiden wäre das schwache Äquivalenzpostulat, das nur die entwicklungsgeschichtlich bedingte Verwandtschaft der kognitiven und organischen evolutionären Mechanismen unterstellt. Wenn diese Mechanismen dazu führen, daß Evolution nicht final sein kann, was im organischen Bereich unbestritten ist, muß das auch für die kognitive Evolution gelten. Daraus folgt, daß sich kognitiver Fortschritt in Richtung auf eine finale Darstellung garnicht definieren läßt, und daraus wiederum, daß die Strukturen aktueller Theorien nicht mit den möglichen Strukturen einer wie auch immer beschaffenen Realität korreliert sein können, sodaß ihnen auch kein Wahrheitswert zugeordnet werden kann. So gesehen ist das schwache Äquivalenzpostulat das bei weitem folgenreichere.

Damit stehen wir vor der Frage, ob wir die Evolution der Theorien im weiteren Sinne entweder mit Hilfe des funktionalen oder des strukturellen Theorienbegriffs darstellen wollen. (Diettrich, 1989, S. 36). Arbeitet man mit dem funktionalen Theorienbegriff, läßt sich der Realitätsbegriff nicht mehr explizieren, auf den alle naturwissenschaftlichen Theorien rekurrieren, und arbeitet man mit dem strukturellen Theorienbegriff, muß man der organischen Evolution denselben einheitlichen und definitiven Zielhorizont verordnen, den auch die kognitive Evolution anzusteuern scheint, was aller biologischen Erfahrung widerspricht. Die dritte Möglichkeit schließlich, allein mit dem funktionalen Theorienbegriff in Fragen der organischen Evolution zu arbeiten und den strukturellen Theorienbegriff ausschließlich für die Evolution des Wissens zu reservieren, ist nur möglich, wenn man auf die wesentliche Aussage der EE verzichtet, daß es eine entwicklungsgeschichtlich bedingte Verwandtschaft zwischen kognitiver und organischer Evolution gibt.

3. Die funktionale und entwicklungsgeschichtliche Deutung der Realitätskategorie.

Vor diese Dreierfrage gestellt muß man sich wohl für die Beibehaltung der EE und des funktionalen Theorienbegriffs und gegen den strukturellen Theorienbegriff entscheiden. Die zentrale Erkenntnis der EE, daß es eine entwicklungsgeschichtlich bedingte Verwandtschaft zwischen kognitiver und organischer Evolution gibt - diese Einsicht, so meine ich, ist irreversibel. Ebenso kann die organische Evolution nur als funktionales Wechselspiel der beteiligten Komponenten verstanden werden. Was also geopfert werden muß, ist der strukturelle Theorienbegriff und damit der darauf fußende Begriff der ontologischen Realität.

Die daraus resultierenden Schwierigkeiten sind bekannt. Die Realitätsvorstellung durchzieht all unser Handeln, all unsere Erfahrungen und all unser Denken auf so innige und scheinbar unentrinnbare Weise, daß eine solche Forderung zunächst als Zumutung an den gesunden Menschenverstand und alle wissenschaftliche Einsicht erscheint. Es stellt sich somit das Problem, den Realitätsbegriff zu eliminieren, ohne mit der biologischen Realität oder der Realität unserer Alltagserfahrung zu kollidieren.
Dazu müssen vier Voraussetzungen erfüllt sein:
1. Es muß sich zeigen lassen, daß sich ein ontologischer Realitätsbegriff logisch überhaupt nicht explizieren läßt. Anders gesagt, es muß gezeigt werden, daß wir, wenn wir die Realität im Munde führen, von etwas sprechen, was garnicht erklärt ist. Wenn sich dieser Nachweis führen läßt, ist das Problem zwar keineswegs gelöst - aber immerhin wissen wir dann, daß wir eine Lösung finden müssen und nicht zum Stande der erkenntnistheoretischen Unschuld zurückkehren können, in welchem wir von der Existenz einer unabhängigen Realität sprechen, ohne auch nur eine einzige verbindliche bzw. nicht-tautologische Aussage über diese Realität machen zu können.
2. Es muß einen entwicklungsgeschichtlich plausiblen Grund geben für die Herausbildung einer humanspezifischen Realitätskategorie, der nicht auf die Anpassung an eine tatsächlich vorhandene Realität rekurriert.
3. Für gewöhnlich thematisieren wir die Regelmäßigkeiten unserer Wahrnehmungen und die Beschränkung unserer Lebensorganisation als den Ausfluß einer unabhängigen Realität. Wenn eine solche Realität garnicht existiert, muß gezeigt werden, daß es hierfür auch andere Gründe geben kann.
4. Es muß die Frage beantwortet werden: Wer oder was bewertet Theorien, wenn nicht Realität?
Die kurz gefaßten Lösungsvorschläge sehen wie folgt aus:

zu 1.

Alle Begriffe, mit denen wir im Alltag oder bei der Konstruktion unseres Weltbildes operieren, seien es Objekte, Eigenschaften oder bestimmte Theorien, haben sich entwicklungs- bzw. theoriengeschichtlich als Invarianten irgendwelcher Operationen oder Handlungen herausgebildet. Gegenstände z.B. lassen sich als Bewegungsinvarianten darstellen. Das ist von Üxküll auf die griffige Formel gebracht worden: "Ein Gegenstand ist, was sich zusammen bewegt". Eigenschaften lassen sich als Invarianten von Meßprozessen beschreiben. Ja, der Begriff einer unabhängigen und realen Welt selbst läßt sich so darstellen. Die Struktur der Welt ist das, was gegenüber all unserem Handeln schlechthin invariant ist. Die Weltbeschreibung durch Invarianten setzt aber voraus, daß es wenigstens im Prinzip universelle Invarianten gibt, d.h. Begriffe und Theorien, die immer und unter allen Umständen anwendbar sind, und zwar unabhängig vom erkennenden Subjekt. Solche Invarianten kann es aber nicht geben, weil es keine universellen Handlungen gibt. Handlungen sind immer nur spezielle Handlungen, die mit Hilfe spezieller Mittel spezieller Lebewesen durchgeführt werden. Universelle Invarianten, die Aussagen, Begriffe oder Theorien benennen, die für alles oder jeden gelten bzw. universell eingesetzt werden können, können nur die trivialen Invarianten des Einheitsoperators sein. Daraus läßt sich aber kein Weltbild konstruieren. Daß es keine nicht-trivialen universellen Invarianten gibt, heißt übrigens nicht, daß es keine universellen Gesetze gibt. Der Energiesatz z.B. ist universell in dem Sinne, daß Menschen ihn immer und überall im Weltall bestätigt finden werden. Er ist aber nicht universell in dem Sinne, daß die Energie auch für anders konzipierte Intelligenzen eine Invariante ihrer Wahrnehmung sein müßte, wie in Kapitel 4 gezeigt werden wird. Darüber hinaus erlaubt der Rekurs von Begriffen und Objekten auf ihre generierenden Operatoren, die sich ihrerseits ebenfalls als Invarianten anderer Operatoren entwickelt haben, die Darstellung einer prinzipiell lückenlosen Evolution, von den ersten Reaktionskonzepten in der Frühzeit individualisierten Lebens bis zur Entwicklung der empirischen Naturwissenschaften.

zu 2.

Wenn sich noch nicht einmal erklären läßt, was wir meinen, wenn wir von Realität sprechen, geschweige denn, daß sich sagen ließe, es gäbe so etwas wie eine ontologische Realität, dann kann sich die menschliche Realitätsvorstellung auch nicht in Anpassung an eben diese Realität herausgebildet haben. Zwar könnte man sagen, daß die Realitätsvorstellung ein Anpassungsprodukt sei, wenn es eine Realität gäbe, aber der Umkehrschluß, daß es eine Realität geben müsse, wie es oft heißt, weil Menschen andernfalls keine Realitätsvorstellung entwickelt hätten - dieser Schluß ist unzulässig, weil sich die Entwicklung der Realitätskategorie auch funktional erklären läßt. Die "Realitätstheorie" kann nämlich aufgefaßt werden als ein mentales Instrument zur Immunisierung von Theorien. In den Aufbau höherer Theorien zu investieren, ist auf Dauer nur dann sinnvoll, wenn die Basis stabil ist. Die zugrunde liegenden Theorien sollten daher dem weiteren theoretischen Experimentierdrang ein für allemal entzogen werden. Die Entwicklungsgeschichte hat sich dafür einen genialen Trick ausgedacht. Sie weist die Interpretation von Sinnesreizen in Form von unmittelbaren Wahrnehmungen einem Bereich zu, für den sie gewissermaßen den Schlüssel einbehalten hat, in dem sie uns wissen läßt, daß dieser Bereich zwar die Randbedingungen unseres Handelns definiere, im übrigen aber außerhalb unserer selbst liege und damit eine von uns unabhängige Struktur habe. Diesen Bereich, der durch die Summe der von uns akzeptierten Interpretationen von Sinnesreizen sowie der darauf aufbaueneden höheren Theorien überhaupt erst definiert wird, nennen wir Realität. Damit ist alles Wissen, das aus sogenannten Erfahrungen resultiert und von dem wir meinen, damit ein Stück Realität abgebildet zu haben, grundsätzlich sakrosankt. In der Tat, Realität - so unsere feste Überzeugung - ist nichts, was wir verändern könnten oder ignorieren dürften.

zu 3.

Zum dritten Punkt, was es mit den Regelmäßigkeiten, die wir in unseren Wahrnehmungen vorfinden und aus denen wir die Strategien unseres Handelns ableiten, auf sich haben kann, wenn wir keine unabhängige und externe Realität dafür verantwortlich machen können, ist im Prinzip schon unter Punkt 1 mitbeantwortet. Wenn alles, was wir Wahrnehmungen nennen, allein die Invarianten bestimmter kognitiver oder physischer Operatoren ist, sind auch die darin wahrgenommenen Regelmäßigkeiten Invarianten bestimmter Operatoren. Mathematisch gesprochen werden sie durch das Spektrum der Eigenfunktionen dieser Operatoren dargestellt. Daß Regelmäßigkeiten nur dann als solche wahrgenommen werden, wenn sie einer intern vorgegebenen Repräsentation entsprechen, hat schon Lorenz (1973, S. 157) gezeigt: "Ich habe schon erklärt, daß jegliches Erkennen..... darauf beruht, daß äußere in den Sinnesdaten obwaltende Konfigurationen oder 'Muster' mit solchen zur Deckung gebracht werden, die....als Grundlage weiterer Erkenntnis bereit liegen - 'Pattern -Matching' im Sinne von Karl Popper". Im Gegensatz zu der darin enthaltenen Auffassung beruht jedoch die hier vorausgesetzte innere Repräsentation nicht auf statisch manifestierten Strukturen, die durch Anpassung zu einer gewissen Isomorphie mit äußeren Strukturen gelangt sind, sondern auf Strukturen, die ihre Spezifität aus den sie generierenden Operatoren beziehen. Das hat eine wesentliche Konsequenz: Überall dort, wo relativ einfache Mechanismen komplexe Gebilde generieren, gilt, daß eine Modifikation dieser Mechanismen in der Regel das Resultat global verändern. Es ist so gut wie nie möglich, für eine vorgegebene Detailänderung im Resultat einen entsprechenden Genesemechanismus anzugeben - jedenfalls keinen vertretbar einfachen. Auch die sogenannten Fraktale bzw. Mandelbrotmengen, deren graphische Darstellung von schier unbegrenzter Komplexität zu sein scheint (siehe H.-O. Peitgen 1983), haben nur so viele Freiheitsgrade, wie in den generierenden algebraischen Ausdrücken enthalten sind. Irgendeine willkürlich vorgegebene Modifikation dieser Strukturen, sei sie groß oder klein, schließt daher in aller Regel ihre Darstellung als Mandelbrotmenge aus. Ähnliches gilt für den Zusammenhang zwischen Genotyp und Phänotyp. Zwar ist der Genotyp selbst bereits von erheblicher Komplexität, sodaß seine Modifikationen zumindest theoretisch einen großen Spielraum für phänotypische Veränderungen eröffnen. Dennoch werden sich nur die wenigsten phänotypischen Vorgaben genetisch realisieren lassen. Analog gilt, daß den Wahrnehmungsstrukturen, wenn sie das Produkt generierender mentaler Operatoren sind, schlicht die Freiheitsgrade fehlen, sich in Richtung auf größere Isomorphie mit wie auch immer gegebenen äußeren Strukturen zu entwickeln. Wahrnehmungsstrukturen können daher in keinem noch so indirekten Sinne als Abbilder gegebener äußerer Strukturen aufgefaßt werden. Ihre Bedeutung läßt sich allein funktional im jeweiligen kognitiven bzw. physischen Kontext verstehen. Selbst wenn wir an der Konstruktion einer unabhängigen Welt festhalten wollten - die Kategorien unseres Denkens und Beschreibens wie Raum, Zeit oder Kausalität, oder überhaupt irgend etwas, was wir uns zum Bau der Welt überlegt haben, sind Humanspezifika, mit deren Hilfe weder im Umkehrschluß auf die Existenz dieser Welt noch auf deren möglichen Strukturen geschlossen werden kann.

Der Charakter von Wahrnehmungen als Invarianten mentaler Operatoren hat noch eine andere Konsequenz. Auch das scheinbar unmittelbar Wahrgenommene ist in diesem Sinne eine Strukturierungsleistung des kognitiven Apparats: Sinnesreize werden auf eine im Unterbewußten angelegte humanspezifische Weise in den Strukturen der Wahrnehmung verarbeitet. Wahrnehmungen sind damit Theorien, die sich über die entwicklungsgeschichtlich definierte Verwendung von Sinnesreizen äußern. Die Sinnesreize selbst können weder Einfluß darauf nehmen, wie dies geschieht noch zu welchem Ergebnis es führen mag - sowenig wie biologische Zellen und ihre Eigenschaften darüber entscheiden, wie Mehrzeller auszusehen haben. Sie sind schlicht die Bausteine, die für höhere Konstruktionen zur Verfügung stehen. Wahrnehmungen sind daher entgegen den Vorstellungen des empirischen Realismus keineswegs durch ihre vermeintliche größere Nähe zur Realität heuristisch gegenüber den eigentlichen Theorien privilegiert, die wir über ihnen errichten. Beobachtungs- und theoretische Terme unterscheiden sich einzig darin, daß die einen das Ergebnis unterbewußter Mechanismen sind, während die anderen durch bewußte und in der Regel rationale Methoden konzipiert werden. Theoretisch im Sinne von hausgemacht sind sie beide. So gesehen reduziert sich die alte Dichotomie von theoretischen und Beobachtungstermen auf eine eher sekundäre Differenz.

Zur Autonomie der kognitiven Evolution ein Beispiel: Die Entwicklung der Theorien der Mechanik beruht auf der schon erwähnten entwicklungsgeschichtlich getroffenen Entscheidung, gerade Bewegungsinvarianten als Objekte der Erkenntnis zu thematisieren. Das ist keineswegs denknotwendig. Die Vorfahren der Primaten hätten auch ganz andere Kategorien zur Grundlage höherer Theorien wählen können. Die Quantenmechanik gibt ein Beispiel, wie so etwas hätte aussehen können. Während Menschen im Laufe der Entwicklungsgeschichte die Invarianten der Bewegung zur Grundlage der weiteren Theorienbildung gemacht haben, hat die Quantenmechanik dazu die Invarianten gewisser Meßprozesse gewählt, die wir Impuls- und Ortsmessung nennen. Das hätte, wenn der Mensch sich darauf eingelassen hätte, zu einem Weltbild geführt, in dem geometrisch lokalisierbare und von einander unabhängige Strukturen überhaupt nicht vorkommen. Der Einwand, daß die Quantenmechanik bekanntermaßen ungeeignet ist, makroskopische Sachverhalte mit vertretbarem Aufwand in den uns geläufigen Kategorien darzustellen, zählt nicht, weil sich dieses Problem unter den angenommenen Umständen garnicht stellen würde. Die Kategorien, mit deren Hilfe wir die sogenannten makroskopischen Strukturen darstellen, sind Humankonstrukte, die keinerlei imperativen Charakter haben in Bezug auf die Methoden der Lebensbewältigung wie sie sich auf der Grundlage quantenmechanischer Variablen entwickelt haben könnten.

zu 4.

Damit kommen wir zur Frage der Bewertungskriterien für Theorien. Es ist unbestritten, daß sinnvolle Theorien zu allererst funktional sinnvolle Theorien zu sein haben, d.h. sie müssen sich zur Problemlösung eignen. Ob sie das können, ist für den Realisten eine Frage ihrer Isomorphie mit den Strukturen der Realität. Er nennt sie wahr, wenn und soweit eine solche Isomorphie besteht (Korrespondenztheorie der Wahrheit). Für den Realisten sind Wahrheitsgehalt und funktionale Qualität äquivalent. Aus diesem Ansatz lassen sich jedoch keine praktisch verwertbaren Bewertungskriterien herleiten. Realitätsnähe ist nicht meßbar, solange alles, was wir über Realität zu wissen meinen, allein in Theorien steht, deren Realitätsnähe ebenfalls unbestimmt ist. Alles, wonach wir eine strukturelle Naturbeschreibung bewerten können, ist die wechselseitige Konsistenz der in ihr enthaltenen Theorien (Kohärenztheorie). Das ist jedoch nur ein relatives Kriterium, das in keiner Weise das Verhältnis zu einer möglicherweise unabhängigen Realität bewertet.

Das klassische Kriterium zur Bewertung empirischer Theorien ist deren Übereinstimmung mit Beobachtungen. Sieht man einmal von der anhaltenden Diskussion darüber ab, was hier Übereinstimmung heißt und wann eine Theorie als falsifiziert gelten kann, so kann dieses Kriterium nur dann objektiv (im Sinne von humanunspezifisch) sein, wenn sich Beobachtungsterme durch einen deutlich höheren Objektivitätsgrad wesentlich von theoretischen Termen unterscheiden. Das aber, wie eben erläutert, ist nicht der Fall. Beobachtungsterme sind auch nur Theorien, die Sinnesreize auf eine humanspezifische Weise zu Wahrnehmungen verarbeiten. Die Übereinstimmung zwischen Theorien und Beobachtungen ist damit eine Angelegenheit zwischen Theorien, die nicht auf die Existenz einer unabhängigen Realität angewiesen ist.

Wenn wir Theorien bewerten wollen, kann dies also nur funktional geschehen, d.h. ohne auf eine Äquivalenz von strukturellem Wahrheitsgehalt und funktionaler Qualität zu rekurrieren. Die meisten Theorien und Hypothesen des Alltags werden ohnehin zunächst nur an Hand von Erfolgskriterien bewertet. Die anschließende Begründung des Erfolgs im Rahmen struktureller Theorien kann schon deswegen nicht zwingend sein, weil sie bisweilen noch nicht einmal möglich ist. Der unbestrittene Erfolg induktiven Schließens in allen Lebens- und Wissenschaftsbereichen z.B. ist zumindest im Rahmen der klassischen Realitätsvorstellung überhaupt nicht erklärbar.

Bleibt die Frage, ob es funktionale Bewertungskriterien für Theorien gibt, die wir dergestalt objektivieren können, daß ihnen jede mögliche Theorie zu genügen hat, und ob solcherart objektivierte Bewertungskriterien in ihrer Gesamtheit geeignet sind, die Welt, in der wir leben, zu charakterisieren. Anders gefragt: Wenn sich schon kein struktureller Wahrheitsgehalt definieren läßt, gibt es nicht vielleicht so etwas wie funktionale Wahrheit, die auf ihre Begründung durch eine Art funktionale Realität angewiesen ist? Diese Frage hatten wir schon oben mit dem Hinweis auf den Umstand verneint, daß es keine objektiven Probleme gibt, die lösen zu können einer Theorie objektive Kompetenz bescheinigt. In der Tat können wir hier ganz analog zum kognitiven Fall argumentieren. Den sogenannten Beobachtungstermen, die uns den Bezug zu den Strukturen der Realität verschaffen sollen, entsprechen die objektiven Probleme unseres Handelns, von denen wir meinen, daß wir sie den physischen Randbedingungen der Realität verdanken. Beide jedoch reflektieren nichts als unsere eigene Konstitution, wie sie sich entwicklungsgeschichtlich herausgebildet hat. Die Beobachtungsterme resultieren aus dem speziellen Bau unseres kognitiven Apparats und die physischen Probleme, die wir im Rahmen unserer Naturwissenschaften zu lösen versuchen, sind das Resultat unserer physischen Konstitution. Anders gesagt: Die Randbedingungen unseres Handelns und Erkennens resultieren allein aus den Konsistenzbedingungen zur Summe der vorangegangenen organischen und kognitiven Entwicklung, d.h. zur Summe der existierenden Theorien im weiteren Sinne. (Im nächsten Kapitel werden wir sehen, daß sogar so elementare Dinge wie der Energieerhaltungssatz davon abhängen, durch welche Prozesse der zeitliche Metrikgenerator in unserem Gehirn implementiert ist). Dann können wir auch sagen: Neue Theorien im weiteren Sinne (und damit auch im eigentlichen Sinne) werden bewertet durch die Gesamtheit der schon vorhandenen Theorien im weiteren Sinne. Entschließt man sich dazu, Realität als diejenige Instanz zu definieren, die neue Theorien bewertet, so ist es gerade die Summe des Etablierten - von den organischen über die kognitiven Strukturen bis zu den schon entwickelten wissenschaftlichen Theorien - die Realität konstituieren - eine Realität freilich, die weder unabhängig noch absolut ist, sondern relativ und die selber der Evolution unterliegt. Die Summe des (aktuell) Etablierten ist auch keine notwendigerweise monoton wachsende Menge. Vielmehr können selbst gut eingeführte Theorien sowohl im eigentlichen Sinne (naturwissenschaftliche Theorien oder kognitive Baupläne) als auch Theorien im weiteren Sinne wie Arten usw. durch Konkurrenten verdrängt werden. Noch häufiger kommt es vor, daß Theorien im weiteren Sinne mit ihresgleichen kooperieren statt konkurrieren und dadurch die Bedingungen ihrer Existenz verändern. (Zellen im physiologischen Verbund eines Mehrzellers; Interpretation von Beobachtungen im Rahmen umfassenderer Theorien; individuelle Meinung im Kontext der öffentlichen Meinung usw.). D.h., neue Theorien werden nicht nur durch die Summe der vorhandenen Theorien, die die aktuelle Realität repräsentieren, bewertet sondern vermögen diese u. U. selbst zu verändern. Das bedeutet, daß es grundsätzlich keine objektiven und unabhängigen Bewertungskriterien für Theorien gibt. Damit kann Realität selbst in dieser relativierten Form nicht eindeutig über das Schicksal neuer Theorien entscheiden. Genau das aber, das Monopol zur Bewertung von Theorien, ist die umgangssprachliche Mindestforderung an Realität: "Realität und nichts sonst entscheidet über das Schicksal von Theorien!" Der Glaube, daß sich Theorien und die Instanzen ihrer Bewertung sauber von einander trennen ließen, sodaß sich eine funktionale Realität definieren ließe, beruht wesentlich auf dem Umstand, daß die häufigste Bewertung überhaupt, nämlich die Bewertung von Sinnesreizen in Form von Wahrnehmungen, von allen Menschen auf die gleiche Weise vollzogen wird, weil sie die gleichen kognitiven Operatoren mit den gleichen Invarianten verwenden. Seit es Menschen gibt, haben vergleichbare Sinnesreize aus genetisch fixierten cerebralen Gründen zu vergleichbaren Wahrnehmungen geführt. Das hat entwicklungsgeschichtlich die Vorstellung entstehen lassen, daß uns Wahrnehmungen mit Informationen über eine objektive Welt versorgen. Ähnlich drückt es Piaget aus (1967, S. 152): "Bemerkenswert ist in der Tat, daß die kognitiven Funktionen notwendige Invarianten bilden, und zwar sogar da, wo die unmittelbare Erfahrung dies nicht nahezulegen scheint. Diese Invarianten betreffen nicht nur die vom Subjekt benutzten kognitiven Werkzeuge: Sie werden als auf die Objekte selbst bezogene Erhaltungsbegriffe in die Wirklichkeit projiziert" und generieren damit letztlich den Begriff der objektiven Welt.

Die Vorstellung, daß sich Theorien sauber von den Instanzen ihrer Bewertung trennen lassen, sodaß sich unabhängige Bewertungskriterien finden ließen, liegt auch dem Wahrheitsbegriff des Logikers zugrunde. So wie Realitätsnähe als Kriterium für den Erfolg naturwissenschaftlicher Theorien gilt, gilt Wahrheit als Kriterium für den Erfolg sprachlichen Verhaltens in seinem Beitrag zum Erfolg des Gesamtverhaltens. Entsprechend gilt es als Aufgabe der Naturwissenschaften, (unabhängige) Realitätsstrukturen aufzudecken, und als Aufgabe der Semantik, universelle Wahrheitsbedingungen zu definieren. Tatsächlich sind die elementaren logischen Strukturen und Verfahren genauso entwicklungsgeschichtlich bedingte Humanspezifika wie die Strukturen des Wahrgenommenen, auf die wir sie anwenden, um daraus höhere Theorien aufzubauen. Insbesondere lassen sich die Gesetze der Logik nicht als Universalien im Sinne von Leibniz darstellen, die auf Grund ihres sogenannten Wahrheitsgehalts in "jeder möglichen Welt" gelten, d.h. eine begriffliche Realität im Sinne synthetischer Apriori läßt sich genausowenig erklären wie eine physische Realität im Sinne unabhängiger Naturgesetze. Wenn Vittorio Hösle (1988) z. B. schreibt: "Denn der Satz S 'Es gibt keine synthetischen Apriori' ist offenbar selbst ein Satz a priori - er widerspricht sich also selbst, sodaß seine Negation wahr sein muß", so ist ihm Recht zu geben, insofern es synthetische Apriori wenigstens in dem Sinne gibt, daß aus entwicklungsgeschichtlichen Gründen jeder denkende und argumentierende Mensch von ihnen auszugehen hat. Logik als Disziplin befaßt sich mit den Strukturen, die sich über dieser phylogenetisch gewachsenen Basis errichten lassen, und die wir in der Folge mit empirischen und anderen Theorien möblieren. Es kann jedoch keine synthetischen Apriori geben, die sich vorab und außerhalb des Rahmens humanspezifischer Kategorien, d.h. im Wortsinne sprachlos, formulieren lassen. Es kann auch keine Aussagen geben, zu der sich jede hinreichend differenzierte Intelligenz unabhängig von ihrer Entwicklungsgeschichte bekennen könnte und die deswegen universell genannt werden dürften. Allein schon die Frage, ob eine gewisse Aussage einer Intelligenz A die "Gleiche" sei wie eine bestimmte Aussage einer Intelligenz B, läßt sich sinnvoll nur stellen, wenn sich die entsprechenden Denkstrukturen aufeinander abbilden ließen, was wiederum nur mit Hilfe einer notwendigerweise ebenfalls humanspezifischen Abbildungsvorschrift geschehen könnte. Anders gesagt: Der Begriff eines universellen synthetischen Apriori läßt sich logisch nicht explizieren. Sätze, die sich zur Existenz universeller synthetischer Apriori äußern, sind daher weder wahr noch falsch. Sie sind gegenstandslos.

Daß eine so definierte Realitätsvorstellung das Resultat ihrer eigenen Entwicklungsgeschichte ist, erlaubt es, das Hauptargument des Realisten in einem anderen Lichte zu sehen. Die Grunderfahrung eines jeden Menschen ist, daß es in den Wahrnehmungen reproduzierbare Regelmäßigkeiten gibt, auf die er keinen Einfluß hat. Der Realist schließt daraus: Weil er keinen Einfluß auf sie hat, müssen sie objektiv sein und es ist daher legitim, zu versuchen, sie zu den Gesetzen einer realen Welt zu kondensieren. Wir sagen hier: Richtig ist nur, daß wir gegenwärtig keinen Einfluß mehr auf sie haben. Wir haben aber in all diesen Fällen in der Vergangenheit sehr wohl Einfluß ausgeübt, denn Regelmäßigkeit, so hatten wir gesehen, ist nichts Absolutes, sondern signalisiert nur Übereinstimmung mit intern manifestierten Mustern. Solche Muster haben wir entweder im Laufe des Lebens angelegt, indem wir z. B. wissenschaftliche Theorien entwickelt haben, mit deren Hilfe wir Beobachtungen strukturieren, oder im Laufe der Entwicklungsgeschichte beim Ausbau der generierenden kognitiven Operatoren. In beiden Fällen sind die Muster hausgemacht, d.h. es wird synthetisiert, wo nach Meinung des Realisten analysiert werden sollte.

Eine unmittelbare Folge dieses Ansatzes ist, daß der Erfolg induktiven Schließens nicht mehr mit der Einfachheit oder sonst einer Struktur der Welt begründet werden muß, sondern auf die entwicklungsgeschichtlich bedingte Verwandtschaft zwischen den mentalen Verfahren zurückgeht, die auf der einen Seite Sinnesreize zu Wahrnehmungen verarbeiten und auf der anderen Seite die mathematischen und logischen Strukturen generieren, mit denen wir den Zusammenhang zwischen Wahrnehmungen darstellen, wie das schon Piaget vermutet hat (Diettrich 1989 S. 78ff). Anders gesagt: Die algorithmische Komprimierbarkeit der Welt (und damit die Möglichkeit, generalisierbare Erfahrungen zu gewinnen) beruht auf dem Umstand, daß zwischen den von uns benutzten Algorithmen und unseren Wahrnehmungen nicht nur eine Analogie sondern eine entwicklungsgeschichtlich begründete Homologie besteht. Der bislang spektakulärste Hinweis in dieser Richtung scheint die rein mathematisch vorhergesagte Entdeckung des Positrons zu sein, was sogar aus klassischer Sicht den allerdings nie ernsthaft erwogenen Schluß nahelegt, daß in der allein von Menschen gemachten Mathematik Informationen über die "Natur" enthalten sind. Das heißt natürlich nicht, daß im Bau unseres Hirns die Ergebnisse der Elementarteilchenphysik vorgezeichnet sind. Experimentelle Apparaturen, mit deren Hilfe wir höhere Physik betreiben, können aufgefaßt werden als Erweiterungen der Sinnesorgane. Diese Apparaturen haben, vor allem im nichtklassischen Bereich, andere Invarianten als die natürlichen Sinnesorgane. Sie hängen vom Bau der Meßapparate ab und lassen sich daher nicht aus den mentalen Operatoren herleiten. Es mag jedoch sein, daß gewisse natürliche Invarianten auch noch die Invarianten höherer Apparaturen sind, wenn wir diese aus Elementen aufbauen, die ihrerseits natürliuche Invarianten haben, d.h. wenn wir die Apparaturen nach den Regeln des klassischen Apparatebaus konstruieren. Ähnlich verhält es sich im organischen Bereich. Obwohl die Eigenschaften von Körperzellen nicht die Struktur des Organismus determinieren, finden sich einige ihrer Eigenschaften wie spezifisches Gewicht, Leitfähigkeit und andere auch im Gesamtorganismus wieder. Wenn Kontinuität bzw. Analytizität solch durchgängige Invarianten sind, müßten Daten, die sich durch stetige Funktionen extrtapolieren lassen, auch in der höheren Physik vorkommen. Nichts anderes hat Dirac (implizit) vorausgesetzt, als er das Spektrum möglicher Teilchenenergien auf negative Werte ausgedehnt hat und auf diese Weise zur Voraussage der Entdeckung von Positronen geführt wurde. Es muß jedoch gesagt werden, daß die richtige Vorhersage klassischer Meßergebnisse auf Grund einfacher mathematischer Ausdrücke, obwohl sie zum wissenschaftlichen Alltag gehört, im Grunde nicht minder spektakulär ist. Das eigentliche Faszinosum ist die algorithmische Komprimierbarkeit der Welt, und die, so scheint es hier, hat ihren Grund darin, daß die Welt, in der wir leben, die Welt unserer Wahrnehmungen ist, die auf Grund ihrer Genese in gewissem Sinne selber algorithmisch ist.

Vor diesem Hintergrund gewinnt Newton's Ausspruch, Gott müsse als Schöpfer Himmels und der Erden Mathematiker gewesen sein, eine zusätzliche Pointe: Die Ordnung dessen, was wir Schöpfung nennen, manifestiert sich allein in den Strukturen unseres Denkens und Wahrnehmens, und an deren Anfang stehen in der Tat die mentalen Generatoren der Mathematik und der Logik - oder des Logos, wie die Bibel sagt.

Fassen wir Zusammen: Es gibt Regelmäßigkeiten in unseren Wahrnehmungen, auf die wir keinen Einfluß haben und Beschränkungen unseres Handelns, die wir bei der Verfolgung unserer Ziele nicht ignorieren dürfen. Beides ist gegeben und beides ist unbestritten. Wir wollen es Wirklichkeit nennen. Für Wirklichkeit gibt es zwei Erklärungsversuche:

4. Zeit, Kausalität und Erhaltungssätze in realitätsfreier Darstellung.

Die Behauptung, daß die Strukturen unserer Naturerkenntnis - nicht nur, was den Grad ihrer Vollständigkeit angeht, sondern grundsätzlich - humanspezifisch sind, gewinnt an Glaubwürdigkeit, wenn wir wenigstens für einige der sogenannten Realkategorien funktional plausible Genesemechanismen angeben können.

Das heißt zunächst, alle Begriffe und Größen nicht mehr durch ihre Beziehungen zu anderen Begriffen und Größen, d.h. zu existierenden Strukturen, sondern nur noch als Invarianten von Operatoren zu definieren, d.h. durch ihre Genese. Eine Länge ist dann das, was eine Längenmeßvorrichtung mißt, und ein Gewicht das, was eine Waage ermittelt. Im Alltagsleben scheint dies eine unnötige begriffliche Verschärfung zu sein; nicht so in der Physik. Das Versagen der klassischen Physik, das zur Relativitätstheorie und Quantenmechanik geführt hat, beruhte gerade darauf, mit Größen gearbeitet zu haben, deren sogenannte Operationalisierung nicht sichergestellt war. Seit dem ist es eine anerkannte methodische Forderung, bei der Theorienbildung nur noch operationalisierbare Größen und Begriffe zu verwenden.

4.1 Der Zeitpfeil:

Subjektiv gesehen haben wir eine relativ klare Vorstellung von Vergangenheit und Zukunft. Vergangenheit enthält alle Ereignisse, die wir erlebt haben. Vergangenheit ist die Quelle alles erworbenen Wissens. Von der Vergangenheit ist sicher, daß sie ist, wie sie ist. Selbst Gott kann sie nicht ändern, heißt es. Zukunft ist Gegenstand unserer Erwartungen. Die Zukunft umfaßt nur mögliche Ereignisse, die erst dann sicher sind, wenn und wann sie Zugang zur Vergangenheit gefunden haben. Läßt sich das physikalisch fassen? Läßt sich der Lauf der Zeit, insbesondere seine Richtung, objektiv darstellen, d.h. ist der Zeitpfeil operationalisierbar? Hierzu gibt es zahlreiche Versuche, die jedoch alle negativ ausgegangen sind. Es läßt sich zeigen, daß jede sogenannte Operationalisierung des Zeitpfeils auf der implizit vorweggenommenen Definition ihres eigenen Resultats beruht. Dazu zwei Beispiele:

Die in einem Kasten nach ihrer Farbe sortierten Kugeln werden sich durch Schütteln stets vermischen aber niemals wieder entmischen. Physikalisch gesagt: Die Zunahme der Entropie liegt in Zukunft, nie in der Vergangenheit. Damit läßt sich jedoch der Zeitpfeil noch nicht operationalisieren, weil der Versuch aus zwei Teilen besteht und weil es gerade deren Reihenfolge ist, die das Resultat bestimmt. Ordnet man die Kugeln vorher und schüttelt sie nachher, ist das Resultat Chaos. Schüttelt man sie hingegen vorher und ordnet sie nachher, ist das Resultat Ordnung. Man muß also bereits wissen, was vorher und nachher bedeutet, um das Experiment machen zu können, das die Begriffe 'vorher' und 'nachher' definieren soll.

Ähnlich verhält es sich mit den verwandten thermodynamischen Ansätzen. Daß sich Temperaturunterschiede in der Zukunft ausgleichen und sich nicht aus einem vergangenen Gleichgewicht heraus entwickelt haben können, gilt nicht allgemein sondern nur dann, wenn endotherme Stoßprozesse vorliegen. Bei exothermen Prozessen (z.B. bei Verbrennung und ähnlichen Kettenreaktionen) werden sich in der Regel neue Temperaturunterschiede entwickeln. Vorab jeder höheren Theorienbildung unterscheiden sich jedoch endotherme und exotherme Stoßprozesse allein darin, daß bei Ersteren die kinetische Energie der Stoßpartner im Mittel vor dem Stoß größer ist als danach, wohingegen sie im exothermen Fall nach dem Stoß größer ist. Auch hier ist die für den Ausgang des Experiments ausschlaggebende Unterscheidung an das Wissen um 'vorher' und 'nachher' geknüpft.

Diese und andere Beispiele unterstützen die Hypothese, daß sich der Zeitpfeil grundsätzlich nicht aus dem herleiten läßt, was wir Natur nennen. Die Zeitrichtung kann daher nur mental definiert werden, z.B. durch die Festlegung: Von zwei Ereignissen A und B soll A das frühere heißen, wenn wir uns bei B an A erinnern können, nicht aber umgekehrt (Diettrich, 1989, S. 103). In der Tat, Vergangenheit ist das, woran wir uns erinnern können. Es gibt keine Erinnerungen an die Zukunft. Daß die Gedächtnisbildung konstitutiv ist für den mentalen Zeitpfeil, wird von F. Seitelberger gezeigt (1983 S. 189). Diese "Mentalisierung" von Vergangenheit und Zukunft ist wohl sehr nahe an dem, was Einstein gemeint haben mag, als er an M. Bosso schrieb: "Für uns gläubige Physiker hat die Unterscheidung zwischen Vergangenheit, Gegenwart und Zukunft nur die Bedeutung einer wenn auch hartnäckigen Illusion." (zitiert nach I. Prigogine 1979, S. 210).

4.2 Kausalität, Metrik und Erhaltungssätze:

Wenn Kausalität nicht die vorgegebenen Wechselwirkungen zwischen realen Strukturen widerspiegeln kann, können wir kausale Verknüpfungen nur als eine zusätzliche und höhere Ordnung auffassen, die wir selbst - gewissermaßen als ersten theoretischen Schritt - über der Menge der zeitlich geordneten Ereignisse errichten. Wenn auf jeden Blitz stets ein Donner folgt, konstatieren wir auf der Grundlage dieser zunächst nur zeitlichen Folge einen Kausalzusammenhang. Umgekehrt folgt aber auch auf jeden Donner irgendwann einmal ein Blitz. Wir könnten uns daher genau so gut für den Donner als Ursache entscheiden. Wenn wir das tatsächlich nicht tun, so, weil der zeitliche Abstand zwischen Blitz und dem nächsten Donner in der Regel viel kleiner ist und weniger streut (und sich damit einfacher theoretisch aufarbeiten läßt) als der Abstand zwischen Donner und dem folgenden Blitz, der im Einzelfall Monate betragen kann. Von der Größe zeitlicher Abstände läßt sich aber nur sprechen, wenn eine zeitliche Metrik definiert ist, die durch einen im Gehirn implementierten Metrikgenerator realisiert sein muß. So wie wir in metrikfreien Räumen keine geometrischen Figuren identifizieren könnten, lassen sich in einer metrikfreien Zeitordnung nicht die Zeitmuster ausmachen, die wir zur Konstitution von Kausalität benötigen. Anders gesagt: Wir unterstellen kausale Verknüpfungen und halten sie für naturgegeben, wenn wir zeitartige Ereignismuster identifizieren, die invariant sind gegen Zeitverschiebung (Der Donner muß dem Blitz in entsprechendem Abstand folgen unabhängig vom Zeitpunkt des Blitzes), so wie wir die Existenz realer Gegenstände unterstellen, wenn wir räumliche Muster identifizieren, die bewegungsinvariant sind. (Kausalität ist gewissermaßen das zeitliche Analogon zur räumlichen Gegenständlichkeit). Entscheidend ist, daß die Art der wahrgenommenen Ereignismuster und damit die Art des postulierten Kausalzusammenhanges von der Art der physikalischen Realisierung des mentalen Metrikgenerators abhängt. Wir würden zu einer völlig anderen "Naturbeschreibung" gelangen, wenn der Gang dieses Taktgebers (gemessen mit den uns geläufigen Uhren) von bestimmten physikalischen Zustandsgrößen oder Ereignissen abhängen würde und damit andere Invarianten hätte. Diese Invarianten wären dann die Größen, für die wir Erhaltungssätze "entdecken" würden anstelle der uns geläufigen Erhaltungsgrößen wie Impuls, Energie usw. Der für Menschen geltende Energieerhaltungssatz ist demzufolge kein empirisch gewonnenes Naturgesetz, das gegebenenfalls wenigstens grundsätzlich auch mit seiner möglichen Falsifizierung rechnen muß, sondern die Folge des Umstandes, daß der humanspezifische Metrikgenerator durch Mechanismen realisiert ist, die physikalisch äquivalent zum harmonischen Oszillator sind.

5. Konstruktivismus und Solipsismusproblem

Wenn man alle wahrgenommenen Regelmäßigkeiten und damit auch alle Naturgesetze als Konstrukte des humanen kognitiven Geneseapparates deklariert, könnte man schließen wollen, man könne heuristisch gesehen auf die Analyse der Außenwelt verzichten und sich statt dessen bei der Ausarbeitung der Theorien, mit deren Hilfe wir unsere Lebensorganisation betreiben, einzig auf die Analyse des mentalen Geneseapparates stützen, denn was wir in der sogenannten Außenwelt an Spezifika zu sehen bekämen, sei ja doch nur das Werk eben dieses Geneseapparates. Aber genau darum sind ja Wahrnehmungen für uns so interessant. Eine der wichtigsten Informationsquellen über die Wirkungsweise der Mechanismen der Theorienbildung sind ja gerade die Bilder und Wahrnehmungen, die diese uns in Gestalt sogenannter externer Strukturen vorsetzen, und die wir als Bausteine höherer Theorien verwenden. Daß Wahrnehmungen hausgemacht sind, ändert nichts daran, daß sie nach wie vor die wesentliche Voraussetzung für die Bildung von Theorien sind, mit deren Hilfe wir andere Wahrnehmungen voraussagen - und darauf lassen sich alle physischen Lebensziele reduzieren: bestimmte Wahrnehmungen haben zu wollen und andere zu vermeiden. Der Konstruktivismus, wie diese Position gewöhnlich genannt wird, gibt uns also keineswegs einen Grund, auf die empirisch-heuristischen Methoden der klassischen Naturwissenschaften zu verzichten oder die Relevanz des Wahrgenommenen gering zu achten, nur weil sich dies nicht mehr als Ausfluß einer unabhängigen Realität darstellen läßt. Der Konstruktivismus wie hier dargestellt postuliert ja nicht die völlige Beliebigkeit unseres Weltbildes. Es gibt durchaus Randbedingungen, die wir bei der Entwicklung der Methoden unserer Lebensbewältigung zu beachten haben - nur reflektieren sie nicht die Strukturen einer unabhängigen Realität. Sie sind vielmehr die entwicklungs- und theoriengeschichtlichen akkumulierten und etablierten Vorgaben der aktuellen Theorienentwicklung. Die theoriengeschichtlichen Vorgaben können wir in Maßen durch neue Entwürfe oder Paradigmen korrigieren. Wir können jedoch weder bei der phylogenetisch fixierten Interpretation von Sinnesreizen in Form von Wahrnehmungen inetervenieren noch in den physischen Prinzipien, die Individualität konstituieren und damit die Randbedingungen individuellen Handelns festlegen.

Realismuskritik in der hier vorgeführten Form vermeidet, die üblichen solipsistischen Befürchtungen zu provozieren. Eine Position, so wird normalerweise argumentiert, die die Existenz einer unabhängigen Realität leugne, müsse notwendigerweise auch jede soziale Realität leugnen, was als schlechthin unakzeptabel gilt. Was hier gesagt wird ist jedoch nur, daß die Randbedingungen unseres Wahrnehmens und Handelns, die wir als Ausfluß einer unabhängig und extern konstituierten Realität thematisieren, in unserer physischen und mentalen Konstruktion begründet sind und somit Humanspezifika darstellen. Nichts läßt den Schluß zu, daß wir, selbst wenn wir grundsätzlich anders konzipiert wären, dennoch ähnlichen Randbedingungen unterworfen wären, woraus sich dann so etwas wie Strukturuniversalien der Realität ableiten lassen müßten. Aus der Lebenserfahrung folgt noch nicht einmal, daß sich Lebensorganisation überhaupt auf das Institut der Realitätsvorstellung gründen muß. (Oben hatten wir gezeigt, daß sich die Realitätskategorie wahrscheinlich überhaupt nur als Instrument zur Standardisierung von Theorien herausgebildet hat. Dieses Ziel aber, so ist zu vermuten, ließe sich auch durch andere Mechanismen erreichen). Aus dem Umstand, daß sich Lebewesen rezenter Arten "realomorph" verhalten (d.h. so, als besäßen sie die Fähigkeit, sich an das anzupassen, was wir Realität nennen), folgt weder, daß solche Lebewesen eine Realitätsvorstellung haben, noch läßt sich dadurch unsere eigene Realitätsvorstellung ontologisch legitimieren. Es unterstreicht lediglich, daß unsere Realitätsvorstellung in sich schlüssig ist.

Das Selbe gilt für die soziale Realität. Auch diese ist eine in sich schlüssige, humanspezifische Vorstellung, was so viel heißt, daß wir bei der Verfolgung unserer Ziele die Regeln sozialen Handelns, wie sie sich aus dem ergeben, was wir die Absichten unserer Mitmenschen nennen, genauso zu beachten haben wie die Regeln physischen Handelns, wie sie sich aus dem ergeben, was wir Naturgesetze nennen. Alle diese Regeln jedoch oder was immer wir benutzen, um physische oder soziale Erlebnisse darzustellen, sind notwendigerweise humanspezifisch und damit ungeeignet, den Begriff einer ontologischen Realität, aus der jede wie auch immer geartete Intelligenz ihre spezifischen Erfahrungen ableiten können muß, überhaupt nur zu explizieren. Anders gesagt: Realität als objektive Theorie physischer bzw. sozialer Wirklichkeit ist nicht darstellbar. Wenn Menschen Realismuskritik ablehnen, weil sie fälschlicherweise meinen schließen zu müssen, daß dann auch keine physische bzw. soziale Wirklichkeit existieren könne, so beruht dies auf der Vermengung von Wirklichkeit und Realität, d.h. auf der Vermengung des Gegebenen und seiner theoretischen Deutung.

Die Aufteilung der Lebenswelt in einen Innen- und einen Außenteil, wie sie sich in der Realitätstheorie äußert, ist ein Spezifikum humaner Lebensorganisation. Wir haben also nicht danach zu fragen, ob die Objekte unserer Wahrnehmung realiter oder nur in unserer Vorstellung existieren, ob die Innenwelt oder die reale Außenwelt konstitutiv ist für die von uns erkannten Regelmäßigkeiten und Gesetze, d.h. ob wir externe oder interne Realisten zu sein haben. Wir haben vielmehr zuallererst danach zu fragen, wieso wir unsere Erlebniswelt überhaupt in eine Innen- und Außenwelt aufspalten, d.h. wieso wir versuchen, die Wirklichkeit durch die Realitätstheorie zu erklären. Dies, so hatten wir oben vermutet, ist ein Resultat der Stammesgeschichte: Daß wir als Individuum mit Innenwelt einer Außenwelt gegenüberstehen, ist die erste aller phylogenetisch konstruierten Invarianten der Lebensorganisation, auf die wir alle höheren Invarianten, die wir in unseren Theorien verwenden, aufbauen. Die nächst höhere phylogenetische Entscheidung, so hatten wir gesehen, ist, daß wir den selben Schnitt, mit dem wir uns von der Außenwelt trennen, auch dazu nutzen, die Außenwelt in sich aufzuteilen, was konstitutiv ist für den Strukturbegriff. Insofern unterscheidet sich der sogenannte interne Realismus, der gegenwärtig häufig diskutiert wird (siehe E. Oeser, 1988), vom klassischen externen Realismus in erster Linie durch eine andere Funktionsteilung zwischen Innen- und Außenwelt. Während der klassische Realismus sowohl die erkannten Regelmäßigkeiten als auch die Summe der aktuellen Ereignisse, die wir erleben, in die Zuständigkeit der Außenwelt verlegt und der Innenwelt nur die Wahl der anpassenden Entscheidungen überläßt, geht der interne Realismus davon aus, daß die erkannten Regelmäßigkeiten, d.h. die Invarianten unseres Wahrnehmens genau so Konstrukte des Individuums sind wie die Invarianten seines Handelns und funktional somit nicht zu trennen sind. (Die Unterscheidung zwischen Wahrnehmen, mit der die Umwelt auf das Individuum Einfluß nimmt, und Handeln, mit dem das Individuum die Umwelt beeinflußt, ist nur auf der Grundlage des externen Realismus möglich). Hingegen ist das, was uns in einer aktuellen physischen oder sozialen Situation tatsächlich an Ereignissen begegnet (sofern wir sie nicht durch planvolles Handeln selbst generiert haben), auch für den internen Realisten eine Sache der Außenwelt, die die Innenwelt zwar nach eigenem Gusto interpretieren und bewerten, aber nur begrenzt voraussagen kann. Wahrscheinlich sind die Genese des Bewußtseins und die Subjekt-Objekt-Trennung, die konstitutiv ist für die Realitätskategorie, zwei Aspekte ein und desselben Evolutionsschrittes.

Die Realitätstheorie aufzugeben, kann daher nur bedeuten, der von ihr aufgebauten Trennung zwischen Innen- und Außenwelt ihres ontologischen Charakters zu entkleiden, nicht aber, die Außenwelt zu eliminieren und alles, was wir dort angesiedelt haben, in die Innenwelt zu überführen, was schon deswegen problematisch wäre, weil dort ganz andere Bildungsgesetze herrschen: Visuelle Vorstellungen können wir nach Belieben generieren, Wahrnehmungen nur im Rahmen unserer Handlungsmöglichkeiten. Umgekehrt beinhalten die sogenannten Gesetze der Logik Beschränkungen, denen wir nur die (bewußte) Bildung eigentlicher Theorien unterwerfen, nicht aber die (unbewußte) Bildung von Wahrnehmungsstrukturen. Bei beobachteten Erscheinungen dürfen wir daher nicht fragen, ob sie Invarianten logischer Operationen sind sondern nur, ob sie in das Schema der präfabrizierten Wahrnehmungsmuster fallen, genauer, ob sie zu den Invarianten der sinnlichen Wahrnehmung gehören oder ob sie "übersinnlich" sind. Wir können sogar noch einen Schritt weiter gehen und sagen, daß es die Invarianten gewisser Operationen sind, die den Außenraum überhaupt erst aufspannen, und daß es die Invarianten gewisser anderer Operationen sind, die den Innen- oder Vorstellungsraum generieren. Der Unterschied der definierenden Operationen ist verantwortlich für die unterschiedliche Gesetzlichkeit innerhalb des Vorstellungsraumes und des Außenraumes, d.h. für das, was wir uns vorzustellen vermögen, und für das, was wir erleben können. Ein Beispiel: Daß wir uns aus entwicklungsgeschichtlichen Gründen veranlaßt sehen, gegenständliche Identität als Bewegungsinvariante zu definieren, hat zur Folge, daß es keine räumlich diskontinuierlichen Bewegungsvorgänge gibt. Ein physischer Gegenstand, der seine Bahn an einem Punkt abbricht und an einem anderen wieder aufnimmt, ist genau das nicht, was er nach (ererbter) Definition zu sein hat, nämlich eine Bewegungsinvariante. (Gegebenenfalls werden wir eher von der Existenz mehrerer Gegenstände ausgehen oder mit Zusatzhypothesen arbeiten, die uns den "unterbrochenen Blickkontakt" erklären, als diese Definition aufzugeben). Die Kontinuität der Bewegung ist daher kein Spezifikum der Welt, in der wir leben. Sie ist vielmehr eine Folge der entwicklungsgeschichtlich festgelegten Definition von Gegenständen als Invarianten der Bewegung (O. Diettrich 1991)

Nach Meinung des Realisten kann sich der Außenraum allein auf seine ontologische Qualität stützen. Diese zu leugnen, kann für ihn nur bedeuten, dem Innenraum als der einzig möglichen Alternative eine universelle Zuständigkeit einzuräumen. Das darf er mit Recht von sich weisen, denn er weiß aus Erfahrung, daß es unmöglich ist, z.B. das, was wir die physischen Hindernisse des Außenraumes nennen, mit den gedanklichen Methoden des Innenraumes aus dem Wege zu räumen, oder umgekehrt, durch physisches Handeln die Grenzen der Logik zu sprengen - und genau in diesem Sinne wird am häufigsten gegen jede Realismuskritik argumentiert: Daß wir mit dem Kopf nicht durch die Wand können, darf ja wohl kaum das Resultat allein unserer Einbildung sein! Sicher - doch diese funktionale Inkompatibilität des Innen- und Außenraumes und damit die unterschiedliche Rolle beider Räume in unserem Leben bedarf zu ihrer Erklärung nicht der ontologischen Qualität des Außenraumes, die sich ohnehin nicht explizieren läßt. Es reicht, davon auszugehen, daß die mentalen Operatoren, die den Innen- bzw. Außenraum konstituieren, unterschiedliche Invarianten haben.

6. Organische, kognitive und kulturelle Evolution

Der Entschluß, auf strukturelle Darstellungsmittel wenigstens grundsätzlich zu verzichten, weil Strukturen keine funktionale Bedeutung zu definieren vermögen, hat vielfältige Konsequenzen:

Das gilt für jegliche Evolution. Evolutionsschritte sind nicht nur mehr oder weniger adaptativ sondern immer auch prädisponierend. Sie sind daher nicht nur nach ihrer Anpassung an eine Summe zuvor definierter Anforderungen zu bewerten, sondern auch unter dem Aspekt der implizierten künftigen Möglichkeiten. Evolution ist daher sowohl ein "erkenntnisgewinnender" als auch ein kreativer Prozess, d.h. ein Prozess, der Realität nicht nur "erkennt", sondern selbst erst gestaltet.

Dieser Ansatz gibt uns gleichzeitig die Möglichkeit, die bislang als unüberwindlich geltende Diskrepanz zwischen organischer und kultureller Evolution zu reduzieren.

Die organische Evolution, wie eingangs erläutert, wird dargestellt durch autonome organische Modifikationen, die die Umwelt selektierend bewertet. Bei der kognitiven Evolution wird gerade umgekehrt von den autonomen Veränderungen der Umwelt gesprochen, auf die das Individuum durch Lernen reagiert. Die erste Darstellung - autonome Modifikation des Subjekts und anschließende Selektion - wird mit dem Namen Darwin in Verbindung gebracht. Die zweite - Vorgabe äußerer Anforderungen und deren gezielte Berücksichtigung durch das Subjekt - läßt sich, metaphorisch gesprochen, mit dem Namen Lamarck's belegen.

Die Inkompatibilität dieser beiden Darstellungen - Darwinbild und Lamarckbild - ist m.E. der wesentliche Grund dafür, daß garnicht erst ernsthaft versucht wurde, die kognitive und organische Evolution unter einem einheitlichen Dach zusammenzufassen, wie es dem impliziten und bislang unerfüllten Anspruch der EE entspricht.

Man muß daher nach einer Darstellung suchen, die diese Diskrepanz garnicht erst artikuliert. Dazu sind weder das Darwinbild noch das Lamarckbild geeignet, weil beide von der Existenz einer autonom strukturierten, externen Außenwelt ausgehen. Der Unterschied zwischen beiden besteht wesentlich nur in der Funktion, die sie ihr zuweisen. Die Funktion der Außenwelt ist im Darwinbild bewertend und im Lamarckbild verursachend - Legislative und Initiative gewissermaßen.

So wie wir die kognitive Evolution dargestellt haben, gibt es aber noch eine dritte Möglichkeit - die einer Evolution, die sich nur mit ihrer eigenen Vergangenheit zu arrangieren hat, deren Randbedingungen daher nicht durch eine externe Umwelt vorgegeben sind, sondern durch die einfacheren Formen, die sich zu höheren Strukturen arrangieren. Die oben gestellte Forderung der Konsistenz mit der eigenen entwicklungsgeschichtlichen Vergangenheit wird gerade dadurch erfüllt, daß die vergangenen Terme die Bausteine der künftigen sind:

Die physikalischen Theorien, die wir uns von der Natur machen, sind mit den vererbten Kategorien unseres Denkens konsistent, weil sie in den dort festgelegten Termini von Gegenstand, Eigenschaft, Raum, Zeit u.s.w. formuliert sind. Ein Mehrzeller ist mit den physikalisch-chemischen Eigenschaften eines Einzellers konsistent, genau dann und weil er sich aus einzelnen Zellen zusammensetzt. Die kulturellen Hervorbringungen der Menschheit sind zur organischen und mentalen Konstitution von Menschen konsistent, weil sie sich aus humanspezifischen Kommunikationsformen herausgebildet haben. Überhaupt besteht zwischen organischen und kulturellen Individuen nur ein hierarchischer Unterschied. Die einen konstituieren sich als Resultate physischer Wechselbeziehungen zwischen Zellen, die anderen als Resultate der kulturellen Kommunikation zwischen Menschen. Beiden gemeinsam ist, daß sich ihre Evolution wesentlich als Entwicklung der definierenden Wechselwirkungen und nicht so sehr als Entwicklung der konstituierenden Elemente darstellt. So artikuliert sich die Evolution der Mehrzeller in erster Linie in immer raffinierteren Arrangements von Zellen und kaum noch in der evolutionären Entwicklung der Zellen selbst. Ebenso besteht der sogenannte Fortschritt menschlicher Gesellschaften schon lange nicht mehr in der biologischen Verbesserung der Menschen, sondern in der Entwicklung sozialer und kultureller Wechselwirkungen.

Zu den Wechselwirkungen, die zur Differenzierung eines Biotops, einer Gesellschaft oder überhaupt eines hierarchisch höheren Arrangements beitragen, gehört eine, die die primitivste von ihnen genannt werden kann. Sie heißt Selektion und äußert sich u.a. im numerischen Verdrängungswettbewerb, wenn einer versucht, sich allein auf Kosten eines anderen zu behaupten. Sobald jedoch Kosten oder Nutzen verschiedener Individuen oder Arten durch höhere Wechselwirkungen mit einander korreliert sind, bilden sich kooperative Strukturen, die den rein darwinistischen Verdrängungswettbewerb ablösen.

Menschen z.B. stehen schon längst nicht mehr im biologischen Wettbewerb. Niemand von uns wird seine materiellen oder intellektuellen Ressourcen in eine möglichst große Nachkommenschaft investieren. Mehr noch, es gibt sogar Gruppen, die die Nachteile, die sich aus biologischer Verwandtschaft ergeben könnten, durch ein explizites Zölibat verhindern. Ebenso wird sich die somatische Zelle eines Mehrzellers, die ihre soziale Verantwortung gegenüber ihrer physiologischen Umgebung vergißt und statt dessen anfängt, sich exzessiv zu vermehren, wie sie das bei Darwin gelesen haben mag - eine solche Zelle wird sich als Krebszelle ihr eigenes Grab schaufeln. In gewisser Hinsicht haben Menschen bereits den Status somatischer Zellen erreicht. Sie vermehren sich zwar noch, aber nur noch nach Maßgabe hierarchisch höherer Kriterien und nicht mehr als Mittel der genetischen Behauptung im Sinne von Dawkins.

Was sich aus der Veränderung auf einem gewissen hierarchischen Niveau ergibt, wird in der Regel nicht durch einfache Selektion durch das nächst höhere Niveau entschieden, sondern dadurch, wie das höhere Niveau die gegebene Veränderung interpretiert. Selektion ist als reine Ja-Nein-Entscheidung gewissermaßen der Spezialfall einer allgemeineren Interpretation, wenn diese feststellen muß, da sich mit der vorgelegten Veränderung überhaupt nichts Vernünftiges anfangen läßt. Nehmen wir eine Vogelart, in der der Schnabel zum Körnerpicken genutzt wird. Entwickelt sich der Schnabel evolutionär zu solcher Größe, daß er sich dazu nicht mehr eignet, so müßte die Art ein Opfer der Selektion werden. Es kann jedoch sein, daß der Vogel dadurch Nüsse knacken kann, was er zuvor nicht konnte, und dadurch überlebt. Anders gesagt, die Schnabelgröße ist überhaupt kein Selektionskriterium, d.h. man kann überhaupt nicht sagen, ob ein Schnabel an die Umwelt angepaßt ist oder nicht. Es kommt allein auf die Interpretation des Schnabels durch das hierarchisch höhere Niveau an, das in diesem Falle durch die Lebensweise des Vogels dargestellt wird.

Ein anderes Beispiel dafür, daß es weniger auf die Entwicklung selbst ankommt und auf die Frage, ob die Entwicklung an die gegebenen Verhältnisse angepaßt ist, ist die schon erwähnte Erfindung des Telefons. Als das Telefon erfunden wurde, bestand dafür überhaupt kein Bedarf. Erst im Nachherein hat die Gesellschaft das Telefon als Instrument zur allgemeinen Kommunikation interpretiert, oder, aus der Sicht des Telefons selbst: das Telefon hat die Kriterien seiner eigenen Bewertung beeinflußt.

Wir haben hier zweierlei: Wir haben das Oberniveau, das die Entwicklung des Unterniveaus nicht einfach akzeptiert oder verwirft, d.h. schlicht selektiert, sondern vielmehr als Möglichkeit zur Erfüllung einer noch zu findenden Aufgabe interpretiert - als strategische Reserve gewissermaßen - und wir haben das Unterniveau, das nicht einfach mit gegebenen Kriterien konfrontiert ist, sondern u. U. in der Lage ist, diese Kriterien seiner eigenen Bewertung zu seinen Gunsten zu beeinflussen, wenn nicht gar zu gestalten.

Ein anderes Beispiel für die Funktionsteilung zwischen Unter und Oberniveau ist der Zusammenhang zwischen individuellen Eigenschaften und Ansichten von Menschen und der Struktur der Gesellschaft, zu der sie sich zusammenschließen. Es steht außer Zweifel, daß es nichts in einer Gesellschaft gibt, das nicht in irgend einer Form auf die konstituierenden Individuen zurückgeht. Man kann aber nicht sagen, daß eine bestimmte menschliche Eigenschaft für ein spezielles Strukturelement des gesellschaftlichen Phänotyps verantwortlich ist oder kodiert, wie der Genetiker sagen würde. Es ist vielmehr die Gesellschaft als Ganzes, die individuelles Verhalten bewertet und in Bezug auf seine gesellschaftliche Wirkung exprimiert. Egoismus z.B. wirkt in sogenannten geschlossenen Gesellschaften, in denen jeder jeden kennt, in der Regel zerstörerisch. In offenen Gesellschaften hingegen, die durch anonyme Wechselwirkungen charakterisiert sind, kann individueller Egoismus dem allgemeinen (materiellen) Wohlstand durchaus förderlich sein. Es ist die Gesellschaft, die individuelle Züge nicht nur gesellschaftlich exprimiert, sondern darüber hinaus auch entscheidet, wie sie exprimiert werden. Die Gesellschaft wirkt dadurch in erster Linie interpretierend und nicht so sehr selektierend. In der Tat kommt es nur in extremen Fällen vor, daß die Gesellschaft menschliches Verhalten völlig ablehnt und damit selektiert.

Wie schon angedeutet ist es auf der anderen Seite auch nicht so, daß das Individuum dem Interpretationsmonopol der Gesellschaft rein passiv ausgeliefert wäre. Durch hinreichendes Engagement kann es dem Einzelnen durchaus gelingen, die öffentliche Meinung aktiv zu beeinflussen und damit auch die Instanzen der Bewertung seines eignen Handelns. Durch diese funktionale Rückkopplung, und das ist der entscheidende Punkt, kommt ein nichtlineares Element in die gesellschaftliche Entwicklung, das eine eigenständige und autonome Dynamik zu konstituieren vermag. Autonom heißt, daß gesellschaftliche Evolution nicht notwendigerweise auf verursachende Veränderungen in den Verhaltensweisen und Eigenschaften von Menschen angewiesen ist. Es gilt übrigens auch umgekehrt, daß individuelles Verhalten mutieren kann, ohne daß der gesellschaftliche Phänotyp davon betroffen werden muß. Die Identität von Gesellschaften beruht nämlich gerade darauf, daß diese Neuzugänge so integrieren, daß diese sich von nun an aktiv an der Reproduktion des gesellschaftlichen Phänotyps beteiligen, was zur Folge haben kann, daß abweichende Meinungen, selbst wo sie sich epidemisch manifestieren, folgenlos absorbiert werden. Wo sich Gesellschaften verändern, tun sie das in der Regel autonom und eigendynamisch. Gegenüber Veränderungen an ihrer Basis reagieren sie weitgehend konservativ. Anders gesagt, Mutationen des gesellschaftlichen Genotyps und Veränderungen des gesellschaftlichen Phänotyps sind nur schwach korreliert.

Dazu ein Beispiel: Forschung zu betreiben ist eine weitgehend akzeptierte menschliche Verhaltensweise. Die daraus resultierende Evolution der elektronischen Kommunikation und speziell des Fernsehens hat dazu geführt, daß eine individuelle Meinung, die früher eine Vielzahl von Zwischenträgern überzeugen mußte, um sich als öffentliche Meinung manifestieren zu können, heute in einem Schritt der gesamten Öffentlichkeit präsentiert werden kann. Dadurch werden wesentliche Instanzen der kulturellen Präselektion und der Präinterpretation eliminiert, wodurch die Mechanismen der gesellschaftlichen Exprimierung und Reproduktion verändert werden, ohne daß dies auf verursachende Veränderungen im Verhaltens- oder Meinungsbild zurückgreifen müßte.

7. Nicht-lineare Genetik

Diese Mechanismen sind weitgehend analog zu dem Zusammenhang zwischen Genom, epigenetischem System und Phänotyp, aus dem abgeleitet werden kann, was hier "Nicht-lineare Genetik" genannt werden soll. Was heißt das?

Wir hatten bereits erläutert, daß eine genetische Information (ebenso wie irgend eine andere Information) nicht ihre eigene Wirkung zu definieren vermag. Vielmehr bedarf es dazu der Übersetzung durch das epigenetische System. Für das ES gibt es eine Reihe unterschiedlicher Definitionen. Eine z.B. spricht von der Summe der Gen-Gen-Wechselwirkungen (Riedl 1985, S. 294). Hier soll dieser Begriff in einem allgemeineren und abstrakteren Sinne verwendet werden, als semantische Ergänzung zum Begriff des Informationsträgers. Wenn man sich dafür entscheidet, eine bestimmte Stufe im zyklischen Reproduktionsprozess von Lebewesen als Informationsträger zu bezeichnen, dann ist es ein logisches Erfordernis, daß man den darauf folgenden Stufen die Funktion zuweist, diese Information zu exprimieren. Diese Definition erlaubt also nicht, das ES anatomisch oder physiologisch zu identifizieren. Das ES stellt gewissermaßen nur eine begriffliche Konstruktion dar. Unabhängig hiervon setzt sich in der Biologie seit geraumer Zeit die Einsicht durch, daß sich ein Monopol des Genoms in der Exprimierung des Phänotyps nicht halten läßt. Katz (1982 S. 208) z. B. schreibt: "It is apparant that extant genoms and extant genomic mechanisms play fundamental roles in channeling evolution. But, beyond the genome there appears another level of ontogenetic components that guide evolution. These components are the supragenomic mechanisms, highly reproducible developmental mechanisms that are distant from the genome and that produce detailed phenotypes neither explicitly nor rigidly encoded in the DNA."

Denknotwendig ist diese Aufspaltung in Genom und ES nicht. Man kann sich auch allein auf einen sich identisch reproduzierenden zyklischen Prozess beziehen, in den das Genom, das ES und der Phänotyp eingebunden sind. Im Prinzip kann dieser Kreisprozess in jedem der dabei durchlaufenen Stadien modifiziert werden. Bekannt ist dies auf der Ebene des Genoms durch Mutation bzw. Rekombination. Grundsätzlich sollte dies aber auch auf der Ebene des ES möglich sein, d.h. es sollte autonome Änderungen des ES geben, die zu bleibenden, d.h. reproduktionsfähigen Strukturen führen, die sich u.A. in einem modifizierten und erblichen Phänotyp niederschlagen. Es müßte daher grundsätzlich möglich sein, nicht nur Gen- sondern auch Epigentechnologie zu betreiben. Da allerdings die Wirkungsweise des ES ungleich komplexer ist als die des Genoms, dürfte es auf absehbare Zeit schwierig sein, auf dieser Ebene reproduzierbar technisch zu intervenieren.

Entscheidet man sich hingegen begrifflich für die Aufspaltung in Genom und ES, darf man dann jedoch nicht mehr sagen, daß im Genom der Bauplan (im Sinne von Blueprint) des Organismus enthalten sei. Erst beide zusammen, Genom und ES definieren den Phänotyp. Genau daraus resultiert, daß Genotyp und Phänotyp für sich allein bei weit entfernten Arten kaum korreliert sind. Daß genetische Mutationen innerhalb einer Art in Bezug auf ihre Wirkung reproduzierbar sind, d.h. die immer gleiche phänotypische Veränderung verursachen, liegt nicht an der Spezifität des Genoms, sondern nur daran, daß das immer gleiche ES beteiligt ist. Aus der Reproduzierbarkeit genetischer Wirkungen auf ein Informationsmonopol des Genoms zu schließen, wäre genau so, als wollte man bei einem Produkt A*B=C sagen, A enthalte alle Informationen über C, nur weil der Einfluß von A auf C reproduzierbar ist. Tatsächlich ist C nur durch A und B zusammen definiert.

Grundsätzlich sollte es daher möglich sein, phänotypische Veränderungen auch dadurch zu produzieren, daß man das Genom mit einem artfremden ES kombiniert. Daß dies praktisch nicht möglich ist, liegt daran, daß der Reproduktionsprozess als Ganzes hohe Ansprüche stellt an die Spezifität seiner Glieder. An irgend einer Stelle artfremde Glieder einzufügen, wird in der Regel zu nicht reproduktionsfähigen Resultaten führen. Aber es gibt immerhin Experimente mit Keim-Plasma-Bastarden, die zeigen, daß die Vorstellungen an sich nicht so abwegig ist. Versuche mit verschiedenen Froscharten, die normalerweise nicht kreuzbar sind, führte zu Bastarden, die wenigstens einige Zellteilungen überlebt haben.

Im Rahmen der oben verwendeten Ausdrucksweise kann man auch sagen, daß das ES die Strukturen des Genoms interpretiert. Auf der anderen Seite ist aber das Genom selbst an der Genese der folgenden Stufen d.h. an der Genese des Phänotyps und damit auch des ES der folgenden Generation beteiligt. Genomische Veränderungen beeinflussen damit die Instanzen der Bewertung genomischer Strukturen. Daraus folgt, daß mit einer möglichen Rückmutation nicht notwendigerweise auch die Wirkung wieder zurückgenommen wird. Denn wenn das ES beeinflußt wurde, heißt dies, daß es auch das rückmutierte Genom anders interpretieren wird, als es das beim ursprünglichen Genom getan hat. Die veränderten Interpretationsmechanismen wiederum haben Einfluß auf die Formierung des ES der Folgegeneration. Mit anderen Worten: Das ES hängt nicht nur vom Genom ab, wie es die klassische Betrachtungsweise vorsieht, sondern auch von seinem eigenen Vorgänger. Das aber ist das mathematische Merkmal für Nicht-Linearität und damit für eine autonome Eigendynamik, d.h. eine Dynamik, die sich selbst zu perpetuieren vermag, ohne auf das dynamische Verhalten der konstituierenden Elemente angewiesen zu sein - genau wie wir das oben am gesellschaftlichen Analogon gesehen haben.

Damit ist das ES in der Lage, autonom zu evoluieren. Genomische Mutationen können zwar auslösend wirken, das ES ist aber auf eine solche Auslösung nicht mehr angewiesen, wenn man unterstellt, daß das ES auch selbst durch Replikationsfehler mutieren kann.
Wenn man den Zusammenhang zwischen Genom, ES und Phänotyp etwas formalisiert, lassen sich einige Fallunterscheidungen leichter durchführen (Diettrich, 1989, S. 165).

Es sei Gi das Genom des Wildtyps einer Art i. ESi sei das ES und Pi der Phänotyp dieser Art. Der Ausdruck
Gi (ESi(0)) = Pi(1) , ESi(1)
ist wie folgt zu lesen: Das Genom G wirkt als Operator auf das ES (linke Seite) und erzeugt dadurch einen Phänotyp P und ein neues ES (rechte Seite). Dieser Prozess beschreibt eine identische biologische Reproduktion, wenn ESi(0) Eigenvektor von Gi ist, d.h. wenn ESi(0) = ESi(1) ist. Entsprechend soll Pi der Eigenphänotyp genannt werden.

Wenn das ursprüngliche ESi nicht Eigenvektor zum Genom ist, führt das in den darauf folgenden Generationen zu einer Folge ESi(k) mit k = 1, 2, 3,... Entsprechend werden sich auch unterschiedliche Pi einstellen. Die Folge wird abbrechen, wenn der Abstand zu der Ausgangskonfiguration so groß geworden sein sollte, daß das Tripel Genom, ES und Phänotyp keine fortpflanzungsfähige Einheit mehr bilden. Ab einem gewissen k' wird daher gelten:
Gi(k') (ESi(k')) = 0.
Es kann aber auch sein, daß ab einem gewissen k* das ESi(k*) wieder ein (anderer) Eigenwert des Genoms ist. Dann herrscht von da ab wieder Stabilität.

Welche Folgen kann eine genetische Mutation von Gi nach G'i haben?

  1. ESi ist Eigenvektor nicht nur zu Gi sondern auch zu G'i aber zu einem anderen Eigenwert Pi. Das ist der Normalfall einer vererbbaren Mutation, die zu einer stabilen phänotypischen Variante führt.
  2. ESi ist Eigenvektor zu G'i zum alten Eigenwert Pi (man sagt, P sei entartet). Das würde dem entsprechen, was seit Kimura (1982) eine neutrale Mutation heißt), d.h. eine Mutation ohne phänotypische Auswirkungen.
  3. ESi ist Eigenvektor zu G'i zum Eigenwert 0: G'i (Ei) = 0, d.h. die Mutation ist letal.
  4. ESi ist nicht Eigenvektor zu G'i. Dann stellt sich die bereits erwähnte Entwicklungslinie ein, die entweder gegen einen neuen Eigenvektor ES'i konvergiert, wodurch sich das System wieder stabilisiert, oder die Entwicklung findet ein letales Ende.

Fassen wir zusammen: Zwischen dem Genom und dem ES besteht eine Doppelbeziehung. Auf der einen Seite ist das ES im Darwinbild ein Teil des Organismus, der nach den "Anweisungen" des Genoms konstruiert wird. Auf der anderen Seite ist aber das ES gerade die Instanz, die diese Anweisungen interpretiert und in Konstruktionsvorschriften umsetzt. Das führt nur dann zu einer stabilen Entwicklungslinie, wenn das ES das Genom gerade so interpretiert, daß es sich selbst dabei identisch reproduziert, d.h. wenn es Eigenvektor des Genoms ist. Wird diese Beziehung durch eine Mutation gestört, reproduziert sich das ES nicht selbst, sondern erzeugt ein neues, das dann in der nächsten Generation das Genom anders interpretiert und dadurch ein noch wieder anderes ES hervorbringt u.s.w.

Es muß offen bleiben, ob sich hiermit eine Art Orthogenese darstellen läßt, d.h. ein über längere entwicklungsgeschichtliche Zeiträume gerichteter Trend bei bestimmten Merkmalen einer Art (z.B. zunehmendes Größenwachstum). Zunächst ist jedoch festzuhalten, daß alle Fälle, die man ursprünglich glaubte, orthogenetisch deuten zu müssen, rein neodarwinistisch erklärt werden können. Es besteht also gar kein Bedarf an einer neuen Orthogenesetheorie. Was hier vorgeschlagen wird, ist lediglich eine neben den zufälligen genetischen Mutationen zweite Quelle phänotypischer Veränderungen, die allerdings - und das ist der wesentliche Punkt - zu gesetzmäßigen Veränderungen führt, wenn man von gegebenen Ausgangswerten ausgeht und Umwelteinflüsse ausschließt. Es muß also tatsächlich langfristige Trends geben, nur müssen sie sich nicht notwendigerweise als solche zu erkennen geben, denn daß die Folge der phänotypischen Varianten aus einem genetischen Rekursionsverfahren stammen, heißt noch nicht, daß sie dadurch selbst eine leicht erkennbare Regelmäßigkeit zeigen müßten.

Daß es tatsächlich eine Evolution gibt, die sich primär nicht genetisch sondern epigenetisch manifestiert, darf aus einer Arbeit von Günter Wagner (1989) über die Entwicklung der Haken an den Flossen von Schleimfischen (Blennoidae) geschlossen werden. Die Faktoren, die zur Entwicklung der Haken führen, sind untereinander epigenetisch gekoppelt und nur aus dieser Kopplung heraus ist deren Bildung zu verstehen.

Ob in der Natur die klassischen Mutationen überwiegen, von denen man annimmt, daß sie das Verhältnis von Genom und ES unverändert lassen und, wenn überhaupt etwas, dann nur eine einmalige, vererbbare phänotypische Veränderung hervorbringen, oder ob solche Mutationen überwiegen, die durch eine Destabilisierung des ES eine längere phänotypische Drift einleiten, läßt sich nicht sagen, solange die phänotypischen Unterschiede von einer Generation zur nächsten unter Umständen viel kleiner sind als die Schwankungen infolge geschlechtlicher Rekombination.

Der Vorteil dieses Ansatzes mag vornehmlich darin liegen, daß die Ausbildung größerer und längerfristiger Entwicklungen auch Abschnitte umfassen kann, in denen es nicht zur Ausprägung selektionsfähiger Merkmale kommt, ohne daß dadurch die einmal eingeschlagene Richtung mangels Selektionsdruck "vergessen" werden müßte. Die Evolution ist also nicht allein auf eine Kette genomischer Veränderungen angewiesen, aus der die Selektion die tatsächlich stattfindende Entwicklung herausschnitzt.

Hier gibt es eine Parallele zur rationalen Problemlösung: Auch dort werden die einzelnen logischen Schritte nicht Zeile für Zeile der Umwelt zur gefälligen Prüfung vorgelegt, was in den meisten Fällen schon deswegen nicht möglich ist, weil die logischen Schritte nur im Kontext eines abgeschlossenen Gedankenganges Sinn machen und für sich allein gar keine selektionsfähigen Merkmale ausbilden. Vielmehr ist Denken ein eigendynamischer Prozess, der auch ohne den Führungszwang einer kontinuierlichen externen Bewertung andauert und der erst seine Resultate zum Konsistenztest frei gibt. In beiden Fällen sind es daher zumindest streckenweise eigengesetzliche und autonome Prozesse, die die Entwicklung charakterisieren. Die Entstehung der Arten wäre dann ein Prozess, der zumindest zeit- und teilweise seiner eigenen Dynamik folgt und Selektion nur noch als die Wirkung von Randbedingungen wahrnimmt, innerhalb derer die Evolution ihren endogenen Konzepten folgen kann - oder in der obigen Ausdrucksweise: Evolution ist nicht nur adaptativ sondern auch prädisponierend.

Von der kulturellen Evolution ist bekannt und unbestritten, daß sie ihren eigenen Wege geht und daß nichts davon genetisch festgeschrieben werden müßte. Das gilt auch für diejenige Vererbung, die pränatale Prägung genannt wird und die man sowohl biologisch als auch kulturell deuten kann. Die Streßsignale einer nervösen Mutter können sich auf das ungeborene Kind übertragen, das dies im mütterlichen Erbgang wiederum weitergibt. Auch hier erübrigt sich der Rekurs auf das Genom. Und es gilt schließlich, wie wir gesehen haben, auch für die Evolution des ES, die ebenfalls nicht genetisch verankert werden muß. Die Aufteilung in hierarchische Ebenen, die jede für sich allein vererbungsfähige Merkmale ausbilden können - Genom, ES, pränatale und postnatale Prägung und schließlich die rein kulturelle Ebene der Erziehung und Ausbildung - ist nicht ohne Willkür. Insbesondere das ES ist ja ein sehr weit gefaßter Begriff. Es mag also durchaus sein, daß es hier Zwischenniveaus gibt, die in vergleichbarer Weise reproduzierbar und autonom evoluieren können und dadurch ein Stück hierarchische Individualität konstituieren.

Auch Piaget (1975 S. 53) spricht schon von solchen hierarchischen Zwischenniveaus, die übertragungsfähige Merkmale ausbilden können. Allerdings geht er explizit von der Vorstellung aus, daß solche Merkmale erst dann zum definitiven Struktur- oder Funktionsgut einer Art gehören, wenn sie gewissermaßen ins genetische Grundbuch eingetragen sind, d.h. wenn sie im Genom festgeschrieben sind. Hier hingegen sind wir davon ausgegangen, daß sich externe Anforderungen an den Phänotyp nicht notwendigerweise durch Mutation und Selektion bis zum Genom durchquälen müssen, sondern nur bis zu der Ebene, die als erste über die erforderliche Kompetenz verfügt, den anstehenden Anforderungen gerecht zu werden. Dadurch wird das verkürzt, was man die lamarckistische Distanz nennen könnte. Aus darwinistischer Sicht gibt es nur zwei Ebenen, auf denen sich Lernprozesse abspielen können. Das ist zum einen die kulturelle Ebene, auf der unser Gedächtnis involviert ist, und zum anderen die Ebene des Genoms, das durch Versuch und Irrtum relevantes Wissen über die Umwelt gespeichert hat. Da aus der üblichen biologischen Sicht Kultur ein fachfremdes Sujet ist, bleibt nur die genomische Ebene übrig, die unter dem Handikap leidet, nur unter extrem großen Aufwand lernen zu können, weil der Lernprozess in der Regel viele Generationen erfordert und eine enorme Verschwendung von Ressourcen durch Fehlinvestitionen in schlecht angepaßte Versionen beinhaltet. Durch die Verkürzung der lamarckistischen Distanz ist garantiert, daß das in den hierarchisch tieferen Ebenen angelegte Wissen unberührt bleibt, und nicht in jeder Generation durch die im Grunde inkompetenten Mutationen des Genoms aufs neue gefährdet wird. (Das ist eine andere Darstellung des gleichen Phänomens, das Riedl mit dem Begriff "genetische Bürde" beschreibt). Diese faktische Immunisierung hierarchisch tieferen Wissens entspricht der oben erläuterten Immunisierung elementarer Wahrnehmungsmuster durch die Realitätskategorie. So gesehen ist Realität die "kognitive Bürde", die wir genauso wenig umgehen können wie die genetische Bürde.

Das ist besonders evident bei der rationalen Theorienbildung. Hier ist das Biologische überhaupt nicht mehr involviert. Die Selektion setzt hier erst bei den Theorien ein, die von ihren Trägern d.h. von Menschen je nach ihrem Erfolg ausgeschieden oder aufbewahrt werden, nicht aber bei den Trägern selbst. Menschen werden überhaupt nur noch dann zur biologischen Selektion gebeten, wenn die von ihnen angewandten Theorien im Wortsinne und auf irreversible Weise lebensgefährdend sind.

8. Fitness, Arterhaltung und Rationalität

Damit sind wir in die Nähe eines anderen Begriffspaares gelangt: Arterhaltung und Fitness. Fitness wird als diejenige Eigenschaft bezeichnet, die der Arterhaltung dient - im engeren Sinne, wenn nur genetisch fixierte Merkmale in Betracht kommen, und im weiteren Sinne, wenn auch kulturell vererbte Verhaltensweisen und Fähigkeiten (bis zu den wissenschaftlich-technischen und organisatorischen Fähigkeiten des Homo sapiens) berücksichtigt werden. Fitness ist aber nur dann eine theoretisch ergiebige Kategorie, wenn sie mehr ist als eine Art Synonym für Überlebensfähigkeit, d.h. wenn sie sich außer durch ihr Resultat auch noch anders manifestiert, sodaß man aus der so identifizierten Fitness Überlebensprognosen für eine Art herleiten kann. Andernfalls gerät man in die bekannte Tautologie des "survival of the fittest". Hinreichend hierfür wäre z.B., wenn man aus dem bisherigen Überleben einer Art schließen könnte, sie hätte sich dabei soviel generelle Überlebenstechnik angeeignet, daß sie auch in Zukunft gute Überlebenschancen hätte. Aber genau das können wir nicht, denn spezielle Arten haben nur spezielle Überlebenstechniken entwickelt, die sich auf die Probleme der Vergangenheit beziehen, nicht aber auf die der Zukunft - insbesondere nicht auf die, in die sie sich im Rahmen ihrer Problemlösungsversuche selbst erst hineinmanövrieren werden. Je raffinierter und umfassender die Problemlösungstechniken einer Art sind, desto raffinierter und umfassender werden die Probleme, die sie dadurch neu schafft und desto teurer und aufwendiger werden die erforderlichen Lösungstechniken. So ziemlich alle Probleme, die wir heute haben, resultieren ausschließlich aus dem Erfolg, mit dem unsere Vorfahren ihre Probleme gelöst haben. So gesehen ist es keineswegs sicher, daß der Homo sapiens - trotz seiner immensen Problemlösungsfähigkeiten - weniger Gründe hat, sich um den Fortbestand seiner Art zu sorgen als so mancher Einzeller. Mehr noch, da mit steigendem Aufwand und Einsatz das Risiko wächst, mit den Randbedingungen unserer Existenz zu kollidieren, d.h. die Schwelle zu irreversiblen, existenzbedrohenden Spätfolgen zu überschreiten, ist nicht auszuschließen, daß Fortschritt, gedacht als Mittel der Arterhaltung, auf Dauer sogar kontraproduktiv ist. Dann läßt sich aber auch Anpassung im Sinne der Arterhaltung nicht mehr definitiv bewerten. Was zu seiner Zeit als genial erscheinen mochte, kann sich im Nachherein als erster Schritt in eine Sackgasse erweisen.

Das läßt sich auch noch anders darstellen. Es scheint so etwas wie eine Risiko-Homoiostase (Ole Diettrich, 1989) zu geben. Alle erfolgreichen evolutionären Problemlösungen, die dadurch das Arterhaltungsrisiko vermindern, verführen gleichzeitig dazu, die gewonnene strategische Reserve mit neuen Risiken zu belasten, sodaß der Nettosicherheitsgewinn Null ist oder im Falle der Überkompensation sogar negativ werden kann. Tiere z.B., die nicht nur laufen sondern auch fliegen können, sollten unter sonst gleichen Bedingungen besser angepaßt sein als solche, die nur laufen oder nur fliegen können - allerdings nur so lange, bis sie sich durch ihre größere Kompetenz verleiten lassen, Biotope zu besetzen, in denen beides zusammen lebensnotwendig ist, sodaß bereits der Verlust einer der beiden Möglichkeiten tödlich sein kann. Nicht viel anders verhält sich der Autofahrer, der im Vertrauen auf ABS und andere technische Sicherheitszusatzmaßnahmen entsprechend risikofreudiger fährt - ein Verhalten, das leider allzu typisch ist, wie Versicherungsgesellschaften zu berichten wissen.

Das alles gilt recht allgemein: Die Zahl der existenzbedrohenden Probleme, die sich der Mensch durch nichts als die volle Ausschöpfung seiner eigenen Fähigkeiten eingehandelt hat, ist nicht viel kleiner als die Zahl der Fähigkeiten selbst. Wer neue Möglichkeiten nicht nur ausbaut sondern auch gleich nach Kräften ausbeutet, verschenkt damit den gerade erst gewonnenen Sicherheitsspielraum und betreibt damit gewissermaßen strategischen Raubbau; oder in den Termini der Ökologie: Das größte Problem der Menschheit sind die Entsorgungsprobleme ihrer eigenen Fähigkeiten, oder wie gerade eben gesagt: Jede Problemlösung impliziert gleichzeitig ein Stück Problemgenese und oft genug ist das neue Problem komplexer, weil es aus einer Lösung stammt, die dem alten Problem überlegen gewesen sein mußte.

Es gibt noch nicht einmal Strategien, die - wenn sie in ihrer Wirkung auch immer wieder durch die Aufnahme neuer Risiken beeinträchtigt werden - dennoch in jeder Situation nutzbringend und damit empfehlenswert wären.

Der Ausbau der Methoden rationalen Denkens steht in dem Ruf solch genereller Nützlichkeit und zwar sowohl innerhalb der Naturwissenschaften als auch in dem, was Habermas die Lebenswelt nennt. Aus dem naturwissenschaftlichen Erfolg der Rationalität wird häufig geschlossen, daß dies am Bau der Welt selbst liegen müsse, woraus weiter geschlossen wird, daß sich die Ordnung der Welt gerade und nur durch rationale Methoden dechiffrieren läßt. Daraus wird dann wiederum geschlossen, daß selbst dort, wo bewußte Rationalität ausgeschlossen werden darf, wie im Unterbewußten oder bei Tieren, der Erfolg von Handlungsstrategien und die Einsatzfähigkeit von Organen nur und insofern garantiert sei, als diese rationalen Kriterien genügen, oder, wie E. Brunswik (1956) sagt, insofern sie ratiomorph sind, was soviel heißt, daß sie die Summe der relevanten Fakten und Theorien im weiteren Sinne in derselben konsistenten Weise berücksichtigen, wie es ein entsprechend informierter rationaler Analytiker tun würde. So gesehen wäre rationale Herkunft gerade das objektive Bewertungskriterium für Theorien, nach dem wir in Kapitel 3 gefragt hatten.

Vom Erfolg rationaler Methoden auf die Existenz einer entsprechend strukturierten Welt zu schließen, und daraus umgekehrt zu schließen, daß sich kognitive Methoden nur halten können, wenn sie ratiomorph sind, würde bedeuten, daß Rationalität das Resultat der kognitiven Anpassung an die Welt wäre, in der wir leben. Da es aber keine ontologische, unabhängige Realität gibt, kann der Erfolg rationaler Methoden auch nicht die Welt, in der wir leben, charakterisieren, sondern nur die Klasse der rational lösbaren Probleme.

Tatsächlich ist die Fähigkeit zum rationalen Denken kein Wert an sich. Vielmehr teilt sie das Schicksal aller Fähigkeiten: Ihr Nutzen kann nur im Kontext einer Anwendung definiert werden. In der Tat beruht das hohe Ansehen, das Rationalität in ihrer Eigenschaft als Voraussetzung für Wissenschaft und Technik seit der Aufklärung genießt, wesentlich auf der Entscheidung, gerade solche Lebensgüter zu favorisieren, die sich durch den Einsatz rationaler Methoden gewinnen lassen, wodurch wir wiederum vom weiteren Ausbau dieser Methoden abhängig werden. Zwischen Rationalität und Wertvorstellung hat sich dieselbe Koevolution abgespielt wie zwischen Schnabelgröße und Ernährungsweise bei Vögeln, zwischen Intelligenz und Greiforganen bei den Primaten oder wie zwischen Sinnesorganen und den raum-zeitlichen Anschaungsformen. All diese Elemente sind nutzlos außer im Kontext derjenigen Elemente, mit denen sie sich in Koevolution zusammen entwickelt haben. Insbesondere läßt sich nicht sagen, daß Arten mit rationalen Kapazitäten grundsätzlich allen anderen Arten überlegen sein müßten. Angesichts der großen Zahl ungelöster menschlicher Probleme, die auf mangelnder sozialer Kohärenz beruhen, ist nicht auszuschließen, daß Gesellschaften mit hoher, wenn auch unbewußter und damit irrationaler sozialer Problemlösungsfähigkeit auf Dauer besser fahren als solche, die die Herrschaft über lebenswichtige Bereiche der Natur um so gründlicher verspielen, je mehr sie versuchen, eben diese Natur mit rationaler Wissenschaft und Technik zu beherrschen. Ohnehin zeigt alle evolutionäre Erfahrung, daß mit zunehmender Kommunikationsdichte die Erschließung sozialer Lebensräume und die Entwicklung sozialer Arrangements Vorrang haben wird vor der Erschließung physischer Lebensräume und der sogenannten Naturbeherrschung, wie sie sich in der Entwicklung der naturwissenschaftlichen Intelligenz manifestiert. Selbst die hochaktuellen und offensichtlich physischen Umweltprobleme sind schon heute zuallererst soziale Probleme, insofern sie sich eher durch sozial einsichtsvolles Handeln als durch wissenschaftlich-technische Anstrengungen lösen lassen - dies schon deswegen, weil technische Lösungen, selbst wenn sie den gestellten Anforderungen voll gerecht werden, in der Regel nur vorübergehend helfen, weil sie gleichzeitig immer auch eine letztlich kontraproduktive Bereitschaft zu neuen Risiken provozieren, d.h. weil sie die Mechanismen der Risikohomoiostase nicht auszuschalten vermögen. Die hohe strategische Bedeutung, die Menschen den naturwissenschaftlich-technischen Fähigkeiten zuweisen ist wesentlich ein Relikt aus Zeiten, als die physische Naturbeherrschung die überragende Voraussetzung des Überlebens war. Heute ist die Menschheit - zumindest in entwickelten Industrieländern - physisch weitgehend saturiert. Die Probleme, die wir haben, und erst recht die, die wir bekommen werden, sind vornehmlich soziale bzw. nur sozial lösbare Probleme.

Literaturhinweise

Brunswik, E. (1957): Scope and Aspects of the Cognitive Problem. in Bruner, J. S.: Contemporary Approaches to Cognition. Cambridge

Davies, P. C. W. (1990): Why is the physical world so comprehensible? In Complexity, Entropy and the Physics of Information, Santa Fe Institute Studies in the Sciences of Complexity, ed. W. H. Zurek, Vol VIII, Addison Wesley, p. 61-70

Diettrich, O. (1989): Kognitive, organische und gesellschaftliche Evolution. Berlin Hamburg: Parey.

Diettrich, O. (1990): Sprache als Theorie. In: Akten des 6. Int. Kongresses der Deutschen Gesellschaft für Semiotik (DGS), Passau, Okt. 1990

Diettrich, O. (1991): Induction and evolution of cognition and science. In Gertrudis Van de Vijver (Ed.): Teleology and Selforganisation. Philosophica Nr. 47

Diettrich, O. (Jr.) (1989): (mündliche Mitteilung)

Hofstadter, D. R. (1985): Gödel, Escher, Bach. Stuttgart: Klett-Cotta

Hösle, V. (1988): Tragweite und Grenzen der evolutionären Erkenntnistheorie. Zeitschrift für Allgemeine Wissenschaftstheorie XIX, 343-377

Katz, M. J. (1982): Ontogenetic Mechanisms: The Middle Ground of Evolution. In J. T. Bonner (Hrg.): Evolution and Development. Berlin, Heidelberg, New York: Springer

Kimura, M. (1982): The Neutral Theory as a basis for understanding the mechanism of evolution and

variation at the molecular level. In Kimura, M. (Hrg.) (1982) Molecular Evolution, Protein Polymorphismus and the Neutral Theory. Berlin, Heidelberg, New York: Springer

Lorenz, K. (1966): Über tierisches und menschliches Verhalten. Gesammelte Abhandlungen. München: Piper

Lorenz, K. (1971): Knowledge, beliefs and freedom. In Weiss, P. (Hrg.): Hierarchically organized systems in theory and practice. New York: Hafner

Lorenz, K. (1973): Die Rückseite des Spiegels. München: Piper

Lorenz, K. (1983): Kants Lehre vom Apriorischen im Lichte gegenwärtiger Biologie. In Lorenz, K. und Wuketits, F. M. (Hrg.): Die Evolution des Denkens. München: Piper

Peitgen, H.-O., Saupe, D. (Hrg.) (1988): The Science of Fractal Images. New York, Berlin, Heidelberg: Springer

Oeser, E. (1988): Das Abenteuer der kollektiven Vernunft. Berlin, Hamburg: Parey

Piaget, J. (1975): Biologische Anpassung und psychologische Intelligenz. Stuttgart: Klett

Popper, K. R. (1973): Objektive Erkenntnis. Hamburg: Hoffmann und Campe

Prigogine, I. (1979): Vom Sein zum Werden. München, Zürich: Piper

Riedl, R. (1980): Biologie der Erkenntnis. Berlin, Hamburg: Parey

Riedl, R. (1985): Die Spaltung des Weltbildes. Berlin, Hamburg: Parey

Solomonoff, R. J. (1964): A formal theory of inductive inference. Part I. in Information and Control, 7, 1

Wagner, G. P. (1989): The Origin of Morphological Characters and the Biological Basis of Homology. in Evolution, 43(6), 1989. pp. 1157-1171

Vollmer, G. (1980): Evolutionäre Erkenntnistheorie. Stuttgart: S. Hirzel

Version of 5 April 2000