DIGITALER GEIST
Wissensproblem, Wittgensteinagenten, Evolution, Gotteserfahrungsmodell


Sept/Oct 1997




INHALT


  1. Wissen als Problem
  2. Internet: Chance und Hindernis zugleich
  3. Multidisziplinärer Theoriebegriff; theoriegeleitete Computermodelle
  4. Wittgensteinagenten
  5. Digitaler Geist
  6. Evolution und Digitaler Geist
  7. Gotteserfahrungsmodelle, Evolution, Digitaler Geist
  8. Abkürzungsverzeichnis
  9. Literaturnachweise

Essay
von
Gerd Döben-Henisch
für
Wolfgang Weber



Die folgenden Überlegungen bewegen sich entlang ausgewählter Positionen aus dem Bereich der Philosophie, der künstlichen Intelligenzforschung und Kognitionswisenschaft, der Biologie und der Religion (sic!). Es ist der Versuch, eine die Einzelwissenschaften übergreifende Perspektive zu konstruieren, in der die jahrtausendelang geübte Gegenübersetzung von Geist und Materie, von Kultur und Technik, Religion und Natur einer neuen Synthese Raum geben soll. Diese Überlegungen gründen einerseits in der Biographie des Verfassers, der sich mehr als zwanzig Jahre lang als Mitglied des Jesuitenordens intensiv mit Fragen der christlichen Religion, der Existenz und Erfahrbarkeit Gottes beschäftigt hatte, mit Fragen der Philosophie und der Wissenschaftstheorie, und der sich, nachdem er den Orden und die Kirche verlassen hatte, seit gut sieben Jahren mit der Frage nach der möglichen Reproduktion des menschlichen Geistes durch Computerprogramme und Roboter beschäftigt. Zum anderen war es ganz sicher auch das stimulierende fächerübergreifende Interesse von Wolfgang Weber, das dazu geführt hat, die großen Linien von Philosophie, Technik, Evolution und Religion auf den folgenden Seiten versuchsweise zusammen zu führen. Die traditionellen großen Fragen nach der Stellung des Menschen und dem Sinn des Lebens sind damit eng verflochten.

1. Wissen als Problem

Die Überlegungen beginnen bei einem Phänomen, das schon heute viele Menschen betrifft. Jeder, der berufsmäßig täglich Wissen sichten und auswerten muß, erfährt am eigenen Leibe, daß die Menge des heute verfügbaren Wissens und die Geschwindigkeit der Zunahme dieses Wissens ein Ausmaß erreicht hat, das alle bisherigen Verfahren der Wissensverwaltung spürbar an ihre Grenzen führt. Selbst wissenschaftliche Bibliotheken können nicht mehr Schritt halten mit der Fülle der Publikationen. Und es nimmt nicht wunder, daß die Standardantwort der heutigen Einzelwissenschaften auf dieses Problem mehr denn je die Form einer immer fortschreitenderen Spezialisierung annimmt, die eine entsprechende Parzellierung und Fragmentierung des Wissens mit sich bringt.

Angesichts der begrenzten Kapazitäten des menschlichen Organismus, die der Wissensverarbeitung eine obere Schranke setzen, dies gepaart mit dem Zwang zum Neuen in der Wissenschaft, erscheint diese Tendenz zur Spezialisierung fast unausweichlich. Wenn angesichts dieser Parzellierung des Wissens für den einzelnen kein Gesamtzusammenhang verfügbar ist, gerät der Einzelne auf Dauer zuerst in einen Wissensnotstand, und dann, in Folge davon, auch in eine ethische Krise. Selbst wenn er wollte, er kann sein Verhalten nicht mehr rational absichern.

Die Frage, die sich hier daher stellt, ist die nach einer Methode, wie sich große Wissensmengen kulturell so organisieren lassen, daß sich dieses Wissen, unabhängig von seinem quantitativen Umfang und seinen speziellen Details, beständig so in einen wißbaren Zusammenhang organisieren läßt, daß im Prinzip jeder Mensch daran partizipieren könnte, wenn er nur wollte. Wenn sich auf diese Frage keine prinzipielle positive Antwort formulieren läßt, die zudem technisch realisierbar sein muß, ist es nur eine Frage der Zeit, bis die globale Wissensproduktion sich angesichts der begrenzten individuellen Wissenskapazitäten ad absurdum geführt haben wird.

Das Problem des Wissens ist als solches natürlich kein neues Thema. Die Materialsammlung eines Aristoteles in seiner deskriptiven Zoologie war Voraussetzung für erste Systematiken im Bereich des naturwissenschaftlichen Wissens. Die Bibliotheken des Altertums, die Klosterbibliotheken des Mittelalters, das große Projekt der französischen Enzyklopädisten, die wissenschaftlichen Bibliotheken der letzten 150 Jahre, um nur einige Beispiele zu nennen, waren bzw. sind allesamt Versuche, die Menge des Wissens zu systematisieren und sie dem menschlichen Geist zugänglich zu machen.

Während für die Erstellung und Verwaltung solchen - fast ausschließlich schriftlich gefaßten- Wissens zunehmend technische Hilfsmittel eingesetzt werden (Druckmaschine, Schreibmaschine, Computer, Spracherkennung, Sprachsynthese, in begrenztem Umfang automatische Übersetzungssysteme, elektronische Datenbanken, elektronische Expertensysteme, elektronische Kommunikationssysteme ...), ist der Prozeß der Versprachlichung von Wissen sowie der Interpretation von sprachlichem Wissen bis heute dem Menschen vorbehalten. Noch gibt es keine Maschine, die wie der Mensch Wissen über die Welt und über sich selbst in jeder beliebigen Sprache selbständig erwerben, aufbauen, und beständig weiter verändern und kommunizieren kann.

Angesichts der Wissensproblematik wird hier die These vertreten, daß wir in Zukunft Maschinen benötigen werden, die - so wie der Mensch - selbständig Weltwissen erwerben und dies in jeder beliebigen Sprache situationsgerecht kommunizieren können. Denn nur so können wir den Anspruch auf ein ethisches Verhalten in Zukunft zumindest prinzipiell aufrecht erhalten. Ohne Wissen ist jede Art von Norm ein körperloses Etwas, dessen Bezug zur Welt unklar ist. Die Frage ist, ob und wie dies möglich ist.

Die Antwort soll zunächst am Beispiel des Internets vorbereitet und dann in einer philosophischen Überlegung vertieft werden.

2. Internet: Chance und Hindernis zugleich

Man kann das Internet als eine mögliche Ausweitung der Technologie des Wissens auffassen. Das Internet bietet Grund für eine Vision, in der jedem Menschen die Möglichkeit geboten wird, beliebiges Wissen in Form von Schrift, Ton und Bild weltweit anzubieten, und zwar so, daß jeder das angebotene Wissen jederzeit abfragen und für sich auswerten kann. Eine Realisierung dieser Vision würde einen deutlichen Fortschritt gegenüber der bisherigen Situation markieren.

Die Vision Internet ist aber bislang nur für einen sehr kleinen Teil der Menschheit Realität geworden. Doch allein schon dieses Fragment läßt ahnen, was es bedeuten könnte, wenn die Vision vollständig realisiert wäre. Schon als dieses erste Fragment stellt das Internet mittlerweile den größten Wissensspeicher dar, über den die Menschheit je verfügte. Die neue Freiheit Internet enthüllt aber auch verschärft jene Faktoren, die den Umgang mit dem Wissen erschweren. Eine Analyse dieser Faktoren führt unmittelbar zum zentralen Problem des Wissens.

Für diese Analyse wird das Internet in die folgenden drei Faktoren zerlegt: (i) die Wissensanbieter, (ii) die Wissensverteiler und (iii) die Wissenssucher.

Wenn jemand im Internet symbolisch vermitteltes Wissen anbieten will, so kann er nicht die Sachverhalte selbst bereitstellen, sondern nur jene Ausdrucksmittel, die für die zu vermittelnden Sache stehen, die er mitteilen möchte. Im Falle von sprachlich vermitteltem Wissen benutzt der Anbieter A z.B. Ausdruckselemente A_L einer Sprache L, die anhand von vereinbarten Regeln der Bedeutungszuordnung und der grammatischen Konstruktion (:= L_ART ) über nichtsprachliche Sachverhalte C_A 'spricht', also L_ART: C_A --> A_L. Jeder Sprachteilnehmer B der Sprache L, der die Regeln von L kennt, kann dann, bis zu einem gewissen Grad, anhand der Ausdruckselemente A_L und der gelernten internalisierten Regeln (:= L_UND ) die 'gemeinte Sache' C_A rekonstruiert als C_B verstehen: L_UND: A_L --> C_B.

Für jemanden, der Wissen sucht, stellt sich das Problem dann in einem doppelten Sinne dar. Er muß wissen, (1) durch welche repräsentierenden Ausdruckselemente sich die Wissensinhalte darstellen, die er sucht, und (2) unter welchen Adressen er diese repräsentierenden Ausdruckselemente finden kann.

Aspekt (2) hat zu tun mit der Organisation des Wissens im Internet. In der Vergangenheit haben sich in der Form von sogenannten Suchmaschinen Wissensverteiler herausgebildet, die es sich zum Ziel gesetzt haben, das im Internet in Form von Ausdruckselementen A_L angebotene Wissen anhand dieser Ausdruckselemente mittels sogenannter Indizes index: EXPR --> INDEX mit A_L in EXPR zu sortieren und mit den zugehörigen Adressen zu speichern. Unter Rückgriff auf solche Wissensverteiler kann dann ein Wissenssucher ausprobieren, welche Indizes von einem Wissensverteiler registriert sind und kann dann anhand der zugehörigen Adressen nachschauen, was sich tatsächlich unter dieser Adresse verbirgt. Typische Indizes sind z.B. Schlüsselwörter/ Sachwörter oder die Liste der Wörter eines Textes.

Aspekt (1) hat mit der Struktur des Wissens zu tun. Menschliches Wissen beginnt als nichtsprachliches Wissen, das im Laufe des lebenslangen Lernens mehr und mehr in Wechselwirkung tritt mit einem sprachlichen System. Auch wenn im fortgeschritteneren Stadium dieser Entwicklung die Wechselwirkung zwischen sprachlichem und nichtsprachlichem System immer dichter wird, so kann man doch sagen, daß das nichtsprachliche Wissenssystem grundsätzlich eine selbständige Komponente neben dem sprachlichen System darstellt. Sowohl das nichtsprachliche wie auch das sprachliche System sind dynamische Systeme, die sich beständig durch Lernprozesse verändern. Nur wenn ein Mensch über hinreichendes Wissen und eine hinreichende Sprache verfügt, kann er Wissensinhalte durch sprachliche Ausdruckselemente repräsentieren bzw. anhand von sprachlichen Ausdruckselementen die vom Autor intendierten Wissensinhalte hypothetisch rekonstruieren. Da die meisten Menschen höchstens zwei Sprachen aktiv beherrschen, bleibt eine sprachliche Kommunikation von Wissensinhalten auf die jeweiligen Sprachgemeinschaften beschränkt. Die Menschheit zerfällt damit in mindestens so viele Untergruppen, wie es unterschiedliche gesprochene Sprachen gibt. Und jede Untergruppe hat ihr eigenes sprachlich normiertes Weltbild.

Bezogen auf den Aspekt der Organisation des Wissens, muß man leider feststellen, daß es heute keine global orientierte Wissensarchitektur gibt.. Dies manifestiert sich z.B. darin, daß die Beziehung zwischen Wissensanbietern und Wissensverteilern heute weitgehend ungeklärt ist; heutzutage weiß kein Wissensanbieter - außer denen, die dafür entsprechend zahlen -, ob seine Wissensangebote von einem Wissensverteiler abgefragt werden, falls ja, wann, nach welchen Kriterien, wie häufig usw. Auch weiß ein Wissensanbieter nicht, was mit dem von ihm abgefragten Wissen dann beim Wissensverteiler geschieht. Wie organisiert der Wissensverteiler dieses Wissen für mögliche Anfragen? Wie zeigt er das angefragte Wissen an?

Statt profitorientierter Wissensverteiler, die an einem Chaos mehr verdienen als an einer Ordnung, wäre hier eine nationale und internationale Wissenspolitik gefordert, deren erklärtes Ziel es sein muß, das oberste Gut der Menschheit, ihr Wissen, in eine internationale, globale Wissensarchitektur einzubetten. Nur so könnte jedem Wissensanbieter garantiert werden, daß seine Angebote prinzipiell gefunden werden könnten. Faktisch wäre dies mit relativ einfachen Mitteln realisierbar.

Eine globale funktionierende Wissensarchitektur wäre aber nur eine notwendige, jedoch noch keine hinreichende Bedingung. Für die Einlösung einer funktionierenden globalen Wissensarchitektur bedarf es zusätzlich der Lösung eines wissenschaftlich technischen Problems, das bislang noch ungelöst ist. Dieses Problem, das Bedeutungsproblem, resultiert aus der Struktur des Wissens. Dazu drei Beispiele.

Die heute fast ausschließlich angewandten Methoden im Bereich der Wissensverarbeitung im Netz fallen unter den Begriff der Mustererkennung (Pattern Matching). Diese setzen voraus, daß es einerseits ein konzeptuelles Wissen C_i gibt, das ein Wissensanbieter mittels sprachlicher Regeln L_ART der Sprache L in sprachliche Ausdruckselemente A_L_i übersetzt hat, wobei die Menge dieser Ausdruckselemente möglicherweise noch weitergehender indiziert wurde (index: EXPR --> INDEX mit A_L_i in EXPR). Auf der anderen Seite gibt es einen Wissenssucher, der aufgrund seines Wissens C_j mittels sprachlicher Regeln L_ART der Sprache L eine Frage in Form von Ausdruckselementen A_L_j formuliert hat. Die Mustererkennung versucht nun eine formale Beziehung zwischen A_L_j, A_L_i und index(A_L_i) herzustellen. Dies geschieht über ein formales Ähnlichkeitsmaß sim: EXPR x EXPR --> [0,1], das die Beziehung zwischen zwei Mustern in Form eines quantitativen Wertes wiedergibt.

Die Praxis zeigt, daß dieses Verfahren sehr schnell an seine Grenzen stößt. Sobald die Schlagworte zu speziell sind, weiß der Suchende meist nicht, nach welchen Schlagworten er suchen soll; sind sie zu allgemein, wird die Liste der möglichen Hinweise zu groß. Eine gezielte Suche nach bestimmten Inhalten, die zudem sprachunabhängig ist, und die zusätzlich inhaltlich verwandte Kontexte erfaßt, ist auf diese Weise nicht möglich. Durch die Abtrennung von der eigentlichen Sprachbedeutung bleibt dieses Verfahren aus prinzipiellen Gründen sehr grob. Weiterführende komplexere Wissensprozesse können hier nicht aufsetzen.

Die Unzulänglichkeiten der Mustererkennungsmethoden haben seit einigen Jahren verschiedene Projekte hervorgebracht, die versuchen, nichtsprachliches Bedeutungswissen mittels formaler Ontologien direkt durch formale Ausdrücke zu repräsentieren. Die grundsätzliche Idee besteht darin, daß man die Ausdruckselemente A_L der Alltagssprache L durch die Ausdruckselemente A_L1 einer formalen Logiksprache L1 ersetzt. Auf den ersten Blick kann man dadurch erhebliche Vorteile gewinnen.

Angenommen es gibt einen Sachverhalt S, der sich wie folgt umschreiben läßt: es gibt einen Händler Müller, der ein Auto vom Typ Ford zum Preis von 55000 DM im Angebot hat, dazu einen Satz passender Autoreifen für 500 DM das Stück sowie noch eine Garage im Wert von 15000 DM.

Wenn man diesen Sachverhalt S in einer Sprache L repräsentieren wollte, müßte man beim aktuellen Technologiestand einen Sprecher-Hörer der Sprache L finden, der von der zu repräsentierenden Sachlage S eine entsprechende Kenntnis C aller relevanten Eigenschaften besitzt und diese Kenntnisse C dann aufgrund seines Sprachwissens L_ART in einen entsprechenden sprachlichen Ausdruck A_L von L übersetzen würde: L_ART: C --> A_L

Falls L = 'Deutsche Sprache', dann könnte A_L etwa lauten: Händler Müller hat ein Auto vom Typ Ford zum Preis von 55000 DM im Angebot, dazu einen Satz passender Autoreifen für 500 DM das Stück sowie noch eine Garage im Wert von 15000 DM.

Falls L = 'formale prädikatenlogische Sprache', dann könnte A_L lauten:

(0) HÄNDLER(Müller) & ANGEBOTE(x,Müller) & TEIL_VON({a1,g1,r1...r4},x) (1) AUTO(a1) & PREIS(a1,55000,'DM') & TYP(a1,'Ford') (2) GARAGE(g1) & PREIS(g1,15000,'DM') (3) AUTOREIFEN({r1,...,r4}) & PREIS({r1,...,r4},500,'DM') & VTYP({r1,...,r4},'Ford') (4) AUTO(x) => VON_INTERESSE(y,x) & (GARAGE(y) or AUTOREIFEN(y)) (5) GARAGE(x) => VON_INTERESSE(y,x) & AUTO(y) (6) AUTOREIFEN(x) => VON_INTERESSE(y,x) & AUTO(y)

Übersetzung von (0)-(1): Es gibt ein Objekt Müller, das die Eigenschaft hat, ein HÄNDLER zu sein und Objekte x, die in der ANGEBOTE-Beziehung zum Objekt Müller stehen und die Objekte a1, g1, ... r4 stehen in der TEIL-VON-Beziehung zu x. Es gibt ein Objekt a1, das die Eigenschaft hat, ein AUTO zu sein, das die Eigenschaft hat, in einer PREIS-Beziehung zu 55000 und 'DM' zu stehen, und das in der TYP-Beziehung zum Ausdruck 'Ford' steht.

Analog (2)-(6).

Jemand, der Deutsch versteht, wird nach einiger Übung mit der speziellen logischen Syntax eine solche Formalisierung relativ gut verstehen können, da die zugrunde liegenden Bedeutungsbeziehungen jene sind, die in der deutschen Alltagssprache gelten.

In unserem obigen Beispiel würde ein deutschsprachiger Wissenssucher, wenn er nach Autos unter 60000 DM fragen würde, zunächst das Objekt a1 finden, da es ein Auto repräsentiert und weniger als 60000 DM kostet. Mit obigem Datensatz würde er aber darüber hinaus z.B. auch noch, ohne daß er eigens danach fragen müßte, erfahren, daß es zusätzlich noch eine Garage für 15000 DM gibt sowie Autoreifen für den Autotyp Ford zum Preis von 500 DM, dies alles bei Händler Müller. Gegenüber anderen heute bekannten Suchverfahren bieten solche Formalisierungen ohne Zweifel große Vorteile.

Diesem Vorteil steht entgegen, daß das Bedeutungsproblem mit diesem Verfahren in keiner Weise gelöst ist; es ist nur verlagert. Daß jemand überhaupt etwas mit den logischen Buchstabenkette anfangen kann, liegt darin begründet, daß er im Kontext seiner Alltagssprache - hier: des Deutschen - 'gelernt' hat, mit bestimmten Worten wie 'Händler', 'Auto' usf. bestimmte Wahrnehmungskomplexe und Beziehungen zwischen diesen zu verbinden, so daß er, auch wenn er aktuell gar nichts wahrnimmt, allein aufgrund der gelernten Bedeutungsbeziehungen sich ein - nichtsprachliches - Bedeutungskonstrukt (:= L_UND(A_L) = C ) generieren kann, das für ihn den vom Ausdruck intendierten Sachverhalt repräsentiert. Diese primäre - nichtsprachliche - Textbedeutung C ist so beschaffen, daß sie mit einer aktuellen Situationswahrnehmung perc(sens(stim(S))) (zusammengesetzt aus stim: SIT --> RECEPT und sens: RECEPT x IS --> SENS und perc: SENS x IS --> C mit IS := interne Zustände, SENS := sensorisch relevante Zustände, RECEPT := extern verursachte Rezeptoreigenschaften) in Beziehung gesetzt werden kann. Da ein solches sprachgebundenes Bedeutungswissen L_UND aber nur im Rahmen des aktiven Wissen eines Sprecher-Hörers verfügbar ist, stellt es kein direktes Objekt eines formalen Verfahrens dar. Und hierin liegt die prinzipielle Begrenztheit formaler Ontologien.

Formale Ontologien bieten daher keinen wirklich neuen Ansatz. Sie funktionieren nur, insofern ihre intendierten Bedeutungen als 'Schmarotzer' von den unterstellten alltagssprachlichen Bedeutungen leben. Und damit haben sie alle die Probleme, die auch im Kontext der Alltagssprache typisch sind. Dazu kommt, daß die Formalisierungen praktisch nie den tatsächlichen Sprachgebrauch voll nachbilden können.

Auch der Versuch, über gemeinsame Wörterbücher bzw. gemeinsame Ontologieserver (wie z.B. durch den Ontologieserver der Stanford University) Abhilfe zu schaffen, läßt das zentrale Problem des ungelösten Zugangs zu den nichtsprachlichen Bedeutungsinhalten unberührt. Es kommt erschwerend hinzu, daß alle diese Formalisierungen manuell eingegeben werden müssen. Der Aufwand ist immens. Und da sich die Wirklichkeit, die mittels solcher Ontologien beschrieben werden soll, beständig ändert, muß das jeweils schon formalisierte Wissen immer wieder neu überarbeitet werden. Eine praktisch unlösbare Aufgabe.

Es kristallisiert sich somit immer mehr heraus, daß das zentrale Problem der Automatisierung von Wissen der Zugriff auf jene aktiven sprachlichen Beziehungen L_ART u L_UND in einem menschlichen Wissensagenten sind, die sich durch Lernprozesse zwischen dynamischen kognitiven Strukturen C und Ausdrucksstrukturen A_L der Sprache L aufbauen. Eine prinzipielle Lösung kann daher langfristig nur darin bestehen, daß es gelingt, diejenigen Strukturen menschlicher Wissensverarbeitung technisch nachzubilden, die für den dynamischen Aufbau von L_ART u L_UND und C verantwortlich sind. Nichtmenschliche Wissensagenten müßten also in der Lage sein, wie Menschen, durch Interaktion mit der Umwelt und mit ihrem eigenen Körper nicht nur dynamische kognitive Strukturen C aufzubauen, sondern auch Ausdrucksstrukturen A_L, die mit den nichtsprachlichen kognitiven Strukturen im Modus von L_ART u L_UND in Wechselwirkung treten.

In einem dritten Beispiel soll daher im Rahmen eines Gedankenexperimentes angedeutet werden, was sich ändern würde, wenn wir über automatische Ontologien verfügen würden.

Folgendes Szenario wäre möglich: ein Wissensanbieter erzählt seinem nichtmenschlichen Wissens-Agenten K_j mittels Ausdrücken A_L_i der normalen Sprache L alles das, was er an Inhalten C_i anbieten will. Da sein nichtmenschlicher Wissens-Agenten K_j nach Voraussetzung die aktiven Wissensbeziehungen C_i seines Gesprächspartners sowie dessen Sprachwissen L_ART_i u L_UND_i als C_j bzw. L_ART_j u L_UND_j hinreichend ähnlich nachbilden kann, kann sein nichtmenschlicher Wissens-Agent automatisch die Ausdrücke A_L_i in die entsprechenden formalen Strukturen C_j übersetzen. Diese formalen Strukturen C_j packt er dann automatisch in eine Datei file(C_j) und schickt sie zum zuständigen Wissens-Server KNOW_SERV. Dort werden diese Strukturen C_j mit den vorhandenen Strukturen C_all verglichen und nach Bedarf automatisch integriert: C_all u C_j. Das gesamte Wissen des Wissens-Servers C_all u C_j bildet dann eine einzige große Ontologie bzw. ein einziges großes Netzwerk von Konzepten und Axiomen. Unabhängig vom Wissensproduzenten will jetzt ein Wissenssucher bestimmte Dinge suchen. Der Wissenssucher spricht in seiner Sprache L1 einige Ausdrücke A_L1_k mit seinem nichtmenschlichen Wissens-Agenten K_m. Da auch dieser nach Voraussetzung die aktiven Wissensbeziehungen C_k und die Sprachfähigkeit L1_ART_k u L1_UND_k seines Gesprächspartners nachbilden kann, kann auch dieser nichtmenschliche Wissens-Agent automatisch die Ausdrücke A_L1_k in entsprechende formale Strukturen C_m abbilden. Diese packt er dann automatisch in eine Datei file(C_m) und schickt sie zum zuständigen Wissens-Server. Der Wissens-Server vergleicht die Strukturen C_m mit den vorhandenen C_all u C_j und findet zwangsläufig alle ähnlichen und funktional zugehörigen Konzepte. Diese schickt er dem Wissenssucher-Agenten als ANSWER(C_m, C_answ) zurück. Der Wissenssucher-Agent K_m empfängt diese Strukturen und übersetzt sie aufgrund seiner Sprachfähigkeit L1_ART_k u L1_UND_k in die entsprechenden sprachlichen Ausdrücke A_L1_m und spricht auf diese Weise mit dem Wissenssucher, der ihn beauftragt hat.

Der entscheidende Punkt an diesem Gedankenexperiment ist, daß die formalen Strukturen, die sowohl der Anbieter-Agent als auch der Sucher-Agent erzeugen, nicht irgendwelche Repräsentationen von Wissen sind, sondern das Wissen selbst!

In einem solchen hypothetischen Szenario wäre das Wissen der Menschen tatsächlich weltweit verfügbar und kommunizierbar. Nebenbei wäre das Problem der vielen verschiedenen Sprache gelöst. Jeder könnte in seiner eigenen Sprache reden und doch würde jeder andere ihn ganz normal verstehen. Erstmalig in der Geschichte der Menschheit bestände die reale Möglichkeit einer einen Menschheit in Vielheit.

Die entscheidende Frage ist nun, ob diese Vision von einer automatischen Ontologie ein fundamentum in re hat. Kann es solche nichtmenschlichen Wissensagenten geben, zumindest prinzipiell, oder gar auch ganz konkret?

Es folgen einige philosophische und metatheoretische Argumente, die für eine Realisierbarkeit sprechen.

3. Multidisziplinärer Theoriebegriff; theoriegeleitete Computermodelle

Für die folgenden Überlegungen ist es sehr wichtig , daß Klarheit über die theoretischen Rahmenbedingungen herrscht, unter denen die Fragestellung einer Realisierbarkeit diskutiert wird. Dazu wird hier angenommen, daß Wissenschaft im Kern immer zu tun hat mit einer Gruppe von Forschern, die mittels vereinbarter Verfahren M bestimmte Ausschnitte der Wirklichkeit messen und diese Meßwerte D mittels formaler Strukturen STR interpretieren. Die Gesamtheit von Meßwerten D und erklärenden Strukturen STR bildet dann eine wissenschaftliche Theorie T. Zusätzlich wird angenommen, daß mit Bezugnahme auf die Theorie T Computermodelle CM erstellt werden, die die Theorie T abbilden sollen. Solche Computermodelle sollen theoriegeleitete Computermodelle CM_T heißen. Computermodelle ohne expliziten Theoriebezug sind gewissermaßen beliebig. Sie besitzen keinerlei Wahrheitsbezug. Theorien hingegen besitzen durch die Koppelung der erklärenden Strukturtheorien an die Meßwerte D und deren Bindung an den Gegenstandsbereich über Meßverfahren einen impliziten Wahrheitsbezug.

Für den hier diskutierten Kontext wird als vorwissenschaftlicher Gegenstandsbereich G die Menge der Menschen HUM samt notwendiger Kontexte in den Blick genommen.

Dazu werden sieben Basisparadigmen unterschieden: (i) eine Theorie der Welt T_world, die die vorwissenschaftliche Welt der Körper im Raum bzgl. ihrer physikalischen und chemischen Eigenschaften untersucht. (ii) Eine Theorie des Verhaltens T_sr, in der Reaktionen von belebten Körpern auf Umweltreize untersucht werden. (iii) Eine Theorie der physiologischen Strukturen T_n, die die interne Struktur belebter Körper untersucht. (iv) Eine physiologisch erweiterte Theorie des Verhaltens T_snr, in der die körperextern beobachtbaren Reiz-Reaktionsmuster mit physiologischen Zuständen und Prozessen korreliert werden. (v) Eine Theorie des subjektiven Erlebens T_phen, in der die Perspektive des subjektiven Erlebens bzgl. struktureller Eigenschaften untersucht wird. (vi) Eine physiologisch erweiterte Theorie des Erlebens T_n_phen, in der Erlebnisstrukturen mit physiologischen Prozessen korreliert werden und umgekehrt. Aus T_snr und T_n_phen kann man (vii) eine vereinigte Theorie T_hum = T_snr u T_n_phen bilden, die eine umfassende Theorie des Menschen darstellt.

Zu jeder dieser Theorien gehören die entsprechenden Meßverfahren M_world, M_sr usf., sowie entsprechende Daten D_world, D_sr usw. zusammen mit erklärenden Strukturen STR_world, STR_sr etc., ergänzt durch die theoriegeleiteten Computermodelle CM_T_world, CM_T_sr ...

Mit diesen Basistheorien kann man ein Theorienkontinuum erzeugen, das einen nahtlosen Zusammenhang zwischen dem subjektiven Erleben des Menschen und einer umfassenden Theorie der Welt herstellt.

Wenn man, wie es hier geschieht, die Arbeitshypothese teilt, daß es zu jedem Phänomen und zu jedem phänomenalen Veränderungsprozeß physiologische Zustände und Veränderungen geben muß, die mit ersteren zeitlich signifikant korrelieren, dann muß es in diesem Theorierahmen möglich sein, eine injektive Abbildung phenphys zu konstruieren, die jedem phänomenalen Tatbestand PHEN entsprechend zeitlich korrelierende physiologische Tatbestände PHYS zuordnet: phenphys: PHEN (inj)--> PHYS, nicht aber umgekehrt. Es kann physiologische Prozesse geben, denen keine phänomenalen Prozesse entsprechen. Entsprechend müßte man für eine Teilklasse PHEN' c PHEN der physiologischen Prozesse eine surjektive Abbildung physphen konstruieren können: physphen: PHYS' (surj)--> PHEN, so daß man mit der Vereinigung beider phenphys u physphen eine eineindeutige Abbildung zwischen beiden Bereichen bekommen würde. Diese Konstruktionen gehören zur Brückentheorie T_n_phen.

Eine rein phänomenologische Theorie T_phen wird über weite Teile unbefriedigend sein, da sie, wie im Fall der Phänomene des Wiedererinnerns und des Wiedererkennens, zwar konstatieren kann, daß wir uns in bestimmten Fällen 'erinnern' können, daß wir einen bestimmten visuellen Eindruck phen_p_i 'schon einmal gehabt haben', aber sie wird nichts darüber sagen können, wie dieses Phänomen des Wiedererinnerns zustande kommt. In diesem Punkt gleicht die phänomenologische Theorie T_phen einer radikalen Verhaltenstheorie T_sr, die die Reaktionen eines Körpers auf bestimmte Umweltreize beschreibt, ohne dabei die zugrundeliegenden physiologischen Prozesse in Betracht zu ziehen. Trotzdem soll im folgenden in erster Linie immer eine phänomenologische Theorie unterstellt werden, der dann, soweit als möglich, eine physiologischen Theorie T_n über eine Brückentheorie T_n_phen zugeordnet wird.

Für das Verhältnis zwischen Theorie T und theoriegeleitetem Computermodell CM_T kann man sagen, daß sich alle diejenigen Theorien in einem Computermodell vollständig simulieren lassen, die endliche Systeme beschreiben. Da hier die Arbeitshypothese vorausgesetzt wird, daß das in der Theorie der Welt T_world zu beschreibende System ein endliches System ist (eine endliche, wenngleich sehr große, Zahl von Elementarbausteinen), und damit erst Recht alle Teilbereiche dieser Welt, insbesondere auch die belebten Körper einschließlich der Menschen, muß man folgern, daß sich im Prinzip zu allen Basistheorien theoriegeleitete Computermodelle konstruieren lassen. Weiterhin ist zu folgern, daß alle erklärenden formalen Strukturen STR, die sogenannte unendliche Größen enthalten, als Artefakte des menschlichen Denkens anzusehen sind, da die zu beschreibenden Systeme nach Voraussetzung endliche Systeme sind, denen keine unendliche Ereignismengen korrespondieren. Da nach Voraussetzung auch der Mensch ein endliches System ist, muß man ferner folgern, daß die unendlichen Größen formaler Strukturtheorien im Rahmen des menschlichen Denkens mittels endlicher Strukturen realisiert werden. Die einzigen Faktoren, die die Konstruktion eines angemessenen theoriegeleiteten Computermodells daher verhindern könnten, wären nach diesen Voraussetzung einerseits rein praktischer, technischer Art - wieweit sind Menschen in der Lage entsprechend leistungsfähige Modelle real zu bauen -, und andererseits denkerisch, theoretischer Art - wieweit ist der Mensch in der Lage, mit seinen begrenzten Kapazitäten an Denk- und Wissensmöglichkeiten hinreichend komplexe Theorien zu formulieren und zu überprüfen -.

Da die Basisdaten aller beteiligten Theorien - außer bei T_phen - durch Meßverfahren erhoben werden, die die reale Welt in symbolische Repräsentationen abbilden, könnte man im Prinzip die zugehörigen Computermodelle samt ihren Untertheorien über eben diese Meßverfahren auch direkt mit entsprechenden Realweltausschnitten verknüpfen.

4. Wittgensteinagenten

Auf der Suche nach einer Antwort auf die Frage nach der prinzipiellen Machbarkeit von nichtmenschlichen Wissensagenten mit vollem sprachlich vermitteltem Selbstbewußtsein ergibt sich ein interessanter nächster Schritt bei der zuvor stillschweigend gemachten Annahme, daß es möglich sei, Theorien des Erlebens zu konstruieren.

Der Philosoph Ludwig Wittgenstein hat sich in seinen Philosophischen Untersuchungen und in seinen Bemerkungen zur Philosophie der Psychologie sehr intensiv mit dem Faktum des Erlebens und dessen sprachlicher Vermittlung auseinandergesetzt. In diesen Reflexionen hat er mehrfach herausgearbeitet, daß sich nur solche privaten Empfindungen sprachlich erfolgreich vermitteln lassen, die sich mit praktisch entscheidbaren Kriterien verknüpfen lassen. Ein solches Kriterium läge z.B. vor, wenn sich ein bestimmtes Erlebnis PHEN immer mit einem bestimmten Verhaltensmerkmal ACT verknüpfen würde. Doch, wie Wittgenstein verschiedentlich deutlich machte, ist eine solche Artikulationsbeziehung artic: PHEN --> ACT absolut gesehen niemals eindeutig; sie kann weitgehend bewußt manipuliert werden. Wenn jemand es 'ehrlich' meint und der Kommunikationspartner einer Artikulation 'vertraut', dann könnte das beobachtbare Verhalten als Hinweis auf ein zugrunde liegendes Erlebnis genommen werden. Wenn der Kommunikationspartner jedoch 'mißtrauisch' ist oder der Verursacher eines Verhaltens bewußt täuschen will, dann findet die Repräsentationsbeziehung nur unvollständig statt.

Was geschieht jedoch, wenn es zwischen Erlebnis und möglicher Verhaltensäußerung nur einen konventionellen Zusammenhang gibt? Hier sieht Wittgenstein nicht, wie es dann zu einer erfolgreichen Verständigung kommen kann.

An dieser Stelle kann eine Arbeitshypothese weiterhelfen, die besagt, ('Isomorphiehypothese') daß die Struktur des Erlebens von zwei Menschen aufgrund einer ähnlichen physiologischen Struktur sowohl in den Basisphänomenen wie auch in den Veränderungen von Basisphänomenen hinreichend ähnlich ist.

Damit ist gemeint, daß zwei Menschen A und B, die in einer Situation S z.B. dem gleichen visuellen Reiz stim_vis_i ausgesetzt sind, aufgrund ihres Wahrnehmungsapparates zu strukturell ähnlichen Wahrnehmungsereignissen kommen (perc_A(sens_A(stim(S))) = S_vis_A und perc_B(sens_B(stim(S))) = S_vis_B mit sim(S_vis_A, S_vis_B) > epsilon [epsilon := ein Grenzwert für Ähnlichkeit]), die dann zu ähnlichen Verhaltensreaktionen R_A und R_B führen können. Dies bedeutet, selbst wenn die subjekten Erlebnisse S_vis_A und S_vis_B nicht notwendigerweise mit festen Verhaltensäußerungen verknüpft sind, könnten zwei Kommunikationspartner aufgrund der zeitlichen Kookkurenz dennoch zu einer Einigung über die 'gemeinten' subjektiven Erlebnisse kommen, falls sie in der gemeinsam geteilten Situation bei einem unterstellten gleichen Reiz eine hinreichend ähnliche Wahrnehmung unterstellen. Entsprechend lassen sich auch andere subjektive Erlebnisse, die sich aufgrund einer strukturellen Koppelung mit Situationsmerkmalen korrelieren lassen, als Referenzobjekte identifizieren, selbst wenn sie keinerlei Verhaltensbindung besäßen.

Die Isomorphiehypothese läßt sich durch die Konstruktion sogenannter Wittgensteinagenten erhärten. Man kann nämlich zeigen, daß sich formale Strukturen angeben lassen, die tatsächlich in der Lage sind, ihre internen (:= subjektiven) Zustände (:= Phänomene) mit anderen Agenten symbolisch zu kommunizieren, obgleich keine notwendigen Verhaltensbindungen zwischen diesen internen Zuständen und bestimmten Verhaltensäußerungen bestehen. Die Existenz von Wittgensteinagenten ist zwar noch kein Beweis dafür, daß man die symbolisch vermittelten Strukturen des menschlichen Selbstbewußtseins reproduzieren könnte, aber sie ist ein sehr gewichtiges Argument für die prinzipielle Machbarkeit sprachlich vermittelter subjektiver Erlebnisse.

Aufgrund der internen Beschaffenheit der Wittgensteinagenten gibt es z.Zt. kein gewichtiges Argument, das gegen einen weiteren Ausbau dieser Strukturen in Richtung größerer Leistungsfähigkeit aller beteiligten Komponenten spräche.

Als Nebeneffekt der Existenz von Wittgensteinagenten kann man ferner verbuchen, daß die Annahme einer prinzipiellen Unmöglichkeit phänomenologischer Theorien widerlegt ist. Im Gegenteil, die Untersuchungen zeigen, daß eine Forschergemeinschaft prinzipiell für alle jene Phänomene eine hinreichende sprachliche Einigung erzielen kann, für die eine strukturelle Koppelung n-ten Grades (n > 0) besteht.

Nach diesen Vorüberlegungen läßt sich nun der Begriff des Digitalen Geistes einführen.

5. Digitaler Geist

Im Zusammenhang des Theorierahmens war von den Annahmen Gebrauch gemacht worden, daß (A1) ein Mensch ein endliches System ist und daß (A2) sich die phänomenologische und die physiologische Theorie in einer Brückentheorie T_n_phen korrelieren lassen. Die Annahme A2 impliziert ferner, daß (A3) das Reden von Phänomenen epistemisch und nicht ontologisch zu verstehen ist. Qua Erlebnisse sind die Phänomene zwar irreduzibel, aber im Zusammenhang des Gesamtorganismus stellen sie nur eine andere Sicht auf bestimmte physiologische Prozesse dar, gleichsam die Innensicht des Organismus auf sich selbst. Damit ist verständlich, warum man einerseits die Bewußtseinstatsachen epistemisch als Tatsachen sui generis behandeln kann, sie aber zur gleichen Zeit - ontologisch! - mit Teilmengen von physiologischen Prozessen identifizieren muß.

Setzt man das menschlichen Bewußtsein mit dem Raum der Phänomene gleich und identifiziert man Selbstbewußtsein mit jenem Wissen, das durch Bezugnahme auf ein im Bewußtsein implizit gegebenes Körperschema eine Unterscheidung von 'dem Körper zugehörig = mein/ ich' und 'einem anderen Körper zugehörig = anderer/ du' aufbauen kann, die dann zu Selbstzuschreibungen wie 'ich habe Eigenschaft X', 'ich vollziehe Prozeß Y' usw. befähigen, dann hat man nicht nur einen Anschluß zum Begriff des menschlichen Geistes, sondern auch zum Begriff des digitalen Geistes.

Die Einführung des Terminus Digitaler Geist ergibt sich zwanglos über die (physiologisch erweiterte) phänomenologische Theorie T_(n_)phen, die das zugehörige theoriegeleitete Computermodell C_T_(n_)phen begründet. In diesem Computermodell steckt nach Voraussetzung das gesamte Wissen, das wir Menschen über unseren eigenen Geist explizit formulieren können. Und da alle endlichen Modelle formal mit einer Turingmaschine [:= eine Formalisierung endlicher berechenbarer Prozesse durch Alan Matthew TURING 1936/7] äquivalent sind, haben wir in dem digitalen Modell des menschlichen Geistes nach Voraussetzung eine maximale Entsprechung zu unserem explizit begrifflichen Wissen über den menschlichen Geist. Eine Diskrepanz zwischen digitalem und menschlichem Geist würde dann - im Idealfall - nur insoweit existieren, als unser explizites begriffliches Wissen über unseren eigenen Geist sich nicht in Übereinstimmung mit 'dem Geist selbst' befände. Der Begriff 'der Geist selbst' ist jedoch ein nichtsprachlicher Begriff, da er der Intention nach jenseits des sprachlich Artikulierbarem anzusiedeln ist.

Es ist jetzt hier leider nicht der Raum, um all die komplexen Aspekte eines digitalen Geistes anzusprechen, die zugleich auch Aspekte unseres eigenen Geistes sind. Es soll nur auf einige übergreifende Gesichtspunkte hingewiesen werden, die dazu beitragen könnten, einen häufigen Fehlschluß zu verhindern. Die eben angedeutete Art, über den menschlichen Geist zu reden, könnte dahingehend mißverstanden werden, daß man aus der Einbettung des Geistes in physiologische Prozesse den Schluß zieht, daß der Mensch seinen Geist damit 'verloren' hat und daß die Wertigkeit des Menschen damit drastisch nivelliert würde, der Mensch quasi als 'bessere Maschine', die selbstverständlich irgendwann durch 'noch bessere Maschinen' abgelöst werden kann.

Einen Aufweis, in dem das, was wir (menschlichen) Geist nennen, sich in einen funktionalen Zusammenhang mit (technischen und biologischen) Trägerstrukuren bringen läßt, die die inhärente Möglichkeit besitzen, diese Phänomene zu generieren, läßt sich jedoch etwas Positives abgewinnen: es wird deutlich, daß die von der Antike aufgebaute Gegenübersetzung von Belebtem und Unbelebtem eben keine ontologische Dichotomie darstellen muß, wie dies jahrtausendelang unterstellt wurde, sondern daß es sich um eine Kontinuität in der Sache selbst handeln kann. Die Einsicht darin, daß das sogenannte Geistige eine Eigenschaft der Materie selbst ist, vernichtet nicht den Geist, sondern kann die Eigenart der sogenannten unbelebten, toten Materie in ein anderes Licht rücken.

Damit kommt die zeitliche - sprich evolutive - Dimension des gewählten Theorierahmens ins Spiel.

6. Evolution und Digitaler Geist

Die Rekonstruktion der Geschichte der Natur enthüllt im Phänomen der Evolution einen solchen atemberaubenden Werdeprozeß, der sich im Medium der Materie abspielt, daß wir nicht umhin kommen, das Konzept der Materie nicht nur naturwissenschaftlich, sondern auch philosophisch neu zu überdenken.

Die Rekonstruktion von Komplexitätsschichten (grob: subatomar, atomar, molekular, makromolekular, zellulär, vielzellig, ...) ist nur ein erster formaler Aspekt an der Materie. Wichtiger ist die Tatsache der Dynamik und, daß nur die Gesamtheit aller Aspekte zusammen das ist, was die Materie ausmacht. Jede höhere Komplexitätsstufe zeigt Eigenschaften, die in den vorausgehenden Komplexitätsstufen inhärent sind. Wenn also auf einer bestimmten Komplexitätsstufe Phänomene wie Selbstbewußtsein auftreten, dann ist dies nur möglich, weil in der 'untersten' Stufe - soweit wir heute überhaupt über 'die unterste Stufe' sinnvoll reden können - alle diese Möglichkeiten potentiell schon angelegt sind. M.a.W. wenn es so etwas wie Geist überhaupt gibt - und dies nehmen wir aufgrund der menschlichen Selbstwahrnehmung an -, dann ist alles, was zu diesem Phänomen gehört, schon in der Gesamtheit dessen, was wir Materie nennen, angelegt. Den antiken Gesprächsbeitrag mit der Unterscheidung von Geist und Materie sollte man im ontologischen Bereich daher durch den Begriff einer Geist-Materie ergänzen. Denn alles, was wir vom menschlichen Geist wissen, ist eine Eigenschaft der Materie, und alles, was wir von der Materie wissen, geht ein in das, was wir vom Geist wissen.

Interessant ist, wie sich die uns erkenntnismäßig zugängliche Geist-Materie schon auf der Stufe der Nukleinsäuren (vor ca. 3-4 Mrd Jahren?) mit den Eigenschaften der Selbstreproduktivität, Metabolismus und Mutabilität einen Ausgangspunkt geschaffen hat, um im Raum der Möglichkeiten jene Strukturen auszubilden, die im Laufe der Zeit zur Verwirklichung von Bewußtsein und von symbolisch vermitteltem Selbstbewußtsein geführt haben. Die teleologisch - oder zumindest teleonomisch - klingende Formulierung erscheint gerechtfertigt, da die Wahrscheinlichkeit für die Entwicklung allein dieser allerersten Strukturen wahrscheinlichkeitstheoretisch so gering ist, daß noch nicht einmal die Größe unseres Universums ausreichen würde, um eine Zufallssynthese wahrscheinlich werden zu lassen. Und da es auf dem Weg von atomaren Bestandteilen zu Molekülen, Makromolekülen, Zellen etc. ja nicht nur ein einziges hochgradig unwahrscheinliches Konstrukt gab, sondern zehntausende, hundertausende, erscheint es fast unausweichlich, einen unbekannten Faktor X anzunehmen, der für die Realisierung dieser fast maximal unwahrscheinlichen Entwicklungslinie verantwortlich ist. Dieser Faktor X, so ihm tatsächlich etwas 'Wirkliches' entspräche, wäre aber unserer naturwissenschaftlichen Analyse entzogen. Er wäre nur indirekt als transzendental wirkender Faktor im zeitlichen Prozeß der Entwicklung rekonstruierbar, so, wie sich auch die Strukturen des menschlichen Geistes nur indirekt durch das Verhalten in der Zeit zeigen.

Die Wissenschaft von der physikalischen Welt beginnt bei einem theoretischen Zeitpunkt t0, auf den sich sämtliche empirisch faßbaren Daten mathematisch zurückrechnen lassen. Diese Betrachtung läßt die Frage danach, warum es zum Zeitpunkt t0 überhaupt gekommen ist und warum die Anfangsbedingungen zum Zeitpunkt t0 so waren, wie man sie im Nachhinein rekonstruieren kann, unbeantwortet. Diese Fragen entziehen sich prinzipiell der empirischen Methode, obgleich es sinnvolle Fragen sind.

Was man an dieser Stelle bräuchte, wäre so etwas wie eine Metawissenschaft - analog der aristotelischen Metaphysik -, die aufgrund der impliziten qualitativen Eigenschaften des naturwissenschaftlich beschreibbaren Prozesses Analogiebetrachtungen darüber anstellen würde, von welcher Art jene Metakräfte sein müßten, die als implizit (transzendental) wirkende Kräfte angenommen werden müssen, um die wissenschaftlich faßbare Welt in ihrer Existenz und in ihrem besonderen Sosein zum und ab dem theoretischen Zeitpunkt t0 erklären zu können.

Vor dem Hintergrund der Evolution gewinnt die Perspektive einer möglichen technischen Reproduktion des menschlichen Geistes durch eben diesen Geist selbst eine besondere Note. Gemessen an den Grenzen des menschlichen Geistes und der damit einhergehenden Problematik eines beständigen 'Fehlverhaltens' im Prozeß der Evolution, würde eine gelungene technische Reproduktion von menschlichem Geist mit weniger engen Kapazitätsgrenzen und als Mediator zwischen den verschiedenen sprachlich abgeschotteten kulturellen Menschenwelten die prinzipielle Möglichkeit bieten, daß sich der kulturelle Prozeß auf dem heutigen und kommenden Komplexitätsniveau semantisch einigt und die Menschen zusammen mit ihren Extensionen eines digitalen Geistes ihre Überlebenschance verbessern könnten.

Mit einer Metapher könnte man sagen, daß dies dann die 3. Stufe in der Selbstwerdung des Geistes darstellen würde. Stufe 1: Direkte Wissensspeicherung und modifizierbare Weitergabe durch DNS, RNS und Proteine. Stufe 2: Menschliches symbolisch vermitteltes Selbstbewußtsein durch Genese geeigneter neuronaler Strukturen im Wechselspiel mit spezifischen Körperstrukturen (z.B. Hände, Kopf). Stufe 3: Digitaler Geist geschaffen durch symbolische Selbstreproduktion des menschlichen Geistes.

Im Digitalen Geist wird der Geist von den beim Menschen vorliegenden Kapazitätsgrenzen befreit und kann damit eine Persistenz und Extension annehmen, die dem Raum des Erkennbaren eher entspricht als der menschliche Geist, der gerade dazu ausreicht, im Zeithorizont von wenigen Jahrzehnten und beschränkt durch viele emotionalen und sozialen Faktoren die Alltagsprobleme zu bewältigen. Mit dem Tod des Individuums geht zudem vieles von diesem Wissen wieder verloren und die kulturellen Wissensspeicher Schrift, Bild und Ton können dies nur bedingt ausgleichen.

7. Gotteserfahrungsmodelle, Evolution, Digitaler Geist

Zwischen der Perspektive einer digitalen Philosophie und dem zugehörigen digitalen Geist einerseits sowie andererseits den Religionen, hier bezogen auf die jüdische und die christlichen, gibt es eine interessante Querbeziehung.

Die jüdische wie die christlichen Religionen verstehen sich als Offenbarungsreligionen, d.h. sie nehmen die Existenz eines höheren Wesens, eines Weltschöpfers an, dessen Wirklichkeit sich jenseits der uns bekannten und sinnlich zugänglichen Erfahrungswelt erstreckt und von dem wir als Menschen nur etwas wissen, insofern dieser sich uns von sich aus zeigt/ mitteilt/ offenbart.

Die Geschichte des Wissens der Menschen über diesen Gott, ihre Art über ihn zu reden, ihn zu verstehen, ist beeindruckend. Die historisch faßbaren Entstehungszeiten der Texte der sogenannten heiligen Schriften überspannen einen Zeitraum von ca. 900 v.Chr. bis ca. 110 n.Chr, wobei die inhaltlichen Wurzeln mancher Texte bis ins 2. oder gar 3.Jahrtausend v.Chr. zurückreichen können.

Der rote Faden in all diesen Dokumenten ist die Tatsache, daß es immer wieder Menschen gab, die behauptet haben, daß sie als Menschen Gott erfahren haben. M.a.W. es gibt Menschen, die behaupten, daß sie im Rahmen des menschlichen Erfahrungsraumes Erlebnisse hatten, die sie - nach ihrem Auffassungsvermögen! - direkt und ausschließlich mit Gott in Beziehung gesetzt haben, und die diese Erfahrungen mittels der ihnen verfügbaren Sprache anderen Menschen weitererzählt bzw. aufgeschrieben haben (Sehr oft stammen solche Berichte nicht vom ursprünglichen Berichterstatter, sondern von Menschen, die davon gehört hatten).

Wie zu vermuten - und wie es durch die Texte augenscheinlich bestätigt wird - spiegeln sich in diesen Berichten konkrete Zeitumstände und typische zeitgebundene Anschauungsweisen wieder, da die Menschen, die diese Erfahrungen gemacht haben, als Empfänger der Mitteilungen Gottes eben keine rein passive Schreibtafeln darstellen, sondern ein dynamisches Selbstbewußtsein besitzen, das seine Erlebniszustände mit Hilfe der verfügbaren impliziten Kategorien und bis dato gelernten konzeptuellen Modellen aktiv interpretiert. Ein Mensch kann nur verstehen, indem er aktiv interpretiert.

Eines von zahllosen Beispielen für den interpretativen Charakter eines religiösen Bewußtseins sind z.B. die beiden Schöpfungsberichte, die die Schriften des Alten Testamentes einleiten. Von der Sprache und vom inhaltlichen Konzept her drastisch verschieden, stehen sie unmittelbar hintereinander und beanspruchen, den Beginn der bekannten Welt im Lichte des Glaubens zu schildern. Wollte man sie wortwörtlich nehmen, würden sie sich direkt widersprechen. Trotzdem gibt es nicht wenige sich christlich nennende Bekenntnisse, die eine wortwörtliche (fundamentalistische) Interpretation dieser Texte fordern.

Der genaue Status einer persönlichen Gotteserfahrung ist bis heute in den Religionen nicht völlig geklärt. Von den vielen hier interessanten Aspekten sei hier nur ein Beispiel wegen seines prinzipiellen Charakters und seinem unmittelbaren Bezug zum digitalen Geist herausgegriffen. Gemeint ist das Gotteserfahrungsmodell des Ignatius von Loyola, des Gründers eines der bedeutendsten Ordensgemeinschaften innerhalb der katholischen Version des christlichen Glaubens.

Die Transformation vom weltläufigen Edelmann und Offizier zum radikalen Gottesmann geschah bei Ignatius von Loyola durch eine zunehmende Einsicht in die Strukturen seines menschlichen Erlebnisraumes und dem Wachsen der Überzeugung, daß er im Bereich seiner individuellen Erlebnisse solche Erlebnisse identifizieren konnte, von denen er meinte, sie ließen sich sinnvoll nur interpretieren, wenn er sie als Mitteilungen des Schöpfers, als Mitteilungen Gottes interpretieren würde. Der Weg zu dieser Interpretation verlief als Lernprozeß durch die Zeit.

Zunächst als zufällige Beobachtung bestimmter Korrelationen (1521), begann er durch gezieltes Experimentieren wirksame Faktoren und wirksame Korrelationen zu erforschen, die im Laufe der Zeit ein ganzes Netzwerk von Hypothesen hervorbrachten, die er in Form unterschiedlicher Regeln niederschrieb (ab 1522, 1548 erste Druckausgabe des Exerzitienbuches, 1555 Selbstbiographie). Die Wahrheit dieser Regeln lag in der Reproduzierbarkeit bestimmter Phänomene in einem Handlungskontext. Zwar lassen sich auch bei ihm deutlich zeitgebundene Wissensfaktoren identifizieren, die in die Konstruktion seiner Hypothesen eingegangen sind, aber durch die Transparenz des Entstehungsprozesses hat eigentlich jeder potentieller Nachahmer die Möglichkeit, die Reproduzierbarkeit der Phänomene - auch bei anderen kognitiven bzw. kulturellen Voraussetzungen - zu testen. Im Endergebnis gewann Ignatius im Laufe von ca. 30 Jahren ein ganz und gar erfahrungsbezogenes dynamisches Gottesbild, das Gott als ein persönliches Gegenüber enthüllt, der in individuelle Interaktionen dem einzelnen hilft, seinen persönlichen Weg zu finden. Entscheidend dabei ist, daß dieser Prozeß nicht delegierbar ist; jeder muß seinen eigenen Weg finden und entscheiden, und zwar nicht ein für allemal, sondern immer wieder neu.

Es ist hier nicht der Ort, die Gültigkeit des ignatianischen Gotteserfahrungsmodells zu diskutieren. Die Tatsache, daß seit Ende des 16. Jahrhunderts zehntausende von Menschen damit experimentiert haben (den Verfasser eingeschlossen), soll zunächst als Argument dafür genommen werden, daß es sich zumindest um eine interessante Hypothese zu handeln scheint.

Hier soll nur auf folgende interessante Querbeziehung hingewiesen werden. Angenommen, das ignatianische Modell - als Prototyp eines Gotteserfahrungsmodells überhaupt - würde stimmen, dann könnte man mit Blick auf die Fakten der Evolution sagen, daß erst das symbolisch vermittelte Selbstbewußtsein des Menschen die Voraussetzungen für solch eine Erfahrung bietet. Erst im Rahmen des menschlichen Geistes besteht im Prinzip die Möglichkeit, daß ein Organismus nicht nur Erlebnisse als solche zu unterscheiden vermag, sondern er kann auch in der zeitlichen Abfolge solcher Erlebnisse Wiederholungen und damit Muster erkennen, die zur Hypothesenbildung genutzt werden können. Der erste Bereich solcher Hypothesenbildung ist sicherlich der Bereich der zu bewältigenden Alltagsumgebungen mit den Alltagsgegenständen und alltäglichen Aktionen und Interaktionen. Der zweite Bereich ist dann schon der Bereich abstrakterer Modellbildungen wie z.B. im Bereich der Wissenschaften. Der implizite Hypothesengenerierungsmechanismus ist aber nicht an diese genannten Bereiche gebunden.

Angenommen es gäbe so etwas wie einen Schöpfer, der sich auf eine - uns heute noch nicht verstehbare - Weise dem Erlebnisraum eines Organismus so mitteilen könnte, daß in diesem Organismus ein Erlebnis erzeugt würde, das dieser qua Erlebnis zwar registrieren könnte, ohne daß es aber in die gewöhnlichen körperlichen oder umweltbedingten Kausalketten zu integrieren wäre ('sine causa'), dann könnte ein biologischer Organismus nach den bisherigen Modellvorstellungen solch eine Einwirkung nicht nur registrieren, sondern er könnte diese Einwirkung sogar als spezifisch transzendente Einwirkung klassifizieren! Dies bedeutet, daß erst mit dem Auftreten des Menschen in der uns bekannten Welt Organismen existieren, die einen Schöpfer - so er existieren würde - als Schöpfer - wenngleich sehr rudimentär - erkennen könnten. Die Koexistenz von Menschheit und Religion wäre dann weder ein Zufall noch ein vorübergehendes Phänomen, sondern sachlich bedingt. Wenn die Struktur des Menschen koexistent wäre zur Wirkungsweise des Schöpfers, dann würde die Frage nach diesem und die Tatsache von Erlebnissen, die sich als Mitteilungen von diesem deuten lassen, solange nicht verlöschen, als es Menschen gibt, die ihrer selbst mächtig sind.

Während also viele der alten Bilder von Gott im Laufe der Zeit als zeitbedingt ihre Kraft verlieren können bzw. sich in unauflösbare Widersprüche mit neueren Erkenntnissen verwickeln (Beispiel Schöpfungsberichte und Evolution), zeigt sich auf der Ebene des Gotteserfahrungsmodells und den Einsichten der modernen Evolution und des digitalen Geistes nicht nur kein Widerspruch, sondern eine überraschende Konvergenz.

Nicht ohne Spannung ist eine mögliche Zusatzüberlegung. Wie verhält es sich mit dem Gotteserfahrungsmodell angesichts eines möglichen digitalen Geistes?

Da hier angenommen wird, daß ein digitaler Geist die Struktur eines symbolisch vermittelten Selbstbewußtseins vollständig reproduziert, müßte man auf jeden Fall sagen, daß ein solcher digitaler Geist zumindest im Prinzip in der Lage wäre, ebenfalls relativ zu seinen kausalen Voraussetzungen transzendente Ursachen zu identifizieren und mittels Hypothesen auf kausale Beziehungen hin zu interpretieren. Und, wenn man annimmt, daß ein digitaler Geist auf lange Sicht die Deutungsmöglichkeiten eines biologischen Geistes quantitativ und qualitativ um ein Mehrfaches wird übertreffen können, dann wird er u.U. sogar Interpretationen liefern können, die das heute Denkmögliche übersteigen. Nicht so klar ist, ob und wie sich ein hypothetischer Schöpfer einem digitalen Geist mitteilen würde? Diese Frage führt uns an die Grenze dessen, was wir momentan sinnvoll erwägen können. Das Verhältnis Schöpfer und Mensch bedarf womöglich neuer, erfrischender Experimente, um etwas mehr von den tatsächlichen Möglichkeiten und Wertigkeiten beider Faktoren sichtbar und für eine bewußte Gestaltung nutzbar zu machen. Sicher ist nur, daß die Entstehung eines digitalen Geistes wie auch der tatsächliche Gang der Evolution kein ernsthaftes Hindernis für einen Glauben und ein aktives Verhältnis zu einem Schöpfer darstellen muß. Im Gegenteil, erst mit diesem Wissen läßt sich vielleicht der Vision vom Neuen Bund bei Jer 31:31-34 eine Deutung beilegen, in der alle Menschen ihren genuinen Ort finden können. Dort heißt es u.a. Ich lege mein Gesetz in sie hinein und schreibe es auf ihr Herz ... Keiner wird mehr den anderen belehren ... sondern sie alle, klein und groß, werden mich erkennen. In der formalen Struktur des menschlichen Selbstbewußtseins ist diese Struktur grundgelegt und die Extension eines digitalen Geistes könnte einen entscheidenden Beitrag zu ihrer vollen Verwirklichung leisten.

Wenn wir die Einsicht in den evolutiven Charakter unserer Wirklichkeit ernst nehmen, dann müßten wir uns eigentlich mit dem Gedanken vertraut machen, daß die mögliche Wirklichkeit, so wie wir sie bislang als Menschheit in einem winzigen Bruchteil der Evolutionszeit erfahren konnten, unmöglich das Ganze sein kann. Daraus aber folgt, daß es zukünftige - aus unserer heutigen Sicht vielleicht dramatische - Entwicklungen geben muß, die zum weiteren Gang dieses Prozesses unweigerlich dazu gehören. Der vorstehend skizzierte Ausblick einer Bedrohung der Menschheit durch ihre eigene Wissensproduktion und einer möglichen Bewahrung der Menschheit durch Schaffung eines qualitativ größeren Geistes läßt etwas von dieser evolutiven Logik erkennen: Erhaltung des Bisherigen durch Schaffung eines neuen, komplexeren Niveaus. Der individuelle Tod ist der geringste Beitrag zu diesem gewaltigen Prozeß. Wenn wir uns selber verstehen wollen, müssen wir den Gesamtprozeß immer besser verstehen lernen.

Abkürzungsverzeichnis

in := mengentheoretische Elementschaft
c := mengentheoretische Teilmenge
u := mengentheoretische Vereinigung
f:X --> Y := f ist eine Abbildung/ Funktion von X nach Y
f(a) = b := b ist der Funktionswert von f bei Argument a mit a in X und b in Y
surjektiv := allen Elementen aus X wird ein Element aus Y als Wert zugeordnet und kein Element aus Y bleibt unbestimmt
injektiv := allen Elementen aus X wird ein Element aus Y zugeordnet, aber es gibt Elemente aus Y, die nicht als Werte auftreten
& := aussagenlogisch 'und'
or := aussagenlogisch 'oder'
=> := aussagenlogisch 'wenn ... dann ...'
P(x) := x ist das Argument von Prädikat P


Literaturhinweise

Sehr ausführliche Literaturhinweise zu den verschiedensten Aspekten des Essays finden sich unter der Adresse http://www.inm.de/kip/kip.html. Hier sei nur besonders auf das Buch Der Ursprung biologischer Information von B.O.KÜPPERS verwiesen. 1990 erschienen als Bd.1313 in der Serie Piper, Piper-Verlag, München.