Agent Paradigms and Knowbots
  1. Properties of Agents

  2. Agent Types

  3. Agents and Science

  4. The All-embracing Simulation as Basis for a new cooperativ relationship between the sciences
HOME

Agenten Paradigmen und Knowbots


AUTHOR: Gerd Döben-Henisch
DATE OF FIRST GENERATION: Aug 5, 1997
DATE OF LAST CHANGE: Sept 19, 1997
ADDRESS: INM - Institute for New Media, Frankfurt, Germany
EMAIL: doeb@inm.de
URL: INM
Copyright (c) Gerd Döben-Henisch - INM Institut für Neue Medien - Frankfurt - Sept. 1997

  1. Eigenschaften von Agenten

  2. Agententypen

  3. Agenten und Wissenschaft

  4. Die totale Simulation als Basis einer neuen kooperativen Wissenschaftslandschaft


HOME


s
Properties of Agents

Until now we don't have a general accepted defintion of an agent. In the following we present a partial selection of properties which are widely used to describe agents.

No distinction will be made here between software agents and robots or between local or mobile agents.

As minimal set of properties which define an agent we assume the following:
  1. He can perceive

  2. He can act onto some environment

  3. He has some internal procedure to process his perceptions
These minimal claims are very broad and they classify objects as agents which most people probably would not identify as an agent as in the case of an dispenser for drinks. The perception of such a dispenser would be constituted by the coins introduced into the automaton and the diverse pressed buttons. The actions of the dispenser would be his output of bottles and eventually of some coins. His internal procedure would consist in the functional relation between the introduced coins and pressed buttons and between the outputted bottles and coins.

But in spite of the vagueness of these properties we will use these three properties to define a basic agent.-

To define special types of agents one has to characterize in a more elaborated and detailed way the different kinds of perception, actions and internal procedures which one want to have attached to an agent. SLOMAN (1997a,b) distinguishes for example the following levels of complexity in the realm of the internal procedure:
  1. reactive processing: the actions are related to the different perceptions in a fixed way.

  2. deliberative processing: between perception and a set of possible actions you can find processes, which can compute and evaluate alternatives whre the outcome is not always the same.

  3. reflexive processing: the deliberative processing is enhanced by some form of a representation of itself within the calculated space of possible actions. In this way it can reflect about itself.
Another set of interesting properties can be found in STONE/ VELOSO [1996]. Related to a population of agents they distinguish:
  1. whether two agents have a homogeneous structure or not and

  2. whether two agents can communicate one with another, whereby 'communication' in this case means a direct exchange of data via some protocols which has to be distinguished from a truly semiotic communication as in the case of languages. Thus we will distinguish here between the term d-communication for direct communication and s-communication for semiotic communication. Two agents which are capable of d-communication must not necessarily be able to s-communicate and vice versa.
Other impotant properties, here in an unordered sequence, are for example (for some other detailed listing see WEISS/ SEN [1996]):
  1. semiotical/ capable to speak: really capable to use signs (:= semiotical) and to communicate through languages

  2. can learn/ be adaptiv: able to change the behaviour in course of the time depending from the perceptions

  3. emotional/ having a personality: having emotions which can modify the behaviour and which thereby induce a kind of a personality.s


OVERVIEW

Eigenschaften von Agenten



Wenn man über Agenten sprechen will, muß man sich einigen, welche Eigenschaften auf ein Objekt zutreffen sollen, damit man es als Agent bezeichnen will. Wegen der Vielzahl der möglichen Einsatzgebiete von Agenten und den Querbeziehungen zu zahlreichen verschiedenen wisssenschaftlichen Disziplinen nimmt es nicht Wunder, daß sich bislang noch nicht die allgemein akzeptierte und immer passende Definition von Agenten durchsetzen konnte. Aufgrund dieser unübersichtlichen Lage sollen im Folgenden einige wichtige Eigenschaften vorgestellt werden, die für das Konzept eines intelligenten sprachverstehenden und lernfähigen Agenten von Bedeutung sind, ohne daß mit dieser Zusammenstellung der Anspruch erhoben werden soll, den Agenten schlechthin definiert zu haben.

Für die weiteren Überlegungen spielt es keine Rolle, ob der Agent nur ein Stück Software ohne Realweltbezug ist (Software-Agent) oder eine Software, die aufgrund von geeigneten Sensoren über einen Realweltbezug verfügt und in der Realwelt als Maschine agieren kann (Roboter). Es wird auch nicht unterschieden, ob ein Agent lokal ist, d.h. nur von einem bestimmten Rechner aus operiert, oder mobil, d.h. daß der Agent als Datei durch das Netz wandert und auf speziellen Servern bestimmte Aufgaben ausführt.

Das Mindeste, was im Folgenden von einem Agenten gefordert wird ist, daß
  1. er irgendeine Wahrnehmung seiner Umgebung besitzt

  2. er auf diese Umgebung mittels unterscheidbarer Aktionen einwirken kann und

  3. er intern über Verarbeitungsprozeduren verfügt,
Diese Forderungen sind sehr vage und treffen auch auf Geräte zu, die viele vermutlich nicht als Agenten bezeichnen würden, z.B. auf einen Getränkeautomat. Die Wahrnehmung bestände in der Tatsache, daß Geldstücke hineingeworfen werden und Tasten zur Auswahl einer Getränkemarke gedrückt werden. Die Aktionen eines Getränkeautomaten qua Agent wären die Ausgabe von Flaschen bzw. evtl. von überzähligen Geldstücken. Die interne Verarbeitung besteht in den realisierten Zusammenhängen zwischen Geldeingabe und Getränkeauswahltasten einerseits (= Input/ Wahrnehmung) sowie Flaschenausgabe bzw. Münzausgabe (= Output/ Aktion) andererseits.

Trotz dieser Vagheit sollen diese drei Eigenschaften benutzt werden, um einen Basis Agenten zu definieren, d.h. die minimale Form eines Agenten.

Will man durch seine Agentendefinition bestimmte spezielle Typen von Agenten herausheben, dann muß man die besondere Art der zu bewältigenden Wahrnehmungen, Aktionen und Verarbeitungsleistungen eigens herausheben. So unterscheidet SLOMAN (1997a,b) im Bereich der internen Verarbeitung z.B. die folgenden Komplexitätsstufen:
  1. reaktive Verarbeitung: Die Aktionen des Agenten sind von vornherein festgelegt. Je nach Wahrnehmung kann nur zwischen den festgelegten Reaktionstypen unterschieden werden.

  2. deliberative Verarbeitung: Die Menge der möglichen Aktionen mag festgelegt sein, aber zwischen Wahrnehmung und konkreter Aktion liegt eine Verarbeitung, die verschiedene Alternativen berechnen und bewerten kann. Bei gleicher Wahrnehmung muß von daher nicht immer die gleiche Aktion erfolgen.

  3. reflexive Verarbeitung: Unterscheidet sich von der deliberativen Verarbeitung dadurch, daß der Agent über eine Repräsentation von sich selbst im Bereich seiner Handlungsplanung verfügt. Er kann auf diese Weise sich selbst als Teil eines Sachzusammenhanges 'denken' und entsprechend 'über sich selbst' nachdenken. Ein Getränkeautomat wäre anhand dieser Kriterien als 'reaktiv' zu klassifizieren.
Ein anderer Satz interessanter Unterscheidungskriterien findet sich bei STONE/ VELOSO [1996]. Mit Blick auf eine Agentenpopulation unterscheiden sie,
  1. ob zwei Agenten eine homogene Architektur aufweisen oder nicht (= heterogen). Ferner

  2. ob zwei Agenten miteinander kommunizieren oder nicht. Kommunikation heißt in diesem Fall nicht, daß sie symbolisch oder sprachlich kommunizieren, sondern daß es zwischen ihnen einen direkten protokollarisch fixierten Datenaustausch gibt oder nicht. Im weiteren Verlauf soll daher in diesem Fall immer von D-Kommunikation gesprochen werden im Unterschied zur S-Kommunikation, die sich symbolisch-sprachlicher Mittel bedient.
Getränkeautomaten d-kommunizieren in diesem Sinne sicher nicht, möglicherweise aber verschiedene Tierarten, wenn sie nach einem festen Reglement Signale austauschen. Die Eigenschaften der Homogenität und der D-Kommunikation sind unabhängig von den Eigenschaften reaktiv, deliberativ und reflexiv. Schon auf reaktiver Ebene is eine D-Kommunikation möglich.

Weitere wichtige Eigenschaften -in loser Folge- sind (für einen anderen umfassenden Überblick siehe auch WEISS/ SEN [1996]):
  1. semiotisch/ sprachfähig: ein Agent, der zu einem wirklichen Zeichengebrauch (:= semiotisch) fähig ist, ist auch in der Lage, sprachlich zu kommunizieren. Dies setzt voraus, daß der Agent über ein Gedächtnis verfügt und mindestens deliberativ ist. Auch ist er damit in der Lage, prinzipiell interne Zustände zu kommunizieren, sofern diese strukturell gekoppelt sind.

  2. lernfähig/ adaptiv: ein lernfähiger Agent kann seine internen Zustände und Aktionsmöglichkeiten in Abhängigkeit von der Zeit bis zu einem gewissen Grad ändern. Dies setzt auch eine Form von Gedächtnis voraus, möglicherweise auch eine Form von Deliberation.

  3. emotional/ Persönlichkeit: Emotionen stellen Verhaltensmuster dar, die sämtliche Bereiche eines Agenten beeinflussen können. Die Gesamtheit dieser Beeinflussungen ergibt ein 'Profil', das einem Agenten eine gewisse 'Persönlichkeit' aufprägen kann. Emotionen sind unabhängig von Sprache und Komplexität.


ÜBERSICHT


Agent Types

Depending from the properties you want to designate to your agent you can create different types of agents:
  1. Daemon/ Task-Agent/ (Net)Bot/ Spider/ Crawler ... : Basic agents, mostly only reactive, rarely adaptiv, no s-communication.

  2. Synthetic Actors: the personality of these agents can be externally or is supported by an articficial 'self', i.e. some procedures imitating an animated behaviour (see e.g. PETTA/ TRAPPL [1997], SLOMAN [1997c], BADLER/ REICH/ WEBBER [1997]).

  3. Industrial Robots: Basic agents in the real world for specific tasks, normally no learning, no s-communication.

  4. Service Robots: Compared to industrial robots they have to be very flexible to cope with the dynamically changing environment including humans.

  5. Semiotic Machines: Agents which can communicate with symbols and signs. Only gradually different to knowbots (see below)

  6. Wittgenstein-Agent: Agents with s-communication. Only gradually different to knowbots (see below)

  7. Conversational Agent/ Electronic Sales Person: Agent with a limited language capability, some memory, worldknowledge, not necessarily adaptiv

  8. Knowledge Robot/ Knowbot: Agent with a reactive, deliberativ, and reflexive component, with s-communication, truly adaptive, with emotions and some personality, a selfadapting world knowledge and truly learnable expression systems
This incomplete listing can only give a first impression of the rich variety of agent types today discussed or realized in the internet.

The main concern of the other pages found on this server are mostly related to the type knowbot.

OVERVIEW

Agententypen



Je nachdem, welche Eigenschaften man nun einem Agenten zuordnen will, kann man ganz unterschiedliche Typen von Agenten bekommen. Einige solcher Typen seien hier aufgelistet:
  1. Daemon/ Task-Agent/ (Net)Bot/ Spider/ Crawler ... : Dies sind Basis-Agenten die in der Regel nur reaktiv sind, untereinander heterogen, normalerweise nicht lernfähig und die d-kommunizieren können.

  2. Synthetische Schauspieler: Diese besitzen entweder nur eine Hülle ohne eine eigene Personalität, oder aber sie haben auch eine Personlität; im letzteren Fall kann diese entweder extern gesteuert werden oder es gibt ein künstliches Selbst, das für die Generierung des Verhaltens verantwortlich ist (siehe hier z.B. PETTA/ TRAPPL [1997], SLOMAN [1997c], BADLER/ REICH/ WEBBER [1997]).

  3. Industrieroboter: Basis-Agenten in der realen Welt, die für spezielle Aufgaben ausgelegt sind, wo deliberative Elemente auftreten können, wo D-Kommunikation möglich ist, aber in der Regel kein wirkliches Lernen

  4. Serviceroboter: Müssen im Unterschied zu Industrierobotern erheblich flexibler sein, um sich in einer verändernden Umgebung orientieren zu können. Deliberation und Lernen bis zum gewissen Grad notwendig. D-Kommunikation, S-Kommunikatiion und Personalität erwünscht, aber bislang noch kaum realisiert.

  5. Semiotische Maschine: Agenten, die darauf spezialisiert sind, den Gebrauch von Zeichen zu simulieren. Abgrenzung von Knowbots nur graduell.

  6. Wittgenstein-Agent: Agenten mit S-Kommunikation, die entgegen den Annahmen von Wittgenstein in der Lage sind, untereinander mittels Sprache interne Zustände zu kommunizieren. Abgrenzung von Knowbots nur graduell.

  7. Konversationsagenten/ elektronischer Verkäufer: Agenten mit einer beschränkten Sprachfähigkeit, Gedächtnis, Weltwissen, nicht notwendigerweise lernfähig, um für einen abgrenzbaren Bereich von Produkten/ Dienstleistungen Auskunft geben und beraten zu können.

  8. Knowledge Robot/ Knowbot: Agenten, die reaktiv, deliberativ und reflexiv sind, die zur vollen S-Kommunikation fähig sind, die über Emotionen bzw. über eine Personalität verfügen und die sowohl bzgl ihres Weltwissens wie auch bzgl. der verschiedenen Ausdruckssysteme im vollen Sinne lernfähig sind.
Diese Auflistung ist, wie schon gesagt, nicht vollständig und auch nicht sehr präzise. Sie kann nur einen ersten Eindruck von der Vielfalt an Agententypen vermitteln, die zur Zeit das Internet und die Diskussion bevölkern.

Die weiteren Überlegungen und Untersuchungen auf diesem Server gelten vorwiegend dem Typ Knowbot.

ÜBERSICHT


Agents and Science

If you are dealing with concrete agents (purely software or robots) exclusively from the perspective of engineering (robotics, automatization techniques, control threory...) or software engineering, then it is nearly impossible to relate those agents to the real world including biological systems. But for the development of technological solutions for concrete tasks this is sufficient.

It is quite different to cope with agents in the light of some theory which is developed to explain empirical agents and which uses artificial agents as illustrations or as theory guided models to support their theoretical endeavor. This is the case in the knowbot project of the INM.

In the case of theory guided modelling we distinguish a domain of investigation G, a measurement procedure M, Data D, an explaining structure STR, a theory T as well as a computer model CM.

Applying a measurement M onto a pre-theoretic domain G' yields a theoretic relevant domain G and as a result data D, which can be symbolically represented.

Humans and their behavior are constituting the domain G_hum.

One kind of empirical data are behavioral data D_sr and physiological data D_snr. Subjective experiences are constituting phenomenological data D_phen.

D_sr and D_snr at one hand and D_phen at the other are principially irreducible, but they can be correlated by time.

Besides this there are measurement procedures related to the objects of the world in general D_world.

Related to every set of data you can construct a formal structure STR which functions as an explanation of these data.

Data together with explaining structures yield a theory T:

The interrelationships between a general theory of the world T_world and the partial theories T_sr and T_snr will not be discussed in these papers.

There is the widely accepted hypothesis, that for every phenomenal process f_phen_i from T_phen there exists a set of processes f_snr_j from T_snr whose existence is a necessary condition for the existence of f_phen_i.

We accept this hypothesis.

According to the complexity of all the types of theories mentioned here it would be nice to have Computational Models CM (CM_world, CM_sr, CM_snr, CM_phen) which could simulate the content of these theories.

If one accepts that the world is a finite system -a very big one- then this holds naturally for every part of this system including the human body. This gives rise to the suggestion that it should in principal possible to simulate a human system on a finite (=computational) model.

The Prototype of a Computational System is the Turingmachine TM whith numerous equivalent formalisms.

For formal theories with the expresiveness of first order theories -or stronger- we have no decidable computational models. But a subset of first order theories, i.e. the set of Horn Clauses HC combined with SLD-Resolution, we can map completely and correctly in a TM. These CM_hc constitute the paradigm of Logical Programming. A widely used version of a programming language within the paradigm of logical programming is the language Prolog.

Because T|\HC is logical equivalent with CM_hc is a translation from a theory T|\HC to the computational model CM_hc not necessary. .

OVERVIEW

Agenten und Wissenschaft



Konkrete Agenten sind in der Regel entweder reine Softwaresysteme, oder Software eingebettet in Hardware, oder reine Hardwarelösungen.

Werden solche Modellbildung isoliert behandelt, d.h. auschließlich aus der Perspektive des Maschinenbaus, der Ingenieurswissenschaften (Robotik, Automatisierungstechnik, Steuerungstechnik...) oder des Softwareengineerings, dann wäre es sehr schwer bis unmöglich, den Status solcher Agenten relativ zur übrigen empirischen Wirklichkeit, insbesondere auch relativ zum Menschen zu bestimmen. Für die Entwicklung einer Technologie, die klare, festumrissene Aufgaben lösen soll, kann dies sehr wohl Sinn machen und dürfte auch das häufigste Vorgehen darstellen.

Ein gänzlich andersgearteter Zusammenhang liegt vor, wenn Agenten von solchen Wissenschaften benutzt werden, die versuchen, konkrete empirische Agenten wissenschaftlich zu analysieren und die als Ergänzung und zur Unterstützung ihrer komplexen Theoriebildungen theoriegeleitete Modelle benutzen. Dieser Fall wird im Knowbot Projekt des INM vorwiegend angenommen.

Im Fall einer theoriegeleiteten Modellbildung werden hier die Aspekte Gegenstandsbereich G, Meßverfahren M, Daten D, Struktur STR, Theorie T sowie Computermodell CM unterschieden.

Durch Vereinbarung eines Meßverfahrens M wird ein vortheoretischer Gegenstandsbereich G' zu einem wissenschaftlichen Gegenstandsbereich G, d.h. der Einsatz eines Meßverfahren M konstituiert den wissenschaftlichen Gegenstandsbereich G. Das Ergebnis von Messungen relativ zu G sind Daten D, die sich symbolisch repräsentieren lassen.

M: G -----> D

Menschen und ihr Verhalten bilden einen möglichen Gegenstand G_hum wissenschaftlicher Forschung.

G_hum c G

Empirische Meßverfahren M_emp erlauben es in bestimmtem Umfang, Verhaltensdaten D_sr und physiologische Daten D_snr zu gewinnen. Phänomenologische Meßverfahren M_phen entsprechend Erlebnisdaten D_phen.

D_sr c D
D_snr c D
D_phen c D

Aufgrund ihres unterschiedlichen meßtheoretischen (und epistemischen) Status sind D_sr und D_snr einerseits sowie D_phen andererseits wesentlich irreduzibel, aber über die Zeit korrelierbar.

Natürlich gibt es auch empirische Meßverfahren zur Gesamtheit aller Objekte D_world, von denen die Menschen nur einen Teil bilden.

D_world c D

Zu jeder Menge von Meßwerten kann man eine formale Struktur STR definieren, die der Erklärung der einzelnen Meßwerte dienen soll: STR_world, STR_sr, STR_snr, und STR_phen.

Meßwerte zusammen mit einer Struktur ergeben eine Theorie T:

T_world = D_world u STR_world
T_sr = D_sr u STR_sr
T_snr = D_snr u STR_snr
T_phen = D_phen u STR_phen

Die Beziehung zwischen der allgemeinen Theorie der Welt T_world und den Theorien T_sr und T_snr ist sehr vielschichtig. Diese Fragestellungen sollen hier nicht behandelt werden.

Zum Verhältnis von T_snr und T_phen gibt es die weitverbreitete Arbeitshypothese, daß sich zu jedem Prozeß f_phen_i aus T_phen eine charakteristische Menge von Prozessen f_snr_j aus T_snr angeben läßt, deren Auftreten eine notwendige Bedingung für die Prozesse f_phen_i bilden, m.a.W. man nimmt an, daß sich für die Beziehung von D_snr zu D_phen eine Abbildung angeben läßt:

PP: pt(D_snr x T_snr) -----> pt(D_phen x T_phen)

Für die Theorie der Knowbots, wie sie im INM entwickelt wird, wird mit dieser Hypothese gearbeitet.

Aufgrund der Komplexität aller hier genannten Theorietypen liegt es nahe, zur Unterstützung dieser Theorien, Computermodelle M (CM_world, CM_sr, CM_snr, CM_phen) zu entwickeln, die den Gehalt der Theorie möglichst vollständig nachbilden.

Wenn man davon ausgeht, daß die Welt ein -wenn auch sehr großes- endliches System darstellt, dann gilt diese Endlichkeitsannahme natürlich auch für Teilbereiche dieser Welt wie z.B. für den menschlichen Körper. Daran knüpft sich dann die Vermutung, daß es prinzipiell möglich sei, solche endlichen Systeme durch andere endliche Systeme darzustellen bzw. zu simulieren.

Der Prototyp eines endlichen berechenbaren Systems schlechthin bildet die Turingmaschine TM, zu der es mittlerweile zahllose äquivalente Formalismen gibt (Siehe z.B.: H.HERMES [1960, 2.Aufl. 1971], J.E.HOPCROFT/ J.D.ULLMAN [1979], KLEENE, Stephen C. [1988], M.MINSKY [1967], A.M.TURING [1936-7])


Für eine Theoriebildung, die daran interessiert ist, ihre Theorie T auch als Simulationsmodell M verfügbar zu haben, ist es von höchstem Interesse, ein berechenbares endliches System zur Hand zu haben, dessen Ähnlichkeit mit der Theorie hinreichend groß ist. Da es für Theorien, die die Ausdruckskraft von Theorien 1.Stufe -oder stärker- besitzen, nachweislich keine adäquaten endlichen berechenbaren Modelle geben kann (Siehe dazu: GÖDEL, K. [1931], KLEENE, Stephen C. [1988], A.M.TURING [1936-7]), stellt sich die Frage, ob es wenigstens für abgeschwächte Versionen solche endlichen berechenbaren Systeme gibt. Dies ist der Fall. Die Menge der Hornklauseln HC, die eine Teilmenge aller Sprachen 1. Stufe darstellen, lassen sich zusammen mit der SLD-Resolution als Schlußverfahren korrekt und vollständig in eine Turingmaschine abbilden. Anders ausgedrückt, endliche Theorien lassen sich direkt und ohne Umschweif als Computermodelle realisieren. Nennen wir solche Computermodelle CM_hc. Sie konstituieren das Paradigma des Logischen Programmierens. Eine weitverbreitete Realisierung dieses Konzeptes bietet die Programmiersprache Prolog (Siehe z.B.: W.F.CLOCKSIN/ C.S.MELLISH [1984, 2nd ed.], HEIN, James L. [1995], McCABE, Francis [1992], O'KEEFE, Richard A. [1990], STERLING, Leon/ SHAPIRO, Ehud [1994]).

Wenn die zuvor erwähnte Endlichkeitshypothese zutrifft, muß die Einschränkung einer Theorie T auf Hornklauseln T|\HC keine ernsthafte Einschränkung für den zu beschreibenden Sachverhalt darstellen. Auf jeden Fall gewinnt man eine intuitiv einfache und zugleich eindeutige Beziehung zwischen Theorien T|\HC und zugehörigen Computermodellen CM_hc. Eine Unterschied zwischen der eigentlichen Theorie T|\HC und dem zugehörigen Computermodell M_hc wird formal damit hinfällig. Die Menge der Formeln, die die Theorie T|\HC bilden, ist logisch mit Computerprogramm CM_hc äquivalent. Man kann dann die Äquivalenz aufstellen:

T|\HC = Daten u Axiome = CM_hc = Fakten u Regeln

ÜBERSICHT


The All-embracing Simulation as Basis for a new cooperativ relationship between the sciences

Today the sciences have quite different views onto the subject of biological agents and their environments. Even in medicine you will hardly find a truly interdiciplinary and integrating approach in dealing with a biological agents as humans are.

In the realm of theory guided computational models the situation is different. Here every modul demands the existence of the other module. Either you have the whole or you have an explicit torso.

Let us start for example with that domain which is at most disregarded in the sciences, the area of subjective experiences. Using a suitable language (measurement procedure M_phen) you can try to map these objects in a set of phenomenal data (D_phen). Together with some axioms (structure STR_phen) you can set up a phenomenal theory (T_phen), which gives the starting point for a computational model (CM_hc_phen). But during the realization of CM_hc_phen you will notice that you have to postulate some processes outside your phenomenal theory which are in your model responsible to cause the dynamic behavior of your phenomena in the course of time. This would weaken the scientific status of your model. The reason for this deficiency is the fact that a phenomenal theory can not look behind the phenomena.

But there is a solution. You could make use of the existing physiological theories T_phys and their computational models CM_hc_phys. In accordance with the working hypothesis that every phenomenal event/ process presupposes a certain set of physiological processes one could use the physiological model to simulate those processes which are responsible for the dynamic behavior of the phenomena. In return gets the physiological model some additional data because the physiological model as such cannot state anything about phenomena.

It is this symbiotic model of CM_hc_phen with CM_hc_phys which we call a knowbot.

A knowbot as such is also an incomplete model! If you want to describe the behavior of a knowbot then you have to rely on behavioral data T_sr which describe the interactions between the knowbot and the surrounding world T_world. Only with the inclusion of these additional theories you will get an all-embracing model.

This compelling necessity to deal with the subject matter in a holistic way can give the modern sciences a serious push to overcome their growing methodological isolations. Working with an all-embracing model challenges all participants to speak a common language and to communicate their contents in a way which transcendents the private slang of an individual disciplin.

OVERVIEW

Die totale Simulation als Basis einer neuen kooperativen Wissenschaftslandschaft



Wenn man biologische Agenten, insbesondere Menschen, wissenschaftlich untersucht, dann erlauben es die heutigen methodischen Vorgaben, daß man sich auf bestimmte Teilaspekte beschränkt. Selbst in der Medizin, wo eine Gesamtschau aller beteiligten Faktoren und Prozesse von der Sache her besonders gefordert wäre, findet man eine multidisziplinäre und integrierende Behandlung fast nirgends und wenn überhaupt, dann nur in Ansätzen.

Im Falle theoriegeleiteter Computermodelle stellt sich die Situation anders dar, zumindest dann, wenn man versucht, den theoretischen Anspruch solcher Simulationen konsequent aufrecht zu erhalten. Bei theoriegeleiteten Computermodellen ist es so, daß jedes Modul das andere voraussetzt. Eine vollständige Simulation ist von daher nur möglich, wenn alle Module gleichzeitig realisiert werden. Dies sei kurz erläutert.

Gehen wir von dem Gegenstandsbereich aus, der in den Wissenschaften am umstrittensten ist, den subjektiven Erlebnissen (:= Phänomene). Man kann versuchen, mit einer geeigneten Sprache (:= Meßgerät M_phen) diese Gegenstände in eine Menge von phänomenologischen Daten (:= D_phen) abzubilden. Zusammen mit einer Menge geeigneter Axiome (:= STR_phen) läßt sich daraus eine Theorie formen (T_phen), die dann die Basis für ein entsprechendes Computermodell (CM_hc_phen) bildet. Hier aber entsteht ein -im Nachhinein verständliches- Problem: um z.B. visuelle Erlebnisse in einem Computermodell zu simulieren, reicht es nicht, diese Erlebnisse 'als solche' zu repräsentieren, sondern man benötigt endliche Prozesse p_i, die die Veränderungen der visuellen Erlebnisse in der Zeit beschreiben. Die phänomenale Analyse als solche hat aber kein Wissen über solche Prozesse, da sie nicht hinter die Phänomene schauen kann, sie kann Phänomene bloß als solche konstatieren. Hätte man an dieser Stelle nur die phänomenologische Theorie zur Verfügung, so müßte man an dieser Stelle zum Zwecke der Simulation den Bereich der Theorie verlassen und irgendwelche theoriefreien Prozesse postulieren, die nur darin bestimmt werden, daß sie im Ergebnis genau jene Phänomene produzieren, die die phänomenologische Theorie zuläßt.

An dieser Stelle kann man sich nun die Tatsache zunutze machen, daß es gleichzeitig mit der phänomenalen Theoriebildung eine physiologische bzw. spezieller auch eine neurophysiologische Theoriebildung T_phys gibt. Da die heutigen Evidenzen auf einen engen Zusammenhang zwischen neurophysiologischen und phänomenalen Ereignissen hinweisen und im Rahmen der Knowbottheorie explizit die Arbeitshypothese benutzt wird, daß es zu jedem phänomenalen Ereignis/ Prozeß ein(en) zeitlich korrelierte(s/)n (neuro)physiologische(s/n) Ereignis/ Prozeß gibt, kann man an dieser Stelle die physiologische Theorie und deren zugehörigen Computermodelle einbeziehen und sie dazu nutzen, um genau jene Prozesse zu simulieren, die ein phänomenales Computermodell als Modell zwar voraussetzen muß, für die die phänomenologische Theorie aber keine 'Rückendeckung' liefert. Gleichzeitig profitiert das physiologische Modell von dieser Symbiose mit dem phänomenalen Modell, da das physiologische Modell von seinen Voraussetzungen her keinerlei Aussagen über Erlebnisse machen kann.

Der Versuch, ein phänomenologisch basiertes Simulationsmodell aufzubauen, führt als methodisch unausweichlich zu einer Symbiose mit einem physiologischen Modell. Ohne das physiologische Modell wäre das phänomenologische Modell unvollständig, und umgekehrt. Das phänomenologische Computermodell CM_phen vereinigt mit dem physiologischen Modell CM_phys soll hier ein Knowbot genannt werden:

Knowbot = CM_phys u CM_phen


Dieses Spiel geht aber noch weiter. Will man bezogen auf einen Knowbot die Einwirkung von Umweltreizen auf einen Knowbot simulieren, dann benötigt man eine weitere Theorie, die genau dieses Wechselverhältnis zum Gegenstand hat. Dies aber ist mindestens eine verhaltensorientierte Theorie T_sr verknüpft mit einer Theorie der Welt T_world. Erst durch Einbeziehung auch dieser Theorien wird die Simulation komplett, wird sie zu einer totalen Simulation

Der methodisch saubere Aufbau einer totalen Simulation bringt einen neuen Impuls in die heutige Wissenschaftslandschaft. Sie zwingt die aufgesplitterten und sich immer weiter aufsplitternden Teildisziplinen dazu, bezogen auf ein gemeinsames Modell, miteinander auf einem neuen Niveau zu kommunizieren und sich zu erklären. Der aktuelle Zustand, daß jede Disziplin sich quasi ihre Privatmethodologie und ihre Privatsprache leistet, wäre in einer kooperativen Wissenschaft nicht mehr fruchtbar, sondern nur noch kontraproduktiv.

ÜBERSICHT