Mit Knowbots Lernen?
Mediale Glitzerphänomene - hilflose Helfer - die Praktiker - Abgrund des Wissens - Vision 2015


Dec 1997


Essay
von
Gerd Döben-Henisch


  1. Knowbots - nicht nur Science Fiction
  2. Mediale Glitzerphänomene des Lernens
  3. Die hilflosen Helfer
  4. Die Praktiker der Wirtschaft
  5. Am Abgrund des Wissens
  6. Vision 2015
  7. Quellennachweise



1. Knowbots - nicht nur Science Fiction

Knowbots sind Computerprogramme, die einem neuartigen hybriden Forschungsparadigma entspringen: der synchronen Erforschung des menschlichen Erlebens und seiner empirischen Grundlagen. Programmatisch sollen sie alle diejenigen Verhaltenseigenschaften des Menschen zeigen können, die sich wissenschaftlich am Menschen erheben lassen. Dazu gehört insbesondere die Fähigkeit, sich selbständig konzeptuelles Wissen über beliebige Umgebungen anzueignen und auch die Fähigkeit, parallel zu solch einem Weltwissen, beliebige sprachliche Vermittlungen selbständig zu lernen und kontextbezogen anzuwenden.

Der Hauch des Fantastischen, der solch einem Projekt auf den ersten Blick anhaften mag, besteht zurecht, wenn man es in Relation setzt zu den Projekten, die zur Zeit in verschiedenen Forschungsprojekten - auch der Industrie - betrieben werden. Verschiedene Studien (siehe DÖBEN-HENISCH 1997a DÖBEN-HENISCH 1998b) zeigen jedoch die prinzipielle Machbarkeit des Knowbot-Paradigmas. Mit dem Knowbotkonzept bewegen wir uns in einem methodisch kontrollierbaren Bereich, der argumentativ klar abgegrenzt werden kann von reiner Fantasie oder schlechter Science Fiction. Es geht um ein durch und durch wissenschaftliches Projekt, für das sich überschaubare Milestones formulieren lassen.

Diese Forschungen sind grundlegend und von großer Reichweite, nicht nur in der Wissenschaft, sondern auch für die Wirtschaft, für das praktische Leben, für das Lernen. Dies soll im Folgenden anhand einiger zentraler Gedanken illustriert werden.

2. Mediale Glitzerphänomene des Lernens

Ein Suchlauf durch die Halle 4 der Frankfurter Buchmesse 1997 konnte jeden, wenn schon nicht geistig, so doch mindestens physisch, davon überzeugen, daß die Einbeziehung neuer medialer Kontexte für zu lernendes Wissen und zu erwerbenden Fähigkeiten ein Ausmaß erreicht hat, das einem wirklichen Aufbruch nahekommt. Nahezu zu allen Themen gab es medial aufbereitete Computerprogramme, die es einem Lernenden individuell und mit möglichst großem Lernspaß ermöglichen sollten, wohldefinierte Lernziele interaktiv einzulösen.

Diese Lernwelten leben von der Klarheit ihrer Inhalte, von der Eindeutigkeit ihrer Bilder, von der Kontrollierbarkeit der möglichen 'Lernpfade', von der Kunst eines 'unterhaltsamen', neugierweckenden Darbietens. Wie jedes gute Lehr-Buch leben sie aber auch davon, daß es Menschen gibt, die die zu lernende Wirklichkeit vor-denken, die entscheidenden Eigenschaften und Abläufe vor-selektieren und in idealisierte Modelle übersetzen. Dies ist ein schwieriger Prozeß, der beständiger Regenerierung bedarf. Solange sich unsere Welt mit ihren dynamischen Veränderungs- und Lebensprozessen in Bewegung befindet, ist die Übersetzung dieser Dynamik in faßbare vereinfachende Modelle unumgänglich und eine wirkliches Ende nicht in Sicht. Die 'Produktion' solcher wirklichkeitsstrukturierender Modelle ist die Grundnahrung für unser Weltverstehen.

3. Die hilflosen Helfer

Was nützen jedoch alle diese wunderschönen Programme, wenn es in unseren Kindergärten keinen und in unseren Schulen durchschnittlich höchstens einen Computerraum gibt? Wenn die Computer technisch unzulänglich, veraltet sind? Wenn viel - die meisten? - Pädagogen nichts von Computern wissen wollen? Wenn sich nur die Schüler gutsituierter Eltern jeweils die technisch neuesten Geräte und Programme leisten können? Was soll eine Schule tun, die durch das Korsett kultusministerieller Kameralistik und wirklichkeitsferner Beamtenstellen gelähmt ist? Wie soll die kommunale und wirtschaftliche Dynamik auf eine Schule übergreifen, wenn wir per Gesetz unsere Schulen zur Wirklichkeitsferne verurteilen? Solange sich Schüler und Eltern in der passiven Opferrolle gefallen, wird sich daher vermutlich kaum etwas ändern. Der Abstand zwischen unseren Schulen und der gesellschaftlichen Wirklichkeit wird sich unaufhaltsam weiter vergrößern. Wertvolle Motivationen, menschliche Ressourcen und das lebensnotwendige Kapital der jugendlichen Neugierde werden im Frust des Alltags zu Staub zermahlen.

4. Die Praktiker der Wirtschaft

Die Meisterung der täglich anhaltenden Weltdynamik, ihre beständige Umsetzung in die Bedürfnisse und Strategien des Wirtschaftszweckes, ihre wissensmäßige Aufbereitung für die Unterstützung der Mitarbeiter vor Ort, dies alles haben die großen und innovativen Firmen schon längst als zentrale Aufgabe erkannt. Während die staatlichen Bildungseinrichtungen angesichts bürokratischer und politischer Unfähigkeit immer mehr ausbluten und degenieren, haben leistungsbewußte Wirtschaftsunternehmen damit begonnen, die beständige Aus- und Weiterbildung ihrer Mitarbeiter mit Hilfe neuer Medien, Inhousnetzen und Inhousfernsehen selber in die Hand zu nehmen. In einer führenden deutschen Großbank kann sich z.B. jeder Mitarbeit vom vernetzten Arbeitsplatz aus jederzeit über für ihn mögliche Karriere- und Ausbildungsmöglichkeiten informieren, kann die dazu notwendigen Ressourcen und Kurse buchen, und kann alle dazu notwendigen und verfügbaren Lerninhalte und Lernmaßnahmen abrufen und somit in eigener Regie intensiv seine Fortbildung betreiben.

Diese Strategien sind sicher noch kein Allgemeingut, aber sie sind auch nicht bloße Zufallsprodukte. Sie entwickeln sich dort, wo Menschen, Gruppen, ganze Firmen sich im Konkurrenzkampf durch die je bessere Leistung behaupten müssen. Und diese Leistungen sind mehr denn je wissensabhängig, einer großen Dynamik unterworfen, verlangen optimale Ausnutzung individueller Ressourcen, und sie verlangen ein extrem flexibles Zeitmanagement. Dies kann heute nur noch durch ein entsprechend dynamisches und leistungsfähiges Wissensmanagement adäquat beantwortet werden. Die starre Bindung von körperlich anwesend Wissendem und körperlich anwesend Lernendem ist hinderlich und unnötig. Der wissende Experte soll seine Zeit nicht durch frontalen Unterricht vergeuden, sondern für die fortwährende Weiterentwicklung und die Aufbereitung seines Wissens für die Online Nutzung durch andere nutzen. Der Wissenssucher muß sich nicht immer wieder mühsam von seinem Arbeitsplatz entfernen sondern kann seine Fragen ad hoc, zeitnah, von seinem Wissensterminal aus zu einer Lösung führen. Der Wissensraum selbst wird zur Technologie, wird zu einem Raum, in dem Wissen beständig generiert, korrigiert und genutzt wird.

5. Am Abgrund des Wissens

Die Einbeziehung von Computernetzwerken in das Wissensproblem stellt grundsätzlich eine große Chance dar, dem ausufernden Wissensproblem Paroli zu bieten. Nebenbei könnte die Internierung von Wissen hinter den Mauern von Bibliotheken, die aus praktischen Gründen nur wenigen Menschen zugänglich sind, damit aufgebrochen werden. Doch deckt diese neue Möglichkeit zugleich auch schonungslos die Defizite unserer Wissenstechnologie auf.

Zwischen denen, die sich heute aus eigener Autorität zu Wissensverteilern im weltweiten Internet ernannt haben, und denen, die Wissen anbieten gibt es keine verbindlichen Regeln. Ein Wissensanbieter weiß in der Regel nicht welches seiner Wissensangebote auf welche Weise von einem Wissensverteiler in die öffentlich abfragbaren Wissensbestände eingestellt wird. Zudem sind die Interessen der Wissensverteiler überwiegend rein kommerzieller Art und nicht deckungsgleich mit einem Interesse am Aufbau einer weltweit funktionierenden öffentlichen Verteilungsarchitektur (siehe dazu DÖBEN-HENISCH 1997b).

Ein allseitig nutzbarer, offener Wissensraum mit größtmöglicher Aktualität verlangt neben einer geeigneten Verteilungsarchitektur u.a. auch nach einer Wissenstechnologie, die es erlaubt, Wissen möglichst inhaltsbezogen kommunizieren zu können und nicht nur über Ausdrucksstrukturen, wie sie durch Wortformen ('Schlagworte', 'Sachworte', 'Schlüsselbegriffe'...) gegeben sind. Wer nämlich heute im Internet nach Berichten sucht, die sich z.B. mit Fischfang beschäftigen, wird dies im Normalfall nur tun können, indem er einige Begriffe angibt, die als Wortformen ausdrücklich in diesen Berichten - oder gar nur in den Titeln - vorkommen. Dieses Verfahren ist extrem sprachabhängig. Es fällt unter das Paradigma der Mustererkennung (Patternrecognition). Spricht der Wissenssucher z.B. nur Deutsch, sind ihm damit automatisch alle möglicherweise interessanten Berichte in anderen Sprachen verschlossen. Auch ist dieses Verfahren sehr kontextabhängig: wer sich in dem speziellen Vokabular eines kleinen Fachgebietes nicht auskennt, wird sich schwer tun, spezielle Berichte aus diesem Bereich zu finden. Diese Form der Wissensrepräsentation erlaubt außerdem keinerlei logische Schlußfolgerungen und verhinderte damit differenzierte Abfragen, geschweige denn das Auffinden sachlich interessanter Kontexte.

Auch der Versuch, dieses 'Bedeutungsproblem' durch Einführung sogenannter formaler Ontologien zu lösen, gar noch verbunden mit manuellen Eingabe von Wissensinhalten, wie sie z.B. im bekannten Cyc-Projekt von Doug Lenhart vorexerziert wird, ist im Ansatz zum Scheitern verurteilt (siehe DÖBEN-HENISCH 1997c und 1998a). Die schiere Menge des sich ständig ändernden Wissens spricht dagegen, aber auch die methodologischen Probleme einer individuellen Kodierung von Wissen, das als solches ja keinen empirisch meßbaren Gegenstand darstellt. Stellt man die Abhängigkeit der manuellen Wissenskodierung in den Kontext des überall beobachtbaren Verfalls wissenschaftlicher Standards, dann ist diese Methodenabhängigkeit kein kleines Problem. Das Wort von Science War ist schon jetzt Realität geworden. In seiner Festrede zum Abschluß der Veranstaltung 'Frankfurt Stadt der Wissenschaften' stellt Prof. Simon vom MPI für Europäische Rechtsgeschichte fest: "So wie der science war gegenwärtig geführt wird, ist die bemerkenswerte Lage entstanden, daß der Konflikt mit wissenschaftlichen Mitteln nicht mehr entschieden werden kann, da diese Mittel selbst auf dem Spiel stehen und bis hin zur Verurteilung der wechselseitigen Metaphorik als illegitim und falsch, die Einsätze des jeweiligen Gegners als unwissenschaftlich gebrandmarkt werden. Sollte dieser Prozeß zum Zustand erstarren, kommen wir in die sonderbare Lage, daß wir ... in einer Gemenglage aus Rationalität und Irrationalität, nicht einmal mehr entscheiden können, ob wir innerhalb oder außerhalb des Wissenschaftssystems operieren ... " (SIMON 1997:20).

Während dieses Zitat immerhin noch der Hoffnung Raum läßt, daß sich das Problem durch 'Besinnung auf die richtigen Methoden' zu gegebener Zeit mildern ließe, ist im vorliegenden Kontext vor dem Hintergrund des quantitativen Wissensproblems, einer mangelnden Wissenstechnologie sowie der extremen Sprachabhängigkeit hinzuzufügen, daß solch eine - in sich nicht ganz einfache - Einigung auf Methoden und Verfahren zur Zeit - selbst wenn die Beteiligten es wollten - schon garnicht mehr möglich ist. Die schiere Menge der täglichen Wissensproduktion vereitelt schon die bloße Kenntnisnahme. Die engen biologischen Kapazitätsgrenzen des individuellen Wissensarbeiters sind faktisch schon lange überschritten und die traditionellen manuellen Wissenstechniken wie die Organisation von Zeitschriften, Fachbücher, Lexika und Bibliotheken sind schon heute nurmehr verzweifelte Versuche, etwas Ordnung in ein Meer von unwißbaren Fakten zu installieren. Der einzelne wissenschaftliche Lehrer an einer Universität soll einen Anspruch einlösen, den er schon heute faktisch nicht mehr wirklich einlösen kann. In gewisser Weise lebt die aktuelle Wissenschaft weitgehend auf Pump: sie borgt sich Glaubwürdigkeit bei ihren Kunden, den Wissenssuchern, aufgrund ihres historisch gewachsenen Anspruchs, ohne ihn angesichts der heutigen Wissensexplosion noch voll einlösen zu können. Dies kann eigentlich niemand ernsthaft wollen.

5. Vision 2015

Alle Versuche, das Wissensproblem ohne eine wirkliche Wissenstechnologie zu lösen, muß man als Nachhutgefechte eines biologisch begrenzten 'natürlichen' Geistes klassifizieren, die angesichts der exponentiell wachsenden Wissenslawine das wahre Scheitern nur beschleunigen, verhindern sie doch solche Lösungen, die das Problem an der Wurzel anpacken: die Reproduktion des begrenzten biologischen Geistes in Gestalt eines vergleichsweise unbegrenzten digitalen Geistes. Positiv gewendet: wenn wir als Menschen auf Dauer das Heft des Handelns im Umgang mit dem Weltwissen in der Hand behalten wollen, werden wir dies nur tun können, wenn wir jenseits bloßer Mustererkennung Technologien verfügbar machen, die es dem biologischen Geist des Menschen gestatten, den Umgang mit potentiellen Wissensinhalten zu automatisieren. Solche Technologien sollen hier automatisierte Ontologien genannt werden (DÖBEN-HENISCH 1998a). Im Falle automatisierter Ontologien haben wir es mit Verfahren zu tun, die jene Wissensinhalte, die das Weltwissen eines Menschen charakterisieren, auf eine automatische Weise so zu sammeln und anzuordnen vermögen, daß jeder Mensch in seiner normalen Sprache dieses Wissen inhaltsbezogen abfragen und bzgl. möglicher logischer Querbeziehungen nutzen kann. Außerdem kann jeder Mensch Teile seines Wissens durch Benutzung seiner normalen Sprache beisteuern. Eine sprachübergreifende Nutzung von Wissensinhalten sowie der automatische Aufbau gemeinsamer Wissensbasen zwischen beliebigen Teilnehmern wäre damit möglich.

Die Knowbot-Technologie zielt genau in das Zentrum dieses Problems: entsprechend der Vision von Alan Matthew Turing (TURING 1948:96-99, 1950:177ff) sollen Computer fähig gemacht werden, wie menschliche Kinder durch Interaktionen mit der Welt selbständig Weltwissen und beliebige natürliche Sprachen lernen zu können. Entgegen den Vermutungen von Ludwig Wittgenstein (WITTGENSTEIN 1958 und 1980) (und anderer Philosophen) kann man zeigen, daß künstliche Systeme sehr wohl in der Lage sind, Zeichensysteme zu generieren, mittels deren sie sich über ihre internen Zustände erfolgreich verständigen können. Und entgegen einer heute weitverbreiteten Meinung, daß Naturwissenschaften und Geisteswissenschaften zwei unversöhnliche Forschungsmethoden darstellen, kann man mittels solcher künstlicher Systeme demonstrieren, daß naturwissenschaftliche Theorien genaugenommen nur Spezialfälle geisteswissenschaftlicher Theorien sind. Wenn Prof. Simon in seiner Analyse des Science Wars feststellt, "Eine sachliche Auseinandersetzung müßte sich demgemäß auf die Frage konzentrieren, wie der Umfang und die Bedeutung der inzwischen kaum noch bestreitbaren produktiven Beteiligung des erkennenden Subjekts am Erkenntnisprozeß einzuschätzen sind" (SIMON 1997:20), dann ist dem voll und ganz zuzustimmen. Das Knowbot-Forschungsparadigma tut genau dies, nämlich die Grundlagen und Voraussetzungen sowohl der empirischen wie auch der geisteswissenschaftlichen Methoden zu thematisieren und sie auf neue Weise miteinander in Beziehung zu setzen. Hier liegen nicht nur die wissenschaftstheoretischen Fluchtpunkte für ein mögliches gemeinsames neues Konzept von Wissenschaft als solcher, sondern auch die Grundkoordinaten für die Bestimmung dessen, was Geist ist bzw. wie ein künstlicher Geist beschaffen sein muß, der das biologische Vorprodukt im Medium des biologischen Geistes kopiert, erweitert, und - hoffentlich - verbessert.

Nach dem aktuellen Wissensstand kann man sagen, daß die Konstruktion eines künstlichen Geistes, der unter bestimmten Randbedingungen einerseits das Verhalten von Kindern prinzipiell kopiert, andererseits diese sogar bei weitem übertrifft, bis zum Jahr 2015 möglich wäre.

7. Quellennachweise

Siehe HTML-Liste