WISSENSDARSTELLUNG BEI LEIBNIZ

Peter Jaenecke

Anmerkung hierzu von Gödert

Inhalt

Einleitung

1. Elementare Prinzipien zur Darstellung von Wissen

1.1. Semiotik versus Darstellungstheorie

1.2. Darstellungsprinzipien

1.3. Wie kommt Wissen in ein Zeichensystem?

2. Wissensdarstellung mit formalen Sprachen

2.1. Formale Sprachen: Grundbegriffe

2.2. Characteristica universalis als Frühform einer formalen Sprache

3. LEIBNIZ-Programm

4. Folgerungen aus der Wissensdarstellung

[Resümee]

Literatur

 

Einleitung

Die Aktualität eines älteren Autors beruht selten auf seinen konkreten Ergebnissen; zu groß ist der zeitliche Abstand, zu schnell die Entwicklung, als daß sie noch Geltung beanspruchen könnten. Für grundlegende Ideen gilt dies nicht: ihre ersten Verwirklichungsversuche können zwar ebenfalls überholt sein, sie selbst aber erweisen sich oft als überraschend aktuell. Dies trifft, wie im folgenden gezeigt werden soll, auf die von LEIBNIZ im Umkreis seiner ars characteristica geäußerten Gedanken zur Wissensdarstellung in hohem Maße zu.

Auf den ersten Blick scheint solch ein Nachweis kaum mit nennenswerten Schwierigkeiten verbunden zu sein, gilt es doch lediglich zwischen alten und zeitgenössischen Ideen eine Beziehung herzustellen. Doch LEIBNIZ verwendet ungewohnte, ja sogar irreführende Begriffe, die eine Einordnung erschweren, zudem hinterläßt er seine Ideen nicht in geschlossener Form. Ferner ist zwar die Wissensdarstellung ein aktuelles Forschungsgebiet, aber nicht in der Philosophie. Es gibt dort nichts, woran sich anknüpfen ließe; Bezugspunkt bleibt somit allein die Wissensdarstellung verstanden als Teilgebiet der Künstlichen Intelligenz. In dieser Disziplin jedoch liegt der Schwerpunkt auf der Implementation von Anwendungen; philosophische Grundlagenfragen werden kaum reflektiert, so daß auch hier keine direkten Anknüpfungspunkte vorhanden sind. Doch dafür bietet sie wenigstens durch ihre Methoden und ihren begrifflichen Rahmen eine sichere Orientierungshilfe. Eine weitere Schwierigkeit erwächst aus der einseitig an logischen Vorstellungen ausgerichteten philosophischen Interpretationstradition, die aufgrund ihrer ideologischen Natur dem Verständnis von LEIBNIZ‘ Ideen hemmend entgegensteht. Außerdem ist zu beachten, daß früheres Gedankengut nicht schon deswegen Aktualität besitzt, weil es moderne Erkenntnisse vorwegnimmt oder weil es noch immer Gültigkeit hat. Denn was zum festen Bestandteil des heutigen Wissens gehört, kann schwerlich als aktuell gelten: Zur Aktualität eines Themas gehört auch stets ein zeitgenössisches Defizit, das es aufzuzeigen gilt.

Aus diesen Vorgaben ergibt sich die folgende Gliederung: Anhand der elementaren Prinzipien zur Darstellung von Wissen (Kap. 1) wird erläutert, worin Wissensdarstellung aus heutiger Sicht besteht und wie Wissen dargestellt werden kann. Die meisten Prinzipien finden sich schon bei LEIBNIZ; sie bieten daher einen bequemen Zugang zu seinen Ideen. Am Beispiel der Wissensdarstellung mit formalen Sprachen (Kap. 2) wird gezeigt, daß LEIBNIZ versuchte, Wissen formal darzustellen und daß seine characteristica universalis als Frühform der formalen Sprachen anzusehen ist. Über Sinn und Zweck der Wissensdarstellung gibt das LEIBNIZ-Programm (Kap. 3) Auskunft. Typische, bislang wenig verstandene Begriffe aus diesem Programm wie ‚ars iudicandi‘ und ‚ars inveniendi‘, erhalten über die formalsprachliche Wissensdarstellung eine einfache Erklärung. Die Folgerungen aus der Wissensdarstellung (Kap. 4) beziehen sich auf Mißverständnisse und Defizite im Umgang mit Sprache. Sie werden anhand von erkenntnistheoretischen und linguistischen Themen beispielhaft erläutert.

 

1. Elementare Prinzipien zur Darstellung von Wissen

1.1. Semiotik versus Darstellungstheorie

Semiotik und Darstellungstheorie haben mit Zeichen und ihren Bedeutungen zu tun. Muß man daher nicht annehmen, es handele sich hier nur um zwei Namen für ein und dieselbe Sache? Dieser Eindruck entsteht in der Tat, aber er entsteht nur deshalb, weil ‚Darstellen‘ mit ‚Bedeutungszuweisung‘ identifiziert wird. Doch zwischen beiden besteht ein grundlegender Unterschied: Während Wörter ihre Bedeutung durch gelernte Vereinbarungen "zugewiesen" bekommen, braucht die Bedeutung von Sätzen nicht im voraus gelernt zu werden. Sie ergibt sich zu einem kleinen Teil aus der Bedeutung der Wörter, zum größten Teil aber aus der Stellung der Wörter zueinander. Der hier durchscheinende, an LEIBNIZ erinnernde Kombinationsgedanke steht in den Sprachwissenschaften im Gegensatz zu verschwommenen Kontext- bzw. Kodierungsvorstellungen nicht hoch im Kurs. Betrachtet man ein Wort und seine Bedeutung als ein Beziehungspaar, so läßt sich die Gesamtheit aller dieser in einer natürlichen Sprache vorkommenden Paare noch mit einer gewissen Berechtigung als Kode deuten, der im Verlauf des Spracherwerbs zumindest teilweise auswendig gelernt werden muß. Jedoch die Darstellung von Inhalten in Sätzen als Kodierung ansehen, heißt, das Wesen jeder Sprache verkennen, das darin besteht, die Anordnung als Ausdrucksmittel zu gebrauchen. Müßte nämlich auch die Bedeutung aller Sätze einer Sprache einzeln gelernt werden, so machte dies zwar eine Verständigung nicht unmöglich, aber die Sprachökonomie, die es erlaubt mit wenigen Wörtern viele sinnvolle Sätze von unterschiedlichem Inhalt zu bilden, ginge dabei verloren.

Während sich die Semiotik mit Zeichen im weitesten Sinn beschäftigt, untersucht die Darstellungstheorie, wie durch Anordnung von Zeichen oder anderen Sprachbausteinen eine ganz bestimmte Bedeutung übermittelt werden kann. Bildlich ausgedrückt läßt sich die Semiotik mit Baustoffkunde, die Darstellungstheorie mit Architekturlehre vergleichen. Nun sind zwar für einen Architekten Kenntnisse über die zum Bauen notwendigen Materialien unerläßlich, aber darüber hinaus gilt es, eine architektonische Idee zu verwirklichen; sie entspricht dem darzustellenden Inhalt, ihre Verwirklichung dem Darstellen. Nicht jede Anhäufung von Baumaterial stellt ein Gebäude dar, es kommt vielmehr ganz wesentlich auf die richtige Anordnung an: Darstellungsprinzipien sind demnach Gestaltungsprinzipien. Die hierbei auftretenden Probleme unterscheiden sich grundlegend von denen der Materialkunde, und ebensowenig wie sich Baustile in Begriffen der Materialkunde ausdrücken lassen, ebensowenig helfen semiotische Begriffe beim Lösen einer Darstellungsaufgabe.

Das bisher Gesagte bezieht sich auf Inhalte allgemein, gilt also für wissenschaftliche und künstlerische Gestaltung gleichermaßen. Wissensdarstellung ist enger: sie beschränkt sich auf die Darstellung von Inhalten, verstanden als Produkte wissenschaftlicher Arbeit. Um im obigen Bild zu bleiben: Neben vielen Bauten, bei denen der architektonischen Phantasie große Freiheiten gewährt werden, gibt es Zweckbauten, projektiert für einen ganz bestimmten Zweck und nur für diesen. Ästhetische Gesichtspunkte bleiben auch hier nicht ganz unberücksichtigt, aber sie sind von untergeordneter Bedeutung. Die Architektur wird maßgeblich durch die dem Gebäude zugedachte Aufgabe bestimmt; sie entspricht dem darzustellenden Wissen, ihre Verwirklichung der Wissensdarstellung.

LEIBNIZ hat die Idee der Wissensdarstellung folgendermaßen formuliert:

»Wenn es möglich wäre, Symbole oder Zeichen zu finden, die sich dazu eignen, alle unsere Gedanken ebenso gradlinig und stringent auszudrücken wie die Arithmetik die Zahlen oder wie die Geometrie die Figuren darstellt, dann könnten alle Dinge, soweit sie dem Schlußfolgern unterworfen sind, in der gleichen Weise behandelt werden wie es in der Arithmetik und Geometrie getan wird.«

Zwischen seiner Charakterisierung und der folgenden aus der Künstlichen Intelligenz stammenden Definition besteht inhaltlich kein grundsätzlicher Unterschied:

Wissensdarstellung ist die zeichensprachliche Repräsentation von Objekten, Fakten und Regeln in operationaler Form für einen Handlungsträger mit zeichenverarbeitender Fähigkeit.

Einen Handlungsträger, verstanden als Obergriff von Mensch und Rechner, mußte LEIBNIZ noch nicht hervorheben. ‚Symbole oder Zeichen‘ dagegen entsprechen der zeichensprachlichen Repräsentation, ‚alle unsere Gedanken‘ dem Wissen, hier reduziert auf Objekte, Fakten und Regeln. Ferner weist die als Beispiel angeführte Arithmetik und Geometrie auf zeichensprachliche Operationen und somit auf die Verwendung von künstlichen Sprachen hin, die gegebenenfalls erst konstruiert werden müssen. Die Wissensdarstellung betrifft somit

Beide Vorgänge müssen nicht notwendig als zeitlich nacheinander ablaufend gedacht werden; erfahrungsgemäß ergänzen sie sich in der Praxis wechselseitig.

 

1.2. Darstellungsprinzipien

Natürliche Sprachen erscheinen stets als bedeutungsvolle Zeichensysteme, so daß für ihren Gebrauch die Frage, wie sie zu ihren Inhalten gekommen sind, ohne Belang zu sein scheint. Bei künstlichen Sprachen gibt es diese günstige Ausgangsposition nicht; hier drängen sich die Fragen auf:

Die Darstellungsprinzipien insgesamt beantworten die zweite Frage. Dabei beziehen sich die Prinzipien 4 und 5 auf die Aufbereitung des darzustellenden Materials und die Prinzipien 6 – 8 auf die Darstellung selbst. Die Antwort auf die erste Frage ergibt sich als Schlußfolgerung aus den Prinzipien.

Strukturbildung

Ein (Zeichen)system ist leer, wenn seine Elemente bezüglich der Darstellungseigenschaft alle gleichwertig sind und bezüglich anderer Eigenschaften verschieden. Bei einem weißen Blatt Papier sind die "Elemente" die Bildpunkte; sie haben alle eine unterschiedliche Lage; die Darstellungseigenschaft ist die Farbe; hinsichtlich dieser unterscheiden sie sich nicht. Ein (Zeichen)system enthält Inhalt, wenn sich seine Elemente auch bezüglich der Darstellungseigenschaft unterscheiden, wenn also z.B. ein Blatt Papier Tintenspuren aufweist. Unterschiede lassen sich herstellen, indem man in einer sogenannten Trägermenge bestimmte Elemente anders behandelt als die übrigen:

P1 Inhalt in einem System darstellen heißt, in einer Trägermenge eine Teilmenge ausgrenzen. Die erste Entscheidung, die bei der Wissensdarstellung getroffen werden muß, ist die Wahl einer geeigneten Trägermenge, auch Darstellungsraum genannt.

So spannt die kartesische Ebene einen inhaltslosen zweidimensionalen Raum auf; Inhalt in ihm darstellen bedeutet, eine bestimmte Menge von Punkten dieser Ebene auszeichnen, z.B. als Kurve. Bei natürlichen Sprachen ist die Menge aller Wortkombinationen die Trägermenge; sie ist leer, denn wenn jedes Wort neben jedem anderen stehen darf, kann kein Inhalt erfaßt werden. Darstellungseigenschaft ist daher die Nachbarschaftsbeziehung; sie wird durch die Grammatik festgelegt. Ein Beispiel ganz anderer Art ist der Lernvorgang, in dessen Verlauf der Lernende ebenfalls eine Struktur ausbilden muß. Erfahrungen mit Lernalgorithmen haben gezeigt, daß der Lernerfolg nur dann befriedigend ausfällt, wenn dem lernenden System nicht nur Beispiele, sondern auch Gegenbeispiele präsentiert werden: Die Beispiele entsprechen Elementen aus der Teilmenge; um sie zur Wirkung zu bringen, sind andere erforderlich, die nicht zu dieser Teilmenge gehören. Inhalt wird demnach im Gehirn nach einem sehr ähnlichen Prinzip erfaßt wie in einem Zeichensystem. Eine der wichtigsten kognitiven "Leistungen" ist dabei das Vergessen: ohne diese Fähigkeit sähe es im Gehirn bald ähnlich aus wie auf einer Tafel, auf der immer nur geschrieben, niemals aber etwas gelöscht wird.

Minimale Sprachmächtigkeit

Experimentelle Ergebnisse beziehen sich auf Einzelfälle; sie liefern Faktenwissen). Zusammengefaßt führen sie zu allgemeinen Aussagen oder Gesetzeswissen, das wiederum, soll es angewandt werden, Faktenwissen voraussetzt. Sowohl für Gesetzes- als auch für Faktenwissen muß es daher sprachliche Ausdrucksmöglichkeiten geben. Beide Bereiche gehören jedoch zwei verschiedenen Abstraktionsebenen an: sie erfordern somit auch je eigene Sprachmittel:

P2 Der Darstellungsformalismus muß mindestens zwei verschiedene, miteinander verbundene Sprachebenen zu erfassen gestatten.

Bei einer Wertetabelle z.B. sind die angegebenen Werte die Individuen. P2 fordert, daß auch die Teilmenge selbst, aus der die Werte stammen, darstellbar sein muß; dies kann durch eine Regressionsfunktion geschehen. Funktionen erfordern aber andere Sprachmittel als tabellarische Zusammenstellungen. Umgekehrt ist es beim Anwenden einer durch Buchstaben dargestellten Formel auf einen konkreten Fall notwendig, wieder auf die Zahlenebene zurückzugehen.

Darstellungstreue

Es gibt stets mehrere, sich hinsichtlich ihrer Qualität unterscheidende Möglichkeiten, einen Inhalt sprachlich zu erfassen. Kriterium für die Exaktheit ist die Darstellungstreue:

Ein Formalismus erfaßt das Wissen eines Objektbereiches darstellungstreu, wenn er es vollständig repräsentiert und wenn mit ihm keine Inhalte ausgedrückt werden können, die nicht zum darzustellenden Wissen gehören.

Eine Wissensdarstellung muß exakt sein:

P3 Die Wissensdarstellung muß darstellungstreu erfolgen.

P3 beruht auf der Einsicht, daß nicht jeder Inhalt durch jede Sprache gleich gut ausgedrückt werden kann. Daraus leitet sich die Verpflichtung ab, den Formalismus an den darzustellenden Inhalt anzupassen. Darstellungstreue darf nicht mit Wahrheit verwechselt werden: erstere bezieht sich auf die Korrektheit der Darstellung, letztere auf die Korrektheit des dargestellten Inhalts. Wenn ein Inhalt darstellungstreu erfaßt wurde, ist das Ziel der Wissensdarstellung erreicht; welchen Wahrheitsgehalt der Inhalt hat, darüber kann in der Wissensdarstellung nicht entschieden werden: auch Falsches läßt sich exakt darstellen.

Um der Forderung nach Darstellungstreue nachkommen zu können, braucht man bei den Sprachmitteln freie Hand; deshalb ist es notwendig, auf künstliche Sprachen auszuweichen. Die folgenden Prinzipien beziehen sich auf die Darstellung von Wissen in diesen Sprachen.

 

Analyse

Wissensdarstellung setzt voraus, daß der darzustellende Stoff systematisch geordnet vorliegt. Oft muß jedoch die systematische Ordnung erst durch eine Analyse des Sachgebietes gewonnen werden. Ein einfaches Beispiel für solch eine Analyse sind die vorbereitenden Schritte zur Lösung einer Textaufgaben: Bevor gerechnet, d.h. der mathematische Formalismus angewendet werden kann, gilt es, die im umgangssprachlichen Text eingekleideten mathematischen Größen und Beziehungen herauszupräparieren. Allgemein ist es Ziel der Analyse, möglichst wenige elementare Einheiten zu ermitteln, auf die sich die Phänomene des Objektbereichs zurückführen lassen. Die Einheiten, auch ‚Primitive‘ genannt, stellen das dar, was später Zeichen zugeordnet werden muß; sie sind das unmittelbare Bindeglied zwischen der Objekt- und Gedankenwelt. Zu ihnen gehören Basisobjekte, Relationen und Operationen. Die Basisobjekte sind aus dem System ausgegrenzte Teilsysteme. Die Operationen betreffen alle Arten von Manipulationen, die mit den Basisobjekten ausgeführt werden können. Bei den Relationen werden verschiedene Objekte hinsichtlich einer bestimmten Eigenschaft miteinander verglichen.

P4 Der darzustellende Objektbereich ist gedanklich in eine nichtleere Menge von Basisobjekten, in eine Menge von Relationen, und, falls erforderlich, in eine Menge von Operationen zu zerlegen.

Die Primitiven können sich – je nach Objektbereich - auf empirische oder gedankliche Dinge beziehen, z.B. auf chemische Elemente oder Begriffe. Auch Links sind Relationen; das, was sie verbinden, z.B. Textteile, sind Objekte.

P4 beruht auf der Annahme, daß die Welt aus realen, zueinander in Beziehung stehenden, eventuell auch miteinander wechselwirkenden Objekten besteht. Durch die Analyse wird ein Objektbereich gedanklich gewissermaßen in seine elementaren Einzelteile zerlegt, um die Gegenstücke zu den Sprachbausteinen zu bekommen. Dagegen ließe sich einwenden, daß nicht für alle Objektbereiche die diskursive Auffassung angemessen sei. Doch da Sprachen - auch die natürlichen - von Natur aus diskursiv sind, müssen solche Inhalte entweder dieser Sprachanforderung angepaßt werden, oder man muß, wenn dies zu einem Konflikt mit dem Treueprinzip führt, auf ihre sprachliche Darstellung verzichten.

Synthese

Nach LEIBNIZ muß man die Analyse solange fortsetzen, bis sie in die Synthese übergeht, d.h. bis sich allgemeine Leitbegriffe und Regeln ergeben sowie elementare Strukturgesetze:

P5 Es müssen geeignete Leitbegriffe und Regeln zur Erfassung des Objektbereiches aufgestellt werden.

Da auch das Syntheseergebnis sprachlich fixiert werden muß, die Darstellungssprache aber noch nicht zur Verfügung steht, ist man zunächst noch auf Ersatzsprachen angewiesen; meist wird es eine durch technische Mittel angereicherte natürliche Sprache sein. Das Syntheseergebnis ist immer relativ: es hängt von der Wahl der Primitiven ab. Außerdem läßt der gleiche Satz von Primitiven verschiedene Strukturgesetze zu, denn es gibt viele Aspekte, nach denen Objekte geordnet werden können. Vereinfacht gilt: Je komplexer die Primitiven sind, desto einfacher werden i.a. die zugehörigen Regeln ausfallen und umgekehrt. Auch die Begriffe und Regeln bedingen sich wechselseitig. Es ist daher problematisch von Strukturen zu sprechen, die in den Objekten zu finden seien und die umkehrbar eindeutig in einer Sprache abgebildet werden könnten.

Wie die Ergebnisse von Analyse und Synthese sprachlich zu erfassen sind, regeln die folgenden Prinzipien.

Kodierung

Die unmittelbar der Objektwelt, d.h. den Primitiven zugeordneten Zeichen heißen ‚Terminale‘, solche für die Leitbegriffe heißen ‚Nichtterminale‘:

P6 Jeder Leitbegriff muß umkehrbar eindeutig einem Nichtterminal und jedes Primitiv umkehrbar eindeutig einem Terminal zugeordnet werden; ausgenommen ist diejenige Relation, die bereits durch die Verkettung der Zeichen dargestellt wird.

Solch eine Zuweisungsvorschrift zwischen den Zeichen und den Primitiven bzw. Leitbegriffen läßt sich als Kode (im Sinne der Kodierungstheorie) verstehen; über den Kode wird den Zeichen eine Bedeutung zugewiesen. Es ist dabei gleichgültig, welche Zeichen gewählt werden. Doch da die Ähnlichkeit eines Zeichens mit dem Ding, das es bezeichnet, als Gedächtnishilfe dienen kann, ist es manchmal für die Handhabung vorteilhaft, solche zu verwenden, denen man es ansehen kann, welche Funktion sie haben. Nur Terminal-Zeichen haben eine echte Stellvertreterfunktion: sie stehen als sinnlich Wahrnehmbares für etwas, das (eventuell nur vorübergehend) nicht sinnlich wahrnehmbar ist. Nichtterminale repräsentieren rein gedankliche, aber auf die Objektwelt Bezug nehmende Entitäten. Die Unterscheidung der beiden Zeichentypen bereitet die in P2 geforderten zwei Sprachebenen vor.

 

Objektdarstellung

Die Basisobjekte eines Bereichs können Objektbruchstücke, aber auch bereits reale atomare Objekte sein; es wird nur gefordert, daß sich mit ihnen Objekte von beliebiger Komplexität zusammensetzen lassen. Wie solche Objekte sprachlich darzustellen sind, regelt

P7 Ein Objekt wird in zwei Schritten dargestellt: Es wird zuerst gedanklich in seine Primitiven zerlegt, und mit Hilfe der ihnen zugehörigen Zeichen wird dann sein sprachlicher Ausdruck so gebildet, daß die Verhältnisse zwischen den Primitiven im Objekt den Verhältnissen zwischen den Zeichen entsprechen.

In P6 wird eine Isomorphiebeziehung formuliert. Im Gegensatz dazu beruht die sprachliche Darstellung von Objekten nach P7 auf einer strukturellen Äquivalenz, die nur noch eine Homomorphie zuläßt. Einfache Beispiele hierfür sind chemischen Formeln. bzw. Reaktionsgleichungen.

Zeichen in künstlichen Sprachen entsprechen den Wörtern in den natürlichen; und wie die Wörter repräsentieren auch die Zeichen kein Wissen. Wissen ergibt sich erst, wenn etwas behauptet, d.h. wenn wenigstens zwei Dinge miteinander in Beziehung gesetzt werden. Wissen darstellen heißt daher: Zeichenketten bilden. P7 bezieht sich auf die einfachste Art von Wissen: die Kenntnis, wie die Objekte aus den Primitiven aufgebaut sind. Es ist eine spezielle Art von Faktenwissen.

Darstellung von Gesetzmäßigkeiten

Daß Wissensdarstellung über die einfache Objekterfassung hinausgeht, scheint erstmals LAMBERT klar formuliert zu haben:

»Die Zeichen der Begriffe und Dinge sind ferner im engeren Sinne wissenschaftlich, wenn sie nicht nur überhaupt die Begriffe oder Dinge vorstellen, sondern auch solche Verhältnisse anzeigen, daß die Theorie der Sache und die Theorie ihrer Zeichen miteinander verwechselt werden können ... Die Theorie der Sachen "sei" auf die Theorie der Zeichen zu reduciren ...«

Danach unterscheidet LAMBERT zwei Arten von struktureller Äquivalenz: die in P7 zum Ausdruck gebrachte zwischen den Objekten und ihrer sprachlichen Darstellung und die zwischen zwei Theorien, die eine über Sachen, die andere über Zeichen; letzteres ist nur eine andere Formulierung von

P8: Gesetzmäßigkeiten über die Objekte müssen formuliert werden als Gesetzmäßigkeiten zwischen den Zeichen.

Weil Regularitäten sich auf eine Gesamtheit von Objekten beziehen und daher gedankliche Entitäten sind, muß in den sie beschreibenden Zeichenketten mindestens ein Nichtterminal-Zeichen vorkommen. Beispiele für Gesetzmäßigkeiten auf Zeichenebene sind neben Gleichungen die Grammatikregeln. Auch P8 drückt nur noch eine Homomorphie aus. So benutzt man z.B. in der Physik Funktionen, die über der Menge der reellen Zahlen definiert sind, aber man fordert nicht, daß jede reelle Zahl eine physikalische Entsprechung haben müsse.

 

1.3. Wie kommt Wissen in ein Zeichensystem?

Inhalt erfassen bedeutet nach P1 Teilmengenbildung; darauf beziehen sich die drei letzten Prinzipien. Sie regeln die Erfassung von drei verschiedenen Inhaltsarten; es kommen daher drei verschiedene Teilmengen vor, so daß die Grundfrage der Darstellungstheorie ebenfalls eine dreiteilige Antwort erfordert: Einzelne Terminalzeichen werden aus der Menge aller möglichen Zeichen (willkürlich) ausgewählt; sie haben keinen Bezug zur Objektwelt, sondern erhalten ihre Bedeutung durch Zuweisung (P6). Terminalketten repräsentieren komplexe aus Primitiven zusammengesetzte Objekte. Sind die Primitiven eines Objektes und damit auch die zugehörigen Terminale bekannt, dann besteht jetzt die Trägermenge aus allen Ketten, die aus diesen Terminalen gebildet werden können. Von ihr muß eine Teilmenge gebildet werden; sie besteht nur aus einem einzigen Element, nämlich aus derjenigen Kette, bei der die in P7 geforderte Strukturäquivalenz zum darzustellenden Objekt erfüllt ist. Die Kette erhält ihre Bedeutung ebenfalls durch Zuweisung, doch diese ist nicht mehr willkürlich, sondern an den Aufbau des darzustellenden Objekts gebunden. Terminalzeichen, ob als Einzelzeichen oder in Ketten, beziehen sich stets auf die Objektwelt. Trägermenge bei der dritten Inhaltsart sind die Menge aller Ketten, die aus allen Terminalen gebildet werden können. Aus dieser sind als Teilmenge alle diejenigen Ketten auszugrenzen, die im Sinne von P7 sinnvoll sind. Bei endlichen Teilmengen kann dies durch Auflisten ihrer Elemente erfolgen. Doch ist das nur der triviale Fall; i.a. bezieht sich die Darstellung auf eine Teilmenge, die aus beliebig vielen nicht mehr auflistbaren Elementen besteht. Um diese von den anderen abgrenzen zu können, müssen Merkmale gefunden werden, die nur sie, nicht aber die anderen Elemente besitzen. Merkmale drücken Regularitäten aus, und zwar sowohl in der Zeichen- als auch in der Dingwelt; P8 fordert eine Äquivalenz zwischen beiden.

Es bleibt noch zu klären, wie zwischen Sprach- und Objektwelt Strukturäquivalenzen zustande kommen können.

Weil Terminalketten, als sprachliche Gebilde, notwendig eine räumliche Anordnung haben müssen, Zeichen in einer Zeichenkette also immer in einer Beziehung zueinander stehen, verkörpern sie durch diese Beziehungsstruktur stets potentielles Faktenwissen, dem strukturäquivalentes reales Faktenwissen zugeordnet werden kann (P7). Strukturäquivalenz besagt nicht, die Lagebeziehung der Zeichen müsse notwendig auch der Lagebeziehung der Dinge entsprechen, vielmehr kann irgendeine Relation zwischen den Dingen gemeint sein. Die Zeichenkette H2O z.B. drückt aus, das zwei gleiche Zeichen mit einem anderen in Beziehung stehen. Man beschreibt mit ihr bekanntlich ein Wassermolekül; aber sie würde sich auch dazu eignen, irgendwelche anderen Verhältnisse zu beschreiben, sofern diese mit ihr strukturäquivalent sind.

Ferner weist jede auch willkürlich zusammengestellte Auswahl von Terminalketten eine Gesetzesstruktur auf, d.h. es gibt in ihr stets ähnliche, zu einer Klasse zusammenfaßbare und daher durch Regeln charakterisierbare Elemente: Wegen der willkürlichen Auswahl müßte es - so könnte man vermuten - sinnloser Inhalt sein. Doch es gibt kein äußeres Merkmal, wonach sich eine willkürliche Auswahl von einer sinnvollen unterscheiden ließe: jede Auswahl, jedes "abstrakte" Zeichensystem verkörpert potentielles Gesetzeswissen (P1) und kommt somit als Darstellungsmedium infrage. Da es allein auf Formen beruht, ist es "rein formales" Gesetzeswissen. Aufgrund der Entsprechung von formalem und realem Gesetzeswissen (P8) erhält ein leeres Zeichensystem seine Bedeutung.

Auch Gesetzmäßigkeiten müssen durch Zeichenketten (meist als ‚Regel‘ bezeichnet) dargestellt werden, doch die Beziehungen der Zeichen solcher Ketten beziehen sich nicht mehr ausschließlich auf die Objektwelt. Dies kommt dadurch zum Ausdruck, daß sie syntaktische Zeichen enthalten (z.B. den Regelpfeil) und mindestens ein Nichtterminal-Zeichen; darüber hinaus können auch Terminal-Zeichen vorkommen. Eine Regel kann nun sowohl als eine Gesetzesaussage oder als eine Handlungsvorschrift interpretiert werden. In der Wissensdarstellung ist somit das Gesetzeswissen und das prozedurale Wissen äquivalent.

 

2. Wissensdarstellung mit formalen Sprachen

Die Wissensdarstellung mit formalen Sprachen bietet die Möglichkeit, die Darstellungsprinzipien mit einfachen Mitteln zu veranschaulichen. Zugleich verschafft sie die zur Erläuterung der LEIBNIZschen Ideen notwendige moderne begriffliche Basis. Die Ausführungen beschränken sich auf das Allernotwendigste; formale Sprachen erlauben noch tiefere Einblicke in die Darstellungsproblematik als hier angegeben.

2.1. Formale Sprachen: Grundbegriffe

Gegeben sei ein Terminal-Alphabet å . Die Menge aller Sätze, die insgesamt mit den Elementen von å gebildet werden können, sei die Menge å *. Eine formale Sprache L ist definiert als eine wohlbestimmte Teilmenge von å *. 'Wohlbestimmt' heißt: es ist genau festgelegt, welche Sätze aus å * zu ihr gehören. Die Festlegung erfolgt über (Grammatik)regeln, die angeben, wie die Sätze zu bilden sind. Eine formale Sprache ist somit durch ihre Grammatik sowie durch Angaben darüber, wie die Grammatik zu handhaben ist, eindeutig festgelegt.

Grammatik für Wortstrukturen

Eine Grammatik für Wortstrukturen G setzt sich aus dem Quadrupel

G = (VN, S , P, S);

zusammen, dabei ist

1. VN das Alphabet der Nichtterminalen zur Erfassung der Abstraktiven,

2. S das Alphabet der Terminalen zur Erfassung der Primitiven.

3. P ist eine endliche Menge von Ersetzungsregeln (Produktionen), bezeichnet durch a ® b , a und b stellen Zeichenketten über VN È S dar; a muß mindestens ein Zeichen aus VN enthalten.

4. S Î VN ist das Startzeichen.

Die Herleitung eines (syntaktisch korrekten) Satzes (Top-down Parsing) beginnt mit dem Startzeichen; sie endet erfolgreich, wenn keine Regel mehr angewandt werden kann und wenn die Zeichenkette nur noch aus Terminalen besteht. Bei der Syntaxanalyse (Bottom-up Parsing) verläuft die Ableitung in umgekehrter Richtungen: Ausgehend von einer nur aus Terminalen gebildeten Zeichenkette wird versucht, durch Rückwärtsanwenden der Regeln das Startsymbol zu erreichen; gelingt dies, ist die Zeichenkette ein Satz der betreffenden Sprache, d.h. sie ist bezüglich der verwendeten Grammatik syntaktisch korrekt.

Beispiel: Grammatik zur Konstruktion der Binärziffern { 0, 1, 10, 11, 100, ... }

VN = { S, A, B }

S = { 0, 1 }

P:

( 1) S ® A

( 2) S ® 1B

( 3) B ® A

( 4) B ® 0B

( 5) B ® 1B

( 6) A ® 0

( 7) A ® 1

Die Ziffer ‘1011’ z.B. kann mit der obigen Grammatik folgendermaßen erzeugt werden:

S ® 2 1B ® 4 10B ® 5 101B ® 3 101A ® 7 1011.

Die Zahlen über den Pfeilen geben die verwendete Regel an. Nach Vereinbarung ist es ein "Linkszuerst-Ansatz", bei der die Herleitungsrichtung von links nach rechts verläuft. Das in der Grammatik enthaltene Wissen besagt: eine Ziffer besteht aus einer beliebigen Null-Eins-Kombination, sofern sie keine führende Null aufweist; Ausnahme: eine einzelne Null (Regel 2).

Aus dieser Kurzcharakteristik ergeben sich folgende Beziehungen zu den drei ersten Darstellungsprinzipien:

Trägermenge ist S *, sie enthält alle Zeichenketten, die sich mit einem Terminal-Alphabet erzeugen lassen. Nicht jedes ihrer Elemente ist ein sinnvoller Satz. Gesetzeswissen darstellen heißt, die nicht sinnvollen von den sinnvollen Sätzen abzugrenzen. Letztere bilden - als Teilmenge von S * - eine durch eine Grammatik charakterisierbare formale Sprache (P1). Gesetzeswissen in einer formalen Sprache darstellen, bedeutet daher, eine geeignete Grammatik aufstellen.

Unterschiedliche Sprachebenen werden durch die Unterscheidung von Terminal- und Nichtterminalzeichen ermöglicht (P2). Die Terminalzeichen, aus denen die Sätze einer formalen Sprache bestehen, bilden den objektsprachlichen Anteil. Nichtterminalzeichen werden als "Hilfszeichen" zur Darstellung der Grammatik gebraucht; sie gehen als Leitbegriffe in die Herleitung der Sätze, nicht aber in die Sätze selbst ein. Sie ermöglichen eine rekursive Regelanwendung, d.h. eine Regel kann - wie z.B. Regel 4 oder 5 im obigen Beispiel - beliebig oft angewendet werden, so daß die strukturellen Eigenheiten einer unendlichen Menge von Wörtern in einer sehr kompakten Weise durch wenige Zeichen und eine endliche Regelmenge erfaßt werden können.

Gesetzeswissen darstellungstreu in einer formalen Sprache darstellen heißt, ihre Syntax so festlegen, daß sie mit dem darzustellenden Wissen identisch ist (P3). Das ist dann der Fall, wenn jeder ihrer Sätze Faktenwissen über das darzustellende Gebiet enthält, und wenn es kein Faktenwissen dieses Gebietes gibt, das nicht durch Sätze der Sprache erfaßt wurde. ‘Wahr/sinnvoll’ ist somit gleichbedeutend mit ‘grammatisch korrekt’, das Wissen wurde redundanzfrei dargestellt: die betreffende Sprache ist "reine Information".

Die Prinzipien P1 - P3 werden von LEIBNIZ nicht explizit erwähnt. In seinen Darstellungsversuchen befolgt er jedoch das erste Prinzip; das dritte hielt er wohl für selbstverständlich. P2 hingegen scheint er nicht beachtet zu haben; dies ist der Hauptgrund für seine geringen Erfolge. Wir werden später noch darauf zurückkommen.

 

2.2. Characteristica universalis als Frühform einer formalen Sprachen

Daß LEIBNIZ nach heutigem Verständnis danach strebte, Wissen mit formalen Sprachen darzustellen und daß seine characteristica universalis als Frühform einer formalen Sprache anzusehen ist, läßt sich bereits aus Äußerungen wie der folgenden erschließen:

Die ars characteristica ist die Kunst, Zeichen so zu gestalten und anzuordnen, daß sie Gedanken wiedergeben, oder so, daß die Beziehungen, die sie zueinander haben, so sind, wie die Gedanken sie zueinander haben. Ein Ausdruck [solch einer künstlichen Sprache] ist die Aneinanderreihung von Zeichen, die den Gegenstand, der ausgedrückt wird, darstellen.

Bestärkt wird diese Auffassung aber vor allem durch seine zahlreichen Arbeiten im Sinne der Darstellungsprinzipien P4 – P7:

Analyse, Synthese, Kodierung

Formale Sprachen sind immer dann gute Darstellungsmittel, wenn sich das Wissen aus wenigen Primitiven durch rekursive Anwendung weniger Regeln aufbauen läßt. Dies ist auch LEIBNIZ‘ Grundgedanke: Die Vielfalt der Objekte hält er nur für scheinbar; sie entstehe durch die unendliche Zahl von Möglichkeiten, in denen eine endliche Zahl von Grundideen/begriffe miteinander kombiniert werden können. Er nimmt an, daß komplexe Dinge in elementare Bestandteile zerlegbar sind und daß es Grundrelationen gibt, mit denen sich die Teile wieder zu einem komplexen Ganzen "kombinieren" lassen. LEIBNIZ denkt z.B. an die Zerlegung von zusammengesetzten Begriffen in Unterbegriffe, diese wiederum in noch elementarere Begriffe usw. bis zu den nicht weiter zerlegbaren "letzten" Begriffen. Auf diese Weise ließen sich alle menschlichen Gedanken auf nur wenige "ursprüngliche" zurückführen, die, einmal gefunden , gewissermaßen als Alphabet der menschlichen Gedanken dienen könnten.

LEIBNIZ unterscheidet klar zwischen Basisobjekten (Grundbegriffe oder -gedanken, logische Ausdrücke, elementare geometrische Figuren) und Relationen (Äquivalenz, Ordnungsrelationen, Ähnlichkeit, Kongruenz) und ordnet ihnen umkehrbar eindeutig Zeichen zu. Er kannte somit die Prinzipien P4 – P6. Damit hatte er sich die Grundvoraussetzungen für eine Wissensdarstellung in formalen Sprachen geschaffen.

Lex expressionum

LEIBNIZ scheint erstmals erkannt zu haben, daß Darstellung auf struktureller Äquivalenz zwischen Objekt- und Zeichenwelt beruht (P7):

Das Darstellungsgesetz ist dies: so wie sich die Gedanken eines darzustellenden [komplexen] Dinges aus jener [einfachen] Dinge Gedanken zusammensetzen, so muß des [komplexen] Dinges Ausdruck zusammengesetzt werden aus den diesen [einfachen] Dingen [zugeordneten] Zeichen.«

In zahlreichen "Kalkülfragmenten" befaßt er sich damit, einen Satz geeigneter Regeln aufzustellen, um solch verschiedene Bereiche wie Logik, Geometrie, Optik, Differentialrechnung usw. zu erfassen. LULLUS und andere Vorgänger, sogar der frühe LEIBNIZ selbst, waren auf sehr einfache "Grammatiken" vom Typ 'alle Kombinationen von' oder 'alle Permutationen von' fixiert. Dabei sollten alle Kombinationen der 'notiones irresolubiles' wahre Sätze ergeben. LEIBNIZ probierte auch andere "Grammatiken" aus. So operierte er, die Gödelisierung vorwegnehmend, mit der Multiplikation von Primzahlen um Aussagen zu kombinieren. Man muß daher annehmen, daß er Prinzip P8 ebenfalls kannte; genauer: er identifizierte es fälschlicherweise mit P7. Das ist im wesentlichen der Grund für seine geringen Erfolge.

Offenbar konnte er sich nicht von seiner Idee lösen, Wörter als "Rechensteine" zu gebrauchen. Das hatte zur Folge, daß er – unter Mißachtung von P2 - nur Terminal-Zeichen benutzte, also Zeichen, die einen direkten Bezug zur Dingwelt haben. Es lassen sich zwar mit ihnen beliebig komplexe Objekte beschreiben, aber seine "Grammatikregeln" sind, weil sie sich auf Terminale beziehen, in ihrer Komplexität und damit in ihrer Ausdrucksmächtigkeit beschränkt: sie können nur Umformungen, aber nicht die rekursive Erzeugung von Terminalketten beschreiben. Hierzu sind Nichtterminale erforderlich; ihre Bedeutung scheint LEIBNIZ nicht erkannt zu haben, obwohl er die Rekursivität mehrfach erwähnt und sie z.B. anhand der Binärziffern veranschaulicht.

Die Wissensdarstellung mit echten formalen Sprachen schränkt durch Wahl eines geeigneten Alphabets die Trägermenge zunächst nur ein, um dann zusätzlich die sinnvollen Sätze über eine Grammatik aus ihr herauszuheben. Der Kombinationsansatz kann als Grenzfall dieses Ansatzes angesehen werden. Er beruht auf der sehr einfachen "Grammatikregel" ‚alle Zeichenkombinationen bilden‘; damit fällt aber die dadurch ausgezeichnete Teilmenge mit der Trägermenge S * zusammen. Soll die Darstellungstreue nicht verletzt werden, so ist der Kombinationsansatz darauf angewiesen, eine gehaltvolle Trägermenge zu finden: Damit ruht die ganze Last der Darstellung auf dem Herausfinden der "wahren" Primitiven, eine Aufgabe, mit der LEIBNIZ viel Zeit vergeudete. Denn es ist sehr fraglich, ob für solch eine Grammatik überhaupt geeignete Primitive gefunden werden können. Liegt hingegen die Grammatik nicht fest, dann ist die Wahl der Primitiven nicht eindeutig; in diesem Fall kann es erst recht keine wahren Primitive geben.

 

 

3. LEIBNIZ-Programm

Die bisherigen Ausführungen bezogen sich auf die technischen Aspekte der Darstellung; dabei wurde stillschweigend vorausgesetzt, daß Wissensdarstellung etwas Nützliches sei. Doch wozu dient eigentlich Wissensdarstellung? Welche Vorteile ergeben sich durch sie? Die Antworten auf diese Fragen sind in den unter dem Namen ‚LEIBNIZ-Programm‘ zusammengefaßten Zielen enthalten. Es ist wie folgt charakterisiert:

 

Das LEIBNIZ-Programm ist die Suche nach einer künstlichen Sprache als Darstellungsformalismus für ein bestimmtes Wissensgebiet, um

Wissen kompakt und eindeutig erfassen

Ein einfaches von LEIBNIZ häufig erwähntes Beispiel für eine kompakte Wissensdarstellung ist das Ziffernschema, das im Prinzip jede rationale Zahl darzustellen erlaubt. Darauf wiederum baut die auf dem kleinen Einmalseins und einem universellen Algorithmus beruhende schriftliche Multiplikation auf, mit der typischen Eigenschaft, daß sich mit ihr jedes "Teilwissen" (Produkt) aus einer kleinen Menge von Anfangswissen plus einem überschaubaren Regelwerk herleiten läßt.

Sicherheit durch Zeichenoperationen

Unser Verstand, so LEIBNIZ, ist von unsicherer Zuverlässigkeit und wird, »sobald er sich von der Erfahrung entfernt, sogleich von der Dunkelheit der Dinge und ihrer Vielfalt verwirrt, er wird beherrscht von trügerischen Mutmaßungen und eitler Meinung und vermag kaum ohne Widerwärtigkeiten voranzukommen.« Durch schrittweises regelgeleitetes Umformen dagegen können lange Gedankenreihen nachvollzogen werden, denn jedes Zwischenergebnis enthält Information über die nächsten ausführbaren Schritte. Indem der Verstand strikt die Regeln befolgt, erhält er eine Art Ariadnefaden, der ihm erlaubt, sich im Labyrinth seiner Gedankengänge zurechtzufinden und seine Gedanken in geordnete Bahnen zu halten. Zeichen tragen zur Sicherheit bei, weil sie Gedanken aus dem der Wahrnehmung unzugänglichen Gebiet des Geistes in das Gebiet sichtbarer Objekte verlagern; Gedanken werden so vor Augen geführt, und durch Zeichenoperationen werden sie gewissermaßen mit den Händen greifbar.

 

Sprache als (Denk)werkzeug (organon mentis)

LEIBNIZ faßte Sprache als Werkzeug auf, »durch das wir nicht nur in der Bildung von Urteilen geleitet, sondern auch zu neuen Erfindungen gebracht werden«. Dies sollte durch die ars iudicandi und ars inveniendi geschehen. Für beide "Künste" gibt es unter der Voraussetzung, daß die Darstellungstreue erfüllt ist, eine einfache formalsprachliche Deutung: Der ars iudicandi entspricht die Syntaxanalyse (Bottom-up Parsing), mit der entschieden wird, ob eine beliebige Zeichenkette syntaktisch korrekt, d.h. Satz der zugehörigen formalen Sprache ist und damit zu den wahren/sinnvollen Sätzen des erfaßten Gebietes gehört. Statt einen unfruchtbaren Streit über die Wahrheit einer Aussage zu führen, ließe sich so eine für jeden bindende Entscheidung herbeirechnen. Die ars inveniendi dagegen entspricht der Top-down Methode, mit der im Prinzip alle "Aussagen" eines Gebietes systematisch generiert und damit neue "Wahrheiten" entdeckt werden können. Beide Verfahren beruhen auf der gleichen Grammatik; sie unterscheiden sich nur darin, wie sie angewendet wird.

Wer mit Wissensdarstellung nicht vertraut ist, kann bei Durchsicht der zahlreichen Fragmente leicht den Eindruck gewinnen, LEIBNIZ habe verworrene Ziele verfolgt. Doch der scheinbar chaotische Eindruck läßt sich durch die Vielfalt der von ihm untersuchten Themen und durch die unterschiedlichen Teilaufgaben erklären, die eine Wissensdarstellung mit sich bringt. Die folgende Übertragung seiner Begriffe in heutige Ausdrucksweise soll der Orientierung dienen. Sie spiegelt trotz ihrer Anlehnung an formale Sprachen die verschiedenen, für die Realisierung des LEIBNIZ-Programms notwendigen Teilaufgaben wider:

characteristica universalis Formale Sprache

ars characteristica Wissensdarstellung

ars inveniendi Top-down Parsing

ars iudicandi Bottom-up Parsing

analysis Primitivenwahl

synthesis Begriffe erkennen und Grammatik erschließen

encyclopedia Gesamtheit der wissenschaftlichen Erkenntnisse

scientia generalis Wissenschaftstheorie

Analyse und Synthese Theoriebildung

Einwände gegen das LEIBNIZ-Programm

Daß die Umsetzung seines Programms keine leichte Aufgabe sein würde, darüber war sich LEIBNIZ jederzeit im klaren, aber er zweifelte niemals an seiner Realisierbarkeit. In Philosophie und Logik gilt es jedoch heute als undurchführbar. Häufig beruht die Ablehnung lediglich auf Ressentiments, die auf ein mangelndes Verständnis zurückgehen. Ein typisches oft tradiertes Beispiel hierfür ist die folgende Äußerung von HEGEL:

»Diese LEIBNIZsche Anwendung des kombinatorischen Kalküls auf den Schluß und auf die Verbindung anderer Begriffe unterschied sich von der verrufenen Lullianischen Kunst durch nichts, als daß sie von Seiten der Anzahl methodischer war, übrigens an Sinnlosigkeit ihr gleichkam. – Es hing hiermit ein Lieblingsgedanke LEIBNIZens zusammen, den er in der Jugend gefaßt und der Unreifheit und Seichtigkeit desselben unerachtet auch späterhin nicht aufgab, von einer allgemeinen Charakteristik der Begriffe – einer Schriftsprache, worin jeder Begriff dargestellt werde, wie er eine Beziehung aus anderen ist oder sich auf andere beziehe -, als ob in der vernünftigen Verbindung, welche wesentlich dialektisch ist, ein Inhalt noch dieselben Bestimmungen behielte, die er hat, wenn er für sich fixiert ist.«

Die meisten ernsthaften Einwände beruhen auf einer einseitigen logischen Sichtweise. Gegen das LEIBNIZ-Programm wird u.a. geltend gemacht:

Träfen die Einwände zu, wäre die Unmöglichkeit der Wissensdarstellung sowohl für die Künstliche Intelligenz als auch für die theoretischen Wissenschaften erwiesen. Dagegen sprechen allerdings die auf diesen Gebieten erzielten Erfolge; die Einwände können daher nicht stichhaltig sein:

Mit den logischen bzw. metamathematischen Gesetzen sind i.a. der Unvollständigkeitssatz von GÖDEL sowie die Unentscheidbarkeitssätze gemeint. Sie sagen etwas über den Formalismus selbst aus. Ob sie auch unüberwindbare Einschränkungen für das LEIBNIZ-Programm mit sich bringen, hängt von der jeweiligen Aufgabenstellung ab. So sind z.B. bei der formalsprachlichen Wissensdarstellung ars iudicandi und ars inveniendi realisierbar, sofern nicht über kontextsensitive Grammatiken hinausgegangen wird. Um ihre Unmöglichkeit zu beweisen, muß man daher zeigen, daß der betreffende Objektbereich komplexere Grammatiken als diese erfordert. Es ist daher nicht zulässig, aufgrund dieser Sätze ein generelles Unmöglichkeitsverdikt auszusprechen, wie häufig geschieht. Unter einer universellen Kalkülsprache kann man

  1. eine einzige universelle Sprache für das gesamte Wissen oder
  2. eine allgemeine formale Darstellungsmethode

verstehen. Nur für die erste Deutung wäre die Kritik berechtigt. LEIBNIZ‘ Äußerungen sind nicht immer eindeutig. Doch seine Versuche, spezielles Wissen durch spezielle "Grammatiken" darzustellen sowie Formulierungen wie

»Die allgemeine Charakteristik [Specieuse generale] umfaßt tausend Arten, und die Algebra enthält nur eine.«

weisen auf Deutung (2) hin. Danach ist die characteristica universalis nicht als einzige Universalsprache, sondern– wie die formalen Sprachen – als Sprachklasse aufzufassen, charakterisiert durch ein universelles Schema. Auf formale Sprachen bezogen hieße dies: nicht alles Wissen in einer einzigen Sprache, sondern nur: alles Wissen formalsprachlich darstellen, wobei damit zu rechnen ist, daß unterschiedliche Gebiete auch unterschiedliche Grammatiken erfordern. Die Realisierung des LEIBNIZ-Programms verlange, so wird ferner argumentiert, die Zerlegung sämtlicher Begriffe in Grundbegriffe; dies sei aber nur möglich, wenn sich keine neuen Erkenntnisse mehr ergeben, d.h. alles Wissen muß zur Realisierung bekannt sein. Das wäre sicherlich eine unerfüllbare Voraussetzung; außerdem wäre dann die ars inveniendi überflüssig. Doch wie bereits LEIBNIZ erkannte, setzt Wissensdarstellung weder vollständiges noch gesichertes Wissen voraus:

»Obwohl indessen diese Sprache von der wahren Philosophie abhängt, hängt sie nicht von deren Vollendung ab. D.h.: diese Sprache kann aufgesetzt werden, obwohl die Philosophie nicht vollkommen ist, und in dem Maße, wie das Wissen der Menschen wachsen wird, wird auch diese Sprache wachsen. Inzwischen wird sie von einer außerordentlichen Hilfe sein, sowohl um sich ihrer zu bedienen, bei dem was wir wissen, als auch um zu sehen, was uns fehlt ...«

Darüber hinaus erzwingt das LEIBNIZ-Programm eine systematische Aufbereitung des darzustellenden Wissens und eine folgerichtige Vorgehensweise, so daß es selbst schon dann günstige Auswirkungen auf ein Sachgebiet hat, wenn es nur teilweise verwirklicht werden konnte.

Betrachtet man die Charakterisierung der zu erkennenden Muster als Wissen, so ist die syntaktische Mustererkennung ein einfaches Beispiel für die Darstellung von Wissen und die Nutzung des dargestellten Wissens. Sie kann als Beweis gelten, daß das LEIBNIZ-Programm in formalen Sprachen zumindest für ein spezielles Wissensgebiet realisierbar ist. Um umfangreichere Wissensgebiete erfassen zu können, werden ausdrucksstärkere Darstellungsmittel gebraucht, z.B. mathematische. Sie konnten besonders erfolgreich in der Physik angewendet werden, so daß man sagen kann, das LEIBNIZ Programm ist heute vor allem in den Theorien der Physik verwirklicht.

 

4. Folgerungen aus der Wissensdarstellung

Die Wissensdarstellung steht im Schnittpunkt mehrerer Theorien, von denen die Erkenntnis-, Sprach- und Wissenschaftstheorie die wichtigsten sind. Entsprechend vielseitig und umfangreich sind daher auch die aus ihr ableitbaren Folgerungen. LEIBNIZ hat die Bedeutung der Wissensdarstellung erkannt; davon zeugen seine geradezu schwärmerischen Äußerungen über den Nutzen, den seine ars characteristica mit sich bringen sollte. Die Naturwissenschaften sind zwar dem von ihm eingeschlagenen Weg gefolgt, aber ohne sich der Darstellungsproblematik bewußt zu sein: Nichts wurde bisher so vollständig mißverstanden, wie die Rolle der Wissensdarstellung in den Wissenschaften, speziell aber in Erkenntnis- und Wissenschaftstheorie. Letzteres soll an einigen Beispielen streiflichtartig veranschaulicht werden. Sie betreffen das Verhältnis von natürlicher und künstlicher Sprache, Folgerungen aus der formalsprachlichen Wissensdarstellung und Folgerungen aus dem Prinzip der Darstellungstreue.

Verhältnis von natürlichen und künstlichen Sprachen

Künstliche Sprachen werden oft als verkümmerte Versionen der natürlichen Sprachen angesehen, die, gemessen am Reichtum der letzteren, elementar und arm an Ausdrucksmöglichkeiten seien. Doch bereits die Komplexität der formalen Sprachen unterliegt keinen Einschränkungen, von anderen Formalismen ganz abgesehen. Im übrigen stehen sie nicht in einer Konkurrenz zu den natürlichen Sprachen, denn beide Sprachtypen dienen unterschiedlichen Zwecken – die natürlichen Sprachen hauptsächlich der Kommunikation, die künstlichen hauptsächlich der Wissensdarstellung.

Kommunikation erfordert eine Sprache, in der nahezu alle Inhalte erfaßt werden können; damit eine Sprache diese Eigenschaft haben kann, müssen in ihr Syntax und Semantik nahezu entkoppelt sein. Aber dann können in ihr auch Irrtümer und Unsinn ausgedrückt werden, denn hier sichert die grammatische Korrektheit nicht mehr die Sinnhaftigkeit. Die lose Kopplung ist der Preis, der bezahlt werden muß, um offen zu sein für (nahezu) jeden Inhalt. Es gibt auch formale Sprachen, in denen "kommuniziert" werden kann, z.B. die Programmiersprachen. Für sie sagt die syntaktische Korrektheit ebenfalls nichts über die Sinnhaftigkeit aus. Wissensdarstellung dagegen erfordert eine Sprache mit flexibler Grammatik, damit erreicht werden kann, daß ‚syntaktisch korrekt‘ zugleich auch ‚inhaltlich korrekt‘ bedeutet. Diese Sprache paßt dann zwar nur für genau diesen Inhalt, aber dieser wird von ihr vollständig erfaßt, d.h. für ihn ist die Sprache reichhaltig genug, so daß weder ein Verlust an Inhalten noch ein Bedürfnis nach Interpretation entsteht. Die folgende Tabelle faßt die Gegenüberstellung noch einmal zusammen:

 

natürliche Sprache

formale Sprache

Programmiersprache

Ziel

Kommunikation

Wissensdarstellung

Rechnersteuerung

Grammatik

wird überliefert

muß bestimmt werden

wird festgelegt

Kopplungsgrad Syntax/Inhalt

niedrig

100%

niedrig

Reichweite

nahezu alle Inhalte

genau ein Objektbereich

alles Berechenbare

Ihre zum Teil gegensätzlichen Eigenschaften sollten nicht zum Anlaß genommen werden, die beiden Sprachtypen gegeneinander auszuspielen: Beide Funktionen werden in den Wissenschaften gebraucht. Entgegen anderslautender Vorstellungen bleibt jedoch festzuhalten, daß obwohl natürliche Sprachen ein nahezu unbegrenzten Spektrum an Inhalten aufnehmen können, sie dennoch nicht alle Möglichkeiten ausschöpfen, die eine Sprache bietet.

Man hat LEIBNIZ bezüglich seiner verschiedenen Äußerungen über Sprache zu Unrecht Inkonsistenz vorgeworfen, denn der Vorwurf geht von der Annahme aus, er habe eine Sprache sowohl für die Kommunikation als auch für die Wissensdarstellung erfinden wollen. Doch LEIBNIZ hatte klar erkannt, daß beide Anforderungen nicht mit einer einzigen Sprache zu verwirklichen ist:

[DALGARNOs und WILKINS'] Sprache oder Schrift dient nur dazu, daß den durch Sprache Getrennten eine bequem herzustellende Kommunikation ermöglicht wird; doch die wahre characteristica realis, wie sie von mir angestrebt wird, müßte unter die geeignetsten Werkzeuge des menschlichen Geistes gezählt werden, indem sie nämlich ein unschlagbares Mittel in sich trägt sowohl für das Entdecken als auch für das Aufbewahren und das Beurteilen.

 

"Formales" Operieren mit Symbolen

‘Formal’ wird oft abschätzig als ‘abstrakt’, ‘mechanistisch’, ‘ohne Inhalt’ bewertet, und formale Systeme gelten als Systeme ohne jeden Bezug zur Wirklichkeit. Den meisten zeitgenössischen Autoren ist nicht bewußt, daß sie HEGEL nachreden, der folgendermaßen urteilt:

»... die Zahlen sind ein begriffsloser Stoff, die Rechenoperation ist ein äußerliches Zusammenfassen oder Trennen, ein mechanisches Verfahren, wie denn Rechenmaschinen erfunden worden sind, welche diese Operationen vollbringen; das Härteste und Grellste dagegen ist, wenn die Formbestimmungen des Schlusses, welche Begriffe sind, als ein begriffloser Stoff behandelt werden.«

HEGEL uns seine Nachfolger argumentieren tautologisch: ein mechanisches Verfahren lasse keine vernünftigen Schlüsse zu, weil mechanisch etwas Nichtvernunftgemäßes ist. Doch bei Darstellungstreue, wenn "Syntax gleich Semantik ist", kann man mit den Zeichen "formal", d.h. ohne auf ihre Bedeutung zu achten, operieren; der Inhalt bleibt dennoch stets präsent: Er ist im Zeichensystem enthalten. 'Formal' bedeutet dann nicht ‚inhaltsleer‘, sondern nur 'auf Formen beruhend'. Der Schlüssel zum eigentlichen Sinn formaler Systeme liegt also nicht im Absehen von jeglichen Gedankeninhalten, sondern im Darstellen des Inhaltes unter Beachtung der Darstellungstreue, so daß es zulässig ist zu sagen: mechanisch, aber dennoch vernünftig.

Trennung von Form und Inhalt

Kennzeichnend für eine logisch orientierte Denkweise ist die Propagierung der Trennung von Form und Inhalt:

»Erst werden die Zeichen und zulässigen Formeln des Systems, d.h. seine Syntax festgelegt, dann wird die Bedeutung der Formeln definiert.«

»Formale Systeme werden zunächst konstruiert und danach gedeutet.«

»Wissen ist relativ zu einer gegebenen Sprache definiert.«

Man nimmt also an, es sei möglich, künstliche Sprachen, mit denen etwas ausgesagt werden soll, unabhängig von jedem Inhalt zu konstruieren. Die Suche nach einem geeigneten Darstellungsmedium für einen bestimmten Objektbereich wird ersetzt durch die Suche nach einer geeigneten Interpretation für konstruierte Zeichensysteme. Das würde in Bezug auf die syntaktischen Mustererkennung bedeuten, zuerst eine Grammatik festlegen und dann nach Mustern suchen, die mit ihr beschrieben werden können. In der Künstlichen Intelligenz wird ähnlich verfahren: Wissen wird hier oft in einem festen, meist von einer bestimmten Programmiersprache unterstützten Formalismus dargestellt, in der Hoffnung, der Formalismus sei allgemein genug, um jede Art von Wissen erfassen zu können. Das Prinzip der Darstellungstreue fordert jedoch, die Form an den Inhalt anzupassen. Dazu bedarf es einer Auseinandersetzung sowohl mit dem darzustellenden Inhalt als auch mit den Sprachmitteln. Geht es um die Erfassung von quantitativen Sachverhalten, wird man zweckmäßigerweise auf mathematische Methoden zurückgreifen. Zum Erfassen von qualitativen Zusammenhängen genügt oft schon die natürliche Sprache; es gibt aber auch hier formale Repräsentationsmittel, z.B. die semantischen Netze, mit denen sich ein beliebig komplexes Geflecht von Beziehungen anschaulich darstellen läßt.

 

Verletzung der Darstellungstreue aufgrund traditioneller Formalismen

Mißachtung der Darstellungstreue ist die häufigste Ursache für Fehler und Mißverständnisse in den theoretischen Wissenschaften. Dabei werden oft unbewußt Methoden befolgt, die bei bestimmten Anwendungen notwendig eine Verletzung der Darstellungstreue nach sich ziehen. Besonders folgenreich sind einfache, vielfältig bewährte Formalismen mit langer Tradition, die sich verselbständigt haben und kulturprägend in das Alltagswissen eingegangen sind. So ist es z.B. typisch für unsere Kultur, daß immer dann, wenn es etwas zu gliedern gilt, eine hierarchische Struktur zugrundegelegt wird. Eine Hierarchie wird nicht mehr als Darstellungsschema empfunden, aber dennoch in dieser Funktion gebraucht. Andere Beispiele sind die Verwendung von ein- bzw. zweidimensionalen Darstellungsmitteln bei vieldimensionalen Inhalten, veranlaßt durch das Medium Papier, ferner die unbegründete Orientierung an Dualismen. In allen diesen Fällen lenkt der Formalismus die Gedanken, indem nur an solche Inhalte gedacht werden, die mit ihm vereinbar sind. Unbewußt werden so die Denkinhalte unter Verletzung der Darstellungstreue an den Formalismus angepaßt. Wie folgenreich diese auf den ersten Blick unscheinbaren Fälle sein können, soll an zwei Beispielen veranschaulicht werden.

Semantische Systeme

Unter gleichgestaltigen Sätzen einer natürlichen Sprache gibt es sowohl sinnvolle als auch sinnlose: ‚Hans ist Sohn eines Metzgers‘ gehört zum ersten, ‚Hans ist Sohn eines Steines‘ zum zweiten Typ. Sprachkompetenten Personen bereitet diese Inkonsistenz keine Probleme, denn sie urteilen nicht nur nach den reinen Wortbedeutungen, sondern auch nach der Zugehörigkeit der Bedeutungen zu bestimmten semantischen Teilsystemen. In Anlehnung daran wird in der Semiotik versucht, die semantische "Herkunft" eines Wortes durch sogenannte semantische Marker zu beschreiben. So muß die semantische Darstellung, um die beiden obigen Sätze voneinander abgrenzen zu können, für ‚Sohn‘ »einen Marker S(x,y) berücksichtigen, bei dem sowohl x als auch y als ‚menschlich‘ charakterisiert sind.« Es wurden inzwischen zahlreiche solcher Marker identifiziert; für die semantische Darstellung von ‚essen‘ z.B. gibt ECO die Marker

DAktion --- Ds + menschlich --- D0 + organisch, - menschlich

an. Aus Sicht der Darstellungstheorie handelt es sich hier um Wissensdarstellung: Das darzustellende Wissen ist das semantische System; das Herauspräparieren der Marker entspricht der Analyse, und ganz im Sinne der anderen Darstellungsprinzipien werden Zeichen gewählt und Zeichenketten gebildet. Das obige Beispiel läßt sich als ein ungeschickt formulierter Satz einer formalen Sprache mit unbekannter Grammatik deuten. Geht man davon aus, daß ein semantisches System aus einer Vielzahl sich durchdringender Beziehungen besteht, so müssen alle Versuche, es verbal oder halbformalsprachlich, also linearisiert darzustellen, als eine Verletzung des Treueprinzips angesehen werden. Als geeignetes Darstellungsmedium käme ein semantisches Netz infrage; es wird bei ECO als einen »für unsere Zwecke sehr erhellenden Vorschlag« erwähnt, aber nicht benutzt. Es bietet die Möglichkeit, eine nur durch technische Grenzen eingeschränkte Vielfalt von Beziehungen darzustellen. Wortfelder, semantische Achsen, aber auch die Marker selbst, erweisen sich dann als Teilstrukturen des Netzes, die je nach Aufgabe (und nur für diese) aus dem Netz herausprojiziert werden können. Damit bleibt die Einheit in der Vielheit gewahrt. Die derzeit bevorzugte linearisierte Beschreibung dagegen hat zu einer verwirrenden, immer weiter verästelnden Vielzahl von semantischen Markern geführt, auf Kosten des Zusammenhangs.

Dialektik

HEGEL operiert mit Begriffspaaren wie abstrakt/konkret, Zufall/Notwendigkeit, Sein/Nichtsein, Einheit/Vielheit usw., die nach herkömmlichem Sprachgebrauch einen Gegensatz beschreiben, sich also gegenseitig ausschließen. Dies wird von HEGEL dialektisch aufgehoben etwa in Formulierungen wie: »Das reine Sein und das reine Nichts sind also dasselbe.« »Das Zufällige hat also darum keinen Grund, weil es Zufällig ist; und ebensowohl hat es einen Grund, darum weil es zufällig ist.« »... die Notwendigkeit hat sich noch nicht aus sich selbst zur Zufälligkeit bestimmt.« oder in den dialektischen Gesetzen des Umschlagens von Quantität in Qualität, des Durchdringens der Gegensätze, der Negation der Negation usw. Gemäß der zweiwertigen Logik verbirgt sich in diesen dialektischen Begriffen ein Widerspruch; sie werden daher von Wissenschaftlern, die aus dieser Sicht heraus urteilen, als unsinnig bzw. als paradox abgelehnt. ENGELS rechtfertigt im Anschluß an HEGEL die dialektische Sichtweise damit, daß sie den dialektischen Charakter unserer Welt widerspiegelten. Er faßt die Dialektik als die Wissenschaft von den allgemeinen Bewegungs- und Entwicklungsgesetzen der Natur, der Menschengesellschaft und des Denkens auf und belegt es mit Wechselwirkungsprozessen aus diesen Gebieten.

Aus der von HEGEL geschaffenen Situation zweigen drei Wege ab; zwei davon sind Irrwege. Mit der ihr eigentümlichen Treffsicherheit hat sich die Philosophie für diese beiden entschieden. Bei dem einen ist die Dialektik zur Grundlage gemacht worden; er ist gekennzeichnet durch den verzweifelten Versuch, innerhalb des verfügbaren ideologischen Spielraums formale Logik und Dialektik in Einklang zu bringen. Der andere verwirft den dialektischen Ansatz und damit zugleich den unbestreitbaren Prozeßcharakter unserer Welt. Die Folge ist notwendig eine Abkehr von der Wirklichkeit und eine Hinwendung zu idealistischen und positivistischen Strömungen. Aus Sicht der Wissensdarstellung handelt es sich beim dialektischen Ansatz jedoch wiederum um eine Verletzung der Darstellungstreue: Es wird versucht, mit dem Rüstzeug der zweiwertigen Logik die Prozeßhaftigkeit der Vorgänge in Natur und Gesellschaft, also Zeitveränderlichkeit, zu beschreiben, wofür aber dieser Formalismus ungeeignet ist. Der dritte Weg bestünde also darin, nach einem sprachlichen Ausdruck für allgemeine Wechselwirkungsprozesse zu suchen; er wurde noch nicht realisiert: selbst in der Physik ist man bislang über die Beschreibung spezieller Wechselwirkungsprozesse nicht hinausgekommen.

[Resümee]

Literatur

COHEN, JONATHAN: On the project of a universal character. Mind 63, 1954, 49-63.

DUTZ, KLAUS: Leibniz‘ Auffassung der characteristica universalis und ihr Verhältnis zu der natürlichen Sprache. Münster: Münsteraner Arbeitskreis für Semiotik 1978, 30p.

ECO, UMBERTO: Semiotik. Entwurf einer Theorie der Zeichen. Wilhelm Fink Verlag, München 21991.

GINSBURG, S.: Mathematical theory of context free languages. McGraw-Hill Book Company. New York etc. 1966.

HEGEL, G. W.: Wissenschaft der Logik. Die Lehre vom Begriff (1816). Neu hg. v. HANS-JÜRGEN GAWOLL; mit einer Einleitung von FRIEDRICH HOGEMANN. Felix Meiner Verlag Hamburg 1994. Hinweise auf LEIBNIZ auch p. 320-322.

HEINEKAMP, ALBERT: Ars characteristica und Natürliche Sprache bei Leibniz. Tijdschrift voor Filosofie, 34, No. 3, 1972, 446-488.

ISHIGURO, HIDÉ: Leibiz’s Philosophy of Logic and Language. London. Duckworth 1972, VIII, 157 p.

JAENECKE, PETER: Elementary Principles for Representing Knowledge. Knowledge Organization 23/2, 1996, 88-102.

FINKELSTEIN, DAVID: The Leibniz Project. Jornal of philosophical Logic 6, 1977, 425-439. (F. entwickelt, anknüpfend an die characteristica universalis eine Sprache für die Quantenmechanik, wobei er von der Mengenlehre ausgeht und einige Teile der klassischen Logik durch neue ersetzt.)

FU, K.S: Syntactic Pattern Recognition and Applications. Prentice Hall, Inc., Englewood Cliffs, New Jersey 1982.

KLAUS, GEORG: Semiotik und Erkenntnistheorie. Wilhelm Fink Verlag München/Salzburg 1973.

KLUGE, EILE-HENNER W.: Frege, Leibniz et alii. In: Revue intern. de philos. A33, 1979, 1977 Nr. 130, 621-665. (Über Leibniz‘ characteristica universalis und Frege.)

KNOWLSON, JAMES: Universal language schemes in English and France 1600 – 1800. Toronto and Buffalo: University of Toronto Press 1975, 301 p.

KRÄMER, Sybille: Symbolische Maschinen. Die Idee der Formalisierung in geschichtlichem Abriß. Wissenschaftliche Buchgesellschaft Darmstadt 1988.

LAMBERT, J. H.: Neues Organon oder Gedanken über die Erforschung und Bezeichnung des Wahren II. Philosophische. Schriften, ed. H.W. ARNDT, Hildesheim 1965.

LAUBSCH, J.: Techniken der Wissensdarstellung. In: C. HABEL (Hrsg.): Künstliche Intelligenz. Repräsentation von Wissen und natürlichsprachliche Systeme. Springer-Verlag Berlin etc. 1985.

LEIBNIZ, G. W.:

A = Sämtliche Schriften und Briefe = Akademieausgabe 1923ff; zitiert nach Reihe, Band, Seite.

B = Die Leibniz-Handschrifften, ed. E. BODEMANN.

C = Opuscules et fragments inédits de Leibniz. Extraits des manuscrits ... par L. COUTURAT. Paris 1903 (Nachruck: Hildesheim 1961, 1966).

E = Schöpferische Vernunft. Schriften aus den Jahren 1668-1686. Zusammengestellt, übersetzt und erläutert von W. v. ENGELHARDT. Simons Verlag, Marburg 1951.

GM = Die mathematische Schriften, ed. GERHARDT; zitiert nach Band, Seite.

GP = Philosophische Schriften, ed. GERHARDT; zitiert nach Band, Seite.

VE = Vorausedition zu A VI.4, Philosophische Schriften, Münster 1981ff.

X = Fragmente zur Logik. Ausgewählt, übersetzt und erläutert von F. SCHMIDT. Akademie Verlag Berlin 1960.

MITTELSTRAß, JÜRGEN: Neuzeit und Aufklärung. Studien zur Entstehung der neuzeitlichen Wissenschaft und Philosophie. Berlin/New York, De Gruyter 1970, XIII 651 p. (allgemein über das Leibnizprogramm).

MITTELSTRAß, JÜRGEN: Die Einheit der Wissenschaftssprache. In: Berichte zur Wissenschaftsgeschichte 17.4, 1994, 79-86.

PATZIG, GÜNTER: Leibniz, Frege und die sogenannte "lingua characteristica universalis" 1969.

POSER, HANS: Signum, notio und idea: Elemente der Leibnizschen Zeichentheorie. Zeitschrift für Semiotik 1, 1979, 309-324.

RISSE, WILHELM: Die Characteristica universalis bei Leibniz. Studi intern. di Filosofia 1, 1969, 107-116.

SALOMAA: Formal Languages, Academic Press 1973.

SWANSON, J. W.: On the calculus ratiocinator. Inquiry 8, 4, 1965, p. 315-331. (Leibniz als Vorläufer bei den Bemühungen um eine künstliche Idealsprache.)

SWANSON, J. W.: Leibniz and the notion of an ideal language. Studia Leib. 12, 1980, 140-154.

WEIZSÄCKER, C.F. v.: Sprache als Information, in: v. WEIZSÄCKER, C.F.: Die Einheit der Natur, Carl Hanser Verlag, München 1971.

 

 

Dr. Peter Jaenecke

Email: pjaenecke@s-direktnet.de

02.05.99