Abstracts

 

Programm
Sessions
Beiträge
Abstracts

 

Abstracts zu den Beiträgen der ISKO-Tagung 1999

Name Beitrag Min Abstract Adresse e-mail
1. Ahrweiler, Dr. Petra Ein Integrationsansatz für heterogene Wissenssysteme: Netwerksimulationen in der Wissenschafts- und Technikforschung 45 Abstract:
Mit dem angekündigten Beitag wird ein Ansatz zur Integration von Wissenssystemen vorgelegt. Im Rahmen dieses Integrationsansatzes können konzeptuelle Netzwerke mit Hilfe zweier Mechanismen generiert werden. Der erste Mechanismus (starke Integration) erzeugt ein selbstorganisierendes Netzwerk, in denen Wissenssysteme, die sich in Ergänzungs- oder Differenzierungsverhältnissen zueinander befinden, als autonome Einheiten auf ihre aktuelle Umwelt - bestehend aus einem selbstkonstituierten Gegenstandsbereich und der Gesamtmenge aller beteiligten Wissenssysteme - reagieren. Bei Inkommensurabilität zweier Wissenssysteme werden im Rahmen des zweiten Mechanismus (schwache Integration) Netzwerke loser Kopplung gebildet, welche ein Switchen des Beobachters zwischen den verschiedenen Interpretationsangeboten der inkompatiblen Wissenssysteme über Boundary-Elemente und deren jeweils systemspezifische Verweisungsstrukturen ermöglichen. In der Computersimulation dieser beiden Prozesse der Netzwerkformation testet das den Integrationsansatz technisch umsetzende SiSiFOS-Programm Chancen und Grenzen von konzeptuellen Kooperationsmöglichkeiten zwischen Wissenssystemen. Das entwickelte Integrationsverfahren mit seinen Möglichkeiten zur Netzwerksimulation wird daraufhin auf empirische Fragestellungen der Wissenschafts- und Technikforschung angewandt, und zwar auf die Modellierung von anschlußproblematischer Kommunikation in sozialen Netzwerken moderner Wissens- und Technologieproduktion. In sogenannten Innovationsnetzwerken werden unter unterschiedlichen Weltsichten und Perspektiven der beteiligten Akteure Ziele und Inhalte von Forschung ausgehandelt, wobei divergierende Interessen und Kompetenzen um Deutungsprimate ringen. Im Rahmen der Analyse von Kontexten, in denen solche konzeptuellen Kontroversen ausgehandelt werden, stehen abermals konzeptuelle Kombinationsmöglichkeiten zur Diskussion: Akteure, Organisationen und Systeme werden zu medialen Vermittlungsinstanzen von Wissenssystemen. Die diskursiven Aushandlungsprozesse zwischen "Konzeptgebern" in der Wissens- und Technologieproduktion können als Abstimmungsprobleme zwischen Wissenssystemen verstanden, im Rahmen des entwickelten Integrationsansatzes beschrieben und mit den oben angedeuteten Techniken simuliert werden.
Institute for Science and Technology Studies University of Bielefeld
BOX 10 01 31
33501 Bielefeld
Phone:
0049-521-106-4660 FAX: 0049-521-106-6033
petra.ahrweiler@post.uni-bielefeld.de
3. Asmus, Dr. Stefan Session mit Prof. Stephan: »Theorie Crossover« mittels adaptativem Interface im WWW 20 Abstract:
Basierend auf den von Peter Stephan beschriebenen theoretischen Annahmen präsentieren wir ein Tool mit folgendem Leistungsspektrum:
1. Test und Validierung der von Peter Stephan dargestellten Hypothesen
2. Crossover von zwei Theorien a) Bazon Brocks »Nichtnormative Ästhetik« b) Niklas Luhmanns »Theorie Sozialer Systeme«
3. Integration von Design und Technologie in einem adaptativen Interface Die Anwendung besteht aus 170 Textknoten und Bildern, einer Visualisierung verbundener Begriffe, Einbindung von Ton und einer Vielzahl von Interaktionselementen. Die Technik basiert auf Standard-Softwareelementen und eigenständig entwickelten Algorithmen. Die Anwendung läuft auf jeder Computerplattform im Internet. Nach einem Start auf einem beliebigen Text-Bild-Knoten werden in animierter Form Titel gezeigt, die mehr oder weniger mit dem anfänglichen Begriff zusammenhängen und ihre jeweilige Relevanz durch Farbe und Entfernung anzeigen. Innerhalb der Textknoten verweisen Hyperlinks auf andere Textknoten und Quellenmaterial. Durch die Integration einer Master-Datenbank werden Autoren in Zukunft Beiträge liefern können. Dadurch wird das System komplexer, je öfter es benutzt wird.
Universität GHS Wuppertal, Germany Fachbereich 5, Kommunikationsdesign Lehrstuhl für Ästhetik und Kulturvermittlung
Ludwigstr. 49
42105 Wuppertal
+49-202-244-33-31
Fax: +49 202-244-33-33
asmus@matrixx.de
3a Behnam, Dipl. Kfm. Frank Netz-Radar: Strategische Früherkennung für globale vernetzte Märkte 30 Abstract:

Das Umfeld:

Das heute beobachtbare Internet-Engagement von Unternehmen entfaltet sich in einem Spektrum von übereilter Multimedia-Präsenz und völliger Vernachlässigung der Chancen durch den Electronic Commerce. Ausgewogenes und sich kontinuierlich entwickelndes Engagement (von der Kommunikations- über die Service- bis hin zur Transaktionspräsenz) sind selten zu finden.
Im Zusammenhang mit der auf globale Netze bezogenen Primär- und Sekundärmarktforschung darf es vor diesem Hintergrund nicht nur um "Forschung mit Netzen", sondern es muß vor allem auch um die "Forschung über Netzmärkte" gehen. Tatsächlich mangelt es nämlich den Unternehmen nicht an der Fähigkeit, geeignete Internet-Präsenzen zu entwickeln. Vielmehr fehlen die Sensoren, die Methoden und die Instrumente für eine dem Charakter globaler Netzmärkte angepaßten Marktforschung, um der Dynamik und Komplexität der neuen virtuellen Ära gerecht zu werden.

Der Ansatz:

Der "Netz-Radar" ist ein Ansatz, der den veränderten Anforderungen der Marktforschung auf globalen Netzen und Netzmärkten Rechnung trägt, indem er

  • kontinuierliche statt statische und punktuelle Marktforschung verfolgt
  • in Unternehmen die Fähigkeit zur schnellen Reaktion auf Marktveränderungen schafft, anstatt den Versuch zu unternehmen, die Zukunft vorauszusehen
  • kurzfristige Planung unterstützt, ohne langfristige Planung zu konterkarrieren.

Die Ergebnisse:

Inhalte:

  • Definition Kernkompetenzen: Die Definition der Kernkompetenzn ist für die Ausrichtung und Kalibrierung des Netz-Radar unerläßlich und erfolgt zu Beginn der Radarzyklen oder in einer vorgeschalteten internen Studie.
  • Strategische Brennpunkte: Diese Brennpunkte, zu verstehen als zukünftige, potentielle Geschäftsfelder, ergeben sich durch die Reflektierung der Kernkompetenzen vor dem Hintergrund der für das jeweilige Unternehmen relevanten globalen Netzmärkte.
  • Chancen & Risiken: Ausgehend von den strategischen Brennpunkten, welche die inhaltliche Strukturierung des Untersuchungsrasters vorgeben, wird anhand der unterstehenden Methoden, das Internet beziehungsweise die relevanten globalen Netze hinsichtlich der Chancen und Risiken untersucht. Besonderes Augenmerk liegt dabei auf technologischen Entwicklungen, die unmittelbare Auswirkungen auf Geschäftsfelder des Unternehmens haben (Bsp.: Auswirkungen des OBI-Standard (Open Buying on the Internet) auf business-to-business-Bestellsysteme)

Medien:

  • WWW-basiertes Intranet: Der Netz-Radar ist eine anfaßbare Lösung auf WWW-Basis für alle Mitarbeiter im Unternehmen. Die einfließenden Informationen stehen zur Weiterverwendung zur Verfügung und entwickeln sich zu einem wachsenden Wissenspool. Elementarer Bestandteil sind Kommunikationsmöglichkeiten per E-Mail und Volltextrecherchen / Information Retrieval auf Basis einer relationalen Datenbank.
  • Dynamische und kontinuierliche Marktforschung durch Einsatz intelligenter Agenten.
  • Verbesserte Kommunikation / verbesserters Knowledge-Management durch Push-Channels im Unternehmen.
  • Weiterhin ermöglicht die Internet-Basierung des Netz-Radar die Einbeziehung von Kunden sowohl als Informationsquelle als auch als Nutznießer der Outputs bspw. in Form individualisierter elektronischer Newsletter, welche die Ergebnisse des Netz-Radar reflektieren.

Die Methoden:

Dem Charakter eines an Marktpotentialen und Exploration orientierten Frühwarnsystems entsprechend, besitzen die eingesetzten Werkzeuge primär qualitativen Charakter. Zum Einsatz kommen - in Abhängigkeit von den Anforderungen des Unternehmens und des relevanten Marktes - folgende Methoden und Maßnahmen:

  • "Klassische" Sekundärforschung: Klassifizierung des Tätigkeitsfeldes und der Kernkompetenzen des Unternehmens bezüglich der Netzaffinität
  • Informationsbedarfsanalyse ((Kritische Erfolgsfaktorenmethode / Fragebogen- und Interviewmethode / Konferenzmethode)
  • Brainstorming-Techniken: Unternehmensinterne Auslotung der Entwicklungschancen für Produkt-/Marktkombinationen.; "Übersetzung" der Kernkompetenzen auf Chancen und Risiken der Netzmärkte.
  • Net-Scanning und -Echoing: Kontinuierliche Beobachtung des Internet im Tagesgeschäft in die für das Unternehmen relevanten Internet-Quellen und Identifizierung der relevanten Technologien / Wettbewerbsaktionen / Marktveränderungen (Chancen & Risiken) vor dem Hintergrund der identifizierten strategischen Brennpunkte (s.o.).
  • Expertengespräche: Halbstandardisierte Expertengespräche mit ausgewählten Experten (insbesondere enge Kooperation mit dem Sonderforschungsbereich der Universität Frankfurt "Vernetzung als Wettbewerbsfaktor am Beispiel der region Rhein-Main".
  • Kundenworkshops: Ergänzend zu den internen Brainstormings können je nach Kundenwunsch auch Kundenworkshops (gilt primär für business-to-business) aufgesetzt werden. Diese dienen zur Validierung der identifizierten strategischen Brennpunkte und liefern Ansätze für konkrete Maßnahmen.
  • Datenaufbereitung: Insbesondere hinsichtlich der executive reports (s.o.) erfolgt die Interpretation, Verdichtung, Extrapolation und Katalyse der eingehenden Informationen, um Vorschläge für konkrete Maßnahmen unterbreiten zu können.

 

Der Netz-Radar, verstanden als ein Komplex aus den oben geschilderten organisatorischen, methodischen und technologischen Maßnahmen, ist ein flexibles Frühwarnsystem, daß es den Unternehmen ermöglicht, die Komplexität im Electronic Commerce durch Wissensbasierung und Flexibilität zu beherrschen.
(Mehr Informationen zum Netz-Radar unter http:\\www.bup.de)

Dr. Böhmer, Uhrig & Partner
Max Planck-Strasse 20
63303 Dreieich

Fon / Fax +49-6103-5086-0 / -45

FBEHNAM@BUP.DE
4. Bonitz, Dr. Manfred / Scharnhorst, Dr. Andrea Nationale Wissenschaftssysteme und der Matthäuseffekt für Länder Abstract:
Die Herausbildung nationaler Wissenschaftsstrukturen ist das Resultat eines historisch langfristigen Prozesses, dazu gehört auch die disziplinäre Struktur, d.h. die Intensität der Forschungstätigkeit in einem Land in bestimmten (naturwissenschaftlichen) Gebieten. Es entsteht die Frage, ob und in welchem Masse diese Strukturen durch wachsende internationale Verflechtung beeinflusst werden. Kommt es im Wechselspiel zwischen Wettbewerb und Kooperation der verschiedenen Forschungsinstitutionen zu einer Annäherung der nationalen Wissenschaftsstrukturen oder verschärfen sich bestehende Unterschiede? In dem vorliegenden Papier wird dieser Frage anhand bibliometrischer Indikatoren zur Forschungstätigkeit von Ländern und ihrer Wahrnehmung in der internationalen Fachgemeinschaft nachgegangen. Nach einem spezifischen methodischen Ansatz werden Länder als Punkte in einem (abstrakten) Forschungsraum anhand ihres Publikationsprofils dargestellt. Strukturveränderungen lassen sich dann als Trajektorien in diesem Raum abbilden. Die Länderpunkte sind nicht homogen im Raum verteilt, vielmehr führen Strukturähnlichkeiten von Ländern zu einer spezifisch gegliederten Besetzungslandschaft. Für den Zeitraum 1980-1994 wird der Frage nachgegangen, ob sich kohärente Bewegungen von Ländern (i.S. von Strukturveränderungen in ähnliche Richtungen) finden lassen. In einem zweiten Teil der Arbeit wird nach dem Zusammenhang von beobachtbaren strukturellen Veränderungen nationaler Wissenschaftssysteme und dem Matthäuseffekt für Länder gefragt. Dazu gehört auch die Frage, ob kohärentes Verhalten zu einem Gewinn an Sichtbarkeit in der internationalen Fachgemeinschaft führt?
Halbkreisstrasse 17
01187 Dresden
phone: ##49 351 4010760

Wissenschaftszentrum Berlin für Sozialforschung
Reichpietschufer 50
10785 Berlin

bonitz@fz-rossendorf.de / as@medea.wz-berlin.de
4b Budin, Univ.-Doz. Mag. Dr. Gerhard Zum aktuellen Stand der Wissen(schaft)stheorie Abstract:
In diesem Beitrag soll die Interaktion zwischen Theorien von Wissen und Theorien von Wissenschaft beleuchtet werden. Während die Wissenschaftstheorie neben einer Wissenstheorie auch viele andere Elemente enthält, geht es in einer Wissenstheorie nicht nur um wissenschaftliches Wissen, sondern auch um andere Wissensarten. Beide Theorienbereiche sind seit Jahren von philosophischen und erkenntnistheoretischen Streitfragen geprägt. Zwischen Radikalem Konstruktivismus und Neo-Positivismus gibt es eine Fülle von epistemologischen Positionen. Die Gemeinsamkeiten und Unterschiede im Hinblick auf Theorien des wissenschaftlichen Wissens, der Entstehung, Veränderung, Organisation, Repräsentation, kulturelle Diversität, Anwendung und Verarbeitung dieses Wissens sollen analysiert werden. Elemente einer Wissenstheorie als wesentlicher Bestandteil der Wissenschaftstheorie werden diskutiert. Schlussfolgerungen für die aktuelle Diskussion der Informations- bzw. Wissensgesellschaft werden gezogen.
Institut für Wissenschaftstheorie und Wissenschaftsforschung
Universität Wien
1090 Wien, Sensengasse 8/10

Telefon: +43-1- 4277 47623

gerhard.budin@univie.ac.at
4a Carranza, César Einsatz von Ontologien für Informations-Mediatoren Abstract:
Aktuelle Szenarien der Informationssuche haben die methodische Beschränkung auf einzelne Informationsquellen überwunden. Informationssuche ist inzwischen vielmehr geprägt von einer Heterogenität von Datenbeständen und zugehörigen Retrievalfunktionalitäten. Um diese Strukturen für die Benutzenden transparent zu halten, müssen Informationsvermittler die Zuordnung von den Anfragen zu den für die Beantwortung am besten geeigneten Systeme sowie die Rückgabe der Systemantworten an die Benutzenden regeln.
Information Broker im klassischen Sinne beruhen auf einer Metadaten-Beschreibung der verschiedenen Datenbestände und setzen die Anfragen in die jeweils unterliegende konkrete Anfragesprache um, wobei die Möglichkeit einer parallelen Abarbeitung besteht.
Durch eine tiefer gehende Vernetzung der vorhandenen Informationsstrukuren mittels einer Ontologie, die die Interdependenzen zwischen den Inhalten der einzelnen Datenbestände erfasst und abbildet, besteht jedoch grundsätzlich die Möglichkeit zu komplexeren Anfragen. An die Stelle eines Brokers tritt dabei ein Mediator, der auf der Basis dieser Ontologie eine (sukzessive) Spezifikation der Anfrage unterstützt, die die begriffliche Beschränkung auf das inhaltliche Angebot einer einzigen Datenbank aufhebt. Wir skizzieren ein solches System als Erweiterung des Auskunftsdienstes LIS zur mathematischen Logik.
Universität Kaiserslautern
Fachbereich Informatik
Arbeitsgruppe Künstliche Intelligenz / Wissensbasierte Systeme
Postfach 3049

67653 Kaiserslautern

Tel: (0631) 2053959

carranza@informatik.uni-kl.de
5. Czap, Prof. Dr. Hans Theoriebildung mit Hilfe künstlich neuronaler Netze vom Typ MLP Abstract:
Künstlich Neuronalen Netzen KNN werden zur Prognose bzw. Klassifikation von Datensätzen verwendet, wobei die Interna, wie das Netz konditioniert wird, bzw. wie das Netz lernt, losgelöst vom Anwendungskontext rein verfahrenstechnisch gesehen werden. Dies und der Sachverhalt, daß die verwendete Modellierungsmetapher in Analogie zum menschlichen Gehirn entstand, führen dazu, daß KNN teilweise mystische Eigenschaften nachgesagt werden.
Der Beitrag konzentriert sich auf den Begriff Generalisierungsfähigkeit bzw. das damit zusammenhängende Phänomen "Rule Extraction", wobei vor allem nichtlineare Zusammenhänge thematisiert werden. Wie beim Lernen eines KNN gilt auch für die Generalisierungsfähigkeit, daß sie vor allem verfahrenstechnisch charakterisiert ist. Dadurch wird möglichen Ansätze einer inhaltlichen Diskussion die Basis entzogen. Die Abbildungseigenschaften des Multi-Layer-Perzeptrons MLP werden im Beitrag detailliert erläutert. Dies ermöglicht eine Interpretation des Phänomens Generalisierungsfähigkeit und seine Rückführung auf Eigenschaften des Anwendungskontextes. Datenabhängigkeiten, die aufgrund ihrer inhärenten Komplexität bislang nicht erklärlich sind, jedoch in hinreichender Anzahl vorliegen, um ein MLP zu trainieren, erlauben eine explizite "Rule Extraction", deren inhaltliche Begründung somit nachgereicht werden kann.
BWL - Wirtschaftsinformatik
Universität Trier
54286 Trier

Tel.:+49/651/201-2859 Uni   +49/651/201-2858 Sekr.
+49/651/9990113 priv.  Fa:+49/651/201-3959 Uni +49/651/9990115 priv.

CZ@wiinfo.Uni-Trier.de
6. Dobratz, Susanne / Schulz, Matthias Dissertationen in SGML/XML - Erprobung eines Publikationskonzeptes - (dargestellt am Beispiel der digitalen Dissertationen an der Humboldt-Universität) Abstract:
Universitätsbibliotheken müssen sich in zunehmendem Maße der Aufgabe stellen, elektronische Publikationen entgegenzunehmen, zu bearbeiten, zu archivieren und verfügbar, d.h., recherchierbar zu machen. Dies führt, vor allem im Bereich der Publikation von Dissertationen, zu sehr unterschiedlichen Ansätzen, um die teilweise oder vollständige Automatisierung eines Geschäftsprozesses zu erreichen, in welchem die Dokumente und ihre Bearbeitung nach festgelegten prozeduralen Regeln mit definierten Daten-, Informations- und Kontrollflüssen funktionieren. Ein SGML/XML-basiertes Publikationskonzept ermöglicht es, die Verfügbarkeit und Organisation wissenschaftlicher Inhalte und deren Distribution durch gezieltes Informations- und Wissensmanagement in einer anderen Qualität für die Zukunft zu sichern. Die Hauptargumente für die Nutzung eines SGML-Workflows für elektronische Dokumente sind zum einen das der Archivierung und zum anderen das, im Vergleich zur Nutzung anderer Konzepte, verbesserte Retrieval. Der Bereich der Archivierung umfaßt dabei zwei unterschiedliche Aspekte:
1. die Frage nach dem Speichermedium und 2. die Frage nach dem Format der Daten (Text, Ton , Bild, Video). Das Argument des verbesserten Retrievals und damit der zielgenaueren Informationrecherchen wird durch die partielle Vereinheitlichung der Wissensstruktur am Beispiel "Dissertation" gezeigt. Voraussetzung ist hier die Strukturierung des Textes in semantische und semisemantische Einheiten. Im Vortrag soll eine kritische Betrachtung des Konzeptes, auch unter Berücksichtigung der aktuellen Entwicklungen im Bereich XML und Tools, anhand der innnerhalb von 2 Jahren erreichten Projektergebnisse erfolgen und zur Diskussion gestellt werden.
Computing Center
Humboldt-University of Berlin
Unter den Linden 6
10099 Berlin

phone: (0)49+(0)30+2093-2475
fa: (0)49+(0)30+2093-2959

susanne.dobratz@rz.hu-berlin.de
7. Endres-Niggemeyer, Prof.Dr. phil. habil. Brigitte Eine Ontologie für die Knochenmarktransplantation Abstract:
Untersucht wird die Aufgabe, eine Ontologie für die Knochenmarktransplantation zu entwickeln. Gebraucht wird die Ontologie für ein System, das für Ärzte aus dem World Wide Web (WWW) kognitiv fundiert zusammenfaßt (Endres-Niggemeyer 1998). Es soll den Zugriff auf WWW-Wissen so beschleunigen, daß externes Wissen in Routinesituationen herangezogen werden kann. Traditionelles Information Retrieval ist dazu zu zeitaufwendig. In meinem Beitrag diskutiere ich, wie die Ontologie aussehen und entstehen soll.
Eine Ontologie unterscheidet sich von einem Thesaurus insbesondere dadurch, daß sie alle Systemakteure, darunter auch maschinelle Agenten, mit Wissen bedient. Weil die Akteure unterschiedliche Aufgaben haben und dementsprechend verschieden strukturiert sind, muß die Repräsentation des Wissens adressaten- und aufgabenspezifisch sein. So braucht ein Agent, der eine Information auf Relevanz untersucht, eine andere Darstellungsform als ein Akteur, der ein Suchformular für eine Suchmaschine ausfüllt oder eine Benutzerin, die die Definition eines Konzeptes wissen will. Insgesamt wird die Repräsentation sehr viel stärker formalisiert, als es bei Thesauri und Klassifikationssystemen üblich ist. Die Formalisierung orientiert sich an den Standards von Ontologiesystemen wie Ontolingua (Farquhar et al. 1996) und Ontosaurus (Swartout et al. 1996, Knight und Luk 1994).
Gebraucht wird zum automatischen Zusammenfassen eine Domänenontologie (domain ontology), die das Wissen des Fachgebietes zugänglich macht. Nicht nur der Formalisierungsgrad, sondern auch die Wissensdichte geht weit über das hinaus, was ein Thesaurus wie MeSH (Medical Subject Headings) anstrebt.
Die Knochenmarktransplantation ist ein kleines medizinisches Wissensgebiet, das sich schnell weiterentwickelt. Die Ontologie muß deshalb von Anfang an modular gebaut werden, damit man einzelne Teile leicht fortschreiben kann. Das Vorbild liefert Penman (Penman Project 1989).
Noch weniger als in anderen Fachgebieten ist selbstverständlich, was in einer Ontologie der Knochenmarktransplantation festzuhalten ist. Wo die methodische Literatur des Ontology Engineering (Fernandez et al. 1997, Blazquez et al. 1998, Uschold und Gruninger 1996) annimmt, daß jemand das vorhandene Wissen des Gebietes aufarbeitet und formal darstellt, sollen darum die benötigten Wissenseinheiten in einem strukturierten empirischen Verfahren ermittelt werden. Es orientiert sich an den Verfahren zur Entwicklung von Thesauri und Klassifikationssystemen (Aitchison und Gilchrist 1997, Buchanan 1989), die durch Methoden zur empirischen Modellbildung (Mayring 1990, Glaser und Strauss 1980) ergänzt werden. Damit soll die Wissensakquisition nicht nur schneller gelingen. Vielmehr ergibt sich auch die Chance, im Sinne eines benutzerzentrierten Designs die einzelnen Module der Ontologie frühzeitig zu testen.
Die hochspezialisierte Ontologie der Knochenmarktransplantation soll an WordNet (Miller 1995) angebunden werden, damit das allgemeine begriffliche Wissen des Englischen verfügbar ist. Den Zugang zu allgemeinem Wissen in der Medizin vermittelt eine Anbindung an MeSH.

Literatur
Aitchison, J.; Gilchrist, A. (1997): Thesaurus Construction and Use: A Practical Manual. 3rd edn. London: Aslib.
Blázquez, M.; Fernández, M.; García-Pinar, J.M.; Gómez-Pérez, A. (1998): Building Ontologies at the Knowledge Level using the Ontology Design Environment. KAW'98, Banff, Canada. http://delicias.dia.fi.upm.es/miembros/ASUN/kaw98.ps.zip.
Buchanan, Brian (1989): Bibliothekarische Klassifikationstheorie. München: Saur.
Endres-Niggemeyer, B. (1998): Summarizing Information. Berlin: Springer.
Farquhar, A.; Fikes, R. ; Rice, J. (1996): The Ontolingua Server: A Tool for Collaborative Ontology Construction. http://ksi.cpsc.ucalgary.ca/KAW/KAW96/farquhar/farquhar.html.
Fernández, M.; Goméz-Pérez, A.; Juristo, N. (1997): METHONTOLOGY: From Ontological Art Towards Ontological Engineering. Workshop on Ontological Engineering. AAAI 1997 Spring Symposium, Stanford, USA. http://delicias.dia.fi.upm.es/miembros/ASUN/SSS97.ps.
Glaser, B.G.; Strauss, A.L. (1980): The Discovery of Grounded Theory: Strategies for Qualitative Research. 11th edn. New York: Aldine Atherton.
Hovy, E. (1997): What would it Mean to Measure an Ontology? Internal Paper, ISI Marina del Rey.
Knight, K.; Luk, S. (1994): Building a Large Knowledge Base for Machine Translation. 773-778 in AAAI-94. 12th National Conference on Artificial Intelligence, Seattle, WA.
Lenat, D.B (1995): CYC: A Large-Scale Investment in Knowledge Infrastructure. Comm. ACM 38:11, 33-38.
Mayring, P. (1990): Einführung in die qualitative Sozialforschung. München: Psychologie-Verlags-Union.
Miller, G. (1995): WordNet: A Lexical Database for English. Comm. ACM 38:11,39-41.
Penman Project (1989): PENMAN Documentation: The Primer, the User Guide, the Reference Manual and the Nigel Manual. Technical Report. ISI Marina del Rey CA.
Swartout, B.; Patil, R.; Knight , K.; Russ, T. (1996): Toward Distributed Use of Large-Scale Ontologies. http://ksi.cpsc.ucalgary.ca/KAW/KAW96/swartout/Banff_96_final_2.html.
Uschold, M. (1996): Converting an Informal Ontology into Ontolingua: Some Eperiences. Univ. Edinburgh, Artificial Intelligence Application Institute (AIAI), AIAI-TR-192, März 1996. http://wwwis.cs.utwente.nl:8080/kbs/EcaiWorkshop/uschold-final-www.ps.
Uschold, M.; Gruninger, M. (1996): Ontologies: Principles, Methods and Applications. Knowledge Engineering Review 11:2, 93-136.

Aitchison, J.; Gilchrist, A. (1997): Thesaurus Construction and Use: A Practical Manual. 3rd edn. London: Aslib.
Blázquez, M.; Fernández, M.; García-Pinar, J.M.; Gómez-Pérez, A. (1998): Building Ontologies at the Knowledge Level using the Ontology Design Environment. KAW'98, Banff, Canada. http://delicias.dia.fi.upm.es/miembros/ASUN/kaw98.ps.zip.
Buchanan, Brian (1989): Bibliothekarische Klassifikationstheorie. München: Saur.
Endres-Niggemeyer, B. (1998): Summarizing Information. Berlin: Springer.
Farquhar, A.; Fikes, R. ; Rice, J. (1996): The Ontolingua Server: A Tool for Collaborative Ontology Construction. http://ksi.cpsc.ucalgary.ca/KAW/KAW96/farquhar/farquhar.html.
Fernández, M.; Goméz-Pérez, A.; Juristo, N. (1997): METHONTOLOGY: From Ontological Art Towards Ontological Engineering. Workshop on Ontological Engineering. AAAI 1997 Spring Symposium, Stanford, USA. http://delicias.dia.fi.upm.es/miembros/ASUN/SSS97.ps.
Glaser, B.G.; Strauss, A.L. (1980): The Discovery of Grounded Theory: Strategies for Qualitative Research. 11th edn. New York: Aldine Atherton.
Hovy, E. (1997): What would it Mean to Measure an Ontology? Internal Paper, ISI Marina del Rey.
Knight, K.; Luk, S. (1994): Building a Large Knowledge Base for Machine Translation. 773-778 in AAAI-94. 12th National Conference on Artificial Intelligence, Seattle, WA.
Lenat, D.B (1995): CYC: A Large-Scale Investment in Knowledge Infrastructure. Comm. ACM 38:11, 33-38.
Mayring, P. (1990): Einführung in die qualitative Sozialforschung. München: Psychologie-Verlags-Union.
Miller, G. (1995): WordNet: A Lexical Database for English. Comm. ACM 38:11,39-41.
Penman Project (1989): PENMAN Documentation: The Primer, the User Guide, the Reference Manual and the Nigel Manual. Technical Report. ISI Marina del Rey CA.
Swartout, B.; Patil, R.; Knight , K.; Russ, T. (1996): Toward Distributed Use of Large-Scale Ontologies. http://ksi.cpsc.ucalgary.ca/KAW/KAW96/swartout/Banff_96_final_2.html.
Uschold, M. (1996): Converting an Informal Ontology into Ontolingua: Some Eperiences. Univ. Edinburgh, Artificial Intelligence Application Institute (AIAI), AIAI-TR-192, März 1996. http://wwwis.cs.utwente.nl:8080/kbs/EcaiWorkshop/uschold-final-www.ps.
Uschold, M.; Gruninger, M. (1996): Ontologies: Principles, Methods and Applications. Knowledge Engineering Review 11:2, 93-136.

FH Hannover
Fachbereich IK
Ricklinger Stadtweg 120
30459 Hannover

Tel. +49 511 92 96 606
FAX +49 511 92 96 610

Brigitte.Endres-Niggemeyer@ik.fh-hannover.de
7a Galinski, Christian / Budin, Univ.-Doz. Mag. Dr. Gerhard Querschnittsbegriffe beim Enstehen neuer Fachgebiete 45 Abstract:
Vorbemerkungen
Das ‚Gebäude der Wissenschaften‘ wird immer komplexer. Neue Fachgebiete entstehen ‚evolutionär‘, dh. nicht unbedingt einem logischen ‚Plan‘ verpflichtet. ‚Begriffe‘ im Sinne der Terminologie waren schon immer ‚multifunktional‘: sie dienen mitnichten nur der Fachkommunikation, sondern stellen in ihrer Systemhaftigkeit das Skelett (oder die geistige Infrastruktur) des Fachwissens dar. Als sonche haben sie eine eminente Wissensordnungsfunktion. Über die sprachlichen Repräsentationen, die Benennungen, wird vor allem in Texten/Dokumenten niedergelegtes Wissen inhaltlich erschlossen. In Volltextsystemen kann man bis hin zur entsprechenden Aussage im Text zugreifen. Es gibt aber einen fundamentalen Unterschied zwischen der Terminologie und den Dokumentationssprachen – ihre grundverschiedenen Funktionen: hie Themensystem, da Begriffssystem.

Wissensentstehung
Terminologie im Sinne der Begriffe und ihrer Begriffssysteme, dargestellt durch wortsprachliche und nicht-wortsprachliche Repräsentationen, welche die Begriffsinhalte und die Begriffsysteme aus inhärenten Gründen immer nur im besten Fall sehr unvollkommen darstellen können, liefert die ‚Bausteine‘ für Aussagen, diese wiederum konstituieren Theorien. Es gibt kein Fachwissen ohne Terminologie.
Zwischen Theorienbildung und dem Entstehen von Terminologie laufen iterative Prozesse ab. Früher liefen diese Prozesse weitgehend innerhalb eines Fachgebietes ab, heute durchlaufen sie häufig mehrere – oft und zunehmend oft heterogene – Fachgebiete und wirken dann auf das Ursprungsfachgebiet (eigentlich die Ursprungstheorie) zurück.
Prinzipiell ist das Wissen auch beim ‚inneren‘ Wachstum grenzenlos. Nicht nur daß praktisch alle Fachgebiete ständig expandieren, sie differenzieren auch nach innen aus, bringen immer neue Teilfachgebiete hervor, die sich allmählich in eigenen Disziplinen etablieren. Die Kombinationsmöglichkeiten von Teildisziplinen ist nicht nur prinzipiell gegeben, sondern wird durch innere und äußere Expansion des Fachwissens zunehmend ungebundener.
Zunehmend entstehen Fachgebiete aus einer praktischen Notwendigkeit heraus – weniger aus zwingenden Gründen logischer Kontemplation. ‚Risikomanagement‘ zB entstand aus mehreren Notwendigkeiten: gesellschaftlichen (Sicherheit), wirtschaftlichen (Kostenfaktor), politischen (internationale Handelspolitik) usw.

Terminologie
Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art der ‚Kreativität‘ der Wissensentstehung ist zwar unterschiedlich von Fach zu Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander – nur in sehr unterschiedlichem Verhältnis.
Entsteht nun ein neues ‚Thema‘ aus einer praktischen Notwendigkeit heraus ‚diagonal‘ durch und über mehrere Disziplinen hinweg, so findet dies im Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft – vielleicht in der Regeln – zeigt sich dann, daß eine theoretische und methodische Untermauerung der neuen ‚Anwendung‘ erforderlich wird – die Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme – die Schwierigkeiten beim Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die Fachleute selbst, das neu entstehende Fachgebiet als solches zu ‚begreifen‘.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt, verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung sowie die Kosten für Transport und Versicherungen aller Art reduzieren und ‚kalkulierbarer‘ machen.
Mittlerweile gibt es in vielen Firmen ‚Risikomanager‘, deren Hauptaufgabe es ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen übernommen und mehr oder weniger umdefiniert – teils durch Begriffserweiterung, teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird entwickelt – so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist leichter gesellschaftlich vermittelbar und praktisch umsetzbar.
Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art der ‚Kreativität‘ der Wissensentstehung ist zwar unterschiedlich von Fach zu Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander – nur in sehr unterschiedlichem Verhältnis.
Entsteht nun ein neues ‚Thema‘ aus einer praktischen Notwendigkeit heraus ‚diagonal‘ durch und über mehrere Disziplinen hinweg, so findet dies im Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft – vielleicht in der Regeln – zeigt sich dann, daß eine theoretische und methodische Untermauerung der neuen ‚Anwendung‘ erforderlich wird – die Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme – die Schwierigkeiten beim Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die Fachleute selbst, das neu entstehende Fachgebiet als solches zu ‚begreifen‘.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt, verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung sowie die Kosten für Transport und Versicherungen aller Art reduzieren und ‚kalkulierbarer‘ machen.
Mittlerweile gibt es in vielen Firmen ‚Risikomanager‘, deren Hauptaufgabe es ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen übernommen und mehr oder weniger umdefiniert – teils durch Begriffserweiterung, teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird entwickelt – so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art der ‚Kreativität‘ der Wissensentstehung ist zwar unterschiedlich von Fach zu Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander – nur in sehr unterschiedlichem Verhältnis.
Entsteht nun ein neues ‚Thema‘ aus einer praktischen Notwendigkeit heraus ‚diagonal‘ durch und über mehrere Disziplinen hinweg, so findet dies im Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft – vielleicht in der Regeln – zeigt sich dann, daß eine theoretische und methodische Untermauerung der neuen ‚Anwendung‘ erforderlich wird – die Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme – die Schwierigkeiten beim Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die Fachleute selbst, das neu entstehende Fachgebiet als solches zu ‚begreifen‘.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt, verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung sowie die Kosten für Transport und Versicherungen aller Art reduzieren und ‚kalkulierbarer‘ machen.
Mittlerweile gibt es in vielen Firmen ‚Risikomanager‘, deren Hauptaufgabe es ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen übernommen und mehr oder weniger umdefiniert – teils durch Begriffserweiterung, teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird entwickelt – so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art der ‚Kreativität‘ der Wissensentstehung ist zwar unterschiedlich von Fach zu Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander – nur in sehr unterschiedlichem Verhältnis.
Entsteht nun ein neues ‚Thema‘ aus einer praktischen Notwendigkeit heraus ‚diagonal‘ durch und über mehrere Disziplinen hinweg, so findet dies im Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft – vielleicht in der Regeln – zeigt sich dann, daß eine theoretische und methodische Untermauerung der neuen ‚Anwendung‘ erforderlich wird – die Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme – die Schwierigkeiten beim Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die Fachleute selbst, das neu entstehende Fachgebiet als solches zu ‚begreifen‘.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt, verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung sowie die Kosten für Transport und Versicherungen aller Art reduzieren und ‚kalkulierbarer‘ machen.
Mittlerweile gibt es in vielen Firmen ‚Risikomanager‘, deren Hauptaufgabe es ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen übernommen und mehr oder weniger umdefiniert – teils durch Begriffserweiterung, teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird entwickelt – so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art der ‚Kreativität‘ der Wissensentstehung ist zwar unterschiedlich von Fach zu Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander – nur in sehr unterschiedlichem Verhältnis.
Entsteht nun ein neues ‚Thema‘ aus einer praktischen Notwendigkeit heraus ‚diagonal‘ durch und über mehrere Disziplinen hinweg, so findet dies im Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft – vielleicht in der Regeln – zeigt sich dann, daß eine theoretische und methodische Untermauerung der neuen ‚Anwendung‘ erforderlich wird – die Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme – die Schwierigkeiten beim Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die Fachleute selbst, das neu entstehende Fachgebiet als solches zu ‚begreifen‘.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt, verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung sowie die Kosten für Transport und Versicherungen aller Art reduzieren und ‚kalkulierbarer‘ machen.
Mittlerweile gibt es in vielen Firmen ‚Risikomanager‘, deren Hauptaufgabe es ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen übernommen und mehr oder weniger umdefiniert – teils durch Begriffserweiterung, teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird entwickelt – so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art der ‚Kreativität‘ der Wissensentstehung ist zwar unterschiedlich von Fach zu Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander – nur in sehr unterschiedlichem Verhältnis.
Entsteht nun ein neues ‚Thema‘ aus einer praktischen Notwendigkeit heraus ‚diagonal‘ durch und über mehrere Disziplinen hinweg, so findet dies im Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft – vielleicht in der Regeln – zeigt sich dann, daß eine theoretische und methodische Untermauerung der neuen ‚Anwendung‘ erforderlich wird – die Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme – die Schwierigkeiten beim Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die Fachleute selbst, das neu entstehende Fachgebiet als solches zu ‚begreifen‘.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt, verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung sowie die Kosten für Transport und Versicherungen aller Art reduzieren und ‚kalkulierbarer‘ machen.
Mittlerweile gibt es in vielen Firmen ‚Risikomanager‘, deren Hauptaufgabe es ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen übernommen und mehr oder weniger umdefiniert – teils durch Begriffserweiterung, teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird entwickelt – so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art der ‚Kreativität‘ der Wissensentstehung ist zwar unterschiedlich von Fach zu Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander – nur in sehr unterschiedlichem Verhältnis.
Entsteht nun ein neues ‚Thema‘ aus einer praktischen Notwendigkeit heraus ‚diagonal‘ durch und über mehrere Disziplinen hinweg, so findet dies im Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft – vielleicht in der Regeln – zeigt sich dann, daß eine theoretische und methodische Untermauerung der neuen ‚Anwendung‘ erforderlich wird – die Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme – die Schwierigkeiten beim Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die Fachleute selbst, das neu entstehende Fachgebiet als solches zu ‚begreifen‘.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt, verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung sowie die Kosten für Transport und Versicherungen aller Art reduzieren und ‚kalkulierbarer‘ machen.
Mittlerweile gibt es in vielen Firmen ‚Risikomanager‘, deren Hauptaufgabe es ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen übernommen und mehr oder weniger umdefiniert – teils durch Begriffserweiterung, teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird entwickelt – so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art der ‚Kreativität‘ der Wissensentstehung ist zwar unterschiedlich von Fach zu Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander – nur in sehr unterschiedlichem Verhältnis.
Entsteht nun ein neues ‚Thema‘ aus einer praktischen Notwendigkeit heraus ‚diagonal‘ durch und über mehrere Disziplinen hinweg, so findet dies im Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft – vielleicht in der Regeln – zeigt sich dann, daß eine theoretische und methodische Untermauerung der neuen ‚Anwendung‘ erforderlich wird – die Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme – die Schwierigkeiten beim Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die Fachleute selbst, das neu entstehende Fachgebiet als solches zu ‚begreifen‘.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt, verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung sowie die Kosten für Transport und Versicherungen aller Art reduzieren und ‚kalkulierbarer‘ machen.
Mittlerweile gibt es in vielen Firmen ‚Risikomanager‘, deren Hauptaufgabe es ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen übernommen und mehr oder weniger umdefiniert – teils durch Begriffserweiterung, teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird entwickelt – so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art der ‚Kreativität‘ der Wissensentstehung ist zwar unterschiedlich von Fach zu Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander – nur in sehr unterschiedlichem Verhältnis.
Entsteht nun ein neues ‚Thema‘ aus einer praktischen Notwendigkeit heraus ‚diagonal‘ durch und über mehrere Disziplinen hinweg, so findet dies im Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft – vielleicht in der Regeln – zeigt sich dann, daß eine theoretische und methodische Untermauerung der neuen ‚Anwendung‘ erforderlich wird – die Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme – die Schwierigkeiten beim Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die Fachleute selbst, das neu entstehende Fachgebiet als solches zu ‚begreifen‘.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt, verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung sowie die Kosten für Transport und Versicherungen aller Art reduzieren und ‚kalkulierbarer‘ machen.
Mittlerweile gibt es in vielen Firmen ‚Risikomanager‘, deren Hauptaufgabe es ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen übernommen und mehr oder weniger umdefiniert – teils durch Begriffserweiterung, teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird entwickelt – so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art der ‚Kreativität‘ der Wissensentstehung ist zwar unterschiedlich von Fach zu Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander – nur in sehr unterschiedlichem Verhältnis.
Entsteht nun ein neues ‚Thema‘ aus einer praktischen Notwendigkeit heraus ‚diagonal‘ durch und über mehrere Disziplinen hinweg, so findet dies im Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft – vielleicht in der Regeln – zeigt sich dann, daß eine theoretische und methodische Untermauerung der neuen ‚Anwendung‘ erforderlich wird – die Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme – die Schwierigkeiten beim Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die Fachleute selbst, das neu entstehende Fachgebiet als solches zu ‚begreifen‘.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt, verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung sowie die Kosten für Transport und Versicherungen aller Art reduzieren und ‚kalkulierbarer‘ machen.
Mittlerweile gibt es in vielen Firmen ‚Risikomanager‘, deren Hauptaufgabe es ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen übernommen und mehr oder weniger umdefiniert – teils durch Begriffserweiterung, teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird entwickelt – so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art der ‚Kreativität‘ der Wissensentstehung ist zwar unterschiedlich von Fach zu Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander – nur in sehr unterschiedlichem Verhältnis.
Entsteht nun ein neues ‚Thema‘ aus einer praktischen Notwendigkeit heraus ‚diagonal‘ durch und über mehrere Disziplinen hinweg, so findet dies im Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft – vielleicht in der Regeln – zeigt sich dann, daß eine theoretische und methodische Untermauerung der neuen ‚Anwendung‘ erforderlich wird – die Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme – die Schwierigkeiten beim Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die Fachleute selbst, das neu entstehende Fachgebiet als solches zu ‚begreifen‘.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt, verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung sowie die Kosten für Transport und Versicherungen aller Art reduzieren und ‚kalkulierbarer‘ machen.
Mittlerweile gibt es in vielen Firmen ‚Risikomanager‘, deren Hauptaufgabe es ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen übernommen und mehr oder weniger umdefiniert – teils durch Begriffserweiterung, teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird entwickelt – so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art der ‚Kreativität‘ der Wissensentstehung ist zwar unterschiedlich von Fach zu Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander – nur in sehr unterschiedlichem Verhältnis.
Entsteht nun ein neues ‚Thema‘ aus einer praktischen Notwendigkeit heraus ‚diagonal‘ durch und über mehrere Disziplinen hinweg, so findet dies im Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft – vielleicht in der Regeln – zeigt sich dann, daß eine theoretische und methodische Untermauerung der neuen ‚Anwendung‘ erforderlich wird – die Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme – die Schwierigkeiten beim Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die Fachleute selbst, das neu entstehende Fachgebiet als solches zu ‚begreifen‘.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt, verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung sowie die Kosten für Transport und Versicherungen aller Art reduzieren und ‚kalkulierbarer‘ machen.
Mittlerweile gibt es in vielen Firmen ‚Risikomanager‘, deren Hauptaufgabe es ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen übernommen und mehr oder weniger umdefiniert – teils durch Begriffserweiterung, teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird entwickelt – so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art der ‚Kreativität‘ der Wissensentstehung ist zwar unterschiedlich von Fach zu Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander – nur in sehr unterschiedlichem Verhältnis.
Entsteht nun ein neues ‚Thema‘ aus einer praktischen Notwendigkeit heraus ‚diagonal‘ durch und über mehrere Disziplinen hinweg, so findet dies im Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft – vielleicht in der Regeln – zeigt sich dann, daß eine theoretische und methodische Untermauerung der neuen ‚Anwendung‘ erforderlich wird – die Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme – die Schwierigkeiten beim Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die Fachleute selbst, das neu entstehende Fachgebiet als solches zu ‚begreifen‘.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt, verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung sowie die Kosten für Transport und Versicherungen aller Art reduzieren und ‚kalkulierbarer‘ machen.
Mittlerweile gibt es in vielen Firmen ‚Risikomanager‘, deren Hauptaufgabe es ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen übernommen und mehr oder weniger umdefiniert – teils durch Begriffserweiterung, teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird entwickelt – so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art der ‚Kreativität‘ der Wissensentstehung ist zwar unterschiedlich von Fach zu Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander – nur in sehr unterschiedlichem Verhältnis.
Entsteht nun ein neues ‚Thema‘ aus einer praktischen Notwendigkeit heraus ‚diagonal‘ durch und über mehrere Disziplinen hinweg, so findet dies im Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft – vielleicht in der Regeln – zeigt sich dann, daß eine theoretische und methodische Untermauerung der neuen ‚Anwendung‘ erforderlich wird – die Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme – die Schwierigkeiten beim Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die Fachleute selbst, das neu entstehende Fachgebiet als solches zu ‚begreifen‘.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt, verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung sowie die Kosten für Transport und Versicherungen aller Art reduzieren und ‚kalkulierbarer‘ machen.
Mittlerweile gibt es in vielen Firmen ‚Risikomanager‘, deren Hauptaufgabe es ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen übernommen und mehr oder weniger umdefiniert – teils durch Begriffserweiterung, teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird entwickelt – so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art der ‚Kreativität‘ der Wissensentstehung ist zwar unterschiedlich von Fach zu Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander – nur in sehr unterschiedlichem Verhältnis.
Entsteht nun ein neues ‚Thema‘ aus einer praktischen Notwendigkeit heraus ‚diagonal‘ durch und über mehrere Disziplinen hinweg, so findet dies im Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft – vielleicht in der Regeln – zeigt sich dann, daß eine theoretische und methodische Untermauerung der neuen ‚Anwendung‘ erforderlich wird – die Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme – die Schwierigkeiten beim Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die Fachleute selbst, das neu entstehende Fachgebiet als solches zu ‚begreifen‘.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt, verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung sowie die Kosten für Transport und Versicherungen aller Art reduzieren und ‚kalkulierbarer‘ machen.
Mittlerweile gibt es in vielen Firmen ‚Risikomanager‘, deren Hauptaufgabe es ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen übernommen und mehr oder weniger umdefiniert – teils durch Begriffserweiterung, teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird entwickelt – so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist leichter gesellschaftlich vermittelbar und praktisch umsetzbar. Begriffe sind stark theoriegebunden, das trifft auf naturwissenschaftliche Disziplinen genauso zu wie auf geistes- und sozialwissenschaftliche Disziplinen. Die Art der ‚Kreativität‘ der Wissensentstehung ist zwar unterschiedlich von Fach zu Fach, doch haben alle Fachgebiete Bereiche relativer Unschärfe der Begriffe untereinander und Bereiche relativer scharfer Abgrenzung der Begriffe voneinander – nur in sehr unterschiedlichem Verhältnis.
Entsteht nun ein neues ‚Thema‘ aus einer praktischen Notwendigkeit heraus ‚diagonal‘ durch und über mehrere Disziplinen hinweg, so findet dies im Vergleich zu herkömmlicher Interdisziplinarität und Transdisziplinarität häufig in Konstellationen bisher ungeahnter Komplexität (aus der Sicht der Kombinationsfähigkeit von Disziplinen untereinander) statt. Die Begriffsbildung findet hier aus einem Nebel heraus statt, bei dem es vorerst nicht erkennbar ist, ob ein neues Themensystem (mehr oder weniger facettierte Thesaurus oder Klassifikation) oder ein neues Begriffssystem entstehen wird. Aus Zwängen der Praxis werden häufig Begriffsklärungen herbeiharmonisiert. Oft – vielleicht in der Regeln – zeigt sich dann, daß eine theoretische und methodische Untermauerung der neuen ‚Anwendung‘ erforderlich wird – die Geburtsstunde einer neuen Fachdisziplin.
Dabei entstehen natürlich auch neue Begriffssysteme – die Schwierigkeiten beim Versuch, eindeutige Benennungen zu wählen, kann man sich leicht vorstellen. Je transparenter dieser Prozeß abläuft und dokumentiert wird, desto leichter tun sich die Fachleute selbst, das neu entstehende Fachgebiet als solches zu ‚begreifen‘.
Risikobewertung und Risikomanagement ist ein Beispiel für einen solchen Prozeß der Theorienbildung und den entsprechenden Begriffsbildungsprozeß. Ausgehend von den Gefahren toxischer und anderer potentiell schädlicher Substanzen, die transportiert, entsorgt, verzollt, weiterverarbeitet usw. werden müssen, stießen Wirtschaft und Politik auf das hier schlummernde Gefahrenpotential, das es zu minimieren galt. Im Zuge dieser Minimierung lassen sich der Einsatz öffentlicher Gelder für Schadensvermeidung und Schadensbehebung sowie die Kosten für Transport und Versicherungen aller Art reduzieren und ‚kalkulierbarer‘ machen.
Mittlerweile gibt es in vielen Firmen ‚Risikomanager‘, deren Hauptaufgabe es ist, potentielle Überraschungskosten aufgrund latenter Gefahrenherde unter Kontrolle zu halten. Statistische Berechnungsverfahren werden entwickelt, gesetzliche Bestimmungen eingeführt. Die Terminologie wird weitgehend aus dem Gemisch von Ausgangsdisziplinen übernommen und mehr oder weniger umdefiniert – teils durch Begriffserweiterung, teils durch Begriffsverengung, teils auch durch völlige Umdeutung. Lehrmaterial wird entwickelt – so schreitet die Theorienbildung fort.
Die Transparenz der hier vonstattengehenden Prozesse kann am besten über terminologische Methoden und entsprechende Hilfsmittel gewährleistet werden. Erst durch terminologische Methoden wird den involvierten Fachleuten klar, daß hier substantiell Neues entsteht, das nur bedingt übereinstimmt mit herkömmlichem Wissen. Der Wissensentstehungsprozeß wird beschleunigt bei gleichzeitiger ständig nach vollziehbarer Transparenz. Das Resultat ist leichter gesellschaftlich vermittelbar und praktisch umsetzbar.

INFOTERM
International Information Centre for Terminology
Simmeringer Hauptstraße 24
A-1110 Vienna - Austria
Tel: +43 1 74040 441
Fax: +43 1 74040 740
christian.galinski@teleweb.at
8. Glauser, Prof. Dr. Christoph "Tyson beisst Holyfield – und Minuten später wissen es alle". Informationsflussanalyse von Teletexten Abstract:
Was haben Tod, Unfall, Paparazzi, Trauer und Elton John gemeinsam ?
Alle diese Wörter wurden im Zusammenhang mit dem Tod von Prinzessin Diana zentral aufgegriffen.
Im Zeitalter der "Informationsgesellschaft" ist eine Kontextanalyse, bei der die in den verschiedenen Medien genannten Themen analysiert werden, von grossem Interesse. Nur auf diesem Wege kann die Informationsflut besser unter Kontrolle gebracht und somit das Hauptaugenmerk auf das Wesentliche gelegt werden.
Anhand einer computergestützten Inhaltsanalyse des Informationsflusses von drei Teletext-Sendern wird aufgezeigt, dass die Entwicklung der elektronischen Datenverarbeitung in grossen Schritten weitergekommen ist
Bei dieser Studie wurden während 104 Tagen (Zeitraum Juni-September 1997) rund 362000 Teletext-Seiten bestimmter Bereiche der Sender SF1, ARD/ZDF und 3SAT kontinuierlich elektronisch erfasst, gespeichert und zeitgleich auswertetet.
Themenschwerpunkte sind Politik, Wirtschaft und Finanzen sowie Sport.
Anhand verschiedener Beispiele werden die markanten Differenzen zwischen den drei Sendern in bezug auf Seitenbereiche, Themenbereiche, Sprachlichkeit und Inhalt besprochen.
Themen wie z.B. der Tod von Prinzessin Diana, die EU-Währungsunion, die Nato-Ost-Erweiterung, der Versace-Mord, der Boxmatch zwischen Mike Tyson und Evander Holyfield ("Ohrbiss") werden näher unter die Lupe genommen.
Anschliessend werden die Vorzüge der qualitativen und quantitativen computergestützten Inhaltsanalyse erläutert. Diese wird durch die Datenerfassung und – verarbeitung mittels geeigneter Software ermöglicht. Die neue IT-Technologien haben auch vor der wissenschaftlichen Inhaltsanalyse nicht halt gemacht.
CEO Media Monitoring Switzerland AG
Mülinenstrasse 3
CH-3006 Bern
Tel. ++41 (0)79 652 25 09
Fax: ++41 (0)31 356 44 04
glauser@mmsag.ch
9. Goppold, Andreas Balanced - (Phi-) Trees:
The Hierarchy and Histio-logy of Noo-logy
Abstract:
With a little paraphrase borrowed from Kant, we can express a core tenet of Knowledge-Organization thusly: Facts without interconnections are useless, interconnections without facts are hocuspocus (hoc est corpus). While the theology dominated scholastic intellectual pursuits of the olden times (ancilla theologieae) caused problems of the latter kind, the copious "publish or perish" productivity of millions of industrious scientific workers worldwide tends to produce a problem of the former kind. Thus the necessity for a meta-science, which in earlier times had been philosophy (meta-physics), arises, which we could call "Noo-logy". (Related to Knowledge-Organization - how exactly, remains to be clarified. Also related to Kant's "architectonics of pure reason"). Besides interconnection the other essential ingredient of Noo-logy is Hierarchy and Categorization (Satija). In order to create a consistent terminology (Peirce: ethics of t.), we will recur as much as possible to the Greek terms: hiero-archae takes its roots in the highest (hieros) principles (archai) and histo-logia is the systematics of interconnection (histo- : everything connected with (inter-) weaving). Hierarchia and Histo-logia need to be balanced in a consistent manner, and for this we make an allusion to the database engineering term (balanced B-tree). This indicates also that time is the most essential (and most consistently forgotten) factor. A fact not found in time (for a problem to be solved), might as well not exist in the universe of knowledge. The letter F (Phi) abbreviates the combination of philo-sophia (also noos, and nous), the sensory impressions: phainomenon, phos, phonae, and the physei-logia for the Nature, which comprises both the living (phyein), and the material (physics). Though the phainomenon, and its dominant elements phos, and phonae, we gain knowledge (nous) of the world (physis).
Postf. 2060
D-89010 Ulm

Tel. ++49 +731 501-8757
Fa: +731 501-999

goppold@faw.uni-ulm.de
10. Goppold, Andreas Hypertext as a practical method for balancing the Hierarchy and Histio-logy of Knowledge Abstract:
We take our theoretical concepts from the companion paper: "Balanced F -Trees". The practical requirements for Knowledge-Organization (KO) can be served by the available technology of hypertext. If implemented correctly, hypertext allows us to optimally balance the complementary principles of hierarchy and histo-logy (only remotely related to the medical term) for KO. The presently available implementations like HTML (-editors / browsers) still fall a little short of the requirements for professional KO applications which is due to the heavy commercial drive behind the industry, that is obviously more bent on serving naive customers aimlessly browsing through commercial offerings and inducing them to buy things. KO necessitates a kind of hypertext-navigation that surely was not on the mind of the inventors of the misnamed product of the company Netscape. The paper will specifiy some of the requirements for efficient hypertext-navigation and will give some implementation examples. Time is the most essential (and most consistently forgotten) factor of hypertext-navigation. The currently popular WIMP (Windows, Icon, Mouse, Pointing) interfaces are aimed at the naive user / browser customer base who are induced to buy a new computer with every new release of Windows-XYZ, because on the old machine, it runs so slowly that the system seems to have stalled. Since KO department budgets are often not as richly fund-endowed as glitzy KI research laboratories, a solution that runs well on 386 machines, is advantageous. Professional hypertext-navigation means that an entirely different user interface model needs to be constructed for the non-browsing, high-power, expert knowledge workers, whose most precious resource is their lifetime.
Postf. 2060,
D-89010 Ulm, Germany

Tel. ++49 +731 501-8757
Fa: +731 501-999

goppold@faw.uni-ulm.de
11. Groessler, Andreas / Reuther, Andreas Notwendigkeit einer gemeinsamen Wissensbasis: eine Fallstudie mit Hilfe von System-Archetypen 30 Abstract:
Mit der Zunahme der Komplexität des unternehmerischen Umfelds und der internen Strukturen von Unternehmen wächst die Bedeutung, die die betriebswirtschaftliche Forschung und die unternehmerische Praxis den Themen "Wissensorganisation" und "Organisationales Lernen" beimessen. Vor diesem Hintergrund scheint es angebracht, Möglichkeiten zur Unterstützung Organisationalen Lernens für die Unternehmensführung zu untersuchen und darzustellen. Im Rahmen des vorliegenden Artikels sollen daher die Ergebnisse einer Untersuchung vorgestellt werden, welche die Autoren in der Kundendienstabteilung eines Software-Konzerns durchgeführt haben. Den theoretischen Rahmen bildet dabei die Arbeit Hubers, der "Knowledge Aquisition", "Information Distribution", "Information Interpretation" und "Organizational Memory" als die vier konstituierenden Elemente Organisationalen Lernens beschreibt. Das Konstrukt einer organisatorischen Wissensbasis ("Organizational Memory") erscheint dabei von besonderer Bedeutung, denn um die Ergebnisse individueller Lernprozesse der gesamten Organisation zugänglich zu machen und damit eine Organisation das in ihr vorhandene Wissen nicht permanent neu erlernen muß, bedarf es einer Struktur, die dieses Wissen konserviert und den Individuen zur Verfügung stellt. Walsh und Ungson beschreiben in ihrem Modell der "Storage Bins" den Aufbaus eines Organisationalen Gedächtnisses im Detail und identifizieren sechs Komponenten eines "Organizational Memory". Diese Komponenten manifestieren sich unter anderem in den Konstrukten "Individuen", "Unternehmenskultur" und "Strukturen". Dabei stellen insbesondere die "Individuen", also die Mitarbeiter eines Unternehmens, einen bedeutsamen Faktor hinsichtlich der Etablierung eines Organisationalen Gedächtnisses dar. Einerseits sind sie durch ihr (Fach-) Wissen und die von ihnen verinnerlichten Werte ein Teil der organisatorischen Wissensbasis, andererseits extrahieren sie aber auch Information aus dieser Wissensbasis und treffen auf dieser Grundlage wiederum Entscheidungen. Der Kundendienst des in der Untersuchung betrachteten Unternehmens unterstützt die Kunden beim Betrieb und der Wartung der eingesetzten Software und läßt sich durch einen mehrstufigen Filterprozeß beschreiben. Außerdem ist der Kundendienst nach der Prämisse einer "Rund-um-die-Uhr"-Erreichbarkeit strukturiert, indem jeweils aktuelle Probleme mit den Zeitzonen an nachgelagerte Supportstufen weitergegeben werden. Kontinuierliches Lernen und die Weitergabe individuellen Wissens müssen daher als natürlicher Bestandteil der alltäglichen Aufgabenerfüllung integriert werden. Da Tätigkeiten, die langfristige Lernprozesse fördern, kurzfristig meist zusätzliche Belastungen und Opportunitätskosten hervorrufen, muß der langfristige Aspekt einer gemeinsamen Wissensbasis transparent gemacht und honoriert werden. Damit einher geht die Forderung nach der Vorgabe klarer Ziele und Messung der Ergebnisse individuellen und kollektiven Lernens. Anhand dreier sogenannter System-Archetypen von Senge wurden komplexe Problemstellungen durch den Einsatz von Feedback-Loops und graphischer Modelle visualisiert. Insbesondere die explizite Berücksichtigung der Zeit durch die Analyse kurz-, mittel- und langfristiger Konsequenzen unternehmerischer Handlungen kann dabei die Grundlage von Maßnahmen zur Lösung von Problemen bilden. Den beteiligen Mitarbeitern und Führungskräften wurde die Möglichkeit gegeben, ihre unterschiedlichen mentalen Modelle und Kausalannahmen explizit zu machen. Die vorgestellten System-Archetypen unterstützten diesen Prozeß und verdeutlichten die Auswirkungen der verschiedenen Lösungsansätze auf die verschieden Aggregationsebenen des Unternehmens.
Industrieseminar
Mannheim University
68131 Mannheim

Tel.: +49 (0)621 2923140
Fax: +49 (0)621 2925259

Andreas REUTHER
Birkenweg 2
68535 Neckarhausen

privat: 06203/12706
dienst.: 06227/46062

agroe@is.bwl.uni-mannheim.de  Andreas.Reuther@sap-ag.de
11a Habel, Prof. Dr. Christopher Plenarvortrag: Kognitive Ontologie räumlicher Konzepte 90 Abstract:
1. Konzepte, die kognitiven Entitäten, die unser, menschliches Wissen über Kategorien und Instanzen von Kategorien darstellen, sind - aus Sicht der Kognitionswissenschaft - die Bausteine unseres Denkens und stellen somit zentral für alle Disziplinen, die sich mit dem menschlichen Denken und menschlicher Informationswissenschaft befassen.
Die Bausteine des Denkens beziehen sich nicht nur auf Kategorien physikalischer Objekte, sondern auch auf andere ontologische Typen, wie Eigenschaften von und Relationen zwischen physikalischen Objekten, auf Systeme abstakter Entitäten, sowie auf Raum und Zeit.

2. Im Zentrum des Vortrags steht die Domäne räumlicher Entitäten. Am Beispiel dieser für die menschliche Kognition fundamentalen Domäne sollen generelle Fragestellungen einer Kognitiven Ontologie als Grundlage von Konzeptsystemen diskutiert werden. Dies betrifft einerseits methodische Perspektiven (A), und andererseits die Verwendung von Basisinventaren räumlicher Begriffe in Systemen der Wissensrepräsentation (B):

A. Da konzeptuelle Relationen über inferentielle Beziehungen darstellbar sind, können konzeptuelle Systeme als Wissenssysteme aufgefasst werden, in denen Bedeutungsrelationen zwischen den Konzepten durch inferentielle Beziehungen realisiert werden. Derartige Systeme von Konzepten und konzeptuellen Beziehungen sind als axiomatische Systeme auffassbar. Axiomatische Charakterisierungen stellen dann die Möglichkeit bereit, Konzeptsysteme in einer systematischen Weise zu untersuchen. Dies betrifft u.a. die folgenden Aspekte:

  • Die Annahme von atomaren Konzepten (in einem formalen Sinne) auf deren Grundlage weitere, komplexere Konzepte definierbar sind, korrespondiert zur kognitionspsychologischen Idee von basalen Konzepten, die die Grundbausteine für komplexe Konzeptualisierungen bilden.
  • Das Bedeutungspotential eine Konzeptsystems ist über die aus einem axiomatischen System ableitbaren Sätze charakterisierbar. Auf dieser Grundlage können alternative Möglichkeiten, Systeme konzeptueller Beziehung zu realisieren, durch unterschiedliche axiomatische Charakterisierungen beschrieben und in ihren Zusammenhängen untersucht werden.

(B) Forschungen zu Konzeptsystemen sind jedoch auch für die Künstliche Intelligenz, insbesondere den Bereich der Wissensrepräsentation, grundlegend. Zum einen benötigen wissensbasierte Systeme entsprechende Wissensstrukturen, um erfolgreich Probleme lösen zu können, zum anderen hängt der erfolgreiche Einsatz von wissensbasierten Systemen, und dies betrifft insbesondere auch ihre Akzeptanz, davon ab, inwieweit es gelingt, die Konzeptsysteme der Benutzer und die im System realisierten zueinander kompatibel zu machen.

Arbeitsbereich WSV
Fachbereich Informatik
Universität Hamburg
Vogt-Kölln-Straße 30
22527 Hamburg

Tel: +49- (0)40/428 83-2417
+49- (0)40/42883-2416(Sek.)
Fax: +49- (0)40/428 83-2385

habel@informatik.uni-hamburg.de
11b Heimhold, Annegret Kulturen in räumlicher und zeitlicher Sichtweise (mit Führung)

Vortragsort:
Museum für Völkerkunde
Rothenbaumchaussee 64 20148 Hamburg

Museum für Völkerkunde
Bibliothek
Rothenbaumchaussee 64 20148 Hamburg

040/428 48-2691

12. Hellweg, Heiko Der GESIS Socio-Guide: Ein kooperatives Link-Verwaltungssystem Abstract:
The aim of the Socio-Guide project is the creation of a database based web environment that provides visitors with searchable as well as browsable access to WWW resources, relevant for social science research and that allows for distributed management, maintenance and development of the data, providing simple workflow and communication facilities for the maintainers, all within a simple web based interface.
IZ Sozialwissenschaften
Lennestr. 30
53113 Bonn
hh@bonn.iz-soz.de
12a Jaenecke, Dr. Peter Ist ‚Wissen‘ ein definierbarer Begriff?

Abstract:
‚Wissen‘ ist gegenwärtig ein häufig und in vielen Bedeutungsvarianten gebrauchter Begriff. Aber auf die Frage: ‚Was ist eigentlich Wissen?‘ scheint es bislang noch keine befriedigende Antwort zu geben. Es ist daher wiederholt der Ruf nach einer wissenschaftlich verwertbaren, allgemein anerkannten Definition laut geworden. Dabei geht man stillschweigend von der Vermutung aus, es gäbe solch eine Definition. Gestützt wird diese Vermutung durch die unbestreitbare Tatsache, daß man mit dem Wort ‚Wissen‘, trotz seiner schillernden Bedeutung, sinnvoll erscheinende Sätze bilden kann. Doch der Begriff ‚Bewegung‘ kommt ebenfalls in sinnvollen Sätzen vor; er bezieht sich sogar auf einen gut verstandenen physikalischen Sachverhalt, aber dennoch gibt es von ihm keine wissenschaftlich anspruchsvolle Definition.
Es wird zuerst erläutert, wie man in der Physik mit diesem scheinbaren Widerspruch umgeht. Dabei stellt sich heraus, daß die Bewegungsphänomene durch eine Reihe von wohldefinierten Einzelbegriffen erfaßt werden, die sich auf bestimmte Einzelaspekte beziehen. ‚Bewegung‘ als globaler physikalischer Begriff erweist sich als überflüssig: er ist entweder nicht sinnvoll definierbar oder geht in anderen Begriffen auf. Mit dem Wissensbegriff, so die zunächst wenig ermutigende These, verhält es sich ganz ähnlich.
Doch wenn sie zutrifft, dann sollte sich auch ‚Wissen‘ in ähnlicher Weise klären lassen wie ‚Bewegung‘. Wie solch eine Klärung aussehen kann, wird durch eine analoge Gegenüberstellung der Begriffsstrukturen von ‚Bewegung‘ und ‚Wissen‘ veranschaulicht. Sie offenbart Lücken in der Begriffsstruktur von ‚Wissen‘ und zeigt damit an, was noch ergänzt werden muß; sie bietet aber auch die Möglichkeit, schon bekannte Vorstellungen über das Wissen besser einzuordnen. Diese Vorgehensweise scheint erfolgversprechend zu sein; die Suche nach einer allgemeinen Wissensdefinition dagegen muß wohl als prinzipiell unlösbar aufgegeben werden.

An der Mauer 32
75334 Straubenhardt

Tel.: 07082-92261
Fax: 07082-50333

pjaenecke@gmx.de
12b Klein, Dr. Harald Inhaltsanalyse von Informationen aus dem WWW Abstract:
Mit der weiten Verbreitung des Internets eröffnen sich für die verschiedensten wissenschaftlichen Disziplinen neue Möglichkeiten. Als neues Medium vereint das Internet die meisten bisherigen Medien wie Buch, Rundfunk und Film. Durch direkte Verknüpfungsmöglichkeiten ist die Struktur auch nicht mehr linear, und es ist interaktiv. Diese Eigenschaften machen es für jeden Wissenschaftler attraktiv, das Angebot zu nutzen. Sozialwissenschaftler können Medieninhalte analysieren, Bibliothekare Bücher und Aufsätze, Literaturwissenschaftler Romane, Lyrik und Poesie, denn alles steht irgendwo im Internet. Ein weiterer Vorteil liegt in der Maschinenlesbarkeit der Daten, die Zugangsprobleme gegenüber herkömmlichen Medien minimiert. Weiterhin entstehen im Internet neue Informationsangebote, die die verschiedenen Wissenschaftsdisziplinen zur einer Analyse herausfordern. Eine standardisierte Methodik zur Analyse von Internetinhalten existiert noch nicht, da grundlegende Probleme einer Klärung bedürfen, sowohl in technischer als auch in inhaltlicher Hinsicht. Die Entwicklung von Methoden erfordert die Definition des Erkenntnisinteresses.
Social Science Consulting
Brückengasse 12
07407 Rudolstadt

Tel./Fax: 03672 488494/5

intext@gmx.de
13. Krysmanski, Prof. Dr. Hans Jürgen / Teubener, Katy / Zurawski, Nils Wissenschaftsvernetzung, Internet und Interface-Design für die Massenmedien Abstract:
Mit dem Anwachsen des Internet werden auch das dort vorhandene Wissen bzw. die Wissensbestände immer unübersichtlicher und unauffindbarer. Die viel zitierte Informationsflut verhindert den Zugang zu Wissen allein durch den Mangel an Organisation und Vernetzung des vorhandenen Informationen.
Hinzukommt, daß zwar viele Wissenschaften auf dem Internet präsent sind – so haben sehr viele Einrichtungen ‚Hompages‘ und Web-Seiten – aber diese selten in einem gemeinsamen Kontext stehen, von disziplinübergreifenden Vernetzungen ganz zu schweigen. Wissenschaft auf dem Internet wird so schlecht ‚verkauft‘, und kann sich außer in einem kleinen Kreis von Eingeweihten einer breiteren Gruppe von Interessierten nicht vermitteln. Die Wissenschaftler untereinander jedoch agieren bereits mit den Mitteln des Internet, schaffen aber selten eine Transferleistung, die ihr Wissen über den engen Zirkel hinaus bekannt machen würde.
Die Zunahme von Wissenschaftssendungen im Fernsehen deutet jedoch darauf hin, daß es diese breite Masse gibt, die sich für wissenschaftliche Themen interessiert.
Diesen Sendungen setzen Wissen in einen Kontext, behalten dabei aber die alten Schemata des Filterns und Zensierens bei, wenn sie ‚Wissenschaftsgeschichten‘ erzählen. Eine Verbindung zum Internet, mit seinem ‚frei‘ verfügbaren Wissen und seiner offenen Struktur wird dabei nur selten gesucht. So gibt es zu allen Sendungen Internetseiten, die selten mehr sind, als die bloße Wiedergabe von Information über die Sendung oder den bereits gezeigten Inhalten.
Erzählweisen, wie sie durch das Internet möglich werden, z. B. Hypertextstrukturen, neue Kontexte, demokratische Zugänge zu Wissen und Informationen, werden nicht genutzt bzw. nicht umgesetzt. Das Fernsehen bleibt dem ‚broadcasting‘-Paradigma (one-to-many, ohne Rückkopplungseffekte, außer der Quote) treu.
Mit dem zunehmenden Zusammengehen der beiden Medien (TV und Internet) ist es an der Zeit sich über neue Formen der Darstellung und Verbreitung von Wissenschaft, wie sie heute bereits praktiziert wird, zu machen. Das heißt, die Strukturen des Internets und das darauf gesammelte Wissen muß massenmedial aufbereitet werden, um einerseits neue Geschichten zu erzählen, die den bisher herrschenden Ideologien und Paradigma von Wissenschaftsvermittlung entgegenlaufen und um andererseits Wissenschaft und Forschung zu demokratisieren.
Das von der EU geförderten European Popular Science Information Project widmete sich in seiner Arbeit und Zielsetzung diesem Problem und entwickelte in einem Zeitraum von etwas über zwei Jahren eine Reihe von Werkzeugen und Strategien, mit denen vorhandenes Wissen auf dem Internet kontextualisiert und vernetzt wurde, um so z. B. von Journalisten für ihre Arbeit genutzt werden zu können.
Diese als scientific storyboarding bezeichnete Technik ermöglichte es Inhalte des Internets zu bestimmten Themen zu sammeln, ordnen und so einen Kontext zu stellen sowie darüber eine Geschichte zu erzählen. Die Storyboards waren Arbeitsplattformen über die sich das Projekt mit den Journalisten über Themen und Themenschwerpunkte verständigte, und so diese in der Interaktion ständig erweiterte bzw. verdichtete.
Weiterhin konzentrierte sich die Arbeit auf die Entwicklung von Wissenschafts-Interfaces, mit denen im Fernsehen die Struktur des Internets wiedergegeben werden konnte, um die starre Darstellung in diesem Medium aufzulockern und das Erzählen von Wissenschaft als solches zu erleichtern bzw. zu erneuern.. Die Interfaces waren die aus der Logik der Storyboards folgende Darstellung und Verarbeitung von Informationen des Netzes, um eine breitere Bevölkerungsschicht zu erreichen, nämlich über das Fernsehen. Es fand hier sozusagen ein ‚Broadcasting the Web‘ statt.
Mit der zunehmenden Konvergenz von Fernsehen und dem Internet, nicht zuletzt ermöglicht durch preiswerte Hochgeschwindigkeitsanbindungen wie ADSL (asymmetric digital subscriber line ) u. a. wird sich die Darstellung von Internet im Fernsehen hinzu einer Verbreitung des Fernsehen im Internet bzw. dem WWW vollziehen (Stichwort Web-TV). Die notwendige Strategie muß daher jetzt das ‚Webbing the Broadcast ‚ sein, das Vernetzen der verschiedenen Geschichten, wie sie von den Produzenten und Journalisten erzählt werden. Der Schlüssel zur Vermittlung von Wissenschaft im Spannungsfeld von Internet UND TV wird das jeweilige Interface, also die Schnittstelle zwischen Wissenschaft, Medium und Benutzer (nicht nur Konsument) sein. Es ist daher angebracht von einer Notwendigkeit eines wissenschaftlichen Interface-Designs zu sprechen, eine Idee, welche im EPS-Projekt - mit ersten Ergebnissen - angegangen wurde.
Westfälische Wilhelms-Universität Münster
Institut für Soziologie
- EPS-Project
Scharnhorststr. 121
48151 Münster

Tel. (0251) 83-2 31 90
oder (0251) 83-24835
Fax (0251) 83-2 31 93

teubene@uni-muenster.de

zurawsk@uni-muenster.de

14. Lederbogen, Dipl.-Journ. Utz / Trebbe, Dr. Joachim Wissenschaft im Netz. Die Nutzung des Internets als Quelle für Wissenschaftsinformationen.
Ergebnisse einer Online-Befragung
Abstract:
Vorbemerkung: Die interaktiven Medien und insbesondere das Internet stellen Wissenschaft und Forschung vor neue Herausforderungen. Der virtuelle Raum der Online-Kommunikation bildet eine gänzlich neue Öffentlichkeit, einen weltumspannenden Kommunikationsraum mit eigenen Strukturen, Themen, Kommunikationsabläufen und Aufmerksamkeiten.
Wie sind die deutschen Universitäten und Forschungseinrichtungen auf diese Herausforderungen vorbereitet? Welche Chancen bieten ihnen die multimedialen Kommunikationsformen auch angesichts eines immer härteren Wettbewerbs und der Forderung, nicht nur ihre Leistungsfähigkeit zu erhöhen sondern diese auch nach außen zu kommunizieren? Welche PR-Strategien entwickeln sie und in wieweit entspricht das Online-Angebot den Ansprüchen der Zielgruppen? Ziel des zur Zeit an der Freien Universität Berlin laufenden Forschungsprojektes ist es, auf der Basis empirischer Kenntnisse praxisrelevante Konzepte für die Wissenschaftskommunikation in und mit offenen Datennetzen zu erarbeiten. Es handelt sich hier um einen exklusiven Themenvorschlag für die ISKO-Tagung in Hamburg und um bislang unveröffentlichtes Datenmaterial.
Untersuchungsdesign: Aus eigener Erfahrung wissen wir, daß die praktische Umsetzung von interaktiven Informationsangeboten im akademischen Sektor bis heute eher vom Engagement und den Fähigkeiten der - in der Regel auf ganz anderen Gebieten tätigen - Wissenschaftler abhängt und nicht zum Standardrepertoire der für Öffentlichkeitsarbeit und Wissenstransfer zuständigen Stellen gehört. Dies hat zur Folge, das zum Teil recht unterschiedliche Auffassungen darüber existieren, was wissenschaftliche Online-Angebote leisten und enthalten sollen. Die Studie, die in Form eines dreisemestrigen Forschungsprojektes am Institut für Publizistik- und Kommunikationswissenschaft der Freien Universität Berlin durchgeführt wird, soll insbesondere den massenmedialen Aspekt der wissenschaftlichen Online-Kommunikation näher beleuchten und in diesem Kontext die drei wesentlichen Perspektiven für die Evaluation wissenschaftlicher Angebote im World Wide Web integrieren: (1) Die Anbieter: Welchen Zweck verfolgen sie mit ihrer Online-Präsenz, welche Zielgruppen wollen sie erreichen und in welcher Art und Weise ist die praktische Umsetzung des Internet-Angebots in die institutionelle Organisation eingebunden? (2) Die Inhalte: Welche Inhalte werden angeboten und in welcher Art und Weise ist das Angebot strukturiert und formatiert? (3) Die Nutzer: Wer nutzt die Inhalte wissenschaftlicher Einrichtungen, welche Inhalte werden stärker, welche weniger stark nachgefragt und wie sieht die Suchstrategie der 'Online-User' zu diesem Themenkomplex im World Wide Web aus? Aus kommunikationswissenschaftlicher Perspektive kann man das World Wide Web als rezipientenorientiertes Medium bezeichnen. Inhalte werden nicht - wie in den herkömmlichen Massenmedien - gesendet, sondern zum Abruf bereitgestellt. Gerade deshalb ist die Verbindung der Anbieter- und der Nutzerperspektive von entscheidender Bedeutung. Dieser Ansatz geht über den reinen 'Verkauf' von Wissenschaft hinaus. Im Kern der Fragestellung steht hier nicht nur die Selbstdarstellung wissenschaftlicher Institutionen, sondern die Vermittlung wissenschaftlicher Inhalte im World Wide Web und hier insbesondere die Frage, ob die Anbieter wissenschaftlicher Informationen genau das in Form und Inhalt anbieten, was von den Nutzern gesucht und erwartet wird. Auf diesen Erkenntnissen und Interpretationen aufbauend sollen schließlich Empfehlungen für die Öffentlichkeitsarbeit der Hochschulen und Forschungsinstitutionen abgeleitet werden. Diese werden sich nicht nur auf gestalterische Aspekte und organisatorische Voraussetzungen beschränken, sondern sich auch die Anwendungsmöglichkeiten und Perspektiven dieser Technologie aufzeigen.
Freie Universitaet Berlin Arbeitsbereich Wissenschaftsjournalismus Malteserstr. 74-100 D-12249 Berlin

Tel. +49 30 7792-895
Fax. +49 30 7762-149

utzleder@zedat.fu-berlin.de
15. Lehner, Dr. Christoph Eine holistische Theorie für die Informationswissenschaften Abstract:
Der Beitrag geht von der These aus, daß den Informationswissenschaften bislang eine unifizierende Theorie fehlt (vgl. z.B. Henrichs (1997), Coy et al. (1992)). Im Beitrag soll auf der Grundlage der Semiotik – in Anlehnung an die Ideen von Thure von Uexküll ("Biosemiotik" als unifizierende Theorie für die Medizin, vgl. Uexküll (1994)) – unter Bezugnahme auf neuere Arbeiten von Flückiger (1995) und Losee (1997) bzw. Losee (in press) ein Vorschlag für einen ergänzende (Teil-)Theorie eines disziplinunabhängigen Informationsbegriffs gemacht werden. Der Beitrag nimmt auch Bezug auf eine laufende Diskussion zum Wissensbegriff der Internet-Mailingliste wiss-org@bonn.iz-soz.de Selbstverständlich steht der Begriff der "Information" in theoretischer Hinsicht in enger Beziehung zum Begriff des "Wissens".
In der Vergangenheit war eine Tendenz zu einer pluralistischen Grundhaltung gegenüber dem Informationsbegriff zu beobachten (vgl. Maier/F. Lehner (1994)). Soll die Informationswissenschaft allerdings nicht nur ein lockerer Verbund von Einzelwissenschaften bleiben, ist ein Informationsbegriff, der die vorgeblichen Inkommensurabilitäten ausgleicht, unerlässlich. Ist man von der grundsätzlichen Korrektheit von Quines Holismusthese (vgl. z.B. Stegmüller (1979)) und von der These von der methodischen Einheit (Jaenecke (1998)) überzeugt, bestätigen sich das intensive Geflecht und die Interdependenz der Wissenschaften aus der Sicht der Informationswissenschaft nachdrücklich.
Historisch gesehen stellt die InformatioAber auch kognitive Psychologie, Linguistik tions- und Datenverarbeitende Disziplin. tn, Communication and Library Science. (innswissenschaft ein Konglomerat von Einzelwissenschaften dar. Der Primat liegt auf einer stark anwendungsbezogenen Vorgehensweise. Die technischen Grundlagen werden von der Informatik als informations- und datenverarbeitende Disziplin bereitgestellt. Aber auch kognitive Psychologie, Linguistik, Rechts-, Wirtschafts- und Bibliothekswissenschaften spielen unter vielen anderen Disziplinen eine konstituierende Rolle. Dies hat zu einer Vielzahl sogen. "Bindestrich-Informatiken" (Steinmüller 1993)) geführt. Vor dem Problem der Einbeziehung vieler Einzelwissenschaften steht auch die "Angewandte Informationswissenschaft" in Hildesheim, die die Anwendung von Informationstechnologie vorangig unter den Bedingungen der Mehrsprachigkeit und unter Berücksichtigung multikultureller Phänomene zu behandeln versucht (Lehner (1996)). Die Aspekte der Mehrsprachigkeit und Multikulturalität stellen den Bezug zum Tagungsthema "Globalisierung" her.

Coy , Wolfgang et al. (Hrsg.) (1992): Sichtweisen der Informatik . Braunschweig [u.a.] : Vieweg
Flückiger, Daniel Federico (1995): Beiträge zur Entwicklung eines vereinheitlichten Informations-Begriffs. Inauguraldissertation der Philosophisch-naturwissenschaftlichen Fakultät der Universität Bern
Henrichs, Norbert (1997): Informationswissenschaft. In: Buder, Marianne et al. (Hrsg.) (1997): Grundlagen der praktischen Information and Dokumentation : ein Handbuch zur Einführung in die fachliche Informationsarbeit. 4. voellig neu gefasste Ausg. - München ; London ; New York ; Paris : Saur. 945-957.
Jaenecke, Peter (1998): Forschungsorientierte Wissenschaftstheorie. In: Czap, Hans, Heinz Peter Ohly, Simone Pribbenow (1998): Herausforderungen an die Wissensorganisation: Visualisierung, multimediale Dokumente, Internetstrukturen. 5. Tagung der Deutschen Sektion der Gesellschaft für Wissensorganisation. Berlin, 7.-10.10.97. Fortschritte in der Wissensorganisation, Band 5. Ergon-Verlag, Würzburg., 287-319.
Lehner, Christoph (1996): Studieren nach der zweiten industriellen Revolution. In: tekom-Nachrichten, 3/96, 44-46
Losee, Robert M. (1997): A Discipline Independent Definition of Information. In: Journal of the American Society for Information Science 48 (3) 1997, 231-269.
Losee, Robert M. (in press): Communication Defined as Complementary Informative Processes. In: Journal of Information, Communication and Library Science. (in press).
Maier, Ronald und Franz Lehner (1994): "Wert" des Informationsgegriffs – Vorschlag für eine theoretische Neukonzeption. In: Rauch, Wolf (Hrsg.) (1994): Mehrwert von Information- Professionalisierung der Informationsarbeit. Konstanz, 33-50.
Stegmüller, Wolfgang (1979): Hauptsrömungen der Gegenwarts-Philosophie. BandII. Kröner, Stuttgart.
Steinmüller, Wilhelm (1993): Informationstechnologie und Gesellschaft: Einführung in die Angewandte Informatik. Darmstadt: Wissenschaftliche Buchgesellschaft.
Uexküll, Thure von (1993): Biosemiotik. In: Titzmann, Michael (Hrsg.) (1993): Zeichen(theorie) und Praxis : 6. internationaler Kongreß der Deutschen Gesellschaft für Semiotik; 8. - 11. Oktober 1990; Passau : Wiss.-Verl. Rothe.
Universität Hildesheim
Institut f. Angewandte Sprachwissenschaft Marienburger Platz 22
31141 Hildesheim

Tel.: 05121 883843

lehner@cl.uni-hildesheim.de
16. Leidig, Dr. Torsten Technologische Aspekte didaktischer Ontologien Abstract:
Im BMBF-Leitprojekt L3 werden insbesondere Autorenwerkzeuge und eine web-basierte technische Lauftzeitumgebung entwickelt. Die konzeptionelle Modellierung auf Basis von didaktischen Ontologien und die Steuerung auf Grund dieser didaktischen Modelle sind dabei ein wesentlicher neuer Ansatz, der die Probleme Adaptivität im Lern- bzw. Navigationsprozeß, Wiederverwendung von verschiedensten Lehrmaterialien in unterschiedlichen Kontexten sowie die Verwaltung großer Wissensmengen lösen kann. Die didaktische Beschreibung der einzelnen Lerninhalte und ihrer Beziehungen gemäß der didaktischen Ontologie kann dann beim Kursablauf dazu verwendet werden, die der momentanen Sitution angepaßten Lernobjekte zu finden und zu präsentieren.Der Vortrag skizziert die Grundzüge einer auf Conceptual Graphs basierenden, integrierten Architektur für das Telelearning. Ein besonderer Schwerpunkt liegt in L3 trotz der verbesserten didaktisch-gesteuerten Navigationsunterstützung auf der Kooperation mit Tutoren, Lernberatern, Assistenten und anderen Lernenden. Für die Kooperation werden synchrone Kommunikationstechniken genutzt, wie etwa das gleichzeitige Arbeiten an einer gemeinsamen Aufgabe in einem virtuellen Raum mit der zusätzlichen Unterstützung durch Audio-/Video-Verbindungen, aber auch asynchrone Kooperationstechniken Neue interessante Perspektiven ergeben sich mit Ontologien dabei im Intranet-Bereich durch training-on-the-job oder auch just-in-time Lernen, d.h. der Integration von Lernen mit den Tätigkeiten am Arbeitsplatz. Indem ontologisch beschriebene Lerninhalte zusätzlich mit einer domänen-spezifischen Beschreibung von Geschäftsprozessen und den damit verbundenen Aufgaben, Anforderungen und Kompetenzen verknüpft werden, kann, eine Werkzeugunterstützung der Prozesse vorausgesetzt, ähnlich einer kontext-sensitiven Hilfe auch Lernen angeboten werden - gerade dann, wenn es im Laufe eines Prozesses oder Projektes benötigt wird.
SAP AG, CEC Karlsruhe
Vinzenz-Prießnitz-Str. 1
76131 Karlsruhe

0721-690235

leidig@qkal.sap-ag.de
17. Lenski, Dr. Wolfgang Gleichheitsbegriffe für hoch-strukturierte Datenbestände Abstract:
Die Ausgabe von 'redundanten' Daten insbesondere bei der Recherche über mehrere dezentrale Datenbanken hinweg ist ein Problem, das allen BenutzerInnen von entsprechenden Informationssystemen wohl bekannt ist und einer zielgerichteten und möglichst effizienten Fokusierung auf nützliche Ergebnisse im Wege steht. Bei hoch- oder heterogen strukturierten Datenbeständen handelt es sich dabei i.a. nicht um die Frage syntaktischer Gleichheiten, die bereits durch triviale Anwendung von Vergleichsoperatoren der Datenbankfunktionalität aufweisbar wird. Auch die üblichen Bewertungskriterien des Information Retrieval wie Precision und Recall gehen am Kern dieser Frage vorbei. Benötigt ist daher als Grundlage für alle Lösungsansätze zunächst eine systematische Analyse dieses Problems. Gestützt auf eine Untersuchung über Gleichheitsbegriffe in der philosophischen Tradition entwickeln wir einen Begriff von 'Gleichheit', der anstatt auf syntaktischer Identität auf der Basis einer 'informationellen Redundanz' entwickelt wird. Über eine theoretische Fundierung des Ansatzes hinaus gehend, wird abschliessend ein operationalisierbarer Umgang mit diesem Begriff skizziert.
Forschungsstelle Mathematische Logik der Universitaet Kaiserslautern Heidelberger Akademie der Wissenschaften Fachbereich Informatik Postfach 3049
D-67653 Kaiserslautern

Tel: +49+631+205+3355
Fa: +49+631+205+3357

lenski@informatik.uni-kl.de
18. Matzat, Uwe Academic Communication and Internet Discussion Groups: Transfer of Information or Creation of New Contacts? Abstract:
Many researchers of different disciplines use Mailing Lists and Newsgroups to communicate with known and unknown colleagues all over the world. Nevertheless is the relevance of these Internet Discussion Groups (IDGs) for academic communication still unclear.
Studies of IDGs show that some users evaluate them as useful for the creation of new research ideas, for the transfer of information and for getting into contact with other researchers (e.g. Tombaugh, 1984; Hiltz & Turoff, 1993; Rojo & Ragsdale, 1997a, 1997b). Other authors criticise the low quality of the discussions within some IDGs (Conner, 1992; McCarty, 1992) and many researchers hesitate to use them at all (e.g. Lewenstein, 1995). Still other authors have the fear that electronic communication means like email and IDGs create new barriers between researchers because of the restricted use of some IDGs (e.g. Bainbridge, 1995; Meadows & Buckle,1992).

This presentation reviews the different hypotheses and expectations that are expressed about the effects of IDGs for academic communication. It reviews the (sparse) empirical evidence for or against these hypotheses and the drawbacks of these studies. First results of a new study are presented that tries to test some of these hypotheses more systematically.
ICS / Department of Sociology
University of Groningen
Grote Rozenstr. 31
NL-9712 TG Groningen

Tel: (+31)/(0)50/363-6237
Fax: (+31)/(0)50/363-6226

U.Matzat@PPSW.RUG.NL
18a Mayer, Matthias 

F. Fietzek / M. Lehnhardt / Matthias Mayer / M. Meyer / H. Obendorf  / P. Schefe  / T. Stendel / I. Thomsen

Kontextvisualisierung: BrowsingIcons und BrowsingGraphs zur Verbesserung der Orientierung und Navigation im World Wide Web

LEM-/iWorlds-Präsentation

Vortragsort:
Labor für elektronische Medienkommunikation, Medieninformatik und Medienkunst - LEM
Haus der Multimedia-Produzenten
Behringstraße 28a, Eingang 2 (obere Etage)
D 22765 Hamburg-Ottensen

Tel: 428 83 2425

(gesonderte Anmeldung bis 15.9. bei pribbeno@informatik.uni-hamburg.de erforderlich)

Abstract:
Das LEM wird sich als interdisziplinäres Labor ziwschen Hamburger Hochschulen, Kunst, Kultur und Wirtschaft vorstellen. Dazu werden Einblicke in derzeitige Forschungsprojekte gegeben. Im Anschluss wird speziell das Projekt "iWorlds" vorgestellt, welches sich mit der Verbesserung der Schnittstelle zwischen Menschen und grossen Datenbeständen beschäftigt, wie sie beispielsweise in Form des WWW oder von online-Bibliotheken gegeben sind. Speziell wird dabei auf Verfahren der räumlichen Visualisierung von Informationen eingegangen. Die Vorstellung wird abgerundet durch einen Überblick über derzeitige 3D-Visualisierungen im WWW. Die Veranstaltung findet statt am LEM, um auch die räumlichen Gegebenheiten, den Ort der Projekte zu vermitteln und einige Exponate vorstellen zu koennen.

Im einzelnen werden folgende Projekte vorgestellt:
BIN - das "Baltic Interface Net", entwickelt eine Kooperationsbasis zwischen Künstlern und Kulturinstitutionen in den 11 Ostsee-Anrainerstaaten. Der deutsche Partner (Entrypoint) ist das LEM. Interkultureller Austausch soll durch die Entwicklung neuer Formen der Information, Kommunikation und Kollaboration über Sprachgrenzen hinweg stattfinden.
HMP3D - dreidimensionale Webschnittstelle fuer das Haus der Multimediaproduzenten. Durch ein digitales Modell des Hauses bekommt der Webbenutzer die Möglichkeit, Informationen zum Gebaeude innerhalb der architektonischen Gegebenheiten zu "begehen", Zusammenhänge sind durch transparente "Wände" zu sehen. Informationen zu Projekten werden im Kontext der Architektur verräumlicht.
iWorlds - information Worlds. Ziel ist die Entwicklung angemessener Schnittstellen zu grossen Informationsbeständen.

Bisherige zeilenorientierte textuelle Interfaces sind nur wenig geeignete Hilfsmittel zur Erschliessung grosser Informationsbestände. Die Präsentation einer linearen Liste von Einträgen ist z.B. als Antwort auf eine Suchanfrage bei größerem Umfang nicht benutzungsadäquat. Eine Alternative ist eine 2D- oder 3D-Präsentation, die direkte Manipulation und dynamische Reformulierung der Anfrage unterstuetzt.
Neben der Suche in ungeordneten Dokumentenkollektionen soll aber auch die Navigation und Orientierung beim sogenannten Browsen, d.h. der Suche entlang Verweisen auf andere Dokumente, unterstützt werden. Im Projekt werden bestehende Verfahren zur Visualisierung von Dokumentenkollektionen und -systemen aufgearbeitet und neue entwickelt. Ein spezieller Ansatz, der von uns verfolgt wird, ist die Darbietung 3-dimensionaler interaktiver Visualisierungen von WWW-Strukturen. Synchronisiert zum Browsen soll die zielorientierte Navigation im Web damit verbessert werden.
Ferner wird angestrebt, nicht nur die Informationen sichtbar zu machen, sondern auch die Menschen visuell zu repräsentieren, die mit ihnen umgehen. In diesem Sinne kann man von "belebten" Informationswelten sprechen.

Arbeitsbereich LEM-Projekt
Fachbereich Informatik
Universität Hamburg
Vogt-Kölln-Straße 30
22527 Hamburg

tel +49 40 428 83 2309
fax +49 40 428 83 2311

mayer@informatik.uni-hamburg.de
19. Meder, Prof. Dr. Norbert Objekte in didaktischen Ontologien Abstract:
Unter didaktischen Objekten verstehen wir Beschreibungen, die ein Wissensmodul (ein Dokument etc.) in einen didaktischen Zusammenhang des Lehrens und Lernens stellen. Der Vortrag wird die Begrifflichkeit zu solchen Beschreibungen vorstellen. Sie ist abgeleitet von den didaktischen Modellen im Göttinger Katalog (Flechsig) sowie aus der traditionellen Methodik der Unterrichtsgestaltung, die Verlaufsformen des Lehrens und Lernens (Methoden im engeren Sinne), Sozialformen und Medien unterscheidet. Die Begrifflichkeit erlaubt die Charakterisierung von Lernmaterial (Wissensmodulen) in seiner Funktion für beispielsweise entdeckendes, problemlösendes oder handlungsorientiertes Lernen und anderes mehr. Darüber hinaus geht es auch um die Kennzeichnung der Funktion in Szenarien des kooperativen und verteilten Lernens (Sozialform: Gruppenarbeit).
Universität Bielefeld
Fakultät für Pädagogik/AG10
Universitätsstr. 25
33615 Bielefeld

Tel: 0521/106-3301

norbert.meder@uni-bielefeld.de
21. Ohly, H. Peter Tutorial: Von der dokumentarischen Bezugseinheit zur szientometrischen Tabelle Abstract:
Mit Hilfe des bibliometrischen Aufbereitungs- und Analysetools DATAVIEW werden die verschiedenen Schritte und Probleme bei der szientometrischen Auswertung von Dokumentationseinheiten eingeführt. Es werden keine informationstechnischen oder statistischen Kenntnisse vorausgesetzt.
IZ Sozialwissenschaften
Lennestr. 30
53113 BONN

Tel.: +49-228-2281-142
Fax.: +49-228-2281-120

oh@bonn.iz-soz.de
22. Ohly, H. Peter Der 'Stand der Technik' - Eine szientometrische Betrachtungsweise Abstract:
'State-of-the-Arts' sind Mehrwert-Informationen, die auf qualitativen und quantitativen Destillaten von Informationen über ein bestimmtes Wissenschaftsgebiet beruhen. Anhand der Erfahrungen aus der Zusammenstellung der Publikation 'Ernährung und Gesellschaft' wird aufgezeigt, welche Informationen sich aus bibliographischen Nachweissystemen ziehen lassen, wie sie zu interpretieren sind und in welchem Wechselspiel zu weiteren Wissensbeständen sie stehen.
IZ Sozialwissenschaften
Lennestr. 30 53113 BONN
Tel.: +49-228-2281-142
Fax.: +49-228-2281-120
oh@bonn.iz-soz.de
22a Orthmann, Dipl.-Psych. Claudia / cand. Psych. Lars Näcke Die Chancen virtueller sozialer Gemeinschaften im Internet für einen interkulturellen Wissenschaftsdiskurs 30 Abstract:
Dieser Beitrag befaßt sich mit der Spezifik virtueller sozialer Gemeinschaften, die in unserer Welt eine zunehmend größere Bedeutung erhalten. Dabei wird nicht von einem Ersatz der bestehenden "realen" sozialen Netzwerken/ Beziehungen ausgegangen, sondern die diese komplementierenden virtuellen Gemeinschaften sollen in ihren Möglichkeiten und Grenzen diskutiert werden. Anhand von bestehenden, sich ständig weiterentwickelnden Gemeinschaften wird exemplarisch die Rolle der virtuellen Kommunikation für einen Diskurs im Sinne von "doing culture" betrachtet. Virtuelle soziale Gemeinschaften bieten für die Wissenschaft noch zu erschließende Formen und Perspektiven: Räume für interkulturelle sowie weniger hierachisch strukturierte Diskurse. Abschließend wird die konkrete Realisierungsmöglichkeit dieses Anspruchs u.a. am Beispiel von Online-Instituten vorgestellt werden.
Freie Universität Berlin
FB Erziehungswissenschaft & Psychologie, WE 11
AB Medienforschung
Malteserstr. 74-100, Haus L
12163 Berlin

030/7792-305
Priv: 030/7912519
Fax: 030/7761131

Lars Näcke
privat:
Schmollerstraße 9, 12435 Berlin

dienstlich:
z.H. Frau Esther Lang
Fachbereich Erziehungswissenschaft und Psychologie
Institut für Arbeits-, Organis
tions- und Gesundheitspsychologie
Arbeitsbereich Entwicklungspsychologie
Habelschwerdter Allee 45
14195 Berlin

Telefon privat: 030 – 5346240
Telefon dienstlich: 030 – 8383630

abele@zedat.fu-berlin.de naecke@psychologie.de
Email Näcke privat: einhorn@zedat.fu-berlin.de
24. Plutat, Birte, M.A.  "Darunter hätte ich nicht nachgeschaut..." Erschließungssysteme und Nutzerbeteiligung 30 Abstract:
Wenn wir als Informationsspezialisten Daten erschließen, etwa Bücher in den Bibliotheken systematisieren, stützen wir uns in der Regel auf bewährte Klassifikationen als Ordnungen des Wissens.Im Kontext alltagsorientierter Informationsbereitstellung z.B. der Öffentlichen Bibliotheken wurde dies schon vor längerer Zeit als unbefriedigend erkannt. Die Entwicklung von Interessenkreisen oder die Konzeption der Kabinette in der Stadtbibliothek Paderborn sind Reaktionen darauf.Grundsätzlich begegnen wir demselben Problem bei der Erschließung von derartigen Informationen für die Präsentation im World Wide Web. Die Übertragung etablierter Lösungen auf die Organisation der Informationen im WWW erweist sich als unzureichend in Bezug auf das Auffinden der Informationen durch den Endnutzer.Will man Nutzerorientierung ernst nehmen, sollte man bestrebt sein, bereits in den Gestaltungsprozeß des Informationszugriffs Nutzer einzubeziehen.Es sollen Methoden diskutiert werden, mit denen vor allem bei der Erstellung klassifikatorischer Zugriffe bzw. bei der Verbesserung installierter Angebote im WWW Nutzerbedürfnisse und -verhalten berücksichtigt werden können.
Forschungsgruppe Telekommunikation, FB Informatik Universitaet Bremen Postfach 330440, 28334 Bremen
Tel.: +49 +421 218-2833
Fa:-4894
plutat@informatik.uni-bremen.de
24a Rahmstorf, Prof. Dr. Gerhard (ggf. mit Prof. Gerhard Budin) Workshop: Wortschatz und begriffliche Strukturen 60 Themen:
Softwaretechnik für Wortschatz- und Strukturerfassung

Anwendungsfelder Terminologiesoftware, Thesaurusprogramme, Retrieval. Inkompatibilitäten und Probleme der Wort-Modellierung. Die Concepto-Technologie. Die Einführung der Begriffssprache.

Erfahrungen mit dem Aufbau von Begriffssystemen
Neues zum Aufbau von Begriffssystemen: praktische Hinweise zu Strukturbedingungen, Relationen, Darstellung von Wörtern verschiedener Wortarten, Individualbegriffen u. a. Mehrsprachigkeit.

Wege zum kooperativen Arbeiten an Begriffssystemen
Identifizierung und Klassifizierung von Wortbedeutungen. Einigung auf bestimmte Festlegungen. Probleme des Veränderungsmanagements.

Perspektiven für die Wissensorganisation
Begriffssysteme in Indexierung, Retrieval, Wissensordnung, Navigation, Wörterbuchherstellung und Übersetzung. Verknüpfung von Begriffssystemen und Thesauren bzw. Klassifikationssystemen. Datenaustausch mit anderen Systemen.
Ziel des Workshops ist nicht nur, Techniken und Methoden zu vermitteln, sondern auch Erfahrungen und Vorschläge von Teilnehmern bzw. Benutzern zu diskutieren.
Dieser Tagungsbeitrag wendet sich auch an Kollegen, die sich mit dem Aufbau von Begriffssystemen mit Concepto befaßt haben. Es besteht die Möglichkeit, Fragen zur Benutzung und Methode am System zu klären.

Oberer Rainweg 57
D-69118 Heidelberg
Tel. 06221-808129
Fax 06221-802682
rahmstorf@regio-info.de
24b Rahmstorf, Prof. Dr. Gerhard Szientographie: Versuch einer Klärung Abstract:
Szientographie als eigenes Fachgebiet zeichnet sich erst in groben Umrissen ab. Einige benachbarte Arbeitsfelder der "Wissensbeschreibung" sind dagegen bekannt und in Lehre und Forschung etabliert: Wissenschaftstheorie, Logik, Texttheorie, Informationswissenschaft, Bibliometrie, Psychologie der kognitiven Fähigkeiten (Gedächtnis, Denken u. a.), auch Wissensrepräsentation, und letztlich auch Wissensorganisation.
Die Klärung dessen, was wir Wissen nennen, ist nicht nur ein theoretisches Bedürfnis. Die Wissensgesellschaft benötigt ein solides Fundament für die Entwicklung der Software, die das Wissen managen soll.
In dem Beitrag wird versucht, das personbezogene Phänomen des subjektiven Wissens und das in Texten und anderen Darstellungsformen objektivierte Wissen zu charakterisieren und ihren Zusammenhang zu verstehen. Es wird die Frage gestellt, was das Gemeinsame dieser beiden "Arten" von Wissen ist.
Beim subjektiven Wissen liegt das Problem in dem, was wir als Ausgangsgegebenheit des Gedächtnisses annehmen: neuronale Signale und deren physische Spuren im Gehirn einerseits oder intentionale Gegenstände des Denkens (Begriffe) andererseits. Zwischen den immer noch hypothetischen Spuren des Gedächtnisses und den Vorstellungen, die wir uns von einer Begriffsrepräsentation machen, klafft eine Lücke.
Beim objektivierten Wissen verstellt uns die zunächst naheliegende Vorstellung, die Texte, die das Wissen vermitteln, seien schon das Wissen selbst, die Einsicht in das, was objektiviertes Wissen wirklich ist. Die Einzelsprachen, in denen wissenschaftliche Texte abgefaßt sind, sind Darstellungsmittel. Die verwendete Terminologie der Einzelsprache, der Stil des Verfassers, die inhaltliche Gliederung der Texte, die gesamte Linearisierung, die mit der Vertextung des Wissens erfolgt, all das sind Eigenschaften, die mit dem Darstellungsmittel und den Gestaltungsentscheidungen des Autors zusammenhängen, aber nicht zum Wissen selbst gehören. Was bleibt dann als Wissen übrig?
Vom Text ausgehend ist die Annahme plausibel, daß Wissen aus Propositionen besteht. Andererseits kennen wir das nichtpropositionale bildhafte Wissen im Gedächtnis. Die Szientographie muß daher nicht nur von der Linearisierung des Textes und von der Einzelsprache abstrahieren, sondern auch die gemeinsamen Wissensinhalte sprachlich und bildhaft dargestellter Mitteilungen erkennen können. (Vgl. Beiträge der deutschen ISKO Tagung 1997 in Berlin). Kein Patient würde sich einem Chirurgen anvertrauen, der kein detailliertes bildhaftes Wissen von den Organen des menschlichen Körpers hätte. Dreidimensionale, virtuelle Welten zeigen uns die technischen Möglichkeiten auf. Um das Thema der Szientographie abzugrenzen, sind daher nicht nur Begriffe und Propositionen, sondern auch Wahrnehmungen und Gegenstände einzubeziehen, und zwar subjektgebunden und objektiviert als Bilder.
Dieser Versuch einer Klärung sollte nützliche Hinweise für den Entwurf von Anwendungen und Wissenssystemen mit konkretem Einzelwissen geben können. Die Szientographie hat nicht nur das Wesen des Wissens zu beschreiben, sie sollte auch die Struktur des Wissens angeben. Damit wird die Frage nach den Einheiten gestellt, in die der gesamte Bestand zerlegt werden kann. Die Prozesse der Wissensorganisation bauen darauf auf: Wissensmodule bausteinartig abgrenzen, geeignet darstellen, systematisch einordnen, in einer Computerumgebung enzyklopädisch oder als Hypertext anbieten, in verschiedenen Sprachen benennen, indexieren und letztendlich recherchierbar machen.
Oberer Rainweg 57
D-69118 Heidelberg
Tel. 06221-808129
Fax 06221-802682
rahmstorf@regio-info.de
25. Redeker, Dipl.-Paed. Giselher Didaktische Ontologien - Stand der internationalen Forschung Abstract:
Ungeachtet der Fortschritte im Bereich des Instructional Design sind die meisten hypermedia-basierten Lernumgebungen im Internet (WWW) nicht viel mehr, als "Folien-Blättermaschinen". Ein weiterer Nachteil liegt darin, daß die einmal erstellten Ressourcen nicht ohne weiteres in anderen Kontexten wiederverwendet werden können. Ein Vorschlag, für eine qualitative Verbesserung webbasierter Lernumgebungen besteht darin, didaktisches Wissen - in Form von Metadaten - explizit in den Autoren- und Lernprozeß zu integrieren. Ausgehend von den Bemühungen innerhalb der Web-Community einen Standard für (allgemeine) Metadaten zu entwickeln, werden im Rahmen des Beitrages erste internationale Ansätze für die Entwicklung einer didaktischen Beschreibungssprache dargestellt.
Universitaet Bielefeld Fakultaet fuer Paedagogik - AG 10 Informatik im Bildungs- und Sozialwesen
Postfach 10 01 31
33501 Bielefeld
fon: +49/521/106-3962
fa: +49/521/106-6028
giselher.redeker@uni-bielefeld.de
26. Rost, Martin Mailinglists und wissenschaftlicher Diskurs Abstract:
Neben der Präsentation statistischer Daten zu den beiden Mailinglists"soziologie@listserv.gmd.de" und "luhmann@listserv.gmd.de" werden einige Überlegungen angestellt, welche Vorkehrungen zu treffen wären, um Mailinglists besser als bislang für den Diskurs der Scientific-Community nutzbar zu machen.
Martin Rost
Fasanenweg 9a
24631 Langwedel

Telefon/ Fax: 04329 92266

maro@maroki.netzservice.de
27. Schmitz-Esser, Prof. Dr. W. Gedankenraumreisen Thesaurusstrukturen, multimedial präsentiert, machen Anregung, Spielen, Lernen, Finden möglich für jedermann. 45 Abstract:
Zahlreich sind die Versuche, Strukturen begrifflicher Relationen, wie sie in Thesauren niedergelegt sind, durch Visualisierung verständlicher zu machen, doch nirgends ist das bisher in überzeugender Weise gelungen. Damit blieb der Gebrauch von Thesauri durchweg auf Fachleute (Dokumentare) verwiesen und eine Anwendung in der Breite fand nicht statt. Mit den neuen Möglichkeiten visueller und auditiver Darstellung, wie sie nun die Informationstechnologie bietet, läßt sich das ändern. Berichtet wird über ein Projekt im Zusammenhang mit der EXPO2000, bei dem versucht wird, bisher weitgehend ungenutzte Potentiale von Thesauri für die Interaktion am Computer zu nutzen. Akteur am Point of Information ist dabei jeder Interessierte, gleich ob Laie oder Fachmann, Gegenstand der Strukturierung die Welt im Jahre 2000, Zugangssprache die Sprache der allgemeinen Kommunikation. Einsicht in die begrifflichen Strukturen in dem Sinne, daß man sie versteht, ist nicht erforderlich, die multimediale Präsentation ermöglicht sensitives Erfassen und nähert sich gewohntem intuitiven Umgang mit Begrifflichkeiten. Jedermann kann so durch den Gedankenraum "reisen", sinnvollen Verknüpfungen und Wirkketten nachspüren, begriffliche Klärung und Einsichten gewinnen, für den Begriff das richtige Wort finden. Bei solch einer Reise wird er zugleich auch auf überraschende Zusammenhänge stoßen. Der Sprung in die Quellen wird von jedem angesteuerten Punkt aus möglich. Die Grenzen herkömmlichen Information Retrievals zerfließen damit und öffnen sich hin zu neuen, bisher vernachlässigten Räumen: dem Erleben, der Anregung, dem sinnvollen Spiel, der Überraschung, dem unterhaltsamen Lernen.
Information Systems Consultancy Rothenbaumchaussee 3 D-20148 Hamburg Germany
Tel. +49/40/45038604
Fa +49/40/45038606
Schmitz_Esser@CSI.com
Schott, Hannelore Thesaurus Sozialwissenschaften online Abstract:
Es wird die elektronische Version des "Thesaurus Sozialwissenschaften" vorgestellt. In Anlehnung an die mehrfach neu aufgelegte gedruckte Ausgabe kann zwischen alphabetischer und systematischer Darstellung und deutsch- oder englischsprachiger Version gewählt werden. Die Funktionen ‘Suche’ und ‘Navigation’ im Vokabular werden vorgeführt. Über eine Export-Funktion kann der Thesaurus zur Indexierung in den Datenbanken SOLIS und FORIS des InformationsZentrum Sozialwissenschaften eingesetzt werden.
IZ Sozialwissenschaften, Bonn hs@bonn.iz-soz.de
27a Schulz, Matthias Tutorial: XML

(gesonderte Anmeldung bis 15.9. bei matthias.schulz.1@rz.hu-berlin.de erforderlich)

Abstract:
Von der papierenen Dissertation zur strukturierten Dissertation: Einführung in die Strukturbeschreibung von Volltexten mit XML. Nur gestreift werden folgende Bereiche. Stylesheet Spezifikation XSL, Link Spezifikation XLINK Namesräume, RDF und Schemata
IuK-Projekt "Dissertation Online" (Teilprojekt Formate)

privat:
Vinetastraße 64
13189 Berlin

matthias.schulz.1@rz.hu-berlin.de
28. Schulz, Prof. Ursula Anwenderpartizipation bei der Entwicklung eines Kinder-OPACs Abstract:
* Die Definitionsmacht über die Funktion von Bibliothekskatalogen liegt bei den Bibliothekaren - nicht bei ihren Kunden. Die noch heute gültige, von Charles A. Cutter formulierte Funktion von Bibliothekskatalogen stammt aus dem 19. Jahrhundert. Sie entsprichtdem bibliothekarischen Bedürfnis nach Verwaltung des vorhandenen Buchbestandes.
* Gleichzeitig stehen vor allem öffentliche Bibliotheken unter Legitimationsdruck. Ihr wesentlicher öffentlicher Auftrag ist die Leseförderung ein wesentlicher Leistungsindikator ist die Ausleihstatistik.
* Bibliothekskataloge könnten ein Werkzeug der Förderung beider Ziele sein. Ihr Design und die in ihnen enthaltene Information sollte deshalb - wie Warenkataloge - absatzorientiert und an den Informationsinteressen der Kunden orientiert sein.
* Partizipation der Kunden bei der Gestaltung von Bibliothekskatalogen ist ein Weg, in einen intensiven Kommunikationsprozeß zwischen Entwicklern, Bibliothekaren und Kunden einzutreten, dabei eine gemeinsame Sprache zu finden und mehr über die Interessen und Bedürfnisse der Kunden in Erfahrung zubringen.
* Kinder sind wichtige Kunden öffentlicher Bibliotheken. Bücher-Reise, für 8-11-jährige Kinder, ist ein Kundenkatalog. Er entstand unter Partizipation von Kindern. Benutzerpartizipation: Ein flexibles Modell der partizipativen Softwareentwicklung ist STEPS(Softwaretechnik für evolutionäre partizipative Systementwicklung). Im Rahmen der Entwicklung von Bücher-Reise wurde das Konzept ‚Benutzer' wurde neu reflektiert und führte zu einer Trennung zwischen‚Benutzer-Anwälten' (hier: Bibliothekare) und ‚Benutzern' (hier: Kinder)- und zwar dann, wenn Kunden über keine bewußten domainspezifischenVorstellungen verfügen. Im Rahmen der Entwicklung von Bücher-Reisewurden verschiedene Methoden der Partizipation von Kindern bei der Entwicklung eines Bibliothekskatalogs getestet.
FB Bibliothek und Information 20146 Hamburg
040-44195-2357
Priv.: 0421-44 50 49
Fax: 040-44195-2392
uschulz@zfn.uni-bremen.de
30. Sigel, M.A., Alexander Zum Wert multipler und adaptiver Indexierung mittels
Konzeptrahmen am Beispiel von Anfragen in den
Sozialwissenschaften
Abstract:
Dieser Beitrag diskutiert, wie präkoordinierendes Indexieren mittels an eine Ontologie gebundener Konzeptrahmen (Frames) zur bestmöglichen Inhaltserschließung (Wissensrepräsentation) von stereotypischen Sachverhaltszusammenhängen in Kerndokumenten beitragen kann, die für modellierte Nutzerinteressen potentiell relevant sind. Besonderes Potential bietet die multiple Indexierung von Dokumentpassagen aus Sicht unterschiedlicher Nutzergruppen sowie die Möglichkeit der Anpassung von Indexierungsparametern an Informationsbedarfe von Nutzergruppen. Die Beispiele in diesem Beitrag sind aus realen Anfragen an das Informationszentrum Sozialwissenschaften fortentwickelt. Längerfristiges Ziel ist es, auf dieser Basis ein computergestütztes System zur konzeptuellen Indexierung zu entwickeln.
IZ Sozialwissenschaften
Lennestr. 30
53113 Bonn
sg@bonn.iz-soz.de
31. Spinner, Prof. Dr. Helmut F. Plenarvortrag: Gegenständliche, prozedurale und konstitutionelle Ordnungen des Wissens: Wissensarten, Wissenssorten, Wissensregime 75 Abstract:
Das laufende Wissensarten-Projekt (angefangen 1997) ist eine Fortführung und Ergänzung des Wissensordnungs-Projekts (Spinner 1994), um einerseits die heterogenen >Ordnungen des Wissens< zu entwirren und andererseits mit Inhalt zu füllen.
Folglich werden im ersten Teil zunächst die maßgeblichen Ordnungsansätze unterschieden:
(1) >Ontologische< Ordnungen symbolischer (Begriffe, Propositionen u. dgl.) oder materieller (Bücher, Dokumente etc.) Wissensobjekte als gegenständliche Wissensorganisation der Bestände, Sorten, Träger.
(2) >Prozedurale< Ordnungen der Operationen und Prozesse als untechnische (heuristische) oder technische (algorithmische) Wissensrepräsentationen der Abläufe, Arbeiten, Verfahren etc.
(3) >Konstitutive> Ordnungen der gesellschaftlichen Leitbestimmungen und empirischen Randbedingungen als einrahmende ordnungspolitische Wissensordnungen (bei einseitiger Dominanz: Wissensregime).

Im zweiten Teil wird eine differentiellen Wissenstheorie (erster Entwurf Spinner 1997a) zur Erfassung der Artenvielfalt des Wissens vorgestellt. Im Mittelpunkt steht ein philosophisch abgerüstetes, analytisch differenziertes, praktisch nichtdiskriminierendes (modulares bzw. Montage-)Wissenskonzept für >Wissen aller Arten, in jeder Menge und Güte<, mit den drei Modulen A=Information, B=Validation, C=Selektion und darauf bezogenen Wissensfaktoren: Modul A zur inhaltlichen Wissensbestimmung als semantische Information; Modul B zur qualifizierenden Wissensvalidierung als E- oder U-Wissen (z. B. als kriteriengebundene wissenschaftliche Erkenntnis oder als >kriterienfreie< Low Quality-Information wie Unterhaltung, Werbung, Verwaltung); Modul C zur pragmatischen Wissensbewertung nach alternativen Präferenzen (zugunsten von Neuigkeit, Wichtigkeit, Brauchbarkeit, Stimmigkeit etc.) als aktivierte Kenntnisse bzw. handlungsleitendes Können.

Vortragsrelevante Veröffentlichungen des Autors:
(1) Die Wissensordnung – Ein Leitkonzept für die dritte Grundordnung des Informationszeitalters, Opladen: Leske + Budrich, 1994.
(2) Differentielle Erkenntnistheorie zur Untersuchung von >Wissen aller Arten, in jeder Menge und Güte< -- Ein Montagekonzept des Wissens für das Informationszeitalter; in: Christoph Hubig, Hrsg., Conditio Humana -- Dynamik des Wissens und der Werte, XVII. Deutscher Kongress für Philosophie, Berlin: Akademie Verlag, 1997a, S. 497-520 (Skizze des neuen Wissenskonzepts, aber noch ohne Modul C).
(3) Wissensregime der Informationsgesellschaft – >Wissen aller Arten, in jeder Menge und Güte< als Gegenstand der Rechts-, Wirtschafts- und Wissensordnung; in: Jahrbuch Telekommunikation und Gesellschaft, hrsg. von Herbert Kubicek u. a., Bd. 5, 1997b, S. 65-79.
(4) Die Architektur der Informationsgesellschaft, Bodenheim: Philo-Verlag, 1998.
Zur Zeit in Arbeit:

Monographien zum Wissensarten-Projekt sowie über (rechtliche, ökonomische, kognitive, technische) Wissensregime.

Studium Generale
Universität Karlsruhe (TH)
Kollegium am Schloß, Bau II
Postfach 6980
76128 Karlsruhe

Tel: 0721/608-3085
Tel: 0721/608-2043 (Sek.)
Fax: 0721/608-6148

Helmut.Spinner@geist-soz.uni-karlsruhe.de
31a Stegbauer, Dr. Christian / Rausch, A. Die Rolle der Luker in Mailinglisten Abstract:
Obwohl passive Teilnehmer (Lurkers) in den meisten Onlineforen die Mehrheit stellen, ist ihre Rolle weitgehend unerforscht. Dies liegt daran, daß Lurkers in den allermeisten Fällen nicht empirisch faßbar sind. In der Literatur werden sie daher in der Regel vernachlässigt oder lediglich am Rande erwähnt. Werden sie explizit behandelt, faßt man sie als Trittbrettfahrer auf. Lurkers zögen Nutzen aus den Kommunikationsprozessen, ohne einen eigenen Beitrag zu leisten (z.B. Kollock und Smith1994). Unserer Ansicht nach resultiert eine von der Größe des Kommunikationsraumes abhängige Menge an passiven Teilnehmern allein schon aus den strukturellen Anforderungen zur Ermöglichung von Kommunikation. Eine Betrachtung von Kommunikationsräumen, ohne die Mehrheit der Teilnehmenden zu berücksichtigen, wird daher immer ein verzerrtes Bild ergeben.
In Newsgruppen lassen sich lediglich die aktiven Benutzer erfassen, über passive Teilnehmer hingegen kann keine Aussage getroffen werden.
Anders in Mailinglisten: durch den notwendigen Eintrag in die Subskribentenliste werden geschlossene Kommunikationsräume definiert. Da diese Liste mitgeführt werden kann, lassen sich neben den aktiven Teilnehmern auch die passiven Mitglieder identifizieren.
Die Kombination einer Analyse der Subskribentenliste mit den Archiven der aktuellen Teilnehmer im Zeitverlauf erlaubt die Untersuchung von Lurkern. Es läßt sich die Frage beantworten, ob und unter welchen Bedingungen aus Lurkern aktive Teilnehmer werden, bzw. ob und wann aktive Teilnehmer in die Position von Lurkern zurückfallen. Da die Untersuchungen an sechs Mailinglisten mit Themenüberschneidung vorgenommen wurden, läßt sichzeigen, daß Lurker in der einen Liste nicht unbedingt auch Lurker in der anderen Listen sind. Insofern könnte ihnen eine ähnlich wichtige Rolle wie den Aktiven bei der Übertragung von Informationen aus dem einen in den anderen Sozialraum zukommen.
Johann Wolfgang Goethe-Universtität
FB Gesellschaftswissenschaften
Wbe Methodologie
Robert-Mayer-Straße 5
D-60054 Frankfurt

Tel. 069 - 7982 2274
Fax 069 - 7982 3344

Stegbauer@soz.uni-frankfurt.de
33. Stephan, Prof. Peter Friedrich Session mit Asmus: Theoriebildung als Gestaltungsaufgabe 20 Abstract:
Ob Lullus, Leibniz oder Luhmann: die Arbeit an theoriefähigen Systemen erkennt zwei Prämissen an: Die Abhängigkeit der Kommunikation von Materialität und die Dominanz technischer Systeme zur Erzeugung, Repräsentation und Nutzung von Komplexität. Wenn anerkannt wird, daß die Möglichkeiten und Grenzen medialer Repräsentation der Theorieentwicklung nicht äußerlich bleiben, sondern als Randbedingung in das Sag-, Zeig- und Denkbare eingehen, so ist zu fragen, wie sich dies im Kontext heutiger Computersysteme für die Produktion von Aussagen und Sinnzusammenhängen auswirkt. 1. Aussagen sind an den Gebrauch von Zeichen geknüpft. Avancierte Mediensysteme bieten neue Möglichkeiten zur Erzeugung und Manipulation von Zeichen. Bildgebende Verfahren, wissensbasierte Datenbanken und interaktive, offen vernetzte Systeme ergänzen sich zu einem Medienverbund, der neue Aussagen- und Erkenntnismöglichkeiten bietet. 2. Aussagen werden nicht nur medial dargestellt, sondern unter medialen Bedingungen hergestellt. Technische Randbedingungen, gestaltete Interfaces und mögliche Aussageformen stehen in einer Wechselwirkung. Zusammen bilden sie Entwurfssysteme, die die Möglichkeiten der Theoriebildung um gestalterische Aspekte erweitern. 3. Die Theoriemaschine liefert Kommunikationsanlässe durch anschlußfähig aufbereitete Inhalte. Autoren und Rezipienten treffen sich auf einem medial vermittelten Schauplatz, dessen Effizienz wesentlich durch ästhetische und kommunikative Aspekte bestimmt wird. Die Erweiterung wissenschaftlicher Methoden um gestalterische Aspekte läßt neue Erkenntnis- und Aussagemöglichkeiten erwarten.
Elektronisches Publizieren / Multimedia / Netzwerke
Kunsthochschule für Medien
Peter Welter Platz 2

50676 Köln

Telephone: +49-221-20189-336 / -123
Fax: +49-221-20189-21

pstephan@khm.de
34. Swertz, Christian Ausbildungsprobleme im Gebrauch von didaktischen Ontologien Abstract:
Das Verhältnis des Menschen zur objektiven, subjektiven und sozialen Welt ist abhängig von den Mitteln, die für die Zugänge zu den Welten verwendet werden. Im BMBF - Leitprojekt 'L3' wird nun eine Autorenumgebung entwickelt, mit der Lehrende Wissen als dekontextualisierte Wissensmodule formulieren und nach didaktischen Ontologien spezifizieren. Während sich die Navigation für Lernende intiutiv erschließt, stellt die Erstellung von Wissensmodulen mit der L3 - Umgebung für die Lehrenden eine doppelte Herausforderung dar. Zum einen muß das Wissen in eine topologische Struktur gebracht werden, zum anderen muß das Wissen explizit nach didaktischen Kriterien spezifiziert werden. Aus der doppelten Herausforderung resultiert ein doppeltes Ausbildungsproblem. Die nach wie vor bestehende Dominanz des Buchdrucks führt dazu, daß Wissen intuitiv in linearer Form organisiert wird. Die indidivuelle Präferenz für die lineare Wissensnanordnung muß in der Ausbildung zum Gebrauch didaktischer Ontologien daher explizit gemacht und andere Formen der Wissensanordnung vermittelt werden. Neben der linearen Anordnung bereiten Lehrende Wissen bisher meist für ein bestimmtes didaktisches Modell auf. Mit der Verfügbarkeit didaktischer Ontologien wird es möglich, Wissen so organisieren, daß es in mehreren didaktischen Modellen verwendet werden kann. Das macht differenzierte Kenntnisse und Handlungskompetenzen im Umgang mitdidaktischen Modellen erforderlich. Angesichts der Komplexität der Lernziele ist es in der Ausbildung zum Gebrauch didaktischer Onologien erforderlich, nicht nur mit mehreren didaktischen Modellen zu arbeiten, sondern das zu erwerbende Wissen in einer topologischen Struktur zu präsentieren und den handelnden Umgang mit Wissen zu trainieren.
Fakultät für Pädagogik (AG 10)
Universität Bielefeld
Postfach 10 01 31
33501 Bielefeld

t0521/106-3301
f0521/106-6028

christian.swertz@uni-bielefeld.de
35. Umstätter, Prof. Dr. rer. nat. Walther Wissensorganisation mit Hilfe des semiotischen Thesaurus - auf der Basis von SGML bzw. XML Abstract:
Die Dokumentare blicken heute auf eine rund hundertjährige Diskussion über die richtige klassifikatorische Erschließung von Dokumenten und ihren thematischen Inhalten zurück. Daneben hat sich die ISKO speziell der Frage nach der Organisation des in den Dokumenten enthaltenen Wissens durch Klassifikation, Kategorienbildung und Thesaurierung gewidmet. Dieser, durch die Möglichkeiten des Volltextretrievals zeitweilig etwas in den Hintergrund geratene Erfahrungsschatz, erfährt durch die neuen semantischen Thesauri eine ungeahnte Renaissance. Dabei ist der allgemeinen Aufmerksamkeit entgangen, daß die sichaus der Semiotik ableitende Entsprechung des semantischen Thesaurus, die des pragmatischen Thesaurus völlig unbeachtet blieb. Eingehende Überlegungen zu dieser Thematik zeigen, daß es sich bei den semantischen Thesauri eigentlich um semiotische Thesauri handelt, die beiden Aspekten, dem semantischen und dem pragmatischen, gerecht werden müssen. Thesauri sind in diesem Sinne die semiotische Schnittstelle zwischen den semantischen Objektbezeichnungen des Senders und der pragmatischen Begriffsbestimmung dieser Zeichen durch den Empfänger einer Nachricht. Es soll nun geprüft werden, ob und wieweit über die SGML- bzw. XML-Philosophie und ihre Funktion einer Metasprache, Computern eine gewisse Begrifflichkeit vermittelbar ist.
Humboldt-Universität zu Berlin Dorotheenstr. 26 15345 Altlandsberg Buchholzerstr. 16
10099 Berlin Germany
030 2093 4236
priv.: 033438 67318
Fa: 033438 67320
h0228kdm@rz.hu-berlin.de
35a van der Vet, Paul Plenarvortrag: Content Engineering - computing beyond the upper OSI layer Abstract:
The rapid proliferation of computer networks offers uniquepossibilities for researchers to exchange information, and equallyunique challenges for the people who have to realise thesepossibilities. I will summarise (some will say: caricaturise) theprocess of obtaining information as a four-stage process: (a) knowingwhat you want, (b) finding the location of the wanted information, (c)obtaining the information itself, and (d) processing the information toa form useful for further purposes, inclusing quality assessment. Theclassical field of information retrieval has almost exclusivelyconcentrated on (b), while Internet has mainly facilitated (c).
I will argue that a new generation of computer tools will facilitateall subprocesses save (a), and perhaps even (a). Key features of thesetools are: they possess built-in awareness of scientific content, andthey will fuzzify the boundaries between the subprocesses. I willillustrate these ideas by giving examples from my own work and that ofcolleagues. Key concepts are ontologies (the computer-age successors ofthesauri and classification systems), domain-informed natural-languageprocessing, virtual reality, and integration techniques. At the sametime, it must be noted that the availability of the needed resourcesdoes not keep pace with the other developments. This in part is aproblem of funding. I will argue that the development of resourcesshould be considered in the same vein as other infrastructuralmeasures, like the purchase of expensive equiment in the naturalsciences.
Dept. of Computer Science, University of Twente
P.O. Box 217, 7500 AE Enschede, the Netherlands

Tel +31 53 489 3694
Fax +31 53 489 3503

vet@cs.utwente.nl
37. Wasserfuhr, Rainer / Schubert, Yvonne aware-net.de: Dynamische terminologische Raeume für biographiebegleitendes persönliches und kooperatives Wissensmanagement 30 Abstract:
Der Uebergang von einer papierbasierten Informationskultur hat in der ersten Stufe die bisher dokumentzentrierten Wissenstechniken meist lediglich im elektronischen Medium abgebildet, ohne die Potentiale von effizientem Retrieval, dynamischer terminologischer Klassifikation, Data Mining oder Entscheidungsunterstuetzung fuer das lebenslange persoenliche Wissensmanagement fruchtbar gemacht zu haben. Wir wollen mit aware-net.de einen Ansatz vorstellen, der die von den etablierten Wissenstechniken her bekannten Metaphern des Tagebuchs und der Enzyklopaedie aufgreift, doch den Benutzer darueber hinaus motiviert, sein persoenliches Wissen in medienadaequateren Formen zu repraesentieren.

In einem elektronischen Tagebuch mit Hypertextfunktionalitaet wird die Zettelkastenidee Niklas Luhmanns aufgegriffen und dem Nutzer die Moeglichkeit gegeben, mehrschichtige Themenfaeden zu verwalten, in denen sich unterschiedliche semantische Zusammengehoerigkeiten von Textknoten abgebilden lassen. Durch Klassifikation von Knoten zu Objekten in einer individuellen Klassifikationsstruktur und deren Anreicherung mit expliziten Attributen kann sukzessive ein individuelles objektorientiertes Modell erstellt werden. Es erlaubt beispielsweise die Klassifikation eines Knotens als "Telefonat" mit den Attributen "Telefonnummer", "Gespraechspartner" und "Thema", wobei der Gespraechspartner und das Thema wiederum Objekte sein koennen. Ferner koennen Textknoten ueber explizite Wort-markups verschlagwortet werden. Die Resultate der Verschlagwortung und der Bezeichnungen fuer Klassifikatoren werden als Eintraege in einer individuell erweiterbaren Enzyklopaedie verwaltet. Durch die Kombination von Nutzungshistorie, Filtern und statischer Auswertung der Nutzungshaeufigkeit von Objekten und Enzyklopaedieeintraegen entwickelt sich die Enzyklopaedie nach kurzer Nutzungszeit zu einem hochstrukturierten individuellen Wissensraum, der sich dynamisch an das Verhalten des Nutzers anpasst.
Ueber Schnittstellen zu einem redaktionell betreuten Onlinedienst koennen die individuellen Wissensraeume in unterschiedlichen themenspezifischen communities mit denen anderer Nutzer synchronisiert werden. Die inhaltlichen Schwerpunkte von aware-net liegen derzeit in den Bereichen Neue Medien, Philosophie, Soziologie, Sprachwissenschaften und Informatik.
Rainer Wasserfuhr
Kamenzer Str. 13B
01099 Dresden

Tel. 0351-8013386

 

Yvonne Schubert
Boettgerstr. 4
01129 Dresden

0351-8483459

 

wasserfuhr@gmx.de   aware@gmx.de   yvonne.schubert@gmx.de
38. Wawra, Dr. Steffen entfällt Akademiebibliothek Berlin-Brandenburgische Akademie der Wissenschaften
Unter den Linden 8
10117 Berlin
Phone: (030) 20370 487
Fa: (030) 2082 367
wawra@bbaw.de
39. Wette-Roch, Dr. Elisabeth Pragmatische Aspekte der Wissensmodellierung in wissenschaftlichen Informationssystemen 30 Abstract:
Forschungsaktivitäten in den wissenschaftlichen Disziplinen stützen sich seit jeher auf einen Dialog beteiligter Wissenschaftler zum Austausch ihrer Ideen und Resultate. Globalisierung stellt dabei die Aufgabe, Ergebnisse weltweit verfügbar zu machen und umgekehrt einschlägige Resultate anderer Personen zur Kenntnis zu nehmen. Ein zentrales Problem ist hierbei der direkte Zugang zu den jeweils forschungsrelevanten Inhalten. Jede Wissenschaft verfügt über eine eigene Fachterminologie mit normierten Bezeichnungen für ihre Begriffe und Methoden. Im Unterschied zur natürlichen Sprache ist die Bedeutung solcher Fachtermini durch Definitionen explizit festgelegt, woraus ein Netz rein begrifflicher Abhängigkeiten resultiert, die zumeist in 'Ontologien' oder Thesauren repräsentiert werden. Mit unserem Ansatz vertreten wir vor dem theoretischen Hintergrund eines pragmatischen Wissensverständnisses die These, daß dieses semantische Modell für die Darstellung einer wissenschaftlichen Dokumentation nicht ausreicht. Vielmehr zeichnen sich Forschungsfragen gerade dadurch aus, daß sie über rein definitorische Zusammenhänge hinausgreifen. Aus dieser Sichtweise ergeben sich Implikationen für eine adäquate Repräsentation wissenschaftlicher Publikationen. Ausgehend hiervon entwickeln wir eine Repräsentationsform für Forschungsthemen, die neben den (statischen) Wissensbeständen eines Thesaurus auch die pragmatische Dimension von Interessen erfaßt. Dies geschieht mittels einer Reduktion der sprachlichen Beschreibung solcher Themen durch Nominalphrasen auf abstrakte assoziative Strukturen. Am Beispiel des Informationssystems LIS im Gebiet der mathematischen Logik skizzieren wir ein Modell für das Retrieval derartiger Strukturformen als Anwendung unseres Ansatzes.
Forschungsstelle Mathematische Logik der Universität Kaiserslautern Heidelberger Akademie der Wissenschaften Fachbereich Informatik
Postfach 3049
67653 Kaiserslautern Germany
Tel: +49+631+205+3364 (d.)
Tel: +49+6201+509346 (p..)
Fa: +49+631+205+3357
wette@informatik.uni-kl.de
_____________________________________________________________________________________

 

Peter Ohly 03.07.2000