International Society for Knowledge Organization (ISKO)
German Chapter

Internationale Gesellschaft für Wissensorganisation
Deutsche Sektion e.V.

 

    Dt. ISKO e.V.

Neuigkeiten & Aktivitäten

Konferenzen

Publikationen

Beiträge               

wiss-org-
Diskussionsliste

Links

Kontakt

    

 

Druckversion

Gesammelte Abstracts
(Version 16.03.2001)

7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) "Wissensorganisation und Edutainment" (21. - 24. März 2001 Humboldt-Universität Berlin)


Asmus, Stefan
Designing future knowledge systems:
Zur Genese ereignisorientierter hypermedialer Wissenssysteme

 

Erfolgreiches Wirtschaften heißt zunehmend: erfolgreich kommunizieren. Während Teilfunktionen der Unternehmen mit Gewinn outgesourced werden können, stellt der Umgang mit formalisierbarem Wissen das ureigenste Kapital der Firmen dar. Dieses "corporate brain" gilt es, optimal zu entwickeln und zu pflegen.
Durch die Optimierung von Materialflüssen (Logistik) und die Einrichtung von Datenflüssen (EDV) konnten große Produktivitätsfortschritte erreicht werden: In dieser Entwicklungslinie wird heute eine Optimierung der Wissensflüsse (knowledge flow) gefordert. Dies ist die Schwelle zur zukünftigen Produktivität in der Wissensgesellschaft.

Die Optimierung der Wissensflüsse hängt im wesentlichen von vier Faktoren ab, die bisher nur ungenügend berücksichtigt wurden:

1.        Mind-Ergonomie

§         Bestmögliche Anpassung der Wissenssysteme an die kognitiven Voraussetzungen von Individuen.

§         Nutzung vorhandener Fähigkeiten, die in erkenntnisbildende Prozesse eingehen, wie z.B. visuelles Gedächtnis, Kontextbezogenheit und assoziative Verknüpfung.

2.        Erschließung des "tacit knowledge" (implizites Wissen)

§         Bisher vernachlässigte, aber umso wirksamere "soft factors" wie Emotionen, Affekte und soziale Intelligenz können mit multimedialen verteilten Systemen aufgeschlossen und produktiv gemacht werden

§         rudimentäre, verteilte und vorläufige Informationen werden kontextuiert und erlangen Bedeutung

§         alle Datenformate (Text, Bild, Sound, 3D, Video) werden unterstützt und finden Anschluss

3.        Optimierung des Kommunikationsprozesses durch Einführung neuer medienadäquater Formate

§         alle relevanten Informationen werden in den Kommunikationsprozess eigespeist

§         deutliche Verlagerung von ergebnisorientierter Kommunikation (Verstehen) auf prozessorientierte Kommunikation (Kommunizieren und Problematisieren)

§         Unterstützung von Selbstorganisationsprozessen

§         Unterstützung von Meinungsbildungs- und Entscheidungsfindungsprozessen

§         Unterstützung komplexer Gruppenprozesse

§         Adäquanz: Angemessenheit an Adressat, Nutzer Aufgabe, Situation, etc.

§         Variabilität und Flexibilität der eingesetzten Werkzeuge

§         individuelle Konfigurierbarkeit

§         schnelle, intuitive und effektive Handhabbarkeit technischer Mittel.

Heute kommt es darauf an, Wissenssysteme anzubieten, die das Potential der Technik optimal an die kognitiven Voraussetzungen der Nutzer anpassen. Derzeit verfügbare Anwendungen in den Bereichen Wissenmanagement, Content Management oder Knowledge Commerce berücksichtigen die Fähigkeiten und Bedürfnisstrukturen der Nutzer nur unzureichend. Daher befindet sich der Markt nach einer anfänglichen Euphorie über die prinzipiell realisierbare Verbindung von allen mit allem zur Zeit in der post-euphorischen Phase des Internets. Probleme wie "Information overload" zeigen, daß nach der ersten Umstellungsphase auf digitale Techniken nur noch geringe Effizienzgewinne realisiert wurden. Die kompetente Nutzung von Informationen in pragmatischen Handlungskontexten, also das tatsächlich realisierte Wissen, nimmt im Verhältnis zur Datenmenge ab.
Lösungen für Wissensgemeinschaften müssen deshalb in einem systemischem Zugang das technische Potential mit gestalterischer Differenzierung und kognitiver Anpassung verbinden. Nur ein solchermaßen verstandener integrativer Ansatz kann sich erfolgreich und dauerhaft auf den neu entstehenden Märkten für Wissenstechniken positionieren.

 

 Seitenanfang


Bosch-Sijtsema, Petra
Virtual organisations and knowledge development: A Case of Expectations

 

The virtual organisation (VO) is viewed as an organisation consisting of independent partners, who try to combine their strengths, skills, resources, risks and finances in order to produce ideas or a product. Members of the VO are often geographically dispersed and communicate with help of information technology. The VO is a popular organisation structure, but it is also known that the VO is difficult to manage. Members work rather individual and there is hardly any control. Some problems of the VO are that it is difficult to motivate its members, members suffer from social loafing and absenteeism. On the other hand it is unclear how such an organisation can reach a synergetic or learning effect by co-operating with each otherís core competencies. Learning is inhibited by several organisational boundaries of a VO. These boundaries are within time, space, structure, diversity and distribution of results and information. Current literature on learning, does not often take into account the geographical dispersion and fluctuating workforce of a VO, although some do take into account learning between organisational partners (Hamel 1991, Nonaka 1995). In Sweden a research virtual organisation was followed for three years, where the main question was: how is knowledge developed in a VO. Important aspects were to investigate boundaries and enablers of knowledge development in a VO, the role of management and the role of IT in this development process. The data was collected with help of interviews, observations and questionnaires. It was found in the research VO, that besides a high use of e-mail for communication and information distribution, rich modes of communication were important (e.g., telephone and face-to-face). However, due to several reasons the information system was not often used. Furthermore, it was found that the expectations of members were of importance for the success of the organisation. The expectations of members are based on past experiences, personal values, professional specialisation and the role in hierarchy (Ring & Van de Ven, 1994). Depending on expectations of members, a match or mismatch with the content of the work, the role of members, the development process of the organisation, the way information and results were distributed and the role of the autonomous partners could be seen. A difference in expectations could be viewed between project leaders and project members, where project leaders had a low to moderate vague expectation, while project members often had a high to moderate expectation, which was more detailed described. For the development of knowledge in a VO, it might be important, that management could harmonise the expectations of its members. Expectation management is proposed as stimulating, maintaining and creating expectations within a VO, in order to overcome the earlier mentioned problems of a VO.

Hamel, G. (1991) "Competition for competence and interpartner learning within international strategic alliances," in Strategic Management journal, vol. 12, pp: 83-103.

Nonaka, I. (1994) "A dynamic Theory of Organizational Knowledge Creation," in Organization Science, Vol. 5 (1), February, pp: 14-37.

Ring, P.S. /Van De Ven, A.H. (1994) "Developmental Processes of Cooperative Interorganizational Relationships," in Academy of Management Review, vol. 19 (1), pp: 90-118.

 

 Seitenanfang


Budin, Gerhard
Wissensorganisation als Gestaltungsprinzip virtuellen Lernens -epistemische, kommunikative und methodische Anforderungen an Lernende und Lehrende

 

Die sogenannte Tele-Epistemologie steht erst am Anfang in ihrem Vorhaben, die epistemischen Auswirkungen der Möglichkeiten und der Praxis des virtuellen Lernens und Lehrens auf alle Beteiligten zu erforschen und auf erkenntnistheoretischer Ebene zu reflektieren. Wissensorganisation als dynamischer Begriff und als komplexer Prozess wird als Gestaltungsprinzip beschrieben, das für das virtuelle Lehren und Lernen mindestens ebenso wichtig ist wie für traditionelle Formen des Wissenstransfers und der Wissensakquisition. Schließlich sollen die epistemischen, kommunikativen und methodischen Anforderungen, die virtuelles Lernen und Lehren an die Beteiligten stellen, in einem theoretischen Rahmen der Wissensorganisation aufeinander bezogen werden. Die theoretischen Überlegungen werden anhand von 2 konkreten Projekten (auf EU-Ebene) expliziert.

 

 Seitenanfang


Däßler, Rolf
Visualisierung: Ein Hilfsmittel zur Nutzbarmachung von Wissenstrukturen?
Stand, Probleme und Perspektiven der Informationsvisualisierung

 

Abstrakt. Der Artikel untersucht, inwieweit Methoden und Metaphern der Informationsvisualisierung geeignet sind, um den Zugang zu Wissenstrukturen zu unterstützen. Ein Schwerpunkt ist dabei die Repräsentation von abstrakten Informationen und Wissen in virtuellen Informationsräumen.

Angesichts rasch steigender Informationsmengen wird das Filtern und die kontextbezogene Analyse von Informationen zu einem entscheidenden Wirtschaftsfaktor. Knowledge Retrieval unterstützt den Prozeß der Extraktion von Wissen aus Datenbanken bzw. unstrukturierten, verteilten Dokumentbeständen. Dabei spielt die Informationsvisualisierung ein entscheidende Rolle. Die Grundidee ist dabei, daß die Visualisierung eine effizientere Erfassung von komplexen Zusammenhängen und einen schnellen Überblick über große Datenbeständen ermöglicht. Eine Methodik, die sich bereits auf dem Gebiet der Datenvisualisierung bewährt hat.

Die Informationsvisualisierung bietet eine Reihe von visuellen Konzepten, um semantische Netze zu repräsentieren. Die visuellen Metaphern reichen von einfachen grafischen Knoten- und Kanten-Modellen über Dokument- bzw. Begriffskarten bis hin zu virtuellen Informations- und Erlebniswelten. Allerdings bereitet gerade die Visualisierung von abstrakten Informationen in virtuellen Informationswelten besondere Probleme. Die Navigation im Informationsraum, die räumliche Wahrnehmung von Objekten oder die Darstellung von Text sind nur einige von vielen ungelösten Problemen, die in diesem Artikel diskutiert werden. Auch unter dem Aspekt eines Informationsmehrwertes ist die Verwendung der 3.Dimension als Benutzerschnittstelle nach wie vor umstritten.

Anders sieht es bei der Darstellung von bereits kategorisiertem bzw. vorstrukturiertem Wissen aus. Vor allem für hierarchische Informationsstrukturen stehen eine Vielzahl von visuellen Metaphern zur Verfügung, wie Folder Tree, Treemap, Hyperbolic Tree, Cone Tree etc.

Auch im Bereich des Data Mining, dem Prozeß der Datenerkundung im KDD (Knowledge Discovery in Databases) spielt Informationsvisualisierung heute eine zentrale Rolle. Über visuelle Benutzeroberflächen kann der Benutzer interaktiv die Datenanalyse durchführen oder die Repräsentation der Ergebnisse beeinflussen.

Neue Perspektiven eröffnen sich für die Informationsvisualisierung mit den Topic Maps. Durch die Auswertung von Metastrukturen über Dokumentinhalte kann die Qualität visueller Methoden bedeutend verbessert werden. Auf der Basis statistischer Dokumentähnlichkeiten generierte semantische Karten bzw. virtuelle Informationsräume zeigten bisher nur unzureichende Ergebnisse beim Mapping von Wissensstrukturen. Topic Maps bilden dagegen eine geeignete Basis für zukünftige interaktiv-visuelle Wissenssysteme.

 

 Seitenanfang


Eibl, Maximilian und Thomas Mandl
Die Qualität von Visualisierungen: Eine Methode zum Vergleich zweidimensionaler Karten

 

Zweidimensionale Karten dienen im Information Retrieval häufig der Visualisierung von Dokumentbeständen. Über die Qualität der verschiedenen Methoden zur Erzeugung dieser Karten ist wenig bekannt. In diesem Artikel werden zwei Verfahren hinsichtlich ihrer Unterschiede verglichen. Dabei ist die Sichtweise des Benutzers beim Browsing in einer Karte der Ausgangspunkt. Das Experiment zeigt, dass die Methoden sowohl bei großen als auch bei kleinen Dokumentenmengen zu völlig unterschiedlichen Karten führen und zwischen den Karten keine Korrelation besteht. Daher muss die Methode zur Abbildung einer Dokumentenmenge auf eine zweidimensionale Karte für jede Anwendung erneut evaluiert und optimiert werden.

Einführung

Visualisierung dient der Reduktion der Komplexität und ermöglicht Benutzern das schnelle Erkennen komplexer Zusammenhänge in Wissensstrukturen. Im Information Retrieval Prozess unterstützt die Visualisierung mehrere Stufen und kann etwa der Darstellung von Termen, logischen Beziehungen zwischen Anfrage-Operatoren oder Dokumenten dienen. Für letzteres werden oft zwei- oder dreidimensionale Räume entworfen, in denen etwa die Gravitätsmetapher wirkt. Zweidimensionale Karten drücken semantische Nähe von Dokumenten durch geringe räumliche Distanz aus. Am häufigsten wird die Kohonen Self-Organizing Map (SOM, cf. Kohonen 1998) benutzt, aber auch Latent Semantic Indexing (LSI, cf. Berry & Letsche 1995) oder Faktorenanalyse können zur Reduktion von Repräsentationen auf zwei Faktoren dienen. Obwohl die Theorien der Wahrnehmung Vorteile versprechen, bleibt unklar inwieweit Visualisierungen den Information Retrieval Prozess unterstützen. Evaluierungen von Visualisierungen sind selten, das gilt auch für zweidimensionale Karten. In den letzten Jahren haben zwei Implementierungen zweidimensionaler Karten im Internet große Mengen von Dokumenten analysiert und dargestellt. Chen et al. 1996 haben mit einer Kohonen-SOM die Dokumente aus der Yahoo-Kategorie Entertainment klassifiziert und dargestellt. Die große Anzahl von Dokumenten zwang zu einer schichtweisen Realisierung, bei der die Karte gewissermaßen in kleine Teilbereiche zerlegt wird, die auf einer übergeordneten Karte durch eine Fläche vertreten sind. Die Interaktion mit einer Karte erfolgt somit in mehreren Schritten, die dem Zoomen ähneln.

Eine noch umfangreichere Datenbasis liegt dem System WEBSOM (Kohonen 1998) zugrunde. Darin werden etwa eine Million Beiträge zu Diskussionsforen (Internet Newsgroups) organisiert. Ziel ist es, neben der hierarchischen Struktur der Diskussionsforen einen assoziativen Zugang über mehrere Newsgroups hinweg zu ermöglichen. Kohonen 1999 wählte als Strategie für die Bewältigung der großen Datenmenge wie Chen et al. 1996 einen schichtweisen Aufbau. Die beiden Systeme zeigen auch Schwächen des Ansatzes. Lediglich Chen et al. 1996 berichtet von informellen Benutzertests, so dass keine Aussagen über die Vorteile der SOM oder zweidimensionaler Karten allgemein bei der Lösung von Informationsproblemen möglich sind. Die Autoren begründen auch die Wahl ihrer Methode nicht und können für den jeweiligen Anwendungsfall die Überlegenheit der SOM gegenüber anderen Methoden nicht nachweisen. In diesem Beitrag soll gezeigt werden, dass dies unbedingt erforderlich ist, da die zwei Methoden zu völlig unterschiedlichen Karten führen können.

Evaluierungsmethode

Für die Evaluierung von zweidimensionalen Karten gibt es keine Standard-Verfahren wie für die Bewertung von Information Retrieval Systemen. Diese statistischen Methoden, die z.B. im Rahmen der Text Retrieval Conference (TREC) eingesetzt werden, basieren auf Ranking-Listen und lassen sich so nicht auf Ansätze auf der Grundlage von Browsing-Techniken anwenden. Dieser Beitrag stellt eine Methode zum Vergleich zweier Karten vor, die den Benutzerstandpunkt beim Browsing in den Mittelpunkt stellt, aber ohne aufwendige Benutzertests auskommt.
Eine Karte von Dokumenten hilft dem Benutzer dann, wenn semantisch ähnliche Dokumente nahe zusammen gruppiert sind. Nach der Fokussierung eines Dokuments wird der Benutzer die am nächsten gelegenen betrachten. Die Evaluierungsmethode nimmt daher ein Dokument als Ausgangspunkt und bestimmt die Euklidische Distanz zu allen anderen. Durch Berücksichtigung aller Dokumente entsteht so eine Ähnlichkeitsmatrix. Das Verfahren wird für jede Visualisierungsmethode wiederholt und es ergeben sich so mehrere Matrizen. Die Korrelation zwischen diesen Matrizen dient als Maß für den Vergleich der Methoden. Für die Berechnung der Korrelation wird die Matrix in ihre Spalten aufgeteilt und jede Spalte wird nach Ähnlichkeit sortiert. Der Spaerman-Rangfolgen-Koeffizient bestimmt die Korrelation zwischen den Ranking-Listen der verschiedenen Methoden. Der Durchschnitt der einzelnen Listen bildet das Resultat für die Matrizen.

Spearman:(Hartung 1984)

Experiment und Ergebnisse

Die Daten für das Experiment stammen aus den Datenbanken des Informationszentrums Sozialwissenschaften (IZ) in Bonn. Indexierer des IZ verschlagworten intellektuell sozialwissenschaftliche Fachliteratur und Projektinformationen. Eine Untermenge bildet das deutschsprachige Fachkorpus für das Cross Language Evaluation Forum (CLEF), das Systeme für multilinguales Information Retrieval bewertet.
Mit einem Ausschnitt von 1000 Dokumenten wurden mit LSI und SOM zwei zweidimensionale Dokumentenkarten gebildet. Der Vergleich nach der oben geschilderten Methode führte zu einer Korrelation von 0,053. Dies zeigt, dass zwischen den Matrizen keine Ähnlichkeit besteht. Das Experiment wurde auch für kleinere Mengen von zehn und hundert Dokumenten durchgeführt. Auch in diesen Fällen ergab sich keine Korrelation wie die folgende Tabelle zeigt.

 

Anzahl der Dokumente

1000

100 (Durchschnitt aus zehn Mengen)

10 (Durchschnitt aus 100 Mengen)

Höchste Korrelation für eine Menge von 10 Dokumenten

Korrelation

0,053

0,037

0,013

0,34

Tabelle 1: Ergebnisse

 

Fazit

In der Literatur wird oftmals als gesetzt angesehen, daß Visualisierungen textuellen Formen der Datenpräsentation überlegen sind. Die kognitionswissenschaftlich durchaus begründbare Vermutung führt bei der Gestaltung von Visualisierungen oftmals scheinbar zu einer nicht weiter hinterfragten Annahme, daß die geschaffene Visualisierung von Vorteil sei. Auf die Durchführung von Evaluationen wird meist verzichtet. In diesem Artikel wird gezeigt, wie wichtig jedoch solche Evaluationen sind, kann doch schon die Verwendung unterschiedlicher Konstruktionsprinzipien ein und desselben Visualisierungstyps zu erheblich unterschiedlichen Ergebnissen führen. Solange die Ergebnisse verschiedener Techniken zu solch divergenten Ergebnissen führen, sind zusätzliche Anwendertests notwendig, um die geeignetere Technik zu bestimmen.

Literatur

Berry, Michael; Dumais, Susan; Letsche, Todd (1995): Computational Methods for Intelligent Information Access. In: Proc. ACM Supercomputing ë95. San Diego, CA. S. 1-38.

Chen, Hsinchun; Schuffels, Chris; Orwig, Richard (1996): Internet Categorization and Search: A Self-Organizing Approach. In: Journal of Visual Communication and Image Representation. 7(1). S. 88-101.

Hartung, Joachim (1984): Lehr- und Handbuch der angewandten Statistik. München, Wien.

Kohonen, Teuvo (1998): Self-organization of Very Large Document Collections: State of the art. In Niklasson, L.; Bodén, M.; Ziemke, T. (eds.):

Proceedings of ICANN ´98, 8th International Conference on Artificial Neural Networks, Springer: London. vol. 1, S. 65-74.

 

Seitenanfang 


Figge, Udo
Bedienungsanleitungen und der Erwerb kohärenten Wissens

 

Montage-, Bedienungs- und Wartungsanleitungen für Geräte, Apparate, Maschinen usw. enthalten normalerweise sowohl textliche (sprachliche) als auch bildliche (grafische) Komponenten. Die bildlichen Komponenten sind häufig ihrerseits mit (meist rudimentären) textlichen Komponenten versehen. Anleitungen dieser Art werden standardmäßig angesichts des Geräts genutzt, auf das sie sich beziehen. Insofern sind bei ihrer Nutzung gleichzeitig gegenständliche, textliche und bildliche Wahrnehmungen zu verarbeiten. Die Ergebnisse der Verarbeitung dieser unterschiedlichen Wahrnehmungen haben jeweils einen unterschiedlichen kognitiven Status. In diesem Beitrag soll erörtert und an Beispielen gezeigt werden, ob und wie in einer derartigen hybriden Rezeptionssituation zusammenhängendes Wissen gewonnen und angewandt werden kann.

Als ein spezifisches Beispiel sollen Rechner-Benutzeroberflächen herangezogen werden. Benutzeroberflächen sind primär Bedienungsvorrichtungen, doch sind sie insofern auch Referenz-Gegenstände von Bedienungsanweisungen, als in sie normalerweise Hilfekomponenten integriert sind.

Die theoretische Basis dieses Beitrags ist eine semiotische.

 

 Seitenanfang


Fisch, Harald
Wissensmanagement im Innovationsprozess, ein Novum?

 

Wissen und Informationen waren und sind zentrale Gebiete jeder Projektarbeit. Projektarbeit. Projektarbeit. Projektarbeit. Über den gesamten Innovationsprozeß werden immer wieder Informationen und Wissensteile ausgewählt, ausgewertet, aufbereitet, bereitgestellt aber auch neues Wissen erzeugt.

In unserer kreisförmigen Darstellung werden zwei Punkte besonders deutlich. Zum einen der systemische Charakter. Alle Aktionen und Erkenntnisse haben auf alle anderen Prozessphasen Auswirkungen. Diese Interdependezen können sich positiv oder auch negativ auswirken. Ein Ansatzpunkt die positiven Effekte zu aktivieren ist Lernen Lernen Lernen Lernen als Teil des KnowledgeManagaments. Zum anderen werden Verbindung Verbindung Verbindung Verbindung und Motivation Motivation Motivation Motivation von Innovations- und Wissensmanagement als kritische Erfolgsfaktoren sichtbar. Werden Verbindungsstellen und Motivationsaspekte nicht beachtet, so ist die Gefahr des ÑÜber die Mauer werfenì groß. Ein optimales Integrationsinstrument müßte daher zwei zentrale Anforderungen erfüllen. Es muß sowohl single single single single als auch double- loop Learning double- loop Learning double- loop Learning double- loop Learning ermöglichen um die Vorwärts- und Rückwärtsintegration zu gewährleisten. Zweitens sollten die Verbindungstellen persönlich persönlich persönlich persönlich ausgestaltet sein. Durch ein persönliches Debriefing (s. a. Toolbox) wird Wertschätung ausgedrückt und dadurch ein Motivationseffekt erzielt. Der KnowledgeCircle KnowledgeCircle KnowledgeCircle KnowledgeCircle ist unser Instrument an den Verbindungsstellen der einzelnen Prozesschritte. Er muss dort fest in den Prozess eingearbeitet sein. Dem persönlichen Debriefing der Innovationsmanager durch den Wissensexperten liegt genau dieser KnowledgeCircle zugrunde. Identifiziertes Wissen kann dann einerseits einerseits einerseits einerseits zeitnah in die Wissens und Ideendatenbank eingetragen werden. Zudem Zudem Zudem Zudem hat der Wissensmanager bereits einen ersten Eindruck von dem im weiteren Prozessablauf benötigten Wissen. Bei Bedarf können und werden auch in in in in den Prozessphasen KnowledgeCircle durchgeführt.

 

 Seitenanfang


Galinski, Christian
Terminology and knowledge representation: There is no knowledge without terminology

 

Future knowledge processing and management in all environments - here in the meaning of vertical dimensions, such as subject fields, as well as of horizontal dimensions, such as language communities - needs a unified theory of knowledge organisation and knowledge structuring based on science theory and harmonised methods. Terminology science as developed over the years from the first findings of Eugen Wüster via the standardising activities of ISO/TC 37 "Terminology and other language resources" to recent research and development carried out at many research institutions over the world, provides a theoretically sound basis for managing the 'terminologies' (viz. concepts and concept systems represented by symbolic representations, such as terms, graphical symbols, formulae etc., and descriptive representations such as definitions, explanations, complex formulae etc.) as the 'microstructures of specialised knowledge'.

The scientific 'objects' of terminology science are first of all 'concepts' corresponding to (concept) classes of (real - i.e. material and immaterial) objects. They are conceived according to the classificatory and categorising activity of the human intellect, and are represented for communication purposes by means of linguistic and/or non-linguistic concept representations (i.e. symbols). Concepts are the constituting elements of any scientific theory. They are used to formulate propositions and sets of propositions into theories and theory systems. Seen under this perspective concepts are units of scientific-technical thinking (when they are conceived), units of knowledge (if recognised by a certain community of experts) and units of communication (if communicated by means of spoken or written communication). No specialised information and knowledge can do without terminology in this broad meaning. As a consequence of this, knowledge processing and knowledge management cannot function efficiently and effectively without taking modern terminology science and its methodology in a variety of applications as well as the tools developed for these applications into account.

Under the theory of ordering classification schemes and documentation thesauri (originally developed as 'documentation languages' for information indexing and retrieval purposes) are also based on concepts and concepts systems: namely theme concepts and their systems representing the 'macrostructure of specialised knowledge'. On the one hand such documentation - or indexing and retrieval (I&R) languages - languages are needed to subdivide large quantities of data (on all kinds of real objects in the above meaning) into manageable portions under 'pragmatic' considerations - including the scientific objects called concepts. Documentation languages often look very much like terminology data collections, but are different in terms of conceptual structure, relation to SPL communication and first of all function in accessing knowledge.

No terminology database - containing terminological records, which can be considered as and are often called 'documents' - can be efficiently maintained without a classification scheme and/or a thesaurus (or a 'classaurus' as a combination of both). On the other hand virtually information on all kinds of objects can be 'managed' by means of a combination of a concept classification (viz. terminology) and one or more documentation languages.

 

 Seitenanfang


Gerstenkorn, Alfred
Wissensmanagement braucht Verstehensmanagement

 

So sehr Informations- und Kommunikationstechnik verbessert und verbreitet wird, so schwer leidet die sogenannte Wissensgesellschaft unter einem wachsenden Mangel: Sie versteht immer weniger. Dies gilt für Einzelne wie für Betriebe, am Arbeitsplatz wie in der Aus- oder Fortbildung, für Experten und für interessierte, begrifflich geschulte Laien. Immer mehr und differenzierteres Fachwissen, das immer schneller veraltet, interdisziplinäre Fragen in Projekten und Programmen, "globale" Zusammenhänge werden am Arbeitsplatz, aber auch im Studium nur teilweise oder falsch verstanden. Der Schaden ist enorm. Wer Wissen im Wandel handhaben will, muß notwendigerweise das täglich neue Problem des Verstehens in den Griff bekommen. "Verstehen" wird hier zunächst technisch, pragmatisch gesehen, ohne Hermeneutik oder Kognitionspsychologie.

Regeln für verständlicheres Schreiben gibt es schon, sie werden aber nur von relativ wenigen Fachautoren umgesetzt, ein Meer von schwerverständlichen Fachtexten hat sich bereits gebildet. Es gibt Faktoren, für die der Autor verantwortlich ist, etwa logischer Textaufbau, klare Satzstruktur, verständliche Wortwahl u. a. Andere Faktoren unterliegen objektiven Zwängen, z. B. muß ein Physiker in einem wissenschaftlichen Aufsatz die Grundlagen der Physik bei den Lesern - seinen Kollegen - voraussetzen, interessierten Laien fehlen sie jedoch teilweise, der Autor kann mit demselben Aufsatz nicht beide Gruppen gleichermaßen erreichen. Wieder andere Faktoren sind etwa Denkart oder Lerngewohnheiten von Rezipienten.

Was weitgehend fehlt, sind Werkzeuge für Leser und Leserinnen zur Unterstützung des Verstehens unter den individuellen Bedingungen am Arbeits- oder Studienplatz: ein Verstehensinstrumentarium. Sprachliche Hilfen soll etwa ein Nachweis von Synonymen, rhetorischen Figuren und anderen Formen der Referenzidentität innerhalb von Disziplinen und Fächern übergreifend liefern. Die Klärung von Homonymen (z. B. "Valenz" in der Gemeinsprache, der Chemie, der Linguistik) kann auf Bekanntes setzen und vor Mißverständnissen schützen. Inhaltliche Hilfen sollen Begriffsnetze mit Definitionen und Verknüpfungen zu Texten unterschiedlicher Fachlichkeit und Korngröße bieten. Je nach bevorzugter Lernmethode soll der Nutzer textuelle, bildliche, akustische Darstellungen, Systematiken oder Beispiele usw. heranziehen können. Außer eigenen Beiträgen erfordert dies - weit über Listen von Internet-links zu bestimmten Begriffen hinaus - eine systematische Vorauswahl, auch aus dem Internet, wobei dem Nutzer die eigene Suche im Internet weiterhin offen bleibt, er kann sich dabei sogar der Begriffsnetze aus dem Instrumentarium für die Formulierung von Suchanfragen bedienen. Bei den neu zu verfassenden Texten können Empfehlungen für verständlicheres Schreiben effektiv befolgt werden.

Dem Nutzer des Verstehensinstrumentariums soll der Sicherheitsgrad der Wissenseinheiten angezeigt werden, etwa: gesichert, umstritten, neue These usw. Alle Inhalte des Instrumentariums - die vorsortierten Teile etwa aus dem Internet und eigene Beiträge - sollen überprüft sein. Zur Erstellung des Instrumentariums müssen Strukturwissenschaftler (Linguisten, Informatiker, Fachleute für Klassifikation u. a.) mit Fachleuten der nach und nach zu erschließenden und zu verbindenden Fächer bzw. Fachbereiche kooperieren. Es gibt schon brauchbare Software dafür auf dem Markt, sie muß den Erfordernissen angepaßt werden. Wissen allein genügt nicht, es muß verstanden sein. Deshalb muß Wissen zu Verständnis führen. Wissensmanagement braucht dafür Verstehensmanagement.

 

 Seitenanfang


Haber, Peter und Jan Hodel
History Toolbox oder: Wie die Kulturwissenschaften mit dem Traum der Bibliotheca Universalis umgehen

 

Der Traum der Menschheit von einer allumfassenden Bibliothek ist alt. Schon in der Antike waren Menschen von der Idee fasziniert, alles Wissen dieser Welt an einem Ort sammeln und ordnen zu können. Mit dem Internet erwacht dieser Traum wieder. Doch zur Zeit herrscht eher Chaos als Ordnung, Qualitätssicherung scheint für die meisten Apologeten der schönen neuen Informationswelt ein Fremdwort zu sein. In den Kulturwissenschaften ist deshalb die Berührungsangst noch gross, das Potential der Neuen Medien indes wäre gross: Neue Möglichkeiten im Bereich der Recherche und des collaborative learning könnten in Forschung und Lehre einen Umbruch auslösen.

Das Projekt "History Toolbox" (HTB) des Historischen Seminars der Universität Basel versteht sich als Einstiegshilfe für den kulturwissenschaftlichen Umgang mit dem Internet. In Verbindung mit entsprechenden Lehrveranstaltungen möchte es die Medienkompetenz von Lehrenden und Studierenden erhöhen und die Schwellenangst zum Cyberspace nehmen. Kern des Projektes ist eine mit Meta-Daten angereicherte Datenbank, in der historisch relevante Online-Ressourcen nachgewiesen und inhaltlich erschlossen werden. Dabei wird sich die HTB in einem ersten Schritt auf die im Seminar schwerpunktmässig gepflegten Themenbereiche wie etwa Gender Studies oder Historische Anthropologie konzentrieren, gleichzeitig aber auch einen Grundstock von allgemeinen kulturwissenschaftlichen Ressourcen bereit halten. Zur HTB wird aber auch eine Online-Arbeitsumgebung gehören, in der Forschende, Dozierende und Studierende sich individuell oder in Gruppen virtuelle Wissensplattformen einrichten können. Nach einer einjährigen Pilotphase startete das Projekt HTB im Oktober 2000 mit einer Laufzeit von zwei Jahren. Projektpartner sind die Universitätsbibliothek Basel und das Universitätsrechenzentrum. Die Projektunterlagen und die vorläufige Version der Datenbank sind unter http://www.hist.net/htb abrufbar.

 

 Seitenanfang


Hildebrandt, Michael und Herbert A. Meyer
Time Design: Beyond 'Faster is Better'

 

Both in Website development and Web-related research, much effort has recently gone into optimizing the structural properties of information systems (e.g. comparing hypertext structures, developing navigation aides). The dynamic, performance-related aspects of human-computer interaction, however, have been widely neglected (arguably for lack of theory and proper metrics in this emerging field). Where performance aspects are considered (e.g. in Web usability, see Nielsen), the computer's system response time (SRT) is usually regarded as annoying waiting- or idle-time for the user. Thus, the technological doctrine 'The Faster, the Better' is applied almost indiscriminately when designing human-computer systems, assuming an inherent cognitive plausibility of this solution. While our own experimental research in this area supports the view that excessive SRT has detrimental cognitive, emotional and motivational effects, there are also reasons for designing the lower end of the SRT scale, in particular between 0.2 and 2 seconds SRT. Here, the user has been found to adopt the computer's speed and to respond faster himself. This unconscious 'pacing' phenomenon seems to induce an agitated, superficial work style, as indicated by deteriorated performance in a succeeding memory test. So far, this effect was investigated using a large picture database, organised as a 'hyper catalogue'. We believe, however, that the pacing effect applies to many of the fast and interactive Web systems currently emerging, as well as to local applications (DVD, CD-ROM) - each with their own temporal characteristics. Thus, the Time Design approach should be entered into the usability development and evaluation process. To extend our previous findings, we are currently collecting field data on the Web from a popular interactive learning application.

 

 Seitenanfang


Jorna, René & Larissa Sjarbaini
Organizational forms, coordination and knowledge types

 

Organizations are collections of human - and artificial- actors regulated by coordination mechanisms.
The actors are intelligent where intelligence is accounted for by knowledge and cognition. Cognition is that aspect of (human) actors by which they are said to think, reason and decide. The most important elements of cognition are an architecture, representations and operations on these representations. Knowledge can be distinguished in terms of content (domain) and form (types). Vital in knowledge as well as in cognition are the representations. They may concern tasks, processes, the organizational structure, other actors or the external environment. If we combine knowledge, actors, organizations and representations, we could say that people participating in organizations have shared representations of their interactive behavior. Our knowledge of organizational, task and other actor reality is semiotic, that is, it is a representational construction. In our Castor-Project (Castor stands for: ëknowledge Conversion And Semiotic Theories Of Representationí), we follow both the semiotic and the cognitive route in our investigation of organizations and the management of (organizational) knowledge. Our main objective is to analyze coordination in organizations in terms of the dominancy and allocation of knowledge types of the members in the organization. Knowledge exists as a set of representations. The interacting actors share these representations. In the context of organizations adaptive behavior involves both the continuous exploitation of given knowledge and the exploration of new knowledge. The members of the organization use various types of knowledge. We distinguish sensory (tacit), coded, and theoretical knowledge. ëSensoryí refers to perceptual knowledge, ëcodedí to conventional, usually but not only linguistic knowledge, ëtheoreticalí to rational and scientific knowledge. We model the three forms of knowledge in a so called ëKnowledge Spaceí. Every member as well as every organization - as the ësumí of its members - can be located somewhere in the Knowledge Space. We think a close relationship consists between the types of knowledge of the various members in the organization and the way the organization is structured. Take for example organizational forms such as web, market, clan, bureaucracy or hierarchy. Despite the many differences within these forms we think that for example the dominant knowledge type in a bureaucracy is coded knowledge, whereas in a clan the dominant type is sensory (tacit) knowledge. On the other hand determining the preferred organizational form given a constellation and dominancy of assessed knowledge types should be possible. The aim of our research is to strengthen the theoretical underpinnings of work done in the field of knowledge management.

 

 Seitenanfang


Klein, Harald
Web Content Mining, Probleme und Lösungen

 

Web content mining ist ein relativ vernachlässigter Forschungsbereich in der Online-Forschung generell. Ein Grund dafür ist, dass entsprechende Methoden zur Zeit nicht zur Verfügung stehen. Im Vortrag geht es um die grundsätzliche Probleme von Internetseiten mit dem Schwerpunkt der Analyse des Textes. Dieser steht zwar in digitaler Form bereit, muss aber für eine Analyse aufbereitet werden. Die daraus resultierenden Arbeitsschritte, Analysetechniken und die dafür benötigte Software stehen dabei im Mittelpunkt des Vortrags: TextGrab, das den Text kompletter Internetsites herunterlädt, und TextQuest, das diese Texte mit dem Verfahren der computerunterstützten Inhaltsanalyse auswertet.  

KLEIN, H. (1998): INTEXT-Handbuch, Version 4.1. Jena: mimeo.

KLEIN, H. (1998): Text Analysis of data in the World Wide Web (WWW). Vortrag auf der Tagung der International Sociological Association (ISA) in Montreal.

KLEIN, H. (2000): Inhaltsanalyse. In Atteslander, Peter (Eds.): Methoden der empirischen Sozialforschung, 8. Aufl., Berlin, 201-235.  

 

 Seitenanfang


Kraemer, Klaus
Nachhaltigkeit durch Wissen? Wissensasymmetrien als Problem einer nachhaltigen Entwicklung

 

In der Debatte zur "Wissensgesellschaft" wird hervorgehoben, dass die materielle und symbolische Reproduktion einer Gesellschaft immer mehr von wissensbasierten Operationen durchdrungen ist. Der Faktor Wissen erscheint als besonders wichtige Einflußgröße, um nicht nur die ökonomische Modernisierung, sondern zugleich den sozialen Wandel gegenwärtiger Gesellschaften analysieren zu können. Mit dem Aufstieg von Wissen zu einer bedeutenden Handlungs- und Steuerungsressource werden unterschiedliche Erwartungen verbunden. Zumeist ungeklärt bleibt jedoch die Frage, inwieweit sich die Generierung, Aneignung und Diffusion von neuen Wissensformen auf die soziale Konstitution von Umwelt im allgemeinen und die Nutzung von Umweltleistungen für gesellschaftliche Zwecke im besonderen auswirkt. Ausgehend von diesem Desiderat soll in diesem Beitrag die These diskutiert werden, dass die Generierung von neuem Wissen und seine erfolgreiche Einbettung in gesellschaftliche Strukturen in besonderer Weise darüber entscheidet, ob es gelingt, Praktiken zur Nutzung der Umwelt stärker als bisher auf Nachhaltigkeitsnormen auszurichten, um gegenwärtige oder zukünftige Belastungspotentiale der globalen Umwelt abbauen zu können. Während etwa der Zusammenhang von Wissen und ökonomischer Prosperität unter Bedingungen der Globalisierung wenigstens ansatzweise theoretisch beschrieben und empirisch aufgezeigt werden kann, sind hingegen die Zusammenhänge von Umwelt und Wissen sowie die sozialen und institutionellen Voraussetzungen von Wissensinnovationen zum Schutze der Umwelt weitaus unklarer. Die Klärung dieses Zusammenhangs ist aber unverzichtbar, um die Bedeutung von Wissen für nachhaltige Entwicklungsstrategien abschätzen zu können.

 

 Seitenanfang


Lasic-Lazic, Jadranka, Mihaela Banek und Aida Slavic
Gemeinsame Ausbildung der IT-Spezialisten auf der Universität Zagreb

 

Unsere Arbeit wird das Konzept der Ausbildung der Bibliotheks- und Informationswissenshafts-Studenten im Curriculum der Abteilung der Informationswissenschaft auf der Universität in Zagreb beschreiben. Das Curriculum dieser Abteilung ist wegen seiner Konzeption im Bereich der Informationswissenschaft spezifisch, da sie vier verschiedene Profile der IT-Spezialisten unter einem Vordiplomsprogramm verbindet. In unserer Arbeit werden wir erläutern, wie diese verschiedenen Profile ihre Rolle sehen und wie sie ihre Aufgabe in der Abteilung Curriculum verstehen. Das Konzept der Schulung der Informationswissenschaft bietet gute Grundlagen für das Studium der Informationsgesellschaft und erfüllt eine komplexe Rolle für die zukünftigen Professionen in Bibliotheken, Arhiven, Museen und Schulen.

 

 Seitenanfang


Lehner, Christoph
Informationsqualität am Beispiel von DVD und digitalem Kino

 

Unterhaltungsindustrie und Informationstechnologie rücken immer näher zusammen. Der PC ist längst nicht nur ein Werkzeug zum Bearbeiten von großen Datenbeständen in Verwaltung, Wirtschaft und Wissenschaft, sondern bildet - spätestens seit der Einführung des WWW - auch in vielfacher Hinsicht die Grundlage für Geräte der (Massen-)Unterhaltungsindustrie. Einige relevante Einsatzgebiete von PCs in der Unterhaltungsindustrie sind beispielsweise:

§         PC als Videorekorder/Kabel-/Satellitenempfänger

§         PC als Gerät für 3-D Spiele (besonders seit der Einführung 95/96 der leistungsfähigen Graphik-Chips der Firmen NVidia/Kalifornien, ATI/Canada)

§         PC als Quelle für Kino-Projektion (eine von drei Installationen im Zoo-Palast/Berlin)

§         PC als Quelle für Heimkino (auf der Grundlage des Mediums DVD)

Am Beispiel von DVD-Video lässt sich eindrucksvoll zeigen, wie das in der Computerwissenschaft und Computerindustrie entwickelte Wissen für die Unterhaltungsindustrie zur Qualitätsverbesserung eingesetzt werden kann.

Einzelne Aspekte, die im Vortrag behandelt werden, sind:

§         Mehrwert auf DVDs durch Hintergrundwissen/Zusatzinformationen

§         Progressive-Scan

§         Negative und Positive Bild-Interpolation

§         Film-Pulldown für NTSC und PAL

 

 Seitenanfang


Lohmann, Ingrid
Cognitive Mapping im Cyberpunk

 

Wie Jugendliche Wissen über die Welt erwerben Cyberpunk als Teil der Science Fiction Literatur gibt es seit rund 20 Jahren. Als Klassiker des Genres gilt die Neuromancer-Trilogie von William Gibson (1984-1988). Neuere CP-Romane sind z.B. Neal Stephensons Snow Crash (1992) und Diamond Age (1995). CP ist zu einem einflussreichen Segment der Popkultur geworden, z.B. in Filmen wie Blade Runner (1982), Johnny Mnemonic (1995), The Matrix (1999) und Fight Club (1999). Ausserdem bestimmt CP die Vorstellungswelt vieler PC-Spiele und Rollenspiele. In meinem Vortrag untersuche ich die Praxis der Selbstbildung Jugendlicher, die Art und Weise, wie sie sich anhand von CP Wissen über die Welt erwerben, in zwar in erster Linie am Beispiel des Abenteuerrollenspiels Shadowrun.

 

 Seitenanfang


Lupp Christian und Oliver Gerstheimer
Systemdesign - Wissen um den Menschen

 

Bedürfnisorientierte Produktentwicklung im Mobile Business

Die genauen Anwendungsfelder der dritten Mobilfunkgeneration - der Weg in die "wireless information society" - sind bisher vorwiegend von Seiten der technischen Machbarkeit umrissen worden. UMTS ist der technische Standart, der die Möglichkeiten der mobilen Datenkommunikation flexibilisiert und auf der Anwendungsseite mannigfaltige Möglichkeiten eröffnet. Die Flexibilität, im Vergleich zu 2G (heutige Mobilfunknetze wie GSM), wird durch höhere Übertragungsraten, das "quality of service" Konzept und insbesondere durch die paketbasierte Datenübertragung ermöglicht. Das Vorgehen des Technikentwicklungsprozesses von 3G und die Umsetzung in Applikationen und Services ist stark von der Faszination des technisch Machbaren geprägt. Der Kundennutzen und insbesondere der Nutzer mit seinen zukünftigen Bedürfnissen spielt in der derzeitigen "technology-driven Situation" nur eine untergeordnete Rolle. Aus Sicht der "technologie-push" Theorien wird dieser Prozess meistens noch von dem Profitmotiv der temporären Monopolstellung (technischen Vorsprung) auf dem Markt geleitet. Der Prozess der internationalen Standardisierung und die damit verbundenen technischen Spezifikationen wirken diesem Phänomen entgegen. Bessere Algorithmen werden unter den Wettbewerbern zwar noch einen gewisse technischen Vorsprung ermöglichen, die gewinnbringenden Diversifikationsmöglichkeiten im Kampf um den Kunden werden jedoch nur mit dem Wissen um die Bedürfnisse der Nutzer erzielt. The right thing, at the right time, at the right place heißt die Devise für die zukünftige Planung. Der Kunde ist nicht an den technischen Möglichkeiten von 3G interessiert, sondern an dem individuellen Nutzen, den er daraus ziehen kann. Hier liegen auch die Hürden für den Erfolg innovativer 3G Anwendungen. Eine dem zukünftigen Kunden bis dato nur wenig bekannte "Blackbox" Technologie, wie UMTS, erschwert in ihrer Komplexität der Möglichkeiten die Definition der Ansprüche und Bedürfnisse. Die Gestaltung von bedürfnisorientierten Anwendungen und Services im Bereich 3G ist eine antizipatorische Planungsaufgabe die zu der Gruppe der "bösartigen Probleme" gehört.

 

Seitenanfang 


Meder, Norbert
Workshop: Wissen, Wissensdesign und Edutainment

 

Edutainment ist die Verballhornung von Education und Entertainment. Sie bezeichnet ein altes pädagogisch-didaktisches Problem. Das Proponieren unserer gemeinsamen Welt, die wir als Pädagogen gegen die Angriffe der Neuen (der Neugeborenen) und gegen die Angriffe derer, die Umstände halber aus der Normalität herausgefallen sind bzw. herauszufallen drohen, muss motivieren und muss eine gute, akzeptable, durchaus auch Spaß machende Alternative gegen Ausgrenzung und Gegenstellung zur gemeinsamen Welt sein. Unterhaltung ist dabei der pädagogisch niedrigste Grad der Einbeziehung des Anderen, des Gefährdeten bzw. dessen, der schon der Gefahr erlegen ist, aus unserer gemeinsamen Welt herauszufallen ñ gleichgültig ob als Heranwachsender oder als ehemals Etablierter.

 Herbart, unser Klassiker in der Pädagogik, hat den untersten Grad der handlungsrelevanten Selbstbestimmung Interesse genannt. Edutainment legt nun diesen untersten Grad auf das Niveau des Interesse-Weckens fest. Auch dies ist nicht ganz neu. Es hat im institutionellen und inzidentionalen Lernen schon immer eine zentrale Rolle gespielt, weil es die Aktivität der Lernenden initiiert.

Ist diese so wichtige Aktivität dann initiiert, dann kommt es auf das Wissensdesign an, d. h. auf die ästhetische Darstellung unserer gemeinsamen Welt ñ wie dies unser Klassiker Herbart ausgedrückt hat. Wissen ist nicht Information, ist nicht Datenmüll oder ñ weniger negativ ausgedrückt: Dokumentation ñ sondern Interaktion von Information und menschlicher Prozessorleistung. Die Vermittlung von Information und menschlicher Prozessorleistung war schon immer das Geschäft der Didaktik. Insofern handelt die Didaktik vom Problem des Designs von Wissen ñ auch und gerade unter ästhetischen Gesichtspunkten. Das Compilerwissen, wie die Amerikaner die Integration von deklarativem Informationswissen und prozeduralem Prozesswissen nennen, lebt von der ästhetischen Darstellung der Welt, die uns wichtig ist, es lebt vom Motivations- und Unterhaltungswert unserer Darstellung und Darbietung. Die Grammatik und das heißt die Wissensorganisation einer solchen Ästhetik der Darstellung lebt von den Fragen, die an die Welt dokumentierten Wissens (= Information) gestellt werden. Von daher ist Wissen grundsätzlich problemorientiert und didaktisch bezogen.

 

Seitenanfang


Niehaus, Michael
Durch ein Meer von Unwägbarkeiten navigieren

 

Überlegungen zur Seefahrts-Metaphorik im Internet

Das Internet wird in seiner Unübersichtlichkeit und seinen (gesellschaftlichen) Unwägbarkeit sowohl in der IuK-Wissenschaft als auch in populären Darstellungen mit der Metaphorik der Seefahrt beschrieben. Das Internet wird dabei als tiefes, unbekanntes und unauslotbares Meer dargestellt (mare incocnita); die gezielte Suche nach Informationen stellt sich als schwierig dar, da man entweder das Gesuchte nicht findet oder aber in einem Überangebot an Informationen zu ertrinken droht. (Weitere Beispiele für diese Seefahrts-Metaphorik sind Begriffe wie "Surfen" oder "Netz". Der Informationsfachmann erscheint in dieser Szenerie als "Lotse" und "Steuermann", der den Suchenden sicher und gefahrlos zum gesuchten Ziel "navi-gieren" soll.)

Diese Seefahrts-Metaphorik hat sich nicht zufällig gebildet. Hans Blumenbergs "Metaphorologie" folgend, sind Metaphern nicht als Vorstufen rationaler analytischer Beschreibungen zu verstehen, sondern sind vielmehr "Leitfossilien einer archaischen Schicht des Prozesses der theoretischen Neugierde". Bilder beinhalten immer einen Überschuss, sie sind reichhaltiger als Begriffe und erzeugen eine Fülle, der das rationale Denken nicht habhaft zu werden vermag. Symbole und Metaphern schöpfen aus direkter lebensweltlicher Erfahrung, sie sind immer schon "Daseins-bewältigungsstrategien". Es kommt nicht darauf an, was sich hinter einzelnen Metaphern verbirgt, sondern was sie im Prozess menschlicher Selbst- und Weltver-ständigung leisten.
Die Seefahrtsmetaphorik nimmt dabei seit Alters her eine besondere Rolle ein. Das Verlassen des sicheren Hafen und der Aufbruch zu neuen Ufern mit dem Wagnis des Unbekannten, das sich in Gefahr begeben, die Unrast beim bisher Erreichte zu verharren sind Ausdruck der menschlichen Neugier, ja gleichsam Bildnis für den Menschen überhaupt.

Die Seefahrtsmetaphorik des Internets ist somit als Symbol des Wagnisses, der Chance und Gefahr neuer Formen von Kommunikation und Öffentlichkeit zu deuten. Inwieweit diese Reise Schiffbruch erleben wird oder uns zu den Ufern einer neuen Gesellschaft führen wird, bleibt abzuwarten.

 

 Seitenanfang


Ohly H.P.
Gestaltungsprinzipien bei sozialwissenschaftlichen Wissensportalen im Internet.

 

Basierend auf einer Evaluation auf der vergangenen IFLA-Konferenz 2000 werden Evaluationsprinzipien, Beispiele und Bewertungen zu den europäischen sozialwissenschaftlichen Internet-Gateways DutchESS, Finnish Virtual Library, SOSIG/BizEd und GESIS-SocioGuide vorgestellt und diskutiert. DutchESS, Finnish Virtual Library, SOSIG/BizEd sind bibliothekarische Ansätze, die inzwischen der RENARDUS-Initiative im Rahmen des europäischen Information-Society-Technologies-Programm verpflichtet sind. DutchESS und SOSIG/BizEd stehen in einem gegenseitigen Verbund, der mit der Linkverwaltungssoftware ROADS aus dem europäischen DESIRE-Projekt ermöglicht wird. Die Finnish Virtual Library bietet eine Crosssearch über 15 verschiedene skandinavische Datenbanken an. Der GESIS-SocioGuide versteht sich im weiteren Sinne als Forschungsinfrastruktur und zielt auf die Kooperation im deutschsprachigen und osteuropäischen Bereich ab.

(Sofern die andere Gatewayvertreter noch gewonnen werden können, käme ein Workshop hierzu zustande; Für den Beitrag wäre ein Internetzugang wünschenswert; notfalls kann aber auch ein Download der betreffenden Seiten erfolgen)

 

 Seitenanfang


Ohly H.P.
Erstellung und Interpretation von semantischen Karten

 

Es wird demonstriert, wie Recherche-Ergebnisse (sozialwissenschaftliche Themen: Migration, Beratung) zu quantitativen Auszählungen und Zusammenhangsberechnungen von Schlagwörtern und Autoren verwendet werden können. Die Interpretation der Schlagwörter wie auch der Autoren in einer semantischen Karte erfordert Wissen über das jeweils andere, was textuell durch einzelnen Retrievalzugriff und graphisch durch Begriffsanalyse und Korrespondenzanalyse zugänglich wird. Es erfolgt damit auch eine Einführung in den unterschiedlichen Stellenwert dieser Verfahren.

 

 Seitenanfang


Ostholt Peter, Rainer Rilling
Von der Infothek zur CyberCooperative: Technikkulturelle und ästhetisch-visuelle Aspekte der digitalen Wissensvermittlung in der politischen Bildung

 

Anhand von Fallbeispielen untersucht der Beitrag den inhaltlichen und technischen Stand von politischen Bildungsangeboten auf dem Netz. Vom Einsatz der digitalen Technologien im Politikmarketing wird ein Bogen geschlagen zu deren Einsatz in der politischen Erwachsenenbildung. Hierbei sollen die Unterschiede zwischen klassischer (produktorientierter, institutionalisierter) Wissensvermittlung und prozessorientierter Umgebungen für die Vermittlung politischer Bildung und die Arbeit mit politischen Inhalten aufgezeigt werden. Diese Ansätze spiegeln sich wieder in fundamental unterscheidenden kulturtechnischen Aneignungen des Netzraums (Konsum vs. Initiative) und den Techniken und Ästhetiken, mit denen in diesem Raum operiert wird.

 

Seitenanfang


Quandt, Markus
sowinet - ein Internetjournal für die Sozialwissenschaften. Ziele, Konzept und experimentelle Umsetzung einer neuen Informationsplattform

 

Im Unterschied zu den Naturwissenschaften finden die Sozialwissenschaften eher wenig öffentliches Interesse. Das hier vorgestellte Projekt verfolgt das Ziel, das potentiell wissenschaftsinteressierte Internetpublikum auch für gesellschaftswissenschaftliche Themen zu gewinnen. Die Auswahl der Inhalte erfolgt nach einem Kriterien-Mix aus thematischer Breite, Aktualität und Übersetzbarkeit in eine verständliche Sprache. Bei der Darstellung sollen verschiedene Vorteile des Mediums Internet kombiniert und integriert werden, um unterschiedliche Gruppen von Nutzern zu erreichen. Um dies zu erreichen, müssen erstens durch eine ästhetisch und technisch zeitgemäße Präsentation die Mediengewohnheiten von Internetnutzern berücksichtigt werden. Zweitens muss ein inhaltliches Paket von aktuellen Informationen, Hintergrundmaterial und Dienstleistungen geschnürt werden, das auch potentielle Multiplikatoren wie Journalisten und Lehrer an das Angebot von sowinet binden kann.
Dieser Beitrag stellt als Werkstattbericht aus dem laufenden Projekt einige Aspekte näher vor. Ein Schwerpunkt wird darauf liegen, anhand einiger Beispiele die Abwägungen bei der Zusammenstellung des Angebotes darzulegen und der Kritik auszusetzen.

 

 Seitenanfang


Rahmstorf, Gerhard
Begriffsdarstellung in der Concepto-Technik

 

Begriffsdarstellung in der Concepto-Technik Begriffsdarstellung führt von den Wörtern und sonstigen Benennungen über die Wortbedeutungen zu einem sprachunabhängigen Raum begrifflicher Entitäten. Dieser methodische Weg spielt eine entscheidende Rolle bei der Weiterentwicklung der Wissensorganisation. Mit der Begriffsdarstellung können die vielfältigen Deutungsmöglichkeiten für die Wörter computertechnisch beherrscht werden. Darüberhinaus ermöglicht die Einführung von Begriffen eine adäquate Unterstützung der ãbersetzungsprobleme, insbesondere in dem vielsprachigen Europa. Begriffe und ihre Beziehungen sind außerdem die Grundlage für die Bestimmung der informationstechnischen Relevanz von Themen beim Suchen. Sie ermöglichen schließlich Deduktionen und andere maschinelle Prozesse. Der Beitrag befasst sich einleitend mit der Begründung der Begriffe und geht dann zur Praxis der Begriffsdarstellung auf der Grundlage der einfachen formalen Sprache CLF des Programms Concepto über. Zunächst müssen die Ziele abgesteckt werden. Schöne Einzelbeispiele und begriffliche Miniaturwelten sind als methodische Demonstration geeignet, können aber nur ein Anfangsstadium auf dem Weg zur Praxis sein. Das Themenspektrum, das durch Medien angeboten und von Benutzern erfragt wird, sollte nicht wie bei Thesauren durch kontrollierten Wortschatz begrenzt werden. Man muss sich daher von vorne herein die Frage stellen, ob die begriffliche Darstellung für große Wortbestände mehrerer Sprachen machbar ist. Diese Frage soll anhand der bisherigen Ergebnisse, die mit Concepto erstellt wurden, und anhand von prinzipiellen ãberlegungen zur Methode, Technik und Anwendung diskutiert werden. Erfassungsprogramme für Wortschatz und Strukturen sollten einerseits offen für Weiterentwicklungen in einem neuen Arbeitsfeld sein, andererseits die mit Begriffen verbundene Komplexität in Grenzen halten. Daher bietet der in Concepto eingebaute Formalismus CLF viele Möglichkeiten und beschränkt den Anwender lediglich auf zweistellige Relationen und den Verzicht auf zirkuläre Definitionen. Ansonsten wird ein unendlicher Raum nutzbar, in dem alle Begriffe unabhängig von ihren Benennungen ihren definierten Ort haben. In diesem Punkt unterscheidet sich die neue Technik wesentlich von den bisherigen Ordnungssystemen. In Thesauren sind Begriffe durch ihre Benennungen identifiziert. Benennungsfreie Begriffe sind nicht darstellbar. Um zu konsistenten und praktisch handhabbaren Begriffssystemen zu kommen, wird man die Strukturen für Begriffssysteme im Rahmen der genannten Grenzen weiter beschränken. Dazu gehört z. B. die Verwendung auf ein bestimmtes Inventar von Relationen. Weitere anwendungsseitige Festlegungen, die die koperative Entwicklung von Wortschatz und begrifflichen Strukturen ermöglichen und den Datenaustausch fördern sollen, werden diskutiert. Dazu gehört auch die Frage, wie man mit das Mittel der Begriffsdefinition anwendungsgerecht einsetzt. Dieser Beitrag soll auch den Zusammenhang mit den bisherigen Ordnungssystemen (Thesauren und Klassifikationen) und mit Neuansätzen auf einer anderen Basis, z. B. Topic Maps, herstellen. Daher wird angestrebt, in dem Referat und einer anschließenden Diskussion, ãbereinstimmungen, aber auch datentechnische Inkompatibilitäten aufzuzeigen. Daraus könnten Vorschläge für die Weiterentwicklung der verschiedenen Softwaretechniken erarbeitet werden.

 

 Seitenanfang


Rautenstrauch Christina
Tele-Tutoring - Zur Didaktik des kommunikativen Handelns im virtuellen Lernraum

 

Die Bildung der Zukunft wird zu einem maßgeblichen Teil durch Tele-Lernen in virtuellen und multimedialen Lernwelten stattfinden. Mit dem Einsatz neuer Informations- und Kommunikationstechnologien - allen voran das Internet - werden neue Formen des Lehrens und Lernens möglich. Gleichzeitig sind damit auch neue pädagogisch-didaktische Gestaltungs- und Unterstützungsmaßnahmen nötig, um die Lernsituation im Netz effektiv zu begleiten. Dem Tele-Tutoring kommt in dieser virtuellen Lernumgebung eine zentrale Aufgabe zu: Die Unterstützung des Lernprozesses durch Kommunikation. Der Vortrag zeigt die wesentlichen Aspekte einer Didaktik des kommunikativen Handelns im virtuellen Seminarraum.

 

 Seitenanfang


Ritzi, Christian und Stefanie Kollmann
Virtuelles Bildarchiv zur Bildungsgeschichte

 

Seit Januar 2000 wird ein "Virtuelles Bildarchiv zur Bildungsgeschichte" als Kooperationsprojekt der Bibliothek für Bildungsgeschichtliche Forschung (BBF), Berlin und Prof. Rudolf W. Keck/Institut für Angewandte Erziehungswissenschaft und Allgemeine Didaktik der Universität Hildesheim aufgebaut. Das Projekt wird im Rahmen des Programms "Retrospektive Digitalisierung von Bibliotheksbeständen" von der DFG finanziert.

In der Aufbauphase werden rund 14 000 Abbildungen aufgenommen, einerseits aus Handschriften und Büchern des Zeitraums Mittelalter - 1850, andererseits aus einer Postkartensammlung der Jahre 1870 bis 1918. Die Originale verbleiben an den ursprünglichen Sammlungsorten, werden nur virtuell zusammengeführt.

Dazu wurden die Abbildungen zunächst verfilmt und daran anschließend digitalisiert. In einer Datenbank erfolgt die formale und inhaltliche Bildbeschreibung der Einzelbilder.

Seit Dezember 2000 ist die Datenbank testweise über das Internet zugänglich. Neben umfangreichen Recherchemöglichkeiten im Bildarchiv besteht eine Möglichkeit, die Suchfrage gleichzeitig an die bibliographische Datenbank der BBF weiterzugeben, so daß mit einer Anfrage sowohl Bildmaterial als auch Literatur gesucht werden kann.

Die Abbildungen sind als Thumbnail und in einer Auflösung von 75 dpi frei und kostenlos zugänglich. Für professionelle Weiterverwender gibt es eine Warenkorbfunktionalität, durch die man kostenpflichtige Abbildungen in 300 dpi-Auflösung bestellen kann.

Der Vortrag gliedert sich in:

§         Projektvorstellung
Bestandsgrundlage – Bildauswahl

§         Bestandserschließung

§         Technische Abwicklung - Bildbearbeitung - Erläuterung der Datenbankstruktur

§         Präsentation der Suchmöglichkeiten im "virtuellen Bildarchiv zur Bildungsgeschichte"

§         Ausblick - geplante Fortsetzungsprojekte

 

 Seitenanfang


Sarnowski, Daniela
Informationsdienstleistung und Wissensorganisation für die Filmwissenschaft

 

Hochschulbibliothek/Mediathek/Pressedokumentation als multimediale Bibliothek im Neubau der Hochschule für Film und Fernsehen

Vorstellung der Filmhochschule und deren Hochschulbibliothek

Das Abteilungsprofil und die praktische WissensstrukturierungIn der Neukonzeption des Hochschulinformationssystems wurde nicht nur die Bibliothek ausgebaut, sondern auch das Zeitungsausschnittarchiv, die heutige Pressedokumentation. Der Nonprintbereich wurde als Mediathek konzipiert, die aus einer Videothek, einem Audiobereich und dem HFF-Filmarchiv besteht. Die Hochschulbibliothek/Mediathek sieht sich damit als Informations-Provider, der unabhängig von der Medienform als Wissenslotse fungiert.

Zielgruppenbestimmung

Wer ist "der" Kunde? Für wen wird wie und welche Information gesammelt und erschlossen.

Multimediale Informationsquellen,

Auswahl/Bewertung/Katalogisierung/Vermittlung/Bewahrung

EDV-Verfahren der Wissenspräsentation

Hier soll der Einsatz der verschiedenen IT-Systeme beschrieben werden, die die zu bearbeitenden Medien (Buch, Aufsatz, Video, DVD, CD, CD-ROMs, Filmrollen, Internetlinks

Informationserschließung der Bildmedien, insbesondere DVD

-Bildwiedergabe, Tonspeicherung, Regionencodes, Zukunft-digitaler Film

Vorstellung eines Digitalen Filmarchiv durch ein Digital Content Management Systems/Media-Archive durch die Fa. TECMATH

Im Filmarchiv der HFF wird seit ca. Mitte des Jahres 1999 das Content Management System media archive® der Firma tecmath AG für die Archivierung und Dokumentation der studentischen Abschlussarbeiten eingesetzt. In Ergänzung zur bisherigen textuellen Dokumentation in einer Datenbank erlaubt media archive® die Archivierung multimedialer Inhalte, in unserem Falle Kurzfilme. Als Lösung für das Content Management unterstützt das System dabei den gesamten Arbeitsfluss beginnend von der Akquisition (Digitalisierung) über die Dokumentation und Archivierung bis hin zur Recherche und Bereitstellung von Inhalten über Grobschnitt und Export. In dezentralen Archiven können unterschiedliche Formate wie Video-, Ton-, Text- oder Bildmaterial beginnend von kleinen Kapazitäten, die vollständig in direktem Zugriff sind, bis hin zu großen Archiven mit mehreren Terabyte und hierarchischem Speichermanagement organisiert werden. Zugriffe sind über das interne Computernetzwerk oder auch über Internet möglich, jeweils mit der angepassten Übertragung nach verfügbarer Bandbreite von Keyframes über RealVideo- oder MPEG-1-Streaming bis hin zum Download.

Für die HFF bringt der Einsatz des Content Management Systems im Filmarchiv den Vorteil einer integrierten Gesamtlösung, welches nach dem Prinzip des Baukastensystems eine schnelle, gleichzeitige Recherche- und Zugriffsmöglichkeit für eine große Zahl von Nutzern bietet. Automatisierbare Tätigkeiten wie das Umkopieren von Formaten und die Bereitstellung von an den jeweiligen Bedarf angepasste Datenkompressionen tragen zur Kostenersparnis bei, die Möglichkeit der Präsentation und Vermarktung von Inhalten über Online-Dienste erlaubt zusätzliche Ertragspotentiale.

 

 Seitenanfang


Seltz, Rüdiger und Jörn Sieglerschmidt,
Das Museum als Interface

 

Museen, insbesondere technikhistorisch ausgerichtete, sehen sich einem zunehmenden öffentlichen Druck ausgesetzt, was Themen und Präsentationsformen angeht. Museen stehen in Konkurrenz zu allen Formen des Freizeitkonsums, auch und gerade den medial vermittelten. Zudem ist im Ausstellungswesen ein globalisierter Markt entstanden, an dem die Museen längst nicht mehr als Monopolanbieter auftreten, sondern mit reinen Ausstellungsinstitutionen konkurrieren müssen. Auf diesem Markt geht es um Großausstellungen, die nur noch mit entsprechender finanzieller Ausstattung organisert und vermarktet werden können, dafür aber auch wenigstens einige hunderttausend Besucher/innen anziehen. Beispiele dafür sind jüngst die Sieben-Hügel-Ausstellung im Gropius-Bau in Berlin oder die vielen kunsthistorischen Ausstellungen zu Malern wie z. B. Rembrandt, Cezanne, Picasso.

Technik- und wissenschaftshistorische Museen sind seit einiger Zeit aufgefordert, sich an der Idee und Aufmachung der Science&Technology-Center zu orientieren, um erstens mit Aktionsaufforderungen (hands-on) und zweitens im Sinne einer Popularisierung von Wissenschaft und Technik mehr Publikum zu gewinnen. Die hier aufzuwerfende Frage ist, worauf diese Art von Populariserung zielt, welche Geschichte sie hat und in welcher Art Museen dafür ein geeignetes Forum sind, d. h. was gerade Museen dafür bieten können.

Die u. a. vom Wissenschaftsrat unterstützte Initiative für Public Understanding of Science and the Humanities (PUSH) setzt sich das Ziel, die Akzeptanz von Wissenschaft und Technik u. a. durch Ausstellungen zu erhöhen. Die bereits seit einiger Zeit geforderte Demokratisierung von Wissenschaft und Technik wird dabei zugunsten reiner Akzeptanzförderung zur Stärkung des Wirtschaftsstandortes Deutschland außer Acht gelassen. Die Geschichte der Popularisierung von Wissenschaft und Technik zeigt aber, daß der Aufklärungs- und damit der Emanzipationscharakter solcher Bemühungen im Vordergrund stehen muß.

Vor diesem Hintergrund ist zu fragen, auf welche Weise, mit welchen Mitteln und welchen inhaltlichen Zielen gerade das Museum ein geeigneter Ort, ein Interface für den Dialog von Technik bzw. Wissenschaft und interessierter Öffentlichkeit sein kann

 

 Seitenanfang


Sigel, Alexander
Die Verbindung bewährter Begriffsstrukturen mit aktueller XML-Technologie

 

(Abstract, ausführlichere Fassung auf: http://index.bonn.iz-soz.de/~sigel/veroeff/ISKO-2001/sigel.pdf)

Wissensstrukturen lassen sich (oft) vorteilhaft organisieren als Begriffs- bzw. Themennetze, die auf expliziten Begriffssystemen beruhen. Zentrale wissensorganisatorische Fragestellungen (z.B. Semantische Interoperabilität, Semantisches Retrieval) werden in einigen sehr aktiven Gebieten (z.B. Semantic Web, Ontology Engineering), diskutiert, jedoch kommt der Austausch mit der Wissensorganisation erst allmählich in Gang. Seitens der Wissensorganisation besteht die Notwendigkeit, sich mit aktuellen Entwicklungen vertraut zu machen, aber auch die eigene Kompetenz stärker in andere Gebiete aktiv einzubringen.

Zum besseren Verständnis führt dieser Beitrag zunächst aus Sicht der Wissensorganisation in Ontologien und Topic Maps ein und arbeitet wichtige ãberschneidungsbereiche heraus: Topic Maps (ISO/IEC 13250, [XTM 1.0 Standard]), eine Basistechnologie für das "Semantische Web", erlauben, spezielle semantische Netzwerke adäquat zu modellieren. Diese bestehen i.w. aus Begriffen oder Themen (Topics), zwei- oder mehrstelligen Beziehungen zwischen Topics (associations) sowie Belegstellen (occurrences). Topic Maps werden in einer bestimmten serialisierten XML-Auszeichnung (semantisches Markup) dargestellt und lassen sich austauschen und zusammenführen. In Ontologien können wir ein gemeinsames Verständis (Konzeptualisierung) davon explizit ausdrücken, welches relevante Begriffe (in einer Domäne und allgemein) sind, sowie deren Typen (Kategorien). Mit Topic Maps können intellektuelle Wissensstrukturen (z.B. Zugangsstrukturen wie klassifizierte Buchindizes, Thesauri) vorteilhaft dargestellt und such- und navigierbar gemacht werden. Ein Anwendungsbereich ist insbesondere die mehrdimensionale Wissensorganisation von Web-Ressourcen. Damit mehrere Topic Maps sich aufeinander beziehen können (Interoperabilität), ist es notwendig, sich auf gemeinsame Vokabulare für die Metadaten zu einigen. Dazu dienen Registries sogenannter PSIs (Published Subject Identifiers), nichts anderes als moderne Online-Dienste zu Klassifikationen und Thesauri. Entsprechend sind Grundlagen und Erfahrungen der Wissensorganisation für Topic Maps hochrelevant, andererseits auch nicht direkt übertragbar.

Der Beitrag diskutiert im Hauptteil am Beispiel von XTM, wie begriffliche Strukturen an Topic Maps angebunden werden können. Grundsätzlich sind Topic Maps offen für beliebige semantische Modelle. Wie [Rath 2001] gezeigt hat, ist Wissensrepräsentation mit Topic Map Templates möglich. Ziel der begrifflichen Fundierung von Topic Maps sind semantisches Retrieval (TMQL - Topic Map Query Language) und Erleichterungen bei der automatischen Verarbeitung (bis hin zu Informationsagenten). Konkret sollte geprüft werden, wie Begriffssprachen (wie z.B. Rahmstorfs CLF, OIL, oder DAML) in Topic Maps eingekapselt werden können.

Im Ausblick geht es um die Perspektiven begriffsbasierter Topic Maps für die Wissensorganisation. Es ist u.a. zu fragen, wie die Technologie multiple und adaptive Indexierungssichten (Sigel) sowie die Beschreibung und Kombination von Wissensbausteinen (Jaenecke) unterstützt.

[Park 2001] Park, Jack (Hrsg.) (2001): XTM (Arbeitstitel). Addison-Wesley (Erscheinen für Herbst 2001 geplant) Siehe auch: http://www.thinkalong.com/Thinkalong/xtmdraft/

[Sigel 2001] Sigel, Alexander (2001): Topic Maps in Knowledge Organization, Buchkapitel in: [Park 2001]

[Rath 2001] H. Holger Rath (2001): Topic Map Fundamentals for Knowledge Representation, Buchkapitel in: [Park 2001]

[XTM 1.0 Standard] XTM 1.0 Draft Standard, 1.2.2001 http://www.doctypes.org/xtm/1.0/ http://www.topicmaps.org/

 

 Seitenanfang


Smolnik, Stefan und Ludwig Nastansky
K-Discovery: Identifikation von verteilten Wissensstrukturen in einer prozessorientierten Groupware-Umgebung

 

Groupware-Umgebungen bilden in vielen Unternehmen die Grundlage des Kommunikations- und Informationsmanagements. Die steigende Integration in die betrieblichen Prozesse führt zu immer umfangreicher werdenden Informationsspeichern. Diese, in Groupware-basierten Office Systemen häufig verteilten Datenbanken, ermöglichen laut Wagner Ñ... eine Transformation des individuellen Wissens der Mitarbeiter zu einem gemeinsamen Wissen aller Mitarbeiter.ì [Wagner 1995, S. 3] Groupware scheint daher aus einer instrumentellen Perspektive des Knowledge Managements als eine geeignete Plattform zur Erfassung und Verteilung der organisatorischen Wissensbasis. [Schliwka 1998]. Die Explosion der Menge an verfügbarem Wissen erfordert leistungsfähige Konzepte und Mechanismen, die den Benutzer bei der Suche nach relevanten Informations- und Wissensobjekten unterstützen. Navigations- und Verknüpfungsmechanismen sowie umfassende Such- und Recherchefunktionen werden benötigt, um das vielschichtige Informations- und Wissensangebot durchsuchen und anwenden zu können. Sie stellen eine notwendige Voraussetzung für die Kernprozesse der Wissensidentifikation sowie der Wissensnutzung dar [Probst et al. 1999]. Effektive Suchmechanismen, die eine verbesserte organisationale Nutzung bestehender individueller und kollektiver Informations- und Wissensobjekte erlauben, tragen dadurch nach Güldenberg auch dem Prozess der Wissensgenerierung, der Entwicklung oder Beschaffung neuen Wissens, bei [Güldenberg 1998, S.248]. Topic Maps, wie in ISO/IEC 13250 definiert, kreieren bei Anwendung auf Informationsmengen Wissensstrukturen und bilden ein strukturiertes semantisches Verknüpfungsnetzwerk über große Mengen an Informationen. [Rath/Pepper 1999] Topic Maps stellen somit eine ideale Basis dar, um die genannten Mechanismen und Funktionen zur Identifikation gesuchter Informations- und Wissensobjekte zu realisieren. Die Basisidee des hier vorgestellten Projekts K-Discovery ist daher, Topic Maps zur Identifikation von verteilten Wissensstrukturen in einer prozessorientierten Groupware-Umgebung zu verwenden. Zu den derzeit vorherrschenden Navigations- und Suchtechniken wie beispielsweise hierarchisches Navigieren über Kategieren in Ansichten oder Voll-Text-Suche kann den Benutzern so mit dem assoziativen Navigieren in semantischen Netzwerken ein weiteres starkes Instrument zur Verfügung gestellt werden. Eine Groupware-basierte Implementation von Topic Maps kann dabei in Hinsicht zahlreicher Aspekte an der Groupware-Technologie partizipieren. In diesem Beitrag wird anhand von konkreten Szenarien in Groupware-Umgebungen die Problematik des Zugangs zu Wissensstrukturen im Allgemeinen und zu organisationalen Wissensstrukturen im Konkreten aufgezeigt. Darauf aufbauend wird ein Architekturentwurf vorgestellt, in dem Wissensstrukturen durch den Aufbau von Topic Maps in einer prozessorientierten Groupware-Umgebung 1 kreiert werden.

Literatur:

Fischer, Joachim; Herold, Werner; Dangelmaier, Wilhelm; Nastansky, Ludwig; Suhl, Leena: Bausteine der Wirtschaftsinformatik, Grundlagen, Anwendungen, PC-Praxis, Erich Schmidt Verlag, 2, Berlin, Bielefeld, München, 2000.

Güldenberg, S.: Wissensmanagement und Wissenscontrolling in lernenden Organisationen: ein systemtheoretischer Ansatz, DUV: Wirtschaftswissenschaft, Edition Österreichisches Controller Institut, Zugl.: Wien, Wirtschaftsuniv., Diss., 1996 2. durchges. Auflage, DUV, Deutscher Universitäts-Verlag GmbH, Wiesbaden, 1998.

Probst, G.; Raub, S.; Romhardt, K.: Wissen managen: Wie Unternehmen ihre wertvollste Ressource optimal nutzen; 3. Aufl., Gabler, Wiesbaden 1999.

Rath, Dr. Hans Holger; Pepper, Steve: Topic Maps: Introduction and Allegro, STEP Electronic Publishing Solutions GmbH, 1999.

Schliwka, A.: Teamorientiertes, medienübergreifendes Know-how-Management in verteilten Umgebungen; Shaker, Aachen 1998.

Wagner, M.: Groupware und neues Management: Einsatz geeigneter Softwaresysteme für flexiblere Organisationen; Vieweg, Braunschweig et al. 1995.

 

 Seitenanfang


Stephan, Peter
Neue Dimensionen der Wissensgenerierung: Ereignis, Service, Design

 

Die Fundierung und zunehmende Konturierung des Feldes Wissensorganisation geschieht heute im Kontext leistungsfähiger medialer Vernetzung. Damit rücken neue Dimensionen der Generierung, Darstellung und Verteilung von Wissen ins Zentrum: Ereignis, Service und Design.

Ereignishaftigkeit ist durch den Zeitbezug (Instantanit_t) bestimmt. Ereignen und Aneignen zielen auf einen Erlebniswert, der emotionale Beteiligung voraussetzt. Immersion entsteht durch Anteilnahme (wie bei Online-Spielen) und basiert auf einem balancierten Verhältnis von Innovation (Überraschung) und Konvention (lernbare Routinen).

Service wird durch Austausch (Interaktion) gekennzeichnet, wobei Wissensgefälle in Form formatierter Angebote gehandelt werden, sei es im Tauschhandel unter Gleichen (Peer-to-peer) oder als Ware auf digitalen Marktplätzen. Das Potenzial liegt in skalierbaren Lösungen, die "on demand" erstellt werden und durch vorangehendes Profiling an Aufgabe, Nutzer und Situation optimal angepasst sind.

Design wird der zunehmenden Fraktalisierung der Wissensbestände gerecht, die nicht mehr in Oberfläche und Tiefe differenzierbar sind, sondern als unendlich gefaltete Topologie darstellbar werden. Strukturierungen hängen hier weniger von den Konstruktionen der "Info-Designer" ab, als von der Dynamik autopoietischer Systeme und deren Emergenzen.

In Ökonomien, die Wissen als Ressource entwickeln wollen, wird Aufmerksamkeit zu einem raren Gut, das Arbeit, Spiel und Lernen ungeteilt zukommt. Entwerfen wird hier zum generellen Typus des "unsicheren Herstellens", im Gegensatz zur Konstruktion. Hier formieren sich neue Kompetenzfelder (Wissensdesigner), die innovative Geschäftsfelder begründen.

Diese Thesen werden im Vortrag unterschiedlich kontextualisiert (Semiotik, Kognitionswissenschaft, Wissenschaftstheorie, Entwurfs- und Kommunikationstheorie) und mit Beispielen aus der Alltagswelt, sowie eigenen und kollegialen Arbeiten illustriert.

 

 Seitenanfang


Swertz, Christian
Kognitive Stile und Navigation in Online-Lernumgebungen

 

Online-Lernumgebungen bieten die Möglichkeit der Individualisierung von Lernverläufen. Dieser Beitrag untersucht die Frage, inwiefern die Ergebnisse der psychologischen Untersuchungen zu kognitiven Stilen für die Konzeption von Hypertext - Navgationsstrukturen in Online-Lernumgebungen genutzt werden können. Dabei wird davon ausgegangen, daß Nutzer im Laufe ihrer Lernbiografie kognitive Stile habitualisieren. Wenn diese Stile zu bestimmten Wahrnehmungsgewohnheiten führen, sollte eine Online-Lernumgebung so konzipiert sein, daß sie verschiedenen kognitiven Stilen gerecht werden kann. Dazu werden verschiedene kognitive Muster identifiziert und in einem ersten Entwurf mit Navigationsstrukturen assoziiert.

 

 Seitenanfang


Teubener, Kati
Chronos und Kairos
Inhaltsorganisation und Zeitkultur in den neuen Medien

 

"Ein jegliches hat seine Zeit", alles, was der Mensch tun kann, hat seinen Kairos, seinen "günstigen Augenblick". Mit Etablierung der neuen Computertechnologien beginnt sich ein nichtlineares Zeitverständnis durchzusetzen, das jenseits des überholten Gegensatzes von Arbeitszeit und Freizeit neue Freiräume zum kreativen Erleben und Produzieren erschließt. Möglicherweise kann sogar von einer Renaissance des Kairos gesprochen werden, nicht zuletzt bezüglich einer neuen 'Surf- und Recherchekultur'. Der Beitrag beschäftigt sich mit den in der digitalen Kultur möglichen zeitlichen Dimensionen und Rhythmen der Narration, wie sie beispielsweise bereits in der der Literatur-, Film- und Fernsehproduktion von Alexander Kluge (und seiner Produktionsfirma 'Kairos') vorgeprägt sind.

 

 Seitenanfang


Weber, Karsten
Aufgaben für eine globale Wissensgesellschaft

 

Bevor über die Wissensgesellschaft und ihre Gestaltung nachgedacht werden kann, wäre es notwendig, zunächst über die definierenden Eigenschaften nachzudenken, die eine Gesellschaft zu einer Wissensgesellschaft machen. Es gilt zu fragen, ob eine Wissensgesellschaft durch Proklamation oder aber durch reale Transformationsprozesse innerhalb einer Gesellschaft entsteht. Gilt letzteres, dann wäre zu klären, welche Indikatoren als wesentliche Merkmale der Transformation einer Gesellschaft hin zu einer Wissensgesellschaft angesehen werden sollen.

In aller Regel wird für als maßgeblicher Indikator dieser Transformation die Verbreitung des Internets in den westlichen Industrieländern angesehen, außerdem die sicherlich zunehmende Verlagerung von ökonomischen Transaktionen, wissenschaftlichen Inhalten oder von Unterhaltung aus deren bisherigen Kontexten hin in das Internet. Doch trotzdem muss gefragt werden, ob hier nicht Erwartungen statt Fakten als Indikatoren angesehen werden.
Betrachtet man nämlich die verschiedenen WWW-Seiten, die einen Einblick in die geografische Verteilung von Web-Servern und der Netz-Aktivitäten geben, so verschwindet der Eindruck einer weltweiten Verbreitung des Internets und des WWW sehr rasch. Zur Zeit benutzen etwa 400 Millionen Menschen das Internet, also gerade einmal ca. 7% der Weltbevölkerung. Tatsächlich ist eine Weltkarte, die einen der beiden Indikatoren Nutzerzahlen oder Dichte von Web-Servern aufzeigt, im Wesentlichen von weißen Flecken geprägt. Ganze Kontinente und riesige Regionen sind kaum oder nicht präsent im Internet: Afrika, Südamerika, große Teile Asiens, eine Vielzahl der arabischen Länder, der überwiegende Teil jener Länder, die vormals zum Territorium der UdSSR gehörten. Geografisch gesehen und bezogen auf die Weltbevölkerung ist das Internet noch sehr weit davon entfernt, ein globales Medium zu sein. Damit kann in den genannten Ländern und Regionen aber kaum von Wissensgesellschaften gesprochen werden, da die Voraussetzungen dafür weitgehend oder gar völlig fehlen.

Das beschriebene Gefälle im Zugang zu Informationen und zur Informationstechnik ist allerdings nicht beschränkt auf die entwickelten und industrialisierten Länder auf der einen Seite und den genannten Ländern bzw. Regionen mit einem erheblichen Nachholbedarf. Untersucht man die Nutzungshäufigkeiten bspw. im Hinblick auf Europa ó es ist das geografische Europa gemeint ó etwas genauer, wird man gewaltige Unterschiede konstatieren müssen. Die derzeitige Nutzung des Internets schwankt hier von 0,07% der Bevölkerung in Albanien bis zu 52,11% in Island. Außer den skandinavischen Ländern erreicht kaum ein Land die 40%- oder gar die 50%-Marke der Internetnutzung durch die Bevölkerung. In vielen Ländern Europas liegt die Nutzungsrate unter 10%, in den meisten erreicht sie etwa 20-30%. Das heißt aber, dass die tatsächliche Verbreitung des Kommunikationsmittels Internet bei weitem noch nicht die euphorische Rhetorik rechtfertigen kann, wie sie heute allenthalben üblich ist. Zudem gilt, dass selbst hohe Nutzungszahlen dahingehend relativiert werden müssen, dass hierbei keine Unterscheidung der Nutzungsart vorgenommen wird. Doch ist es ein großer Unterschied, ob das Internet am Arbeitsplatz, in der Schule, an der Universität oder privat genutzt wird, da die Zugangsart nicht unerheblich Einfluss auf die Nutzungsmöglichkeiten haben kann.

Diese Bestandsaufnahme zeigt bei aller Vorläufigkeit doch deutlich, dass zur Schaffung einer Wissensgesellschaft ó ob lokal oder global ó zunächst die entsprechenden Grundlagen geschaffen werden müssen, ohne die eine Teilhabe großer Teile der Menschen an der Wissensgesellschaft nicht möglich wäre und sich diese deshalb auch nicht konstituieren könnte.

 

 Seitenanfang


Witsch Monika
Ästhetische Zeichenanalyse am Beispiel fundamentalistischer Agitation im Internet

 

Der semiotische Universalcharakter des Internet, d.h. die Verflechtung von Bild, Sprache und Schrift verändert sowohl den Gebrauch als auch das Verstehen von Zeichen. Das Internet ist mehr als eine Summation verschiedener Medien. Mit der Veränderung der Zeichensorten entstehen gleichzeitig auch neue Möglichkeiten, Welt zu konstruieren und wahrzunehmen. Die multimediale Zeichenführung des Internet fordert in diesem Sinne zur neuen Anordnung der Zeichen auf (Design), gleichzeitig werden aber auch andere Methoden und Werkzeuge nötig, diese Arrangements zu erklären, d.h. ihr Wesen und ihre Absicht zu verstehen (Zeichenanalyse). Mit einer ästhetischen Zeichenanalyse wird entlang den theoretischen Konzeptionen von PEIRCE´ Zeichenbegriff und dem Ästhetikbegriff, wie ihn Lyotard vorlegt, eine Methode zur multimedialen Inhaltsanalyse am Beispiel fundamentalistischer Agitation vorgestellt.

 

 Seitenanfang


Zerweck, Philip
Mehrdimensionale Ordnungssysteme im virtuellen Raum anhand eines Desktops

 

Die Arbeit behandelt Ordnungssysteme für Dateien mit einem Schwerpunkt auf stereoskope Visualisierungssysteme, die dem Benutzer im Frontend des Computers (Microsoft: Desktop bzw. Macintosh: Finder) helfen. Sie ist eine Suche nach Möglichkeiten räumlicher, grafischer Benutzerschnittstellen, um persönliche Computerumgebungen einzurichten, umzusetzen und zu bespielen. Prinzipielle Probleme dreidimensionale visuelle Ereignisse zu kreieren und deren Darstellungsgeräte werden ebenso behandelt, wie die Integration von künstlicher Intelligenz und neuer Eingabetechnologien wie Gestensteuerung. Ergebnisse waren z.B. digitale Einrichtungsgegenstände für einen Deskspace oder ein helfender, charakterstarker Agent. Ein weiteres entwickeltes Werkzeug ist der Semantic Browser. Mit seiner Hilfe ist es möglich aus einer Menge von Dateien interaktiv ein multivariates, visuelles Ereignis zu gestalten. Er basiert auf prinzipielle Ideen zu semantischen Dimensionen von Alan Wexelblat.

 

 

Seitenanfang

Druckversion

  22.03.2007
  Peter Ohly /
  Sebastian Netscher

Impressum, Sitemap

Wir übernehmen keine Verantwortung für die Inhalte von Websites, die über Links dieser Sammlung erreicht werden. Der Herausgeber distanziert sich ausdrücklich von allen Inhalten, die möglicherweise straf- oder haftungsrechtlich relevant sind oder gegen die guten Sitten verstoßen.