Bei den Knowbots des INM handelt es sich um ein Forschungskonzept, dessen primäre
Zielrichtung der Einsatz von Knowbots als sprachlernende Programme ist. Ein mögliches Anwendungsgebiet von Knowbots wären spezielle bedeutungssensitive Suchmaschinen.
Aus Anwendungssicht stellt ein (INM-)Knowbot ein sprachlernendes Computerprogramm dar, das relativ zu einer definierten (virtuellen) Umgebung in der Lage ist, mit Hilfe eines Trainers alle die sprachlichen Beschreibungen zu lernen, die auch ein Mensch lernen kann. Sämtliche gelernten sprachlichen Beschreibungen können dann zur sprachlichen Kommunikation mit dem Knowbot benutzt werden. Aus theoretischer Sicht bilden Knowbots neuartige Instrumente, um Theorien über das menschliche Erleben -langfristig in Wechselwirkung mit Theorien über die zugrundeliegende Physiologie- zu entwickeln, zu illustrieren und zu testen. Literatur: Artikel zu Knowbots Theoretischer Rahmen zu Knowbots Overview |
Mit dem rapiden Zuwachs der im World Wide Web angebotenen Informationen wird das 'Auffinden' von Informationen mehr und mehr zu der zentralen strategischen Frage des Web schlechthin. Informationsangebote, die man nicht gezielt finden kann, existieren aus der Sicht der Benutzer nicht. Die bisherigen Suchdienste können die Forderungen wie die nach Vertrauenswürdigkeit, Vollständigkeit, Aktualität, Genauigkeit, Schnelligkeit sowie Kostenökonomie von Suchantworten nur bedingt erfüllen. Neben Überlegungen zur Architektur der Informationsverarbeitung im Web ist es vor allem die Frage nach der Möglichkeit der Repräsentation und dem Handling der 'Bedeutung' von Texten, Bildern und Tönen, die über das erfolgreiche Gelingen einer Anfrage entscheiden. An dieser Stelle spielen sogenannte 'Ontologien' eine zentrale Rolle. Ontologien sind formale Strukturen, mittels denen die potentielle 'Bedeutung' eines Informationsobjektes repräsentiert werden kann. Für die automatische Erstellung sowie für die automatische Nutzung solcher Ontologien könnten die Knowbots aus dem INM möglicherweise einen zentralen Beitrag leisten.
Overview |
Vertrauenswürdig |
|
Vollständig |
|
Aktuell |
|
Zutreffend |
|
Schnell |
|
Preiswert |
Overview |
Literatur: C.Mic Bowman, Peter B. DANZIG, Udi Manber, Michael F. Schwartz [1994] Overview |
Serverseitige Sammlung von Information |
|
Sourceseitige Sammlung von Information |
|
Informationsverteilung ohne Replikation, Caching und Server-Intelligenz |
|
Informationsverteilung mit Replikation, Caching und Server-Intelligenz |
|
Informationssuche durch Browsing |
|
Informationssuche mittels kooperativer nichtverstehender Search-Bots |
|
Informationssuche mittels Datensuche über Server mit Replikation usw. |
Overview |
(4.1) Indexierung von Daten I: Datenindizes als Pattern (4.2) Indexierung von Daten II: Manuelle Ontologien (4.3) Indexierung von Daten III: Automatische Ontologien Overview |
Das 'klassische' und bis heute sicher am meisten genutzte Konzept der Indizierung einer Datenbasis bildet das 'Pattern-Modell': mittels quantitativer und statistischer Methoden werden formale Eigenschaften der Datenobjekte automatisch in den Index I des Informationsverteilers abgebildet. Entsprechend wird die Anfrage des Benutzers als ein Pattern aufgefaßt, das in die Merkmalsmenge des Indexes abgebildet wird. Vorteil: Völlig automatisches Verfahren; sehr schnell; erfaßt alle Objektmerkmale, sofern sie sich in der Objektrepräsentation niederschlagen. Problem: Im Falle von symbolischen Darstellungen (Texten, gesprochener Sprache,...) gibt es keinen direkten Zusammenhang von Objektdarstellung und kodierten Inhalten. Dadurch ist diese Art von Indizierung für symbolisches Material sehr grob und fehleranfällig. Die Möglichkeit, diese Art von Suche durch Lexika, Grammatiken sowie Schlüssel-Wörter zu verbessern, ist prinzipiell begrenzt. Literatur:
Overview |
Eine Strategie, das Fehlen eines Inhaltsbezuges im Falle von symbolischen Objekten auszugleichen, besteht in der manuellen Bereitstellung diverser
'Ontologien'. Dies sind Datenstrukturen, die stellvertretend für jene 'Inhalte' 'auftreten', die im Falle symbolischer (sprachlicher) Systeme den Symbolen ihre 'Bedeutung' verleihen. Vorteil: Bei der Auswertung einer Benutzeranfrage kann die symbolische Oberfläche einer Anfrage durch bedeutungsrelevante inhaltliche Merkmale ergänzt und damit präzisiert werden. Problem: Die Bereitstellung von 'Pseudo-Inhalten' ist sehr arbeitsintensiv und schwer normierbar; eine automatische Übersetzung von natürlichsprachlichen Ausdrücken in konzeptuelle Graphen ist bislang nur in Ansätzen gelöst und ist aufgrund der natürlichen Komplexität und der Dynamik sprachlicher Bedeutungsstrukturen prinzipiell auf künstliche Teilausschnitte einer Sprache beschränkt. Overview |
Automatische Generierung von Ontologien und deren Verbindungen zu Texten, Tönen und Bildern.
Vorteil: Die Automatisierung in der Generierung der Ontologie stellt alle Ontologien auf eine gleiche Grundlage. Der Aufbau einer hinreichend umfassenden Ontologie ist prinzipiell möglich. Die Kluft zwischen bedeutungsrepräsentierendem Symbol und dem die Bedeutung konstituierenden Inhalt ist prinzipiell überwunden. Die Suche nach bedeutungsbehafteten Objekten gewinnt eine neue Qualität. Einmal erworbenes Wissen kann einfach durch Kopieren vervielfältigt werden. Problem: Die Bereitstellung hinreichend differenzierter (Lern-)Umgebungen sowie das erste Training sind zu Beginn sehr aufwendig. Overview |
Ein Knowbot repräsentiert das Konzept einer Ontologie, die völlig automatisch generiert wird. Dies resultiert daraus, daß im Knowbot zwei Lernprinzipien interagieren: (1) Eine adaptive Konzeptualisierung generiert auf der Basis einer Welt- und Selbstwahrnehmung ein dynamisches Netzwerk von Konzepten, die das Weltwissen des Knowbots darstellen. (2) Ein adaptives Sprachmodul lernt umweltabhängig sprachliche Ausdrücke (2.1) zu artikulieren und (2.2) mit Konzept-Wissen zu koordinieren. Durch diese Koordination gewinnen die sprachlichen Ausdrücke 'Bedeutung' und die konzeptuelle Struktur wird zu einer 'Ontologie'.
Overview |
Overview |
HTML
Overview |