Knowbotic Interface Project



Problem Description (preliminary)

This is a working paper which will probably be rewritten several times in the next months





AUTHOREN: Gerd Döben-Henisch, Leo Pos und Thore Swindall
FIRST DATE: December 27, 1995
DATE of LAST CHANGE: April-26, 1996



Das Knowbotik Interface ist die Schnittstelle zwischen einem Benutzer und mindestens einem Agenten (in erster Linie Knowbots). Bei dem hier durchgeführten Brainstorming haben wir den 'Agenten-Kernel' vorläufig weitgehend -nicht vollständig- ausgeklammert und behandeln diesen als Black Box. Zur Betrachtung der Problem Description des Knowbotik Interfaces ist es einzig wichtig, daß der Agenten-Kernel mit gewissen Informationen zu versorgen ist aus denen er im weitesten Sinne Bewußtsein entwickeln kann und daß das Knowbotik Interface dem Kernel die Möglichkeiten bietet, mit der virtuellen Welt in der er lebt, in Interaktion treten zu können.

Entsprechend der unterschiedlichen wissenschaftlichen Zugriffsweisen (z.B. phänomenologisch, verhaltensorientiert, physiologisch) kann die Problem Description in verschiedenen Teilen von sehr unterschiedlichen Standpunkten aus vorgenommen werden.

Eine weitere grundlegende Annahme ist die Einbettung des Knowbotic Interfaces in ein Netzwerk. Wir gehen hier von einer verteilten Simulation aus, an der beliebig viele Agenten (Knowbots, Pseudoknowbots, Tiere, Fahrzeuge, ...) teilnehmen können. Das heißt, daß das Knowbotik Interface die Beschreibungen der Welt vollständig selbst bereitstellen muß. Über das Netz werden nur Interaktionen mit anderen Simulationsteilnehmern geschickt.

Wir gliedern die Problembeschreibung in fünf verschiedene Unterpunkte:

  1. Aus der Sicht der Agenten.
  2. Aus der Sicht der Kommunikation (Netzwerk).
  3. Aus der Sicht der "Welt" in der die Agenten "leben".
  4. Aus der Sicht der Benutzer
    1. Spielende Benutzer.
    2. Wissenschaftliche Benutzer.
    3. Entwickler.
  5. Aus der Sicht der Simulation




Zu den Punkten im einzelnen:

  1. AGENT:

    (Zum theoretischen Hintergrund und für Literaturhinweise siehe KIP II Agententheorien)

    • Es gibt unterschiedliche Agenten z.B. Knowbots, Pseudoknowbots, Tiere, Fahrzeuge...
    • Es gibt mindestens einen Pseudoknowbot und einen anderen Agenten.
    • Jeder Agent kommuniziert sowohl mit dem Benutzer, der Welt, als auch mit einem Debugger.

      AGENT-WELT:


      • Jeder Agenten empfängt von der Welt sensorische Daten. Die sensorischen Daten geben Auskunft über die Art der Reize, die von der Welt auf den Agenten einwirken. Eine Beschreibung der Reize erfolgt relativ zu vorausgesetzen Rezeptorsysteme (physiologische und handlungstheoretische Betrachtung) und zu vorausgesetzten Erlebnissen (phänomenologische Betrachtung). Folgende Reizklassen werden mindestens angenommen:

        • Visueller Reiz (Sehen)

          • Aus phänomenologischer Sicht:

            Es wird davon ausgegangen, dass Objekterkennung im Raum geschieht, d.h. vom Standunkt des Erlebens aus wird angenommen, dass im einzelnen die folgenden Informationen verfügbar sind (ohne dass deren Zustandekommen analysiert wird):

            1. wir können Objekte bzgl. ihrer visuellen Gestalt unterscheiden.
            2. an einer einzelnen Gestalt koennen wir weitere 'Teilgestalten' unterscheiden.
            3. ein Objekt A kann ein anderes Objekt B verdecken.
            4. ein Objekt A, das sich entfernt, wird 'kleiner'.
            5. wir können 'Bewegungen' von 'Ruhezuständen' unterscheiden.
            6. wir können Oberflächeneigenschaften unterscheiden.


          • Aus handlungstheoretischer und physiologischer Sicht:

            1. Es gibt mindestens einen visuellen Sensor, der aus einer ellipsoiden Linse mit Durchmesser dl besteht, einem ellipsoiden Rezeptorfeld mit Durchmesser dr und einer Rezeptordichte von n Rezeptoren pro qmm; zwischen der Linsenmitte und dem Mittelpunkt des Rezeptorfeldes herrscht der Abstand dd; ferner hat der gesamte Rezeptor eine Position in einem Koordinatensystem, eine Orientierung p in der x-y-Ebene und eine Orientierung q in der y-z-Ebene.
            2. Als distaler visueller Reiz wird ein spezifischer Bereich aus dem Spektrum der elektromagnetischen Wellen angenommen, der beim menschenähnlichen Agenten im Bereich von ca. 380 nm - 760 nm liegt.
            3. Für jeden Punkt im distalen Rezeptorfeld gibt es Angaben über (+/-)Oberfläche, welche Frequenzen (=Farben), welche Lichtstärke.
            4. Es gibt eine Beschreibung dazu, wie man von den Rezeptorwerten -evtl. unter Zuhilfenahme anderer Werte zu einer Objekterkennung im Raum kommen kann.


        • Olfaktorischer Reiz (Geruch):

          • Phänomenologisch:

            Menschenähnliche Agenten müssen mehrere tausend Gerüche unterscheiden können. Da es bis heute keine eindeutige Beziehung zwischen meßbaren molekularen Eigenschaften und Geruchsqualitäten gibt, muß dieser Zusammenhang willkürlich festgesetzt werden, d.h. bestimmten Objekten bzw. Objektteilen werden 'Geruchswerte' zugeordnet, die an das umgebende Medium abgegeben werden kölnnen.

          • Handlungstheoretisch/ Physiologisch:

            Geruch wird mittels durch die Luft bewegter Moleküle angeregt, die durch die Luftbewegungen im Nasen. Mund und Rachenraum in die Nähe spezieller Geruchssensoren transportiert werden. Die Dekodierung von Molekülvorkommen zu erlebnisrelevanten Qualitäten ist ein mehrstufiger Prozeß, der noch nicht genügend verstanden wird.


        • Gustatorischer Reiz (Geschmack):

          • Phänomenologisch:

            Menschenähnliche Agenten können typischerweise 30-70 Geschmäcker unterscheiden, wobei etwa vier 'Grundgeschmäcker' angenommen werden (süß, sauer, salzig, bitter). Diese bilden aber nur einen Teil des gesamten Geschmacksurteils, das u.a. auch Temperatur, Berührungen mit der Zunge und der Mundschleimhaut, Geruch usf. berücksichtigt. Da es bis heute keine eindeutige Beziehung zwischen meßbaren molekularen Eigenschaften und Geschmacksqualitäten gibt, muß dieser Zusammenhang willkürlich festgesetzt werden, d.h. bestimmten Objekten bzw. Objektteilen werden 'Geschmackswerte' zugeordnet, die bei der Berührung mit der Zunge bzw. im Mundraum 'erfaßt' werden können.

          • Handlungstheoretisch/ Physiologisch:

            Geschmack wird mittels der in Substanzen oder Flüssigkeiten vorkommenden Molekülen angeregt. Dazu dienen in erster Linie Rezeptorfelder auf der Zunge, die eine grobe Klassifikation für die Qualitäten 'süß', 'sauer', 'salzig' und 'bitter' aufweisen. Die Dekodierung von Molekülvorkommen zu erlebnisrelevanten Qualitäten ist ein mehrstufiger Prozeß, der noch nicht hinreichend aufgeklärt ist.


        • Taktiler Reiz (Berührung):

          • Phänomenologisch:

            Menschenähnliche Agenten können bei Berührung der Oberfläche eines Gegenstandes charakteristische Oberflächenstrukturen unterscheiden. Da es bis heute keine eindeutige Beziehung zwischen meßbaren Oberflächeneigenschaften und Berührungsqualitäten gibt, muß dieser Zusammenhang willkürlich festgesetzt werden, d.h. bestimmten Objekten bzw. Objektteilen werden 'Berührungswerte' zugeordnet, die bei der Berührung mit der Körperoberfläche, dem Mundraum und mit der Zunge 'erfaßt' werden können.

          • Handlungstheoretisch/ Physiologisch:

            Bei der Erfassung von Berührung spielen u.a. verschiedene Typen von Berührungsrezeptoren, diverse afferente Leitungen, diverse Kerne im Thalamus, Teile des Cortex, und Teile des motorischen Systems zusammen. Dazu kommen diverse Verschaltungen sowohl im Bereich der afferenten Signale wie auch durch ein descendentes Kontrollsystem. Die räumliche Anordnung der Reize wird im Thalamus und dann im Cortex weitgehend bewahrt (Somatopie). Die Ausarbeitung eines adäquaten physiologischen Modells ist beim heutigen Wissensstand noch nicht möglich.


        • Taktiler Reiz (Druck):

          • Phänomenologisch:

            Menschenähnliche Agenten können bei dem Zusammentreffen mit einem anderen Gegenstand einen charakteristischen Druck unterscheiden. dies gilt auch für den Mundbereich.

          • Handlungstheoretisch/ Physiologisch:

            Bei der Erfassung von Berührung spielen ebenfalls verschiedene Typen von Berührungsrezeptoren, diverse afferente Leitungen, diverse Kerne im Thalamus, Teile des Cortex, und Teile des motorischen Systems zusammen. Dazu kommen diverse Verschaltungen sowohl im Bereich der afferenten Signale wie auch durch ein descendentes Kontrollsystem. Die räumliche Anordnung der Reize wird im Thalamus und dann im Cortex weitgehend bewahrt (Somatopie). Die Ausarbeitung eines adäquaten physiologischen Modells ist beim heutigen Wissensstand noch nicht möglich.


        • Thermale Reize (Temperatursinn):

          • Phänomenologisch:

            Menschenähnliche Agenten haben lokalisierbare Temperaturempfindungen. Relativ zu einer aktuellen Temperatur kann unterschieden werden, ob etwas 'kälter' oder `wärmer' wird. Dies gilt für die Körperoberfläche wie auch für den Nasen-Mundbereich.

          • Handlungstheoretisch/ Physiologisch:

            Es gibt zwei getrennte Rezeptorsysteme für Kälte und Wärme, die sich nur bzgl. ihres Maximums unterscheiden. Relativ zu einer aktuellen Temperatur kann dadurch ein 'kälter' oder 'wärmer' codiert werden. Thermosensoren leiten ihre Signale im wesentlichen über den Vorderseitenstrang zur formatio reticularis und zum Thalamus, schließlich auch zum Cortex. Die räumliche Anordnung ist nicht so ausgeprägt wie im Falle des Tatssinnes. Im Cortex finden sich komplexe Neuronen, die Eigenschaften repräsentieren. Das thermosensitive System ist stark adaptiv. Die Ausarbeitung eines adäquaten physiologischen Modells ist beim heutigen Wissensstand noch nicht möglich.


        • Nociceptiver Reiz (Schmerz):

          • Phänomenologisch:

            Menschenähnliche Agenten können bei bestimmten Veränderungen des Hautgewebes einen charakteristischen Schmerz unterscheiden. Dieser kann durch übermäßigen Druck, übermäßige Temperaturen oder durch bestimmte chemische Substanzen hervorgerufen werden.

          • Handlungstheoretisch/ Physiologisch:

            Nociceptoren sind weitgehend polymodal und an freie Nervenendigungen gebunden. Sie werden durch Noxen ausgelöst, dies sind Stoffe, die die normale Funktion des Gewebes bedrohen. Nocirecepttoren werden durch Veränderung des Gewebes so sensibilisiert, daß ihr Anspruchsniveau absinkt und sich Schmerzreize auslösen lassen. Nociceptoren leiten ihre Signale analog den Thermorezeptoren im wesentlichen über den Vorderseitenstrang zur formatio reticularis und zum Thalamus, aber auch zum Cortex. Die räumliche Anordnung ist nicht sehr ausgeprägt. Das nociceptive System ist nicht adaptiv, aber bzgl. seiner Sensitivität veränderbar. Die Ausarbeitung eines adäquaten physiologischen Modells ist beim heutigen Wissensstand noch nicht möglich.


        • Akustischer Reiz (Gehör)
        • Technische Signale (im Falle von Fahrzeugen)
      • Jeder Agent kann Aktionsdaten zur Welt schicken. Die Aktionsdaten geben Auskunft über irgendwelche Bewegungen oder 'Materialabsonderungen' des Agenten relativ zur Welt. Mit folgende Aktionsarten ist zu rechnen:
        • Bewegung des ganzen Agenten relativ zur Weltoberfläche (Richtung, Geschwindigkeit)
        • Bewegung von Teilen des Agenten relativ zum Agentenkörper (falls Teile vorhanden).
        • Erzeugen von Geräuschen.
        • Erzeugen von Gerüchen.
        • Abgabe von Materialien.
        • Packen/ Greifen von Materialien.
        • Das 'Konsumieren' von Materialien (Essen, Trinken).
        • Das 'Interagieren' von Agenten (z.B. im Falle der Fortpflanzung).
        • Formieren der Körperoberfläche (Gesichtsausdrücke, typische Haltungen usw., um bestimmte Emotionen ausdrücken zu können)
      • Jeder Agent muß Kontrolldaten zur Welt schicken und solche von der Welt empfangen, um regulärer Bewohner der Welt werden zu können bzw. um sich von der Welt wieder abmelden zu können. Kontrolldaten sind auch solche, die im Kontext von Störungen auftreten. Dazu gehören;
        • Anmelden als Bewohner
        • Abmelden als Bewohner
        • Suche eines Start-Platzes in der Welt
      AGENT-BENUTZER:
      • Alle wichtigen Parameter lassen sich bei allen zu Beginn anzeigen.
      • Für alle Agenten können bestimmte Startwerte festgelegt werden.
      • Alle Agenten außer den Knowbots (=NichtKnowbots) werden direkt von Benutzern gesteuert.
      • Bezüglich der NichtKnowbots kann ein Benutzer zumindest angeben
        • daß sie sich bewegen sollen (wann, Richtung, Art, Geschwindigkeit)
        • welche sonstigen Aktionen sie ausführen sollen (vom Agententyp abhängig)
      • Alle Agenten können jederzeit in ihrer Ausführung unterbrochen werden.
      • Alle Aktivitäten eines Agenten lassen sich fortlaufend in einer Datei mitprotokollieren.
      AGENT-DEBUGGER:
      • Auch für Agenten kann man vor der Arbeit beliebige DebugLevel einstellen, die dann während dem Lauf automatisch überwacht werden können.


  2. KOMMUNIKATION (NETZWERK):
    • Das Knowbotik Interface soll sowohl einzeln als auch im Verbund mit anderen Knowbotik Interfaces laufen können.
    • Wird das Knowbotic Interface im Verbund mit anderen Knowbotic Interfaces betrieben, dann muß es mit den anderen an der Simulation beteiligten Interfaces kommunizieren.
    • Die Kommunikation sollte möglichst schnell ablaufen (real time simulation).
    • Das Datenaufkommen sollte möglichst gering sein.


  3. WELT:
    • Das Knowbotik Interface muß die Welt verwalten.
    • Die Welt soll so einfach wie möglich, aber so komplex wie nötig sein, um den Knowbots genügend Umweltinformationen zum Aufbau von Bewußtsein zur Verfühgung zu stellen.
    • Die Welt soll in der Lage sein, viele unterschiedliche Formen annehmen zu können.
    • Aus den Weltdaten sollen sensorische Daten für den Agenten gewonnen werden. Sensorische Bereiche sollen sein:
      • Hören
      • Sehen
      • Riechen
      • Tasten
      • Schmecken.
      • Andere Technische Signale
    • Beim Programmstart müssen Dateien geladen werden, die Weltdaten enthalten.
    • Die Laderoutine sollte einen Konvertierer enthalten, der in der Lage ist, unterschiedliche Grafikformate von Weltbeschreibungen in das interne Knowbotic Interface Format übersetzen zu können. Folgende Grafikformate sollten geladen werden können:
      • GEOMVIEW OFF-Files
      • VRML
    • Die Welt soll über 'dead reckoning' verfügen.
    • Die sensorischen Daten (sensorische Datenbank) und die visuellen Daten (geometrische Datenbank) zur Welt sind voneinander getrennt.
    • Ein Teil der visuellen Daten sind Daten die zur Anzeige von anderen Agenten und zur Berechnung von Kollisionen mit ihnen dienen.
    • Die Welt muß die Simulationszeit verwalten.
    • Die Welt muß Objekte in die Objektdatenbank eintragen, löschen und editieren können.
    • Die einzelnen Einträge in der sensorischen Datenbank müssen editiert werden können.
    • Für eine erste Testwelt sollen die folgenden Forderungen gelten: Requests related for a first world in KIP II


  4. BENUTZER:


    1. SPIELER:
      • Der Spieler kann direkt nur Agenten steuern, die keine Knowbots sind.
      • Der Spieler soll auch mit der Welt interagieren können.
      • Das Knowbotik Interface soll in der Lage sein, alle für den Spieler wichtigen Daten anzuzeigen:
        • Visuelle Anzeige des Weltausschnittes, in dem sich der lokale Agent des Benutzers aktuell befindet, zusammen mit dem eigenen lokalen Agenten.
        • Akustische Anzeige der Geräusche in dem aktuellen Weltausschnitt
        • Anzeige aller wichtigen Parameter des aktuellen lokalen Agenten (eventuell mit Auswahl, d.h. es werden immer nur bestimmte Teilmengen angezeigt) wie auch der Welt.


    2. WISSENSCHAFTLER:
      • Zusätzlich zu oben beim Spieler genannten Punkten soll das Knowbotic Interface Möglichkeiten zur Durchführung von Experimenten bieten.
      • Die Experimente müssen definierbar sein.
      • Ein Experiment muß protokolliert werden können.
      • Die Experimente müssen wiederholbar sein.
      • Während das Experiment läuft sollte es möglich sein, Weldaten und interne Werte des Knowbots zu beeinflussen.


    3. ENTWICKLER:
      • Die internen Abläufe des Knowbotic Interfaces sollen protokolliert werden können.
      • Die Protokolle sollen gespeichert werden können.
      • Die einzelnen Teilbereiche des Knowbotic Interfaces sollen getrennt voneinander in unterschiedliche Debuglevel versetzt werden können.
      • Es muß ein Debuginterface geben.




  5. SIMULATION:
    • Das Knowbotic Interface muß wissen, welche "Welt" als Simulationgrundlage dient, welche anderen Simulationsteilnehmer da sind, und welche Simulationszeit gilt.
    • Wenn die Simuation mit mehreren Teilnehmern läuft, muß das Interface deren "Ghosts" verwalten.
    • Alle Änderungen, die das Knowbotic Interface an seinen Weltdaten vornimmt, müssen auch den anderen Simulationsteilnehmern mitgeteilt werden.







Comments are welcomed to kip-ml@inm.de





INM




Daimlerstrasse 32, 60314 Frankfurt am Main, Deutschland. Tel +49- (0)69-941963-0, Tel-Gerd: +49(0)69-941963-10