Stage-oe-small.jpg

Lehre/Praktikum Organic Computing: Learning Robots

Aus Aifbportal
Version vom 22. Januar 2010, 05:22 Uhr von Lko (Diskussion | Beiträge) (Die Seite wurde neu angelegt: „{{Lehrveranstaltung |Lehrveranstaltungstype=Praktikum |Titel DE=Organic Computing: Learning Robots |Titel EN=Organic Computing: Learning Robots |Forschungsgruppe=…“)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Wechseln zu:Navigation, Suche

Praktikum Organic Computing: Learning Robots

Details zur Lehrveranstaltung
Dozent(en) Hartmut Schmeck
Übungsleiter Lukas KönigSanaz Mostaghim
Fach (Gebiet)
Leistungspunkte ECTS
Erfolgskontrolle
Semester WS & SS


Aktuelle und ergänzende Informationen, sowie Zeiten und Räume der Lehrveranstaltung finden Sie im Vorlesungsverzeichnis der Universität.
Link zum Vorlesungsverzeichnis
Link zum Studierendenportal


Forschungsgruppe


Inhalt

Als autonome mobile Roboter werden Roboter bezeichnet, die sich in ihrer Umgebung selbstständig bewegen und agieren können. Bei einem solchen Roboter hängen die über die Zeit von den Sensoren wahrgenommenen Daten nicht nur von der Umwelt ab, sondern auch in hohem Maße von seiner Eigenbewegung, bzw. von den Bewegungen anderer Roboter in seiner Wahrnehmungsreichweite. Aus diesem und anderen Gründen (z.B. verrauschte Sensordaten; unvollkommene Motorik; oft gestellte hohe Echtzeitanforderungen) gehört die Programmierung dieser Roboter zu den schwierigsten Programmieraufgaben, die es gibt. Betrachtet man einen ganzen Schwarm autonomer mobiler Roboter, ergeben sich zusätzliche komplexe Anforderungen, wenn man ein bestimmtes globales Verhalten modellieren will (z.B. gemeinsames Abtransportieren von Gegenständen; koordiniertes Durchfahren enger Passagen). Das aus vielen lokalen Interaktionen emergierende Verhalten ist kaum vorhersehbar und ein gewünschtes globales Verhalten nur schwer zu erreichen.

Eine Möglichkeit, diese mehrdimensionale Komplexität in den Griff zu bekommen, ist, auf Lernverfahren zurückgreifen, die sich in der Natur als effektiv erwiesen haben. In diesem Praktikum wird die von Darwin eingeführte Theorie der Evolution von Lebewesen, basierend auf zufälligen Mutationen und natürlicher Auslese, auf eine Population von Robotern übertragen. Die Controller, welche die Roboter steuern, sind dabei einer langsamen zufälligen Veränderung unterworfen; eine Bewertungsfunktion definiert das Zielverhalten, dem sich die Population annähern soll, und steuert den Selektionsprozess. Im Laufe der Evolution lernen die Roboter auf diese Weise ein gewünschtes Verhalten, indem solche, die es nicht oder nur unzureichend beherrschen, ausselektiert werden, während andere, die es gut können, für die Produktion von Nachkommen herangezogen werden.

So können Programme zur Steuerung von Robotern erzeugt werden, ohne dass tatsächlich von Hand programmiert werden muss: benötigt wird nur eine gute Definition der Bewertungsfunktion. Der Umgang mit der Komplexität wird somit dem Lernverfahren überlassen.

Im Praktikum sollen die Einflüsse verschiedener Faktoren auf den evolutionären Prozess untersucht werden. Die Themenschwerpunkte sind:

   * Einflüsse von Szenario und Fitness-Berechnung,
   * Einflüsse von Interaktion und Nachbarschaft,
   * Wahl des richtigen Teilverhaltens: Lernen bei mehreren Lernzielen,
   * Dynamische Umgebung: Bewältigung komplexer Umweltverhältnisse,
   * Konfliktauflösung durch Kommunikation: Evolution von Sprache,
   * Co-Evolution: Wettrüsten mehrerer Spezies,
   * Einflüsse alternativer Controller-Repräsentationen:
         o Repräsentation als Künstliches Neuronales Netz (KNN),
         o Repräsentation als Learning Classifier System (LCS),
         o Repräsentation als Petrinetz (PN).

Experimente werden in der Simulation und in richtigen Roboterschwärmen (WANDA-Roboter des Instituts für Prozessrechentechnik, Automation und Robotik) stattfinden.