Readspeaker menu


 


Zustandsschätzung und Aktionsauswahl

Menschliches Sehen und motorische Aktionen bilden eine geschlossene Schleife aus Perzeption und Aktion, die enorm effizient und leistungsfähig ist und deren Simulation und mathemtische Modellierung für zahlreiche Anwendungen, zum Beispiel in der Servicerobotik, eine wichtige Rolle spielt.

 

Diese Vorlesung behandelt zwei wichtige Aspekte der maschinellen Sensordatenverarbeitung: die Schätzung des Zustands aus der (gestörten) Beobachtung von Sensordatenfolgen sowie die optimale Aktionsauswahl aufgrund der (fehlerbehafteten) Schätzung über den Zustand. Im ersten Teil werden klassische Verfahren zur Zustandsschätzung von detereministischen sowie von stochastischen Systemen, das Kalman-Filiter und Ansätze aus dem Bereich der Partikel Filter vorgestellt. Der zweite Teil der Vorlesung beschäftigt sich mit Methoden, die Sensordatenaufnahme durch Aktionen gezielt zu beeinflussen. Ausgehend von Markov- Modellen und partiell beobachtbaren Markov-Modellen werden Verfahren aus dem Bereich des Reinforcement Learning vorgestellt sowie ein informationstheoretisches Vorgehen zur Aktionsauswahl basierend auf dem MMI-Prinzip. Im dritten Teil schließt die Vorlesung mit Verfahren zur Sensordatenfusion und einigen Beispielanwendungen.

 

Grundlage der Vorlesung ist das Buch [Den03], das als Textbuch dringend empfohlen wird. Weiter ergänzende Literatur ist [SB98, BSF88, Gel79]. Die Folien der Vorlesung werden ergänzend als Skript zur Verfügung gestellt.

 

Moduldaten: Wahl- oder Wahlpflichtmodul, 3 SWS (5 LP), weitere Informationen in der Modulbeschreibung

 

Zeit und Ort der Vorlesung: siehe im elektronischen Vorlesungsverzeichnis oder CAJ-System

 

Literatur:

[BSF88] Y. Bar-Shalom and T.E. Fortmann. Tracking and Data Association. Academic Press, Boston, San Diego, New York, 1988.

[Den03] J. Denzler. Probabilistische Zustandsschätzung und Aktionsauswahl im Rechnersehen. Logos Verlag, Berlin, 2003.

[Gel79] A. Gelb, editor. Applied Optimal Estimation. The MIT Press, Cambridge, Massachusetts, 1979.

[SB98] R.S. Sutton and A.G. Barto. Reinforcement Learning. A Bradford Book, Cambridge, London, 1998.