Multisensorfusion zur semantisch gestützten Navigation eines autonomen Assistenzroboters

Bitte benutzen Sie diese Kennung, um auf die Ressource zu verweisen:
https://osnadocs.ub.uni-osnabrueck.de/handle/urn:nbn:de:gbv:700-2009070611
Open Access logo originally created by the Public Library of Science (PLoS)
Langanzeige der Metadaten
DC ElementWertSprache
dc.contributor.advisorProf. Dr. Joachim Hertzberg
dc.creatorStiene, Stefan
dc.date.accessioned2010-01-30T14:54:38Z
dc.date.available2010-01-30T14:54:38Z
dc.date.issued2009-07-01T08:26:24Z
dc.date.submitted2009-07-01T08:26:24Z
dc.identifier.urihttps://osnadocs.ub.uni-osnabrueck.de/handle/urn:nbn:de:gbv:700-2009070611-
dc.description.abstractEin alltagstauglicher autonomer Assistenzroboter in einem gemeinsamenArbeitsumfeld mit dem Menschen erfordert, dass der Roboter sämtliche Hindernisse in seiner Umgebung wahrnimmt und diesen sicher ausweicht. Stand der Technik ist jedoch, dass meist nur 2D-Sensordaten zur Navigation herangezogen werden. Oder es werden3D-Verfahren verwendet, die ausschließlich mit einer speziellen Sensorkonfiguration arbeiten. Diese Arbeit untersucht im Rahmen des LiSA-Projekts wie 3D-Sensordaten effizient und flexibel zur sicheren Navigation eines autonomenAssistenzsystems eingesetzt werden können. Dazu wird in dieser Arbeit mit der Virtual Range Scans (VRS)-Methode ein Verfahren zurHindernisvermeidung entwickelt, das beliebige Konfigurationen von Abstandssensoren in den Hindernisvermeidungsprozess integriert. Das Verfahren nutztklassische Verfahren zur 2D-Hindernisvermeidung, um 3D-Hindernisvermeidung zu realisieren. Dadurch wird das VRS-Verfahren unabhängig von der Hindernisvermeidungsstrategie und kann flexibel bestehende Verfahren wiederverwenden. Neben der Hindernisvermeidung wird gezeigt, wie die reichereUmgebungsinformation, die in 3D-Sensordaten vorhanden ist, zur robusteren Selbstlokalisierung des Roboters genutzt werden kann. Hier wird eineffizientes Verfahren vorgestellt, das Abstandssensordaten mit 3D-Umgebungsmodellen vergleicht. Ferner wird ein Verfahren vorgestellt, das Semantikim Umfeld des Roboters verankert und sie zur Navigation des Roboters nutzt.ger
dc.language.isoger
dc.subject3D-Hindernisvermeidung
dc.subjectVirtual Range Scans
dc.subjectautonome mobile Roboter
dc.subjectLiSA
dc.subject.ddc620 - Ingenieurwissenschaftenger
dc.titleMultisensorfusion zur semantisch gestützten Navigation eines autonomen Assistenzrobotersger
dc.typeDissertation oder Habilitation [doctoralThesis]-
thesis.locationOsnabrück-
thesis.institutionUniversität-
thesis.typeDissertation [thesis.doctoral]-
thesis.date2009-06-11T12:00:00Z-
elib.elibid913-
elib.marc.edtjost-
elib.dct.accessRightsa-
elib.dct.created2009-06-29T15:37:38Z-
elib.dct.modified2009-07-01T08:26:24Z-
dc.contributor.refereeDr. Norbert Elkmann
dc.contributor.refereeProf. Dr. Werner Brockmann
dc.subject.dnb28 - Informatik, Datenverarbeitungger
vCard.ORGFB6ger
Enthalten in den Sammlungen:FB06 - E-Dissertationen

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat 
E-Diss913_thesis.pdfPräsentationsformat8,94 MBAdobe PDF
E-Diss913_thesis.pdf
Miniaturbild
Öffnen/Anzeigen


Alle Ressourcen im Repositorium osnaDocs sind urheberrechtlich geschützt, soweit nicht anderweitig angezeigt. rightsstatements.org