grobe ne ug asseug中csys是什么意思思

References
7.15 · KUKA Roboter GmbH36.66 · Karlsruhe Institute of TechnologyAbstractControl of humanoid robots makes great demands not only on the development of cognitive functions and hardware components, but also on the design of planning, supervision and control methods, which establish the connecting element between cognition and hardware. Starting with an overview about current trends in the field of industrial and service robotics, we present in this contribution a general concept for a modular multisensory discrete-continuous supervisory control. We will analyze in particular the decomposition of complex robot actions in a sequence of primitive actions, each with integrated control and supervision solutions.Discover the world's research13+ million members100+ million publications700k+ research projects
at 1/2013MethodenFlexible diskret-kontinuierliche¨Uberwachung und Regelunghumanoider RoboterFlexible Discrete-Continuous Supervisory Control for Humanoid RobotsGiulio Milighetti*, KUKA Laboratories GmbH, Augsburg,Christian Bauer, Ralf Mikut, Karlsruher Institut für Technologie (KIT),Helge-Bj?rn Kuntze, Fraunhofer Institut für Optronik, Systemtechnik und Bildauswertung, Karlsruhe*Korrespondenzautor: giulio.milighetti@</Zusammenfassung Die Regelung humanoider Roboterstellt nicht nur hohe Anforderungen an den Entwurf der ko-gnitiven Architektur und der Hardwarekomponenten, sondernauch an die Planungs-, Regelungs- und ?berwachungskom-ponenten, die die Lücke zwischen der Kognition und derHardware schliessen. Dieser Beitrag baut auf einer ?bersichtüber aktuelle Trends bei Industrie- und Servicerobotern auf undpr?sentiert ein generisches L?sungskonzept in Form eines mo-dularen, multisensoriellen, diskret-kontinuierlichen Regelungs-und ?berwachungskonzepts. Hierbei wird insbesondere dieZerlegung komplexer Aktionen in einzelne Grundgeschicklich-keiten mit integrierten Regelungs- und ?berwachungsl?sungenbeschrieben. ??? Summary Control of humanoid ro-bots makes great demands not only on the development ofcognitive functions and hardware components, but also on thedesign of planning, supervision and control methods, whichestablish the connecting element between cognition and hard-ware. Starting with an overview about current trends in thefield of industrial and service robotics, we present in thiscontribution a general concept for a modular multisensorydiscrete-continuous supervisory control. We will analyze inparticular the decomposition of complex robot actions in a se-quence of primitive actions, each with integrated control andsupervision solutions.Schlagw?rter Humanoide Roboter, diskret-kontinuierliche Regelung, ?berwachung, Reflexe, Multisensor-Fusion ???Keywords Humanoid robots, discrete-continuous control, supervision, reflexes, multisensor fusion1 EinführungHumanoide Roboter sind universelle mobile Service-roboter, die anspruchsvollere Aufgabenstellungen imprivaten und beruflichen Umfeld autonom oder phy-sikalisch interaktiv mit Menschen bew?ltigen k?nnen.Hierzu verfügen sie über eine menschen?hnliche Gestalt,über Perzeptionseigenschaften und über ein intelligentesEntscheidungs- bzw. Regelverhalten [1].Weltweit werden insbesondere in Deutschland (Ar-mar [2], Justin [3], Lola [4]), Italien (iCub [5]), Japan(Asimo [6], Toyota [7], HRP [8], Wabian [9]), Korea(Hubo [10]), Frankreich (NAO [11]) und den USA (Ro-bonaut [12]) humanoide Roboter entwickelt, wobei jenach Projekt der Fokus entweder auf der Realisierungmenschen?hnlicher Bewegungen oder auf Serviceaufga-ben liegt. Alle genannten Projekte sind überwiegendgrundlagenorientierte Forschungsvorhaben, in denen zurDemonstration jeweils nur einzelne Roboter laborm?ssigrealisiert wurden. Prognosen für eine schnelle Markt-durchdringung durch humanoide Roboter haben sichbislang nicht erfüllt, weil die Komplexit?t realistischerAufgabenstellungen noch in einem Missverh?ltnis zu16 at – Automatisierungstechnik 61 (2013) 1 / DOI 10.1524/auto. (C)Oldenbourg Wissenschaftsverlag
¨Uberwachung und Regelung humanoider Roboter ???den erreichbaren intellektuellen F?higkeiten der Robo-ter steht. Zudem ist das Preis-Leistungsverh?ltnis vielerHardware- und Softwarekomponenten noch inakzepta-bel.Dennoch sind inzwischen grosse Fortschritte bei derperzeptiven ?berwachung und Regelung von Hardware-komponenten für humanoide Roboter zu verzeichnen.K?pfe [13], Arme [3;14] und H?nde [3;15] weiseneine konsequente Leichtbauweise, mechanische Nach-giebigkeiten und eine umfangreiche Ausstattung mitperzeptiven (z. B. sehenden, fühlenden und h?ren-den) Sensoren auf. Für deren Beherrschung bei derRealisierung von umweltinteraktiven Grundgeschicklich-keiten (engl. ,,Basic Skills“) wurden intelligente modulare?berwachungs- und Regelungskonzepte entwickelt, diedie unbekannte und zeitlich ver?nderliche Umwelt desRoboters berücksichtigen. Diese Konzepte sind nichtnur für humanoide Roboter, sondern auch ganz allge-mein für die Handhabung fragiler Gegenst?nde und fürkomplizierte Montageaufgaben interessant, die mit her-k?mmlichen Industrierobotern nur schwer realisierbarsind. Gegenw?rtig l?sst sich daher der Trend beobachten,nicht komplette humanoide Roboter, sondern intelli-gente Teill?sungen für Industrie- und Serviceroboter inForm von Hardware- und Software-Komponenten biszur Marktreife zu entwickeln. Dazu müssen Regelungs-und ?berwachungskonzepte modular aufgebaut und mitexistierenden Konzepten für Industrieroboter gekoppeltwerden, um Ideen aus der Humanoiden Robotik aufzukünftige Generationen von Industrie- und Servicero-botern zu übertragen. Das umfasst u. a. die Integrationvon bildgestützten Regelungen (Visual Servoing), denUmgang mit Ausnahmesituationen, die Realisierungund Verknüpfung von Grundgeschicklichkeiten und dieIntegration humanoider Regelungs- und ?berwachungs-strategien wie Reflexen [16].Um humanoide Roboter und ihre modularen Kompo-nenten zu bef?higen, anspruchsvolle Aufgabenstellungensowohl autonom als auch in Interaktion mit demMenschen zu bew?ltigen, wird ein neuartiges diskret-kontinuierliches sensorbasiertes ?berwachungs- undRegelungskonzept ben?tigt, das sich auf eine breiteVielfalt anspruchsvoller Aufgabenstellungen des t?gli-chen Lebens flexibel skalieren l?sst. Mit der Entwicklungeines solchen ganzheitlichen Systemkonzeptes für in-telligente humanoide Roboter besch?ftigt sich der von2001 bis 2012 laufende DFG-SonderforschungsbereichSFB 588 ,,Humanoide Roboter“ [17]. ?ber das hier-bei entstandene multisensorielle diskret-kontinuierliche?berwachungs- und Regelungssystem wird in diesemBeitrag berichtet [18;19]. Kapitel 2gibt eine kurzge-fasste ?bersicht zum Stand der Technik und Forschungbei der ?berwachung und Regelung von Roboternund diskutiert Gemeinsamkeiten und Unterschiede zwi-schen marktüblichen Industrie- und Serviceroboternund humanoiden Robotern. Anschliessend wird dasim SFB 588 entwickelte generische, multisensorielle,diskret-kontinuierliche Regelungs- und ?berwachungs-konzept vorgestellt (Kapitel 3) und dessen Funktions-und Leistungsf?higkeit anhand verschiedener Experi-mente demonstriert wird (Kapitel 4).2¨Ubersicht zur ¨Uberwachung und Regelungder Roboterbewegung2.1 Roboterregelung mit internen SensorenDie ?berwachung und Regelung von marktüblichen Ro-botern geht von der N?herungsannahme aus, dass diebegrenzende Umwelt weitgehend bekannt ist bzw. Ver-?nderungen (z. B. F?rderband) sich vorausbestimmenlassen. Auf eine Perzeption und interaktive Regelungder r?umlich beschr?nkten Umwelt mit externen (z.B.bild- oder kraftgebenden) Sensoren wird daher verzichtet.Die Regelung der kartesischen Position und Orientierungdes Roboters erfolgt indirekt über die Positionsregelungder Roboterachsen, die standardm?ssig mit internen Sen-soren (z. B. Winkelkodierern) ausgerüstet sind. Für dieRegelung der frei programmierten Punkt-zu-Punkt- oderBahnbewegungen werden überwiegend leicht implemen-tierbare einfache PID-Algorithmen eingesetzt [20].Die dynamische Positioniergenauigkeit l?sst sich durchmodellbasierte Regelungskonzepte erheblich verbessern.Positionierungsfehler entstehen einerseits durch dienichtlineare dynamische Kopplung der Roboterachsen,besonders bei der schnellen Bewegung von leichten elas-tischen Strukturen, andererseits durch Reibung und Spielin den Gelenken. Zur optimalen Ausregelung solcherFehler wurden in der Vergangenheit unter Verwendungvon analytischen Robotermodellen oder Neuro-Fuzzy-Methoden zahlreiche L?sungskonzepte entwickelt [21].Zur Entkopplung der st?renden Beeinflussung benach-barter Achsen wurden bisher verschiedene Regelungs-algorithmen vorgeschlagen, die das nichtlineare inverseSystemmodell (Bewegungsgleichungen) einbeziehen, umdie Roboterbewegung global zu entkoppeln und zu linea-risieren. Aufgrund der hohen Empfindlichkeit gegenüberModellungenauigkeiten und Lastschwankungen werdenjedoch nur vereinfachte Varianten dieses nichtlinea-ren Regelungskonzepts mit Feedforward-Entkopplung inmarktüblichen Robotersteuerungen realisiert [22].Adaptive Regelungskonzepte sind gegenüber Modell-fehlern, besonders Lastschwankungen deutlich robuster.Sie basieren darauf, zur Regelung der Roboterachsen ein-fache lineare Algorithmen (z.B. PID) einzuführen, derenaktuelle Parameter mit Hilfe eines mitlaufenden rekursivgesch?tzten Systemmodells oder eines Satzes heuristischerFuzzy-Regeln st?ndig adaptiert werden [23].Modellpr?diktive Regelungsalgorithmen verwendenebenfalls einfache ,,interne Modelle“, mit denen übereinen begrenzten Pr?diktionshorizont die jeweils opti-malen Stellgr?ssen rekursiv bestimmt werden. Gegenüberanderen modellbasierten Konzepten k?nnen somit pl?tz-liche Unstetigkeiten der Referenztrajektorie oder desSt?rgr?ssenverlaufes (z. B. Lastsprünge) voraus blickendbesser ausgeregelt werden [21;24].17
Methoden2.2 Roboterregelung mit externen SensorenSobald sich Roboter in einer partiell unbekannten Umge-bung mit zeitlich ver?nderlichen Hindernissen bewegenund zus?tzlich mit Menschen physikalisch interagierenmuss, ist erg?nzend zur ?berwachung und Regelungmit internen Sensoren die Perzeption mit verschiede-nen externen aufgaben- oder situationsspezifischen (z.B.bildgebenden und/oder kraftgebenden) Sensoren erfor-derlich. Bei den hierfür verwendeten ?berwachungs- undRegelungskonzepten ist prinzipiell zu unterscheiden zwi-schenokontaktbehafteter Roboterbewegung, bei der gewünschteNachgiebigkeiten oder Kontaktkr?fte einzuhalten sind,sowieokontaktfreier Roboterbewegung, bei der die Einhaltungdefinierter und sicherer (kollisionsvermeidender) Ab-st?nde zu den umgebenden Objekten im Vordergrundsteht.Bewegung mit kraftschlüssiger UmweltinteraktionDie ?berwachung und Regelung der Nachgiebigkeit (Im-pedanz) zwischen Roboter und Umwelt ist dann vonzentraler Bedeutung, wenn der Roboter sicher und ver-letzungsfrei mit dem Menschen physikalisch interagierensoll, z. B. um grosse Gegenst?nde gemeinsam zu mani-pulieren. Impedanzregelungskonzepte gehen davon aus,Roboter und Kontaktobjekt als mechanisches Feder-D?mpfer-Masse-Modell abzubilden, dessen Parameterdas mechanische Nachgiebigkeitsverhalten physikalischanschaulich beschreiben. ?ber die gemessenen Kontakt-kr?fte, Gelenkmomente und Bewegungsgr?ssen (Weg,Geschwindigkeit, Beschleunigung) im Kontaktpunkt bzw.in den Roboterachsen werden die aktuellen Modellpara-meter gesch?tzt und so geregelt, dass ein gewünschtesNachgiebigkeitsverhalten im Kontaktpunkt bzw. in denRoboterachsen eingehalten wird [25].Die direkte Regelung von definierten Kontaktkr?ftenbei der kontaktbehafteten Roboterbewegung ist beson-ders bei industriellen Umform- und Montageaufgabenvon Bedeutung, bei denen definierte Umform- oderFügekr?fte sicherzustellen sind. Im Gegensatz zu den in-direkt wirkenden Impedanzregelungskonzepten bestehtdas Ziel der direkten Kraftregelung darin, eine ge-wünschte Kontaktkraft durch die Kraft-Positionsregelungw?hrend der Bewegung konstant zu halten. Hierzuwurden bisher sowohl kaskadierte als auch hybride Kraft-Positionsregelungskonzepte entwickelt [25].Aufgrund der noch unbefriedigenden Dynamik undder relativ hohen Kosten von Kraft-Momenten-Sensorenkam es bisher noch nicht zu einer breiten industriel-len Einführung von direkten Kraftregelungskonzepten.Der zunehmende Bedarf an sicherer Mensch-Roboter-Kooperation (engl.: HRI – Human Robot Interaction)bei komplexen Montage und Serviceaufgaben hat je-doch in den letzten Jahren zu einem zunehmendenInteresse für Impedanzregelungskonzepte geführt [14].Die meisten Impedanz- und Kraftregelungen bleibenjedoch insensitiv gegenüber Kontakten hinter dem Kraft-Momenten-Sensor, solange keine Gelenkdrehmomentevorhanden sind.Bewegung mit kontaktfreier UmweltinteraktionBei Aufgabenstellungen, bei denen der Roboter ausSicherheitsgründen (Kollisionsgefahr) oder für eine spe-zifische Fertigungs- oder Montageanforderungen (z. B.Nahtschweissen) einen definierten Abstand zu seiner Um-gebung halten muss, werden zunehmend bildgestützteRegelungskonzepte (engl.: VS – Visual Servoing) ein-gesetzt. Anwendung finden hierbei sowohl einzelne alsauch mehrere 2D- und 3D-Kameras oder PMD-Sensoren(engl.: PMD – Photonic Mixing Device) in Verbindungmit einer geeigneten Auswertesoftware [26].Die ersten VS-Konzepte wurden bereits zu Beginnder achtziger Jahre im Umfeld der Autoindustrie er-folgreich eingesetzt, wobei aufgrund der begrenztenLeistungsf?higkeit der Sensor-Hardware überwiegendquasistatische ,,Look-and-Move“-Anwendungen im Vor-dergrund standen (z.B. automatische Radmontage).Getrieben durch die Verfügbarkeit von immer schnel-leren und billigeren Hardware-Komponenten wurde eszunehmend m?glich, auch sehr dynamische, qualitativanspruchsvolle VS-Aufgaben im Fertigungsumfeld zu l?-sen [20;27;28].Hinsichtlich der Bildauswertung l?sst sich die Vielzahlder bisher entwickelten VS-Regelungskonzepte untertei-len in [29;30]:obildbasierte Visual-Servoing-Verfahren (BVS)opositionsbasierte Visual-Servoing-Verfahren (PVS)ohybride Visual-Servoing-Verfahren (HVS).Bildbasierte BVS-Verfahren arbeiten im zweidimensio-nalen Bildraum (2D-Visual-Servoing). Die vom Reglererzeugten Stellsignale h?ngen direkt von den extrahier-ten Bildmerkmalen und ihrer ?nderungsdynamik ab.Das aktuelle Roboterbild in der Istposition wird mitdem Roboterbild in der Zielposition verglichen. Aus denDifferenzmerkmalen berechnet der Regelungsalgorith-mus dann zielführende Stellsignale für die unterlagertenAchsenregelkreise. Bei positionsbasierten PVS-Verfahren(auch als 3D-Visual-Servoing bezeichnet) wird mit Hilfeeines 3D-Modells und der aktuellen Bildinformationzun?chst der dreidimensionale kartesische Positions-und Orientierungsfehler des Roboters bezüglich sei-ner Solltrajektorie oder seiner Zielposition berechnet.Aus der vektoriellen 3D-Abweichung ermittelt ein ge-eigneter Regelungsalgorithmus die korrigierenden bzw.zielführenden Stellsignale für die unterlagerten Achsen-regelkreise.Verglichen mit PVS ist BVS bei kleinen Regel-abweichungen wesentlich recheneffizienter. Nachteiliggegenüber PVS ist hingegen, dass die Konvergenz fürgr?ssere Wegl?ngen nicht global gesichert ist. HybrideHVS-Verfahren (oft als 2.5D-Visual-Servoing bezeichnet)kombinieren daher die Vorteile der BVS- und PVS-Verfahren. Im Gegensatz zu PVS ben?tigen sie kein18
¨Uberwachung und Regelung humanoider Roboter ???rechenaufwendiges 3D-Modell und konvergieren im ge-samten Arbeitsraum des Roboters.Hinsichtlich der Entwicklung leistungsf?higer undrobuster VS-Regler, die sehr schnell aus extrahierten Bild-merkmalen optimale Stellaktionen der Roboterantrieberealisieren, gibt es noch erheblichen Entwicklungsbe-darf. So werden bei den meisten VS-Regelungskonzeptennur einfache proportional wirkende P-Regler einge-setzt, die a priori nur eine geringe Kreisverst?rkungund daher stabilit?tsbedingt nur langsame Roboter-bewegungen zulassen. Für dynamisch anspruchsvollereAufgabenstellungen ist die Einführung von intelligen-teren modellpr?diktiven Regelungskonzepten sowie derEinsatz von Potentialfeld-Methoden zukünftig unver-zichtbar.2.3 Humanoide RoboterGegenüber marktüblichen Industrie- und Servicero-botern werden zukünftige humanoide Roboter überwesentlich fortgeschrittenere F?higkeiten besonders hin-sichtlichoeiner komplexeren Aufgabenbew?ltigung,oeiner umfassenderen perzeptorischen Umweltwahr-nehmung undoeiner robusteren K?rperstabilisierungverfügen, um in einer komplexen sich st?ndig ver?n-dernden Umwelt zu bestehen. Herk?mmliche Planungs-,?berwachungs- und Regelungskonzepte k?nnen diesenAnforderungen nicht gerecht werden.Die Komplexit?t der Aufgaben humanoider Roboterwird dadurch gekennzeichnet, dass sie aus mehrerenaufeinander folgenden Bewegungsphasen bestehen, indenen jeweils unterschiedliche ?berwachungs- und Re-gelungsalgorithmen mit den dazu geh?renden Sensorenaktiviert werden. Der Ablauf kann durch unerwarteteSt?rungen beeintr?chtigt werden, für deren Kompensa-tion autonome intelligente Entscheidungen bzw. regelndeHandlungen des Roboters gefragt sind. Sollte ihm z. B. einGegenstand entgleiten, so muss er in der Lage sein, diesendurch Perzeption (z. B. durch H?ren und Schauen) zulokalisieren, selbstt?tig zu greifen und anschliessend dieunterbrochene Aufgabe fortzusetzen. Die Planung undAusführung solcher Handlungen erfolgt in modernenhumanoiden Robotern auf der Basis kognitiver Archi-tekturen, die das Zusammenwirken unterschiedlicherHierarchieebenen mit unterschiedlichen Abstraktionsni-veaus und Echtzeitanforderungen organisieren [31;32].Humanoide Roboter müssen mit perzeptiven, beson-ders mit bildgebenden, kraftmessenden und akustischenSensoren ausgerüstet sein, um ihre Umwelt und die mitihnen kooperierenden Menschen wahrnehmen, überwa-chen oder imitieren zu k?nnen. Durch intelligente Fusionder relevanten Sensormerkmale werden sie bef?higt,komplexe Situationen oder Ereignisse (z. B. Kollisions-gefahr) frühzeitig und sicher detektieren, lokalisierenund klassifizieren zu k?nnen. Besonders die Fusion vonKraft- und Bildsensoren ist für die sichere physikalischeInteraktion von Roboter und Mensch von zentraler Be-deutung [33;34].Die menschen?hnliche Gestalt mit Oberk?rper, Un-terk?rper, Kopf und Gliedmassen hat in der Regelmit ca. 50–80 Freiheitsgraden eine erheblich komplexereKinematik als Industrie- und Serviceroboter. Deren Sta-bilisierung bei unterschiedlichen Gangarten (Gehen, Jog-gen, Sprinten etc.) und Belastungen beim Durchführenvon Handhabungsaufgaben stellt an die Geschicklichkeitund Adaptionsf?higkeit des ?berwachungs- und Rege-lungskonzepts Ansprüche, die nur durch fortgeschrittenebionisch inspirierte Ans?tze gel?st werden k?nnen.Zu einzelnen Teilproblemen der ?berwachungund Regelung humanoider Roboter wurden teil-weise sehr ausgereifte und leistungsf?hige L?sungs-konzepte entwickelt. Zu nennen sind hier besondersdie Forschungsaktivit?ten, die sich mit zweibeinigemGang (DFG-Schwerpunktprogramms 1039 ,,AutonomesLaufen“ [35]) oder mit Greifen und Manipulationbzw. den hierzu erforderlichen multimodalen Dialogen(SFB 360 ,,Situierte Agenten“ [36]) befassen. Gleichzeitigwerden wichtige Teilaspekte eines humanoiden Robo-ters wie z. B. seine kognitiven F?higkeiten im Rahmender RoboCup-Initiative von anderen Forschergruppenuntersucht [37]. Die Entwicklung von alltagstauglichenperzeptiven Schlüsselfunktionen und -komponenten füreine neue Generation von Servicerobotern war das Zieldes vom Bundesministerium für Bildung und Forschung(BMBF) gef?rderten Verbundprojektes DESIRE [38].Ein ganzheitliches generisches Konzept zur multisen-soriellen ?berwachung- und Regelung humanoider Ro-boter wurde erstmals im DFG-SonderforschungsbereichSFB 588 entwickelt [17].3 Multisensorielles diskret-kontinuierlichesRegelungskonzeptUm den extremen Anforderungen bei der Bew?ltigungkomplexer Aufgaben, bei der Perzeption der Umwelt undbei der K?rperbeherrschung gerecht zu werden, wurdeein neuartiges diskret-kontinuierliches ?berwachungs-und Regelungskonzept entwickelt und realisiert (sieheBild 1).Das hybride Regelungsverfahren stützt sich auf konti-nuierliche Differenzialgleichungen zur Beschreibung derRoboterdynamik, ist aber ebenso auf die Modellierungeines ereignisdiskreten Systems zur Handlungsplanung,die von externen Ereignissen beeinflusst werden kann,angewiesen. Dieser hybriden Struktur des Gesamtsystemsentsprechend wurde dem System eine Abstraktionshier-archie zugrunde gelegt, die sowohl eine kontinuierlicheRegelung der Roboterdynamik als auch eine diskrete Re-gelung der Handlungssequenz flexibel kombiniert.Die resultierende zweischichtige Architektur enth?lteine obere Planungs- und Durchführungsebene (,,Dis-krete Regelung“), die die mittlere und Teile der oberenEbene von dreischichtigen Architekturen [31] umfasst,und eine untere Ebene zur ,,Kontinuierlichen Regelung“.19
MethodenBild 1 Diskret-kontinuierliches?berwachungs- und Regelungs-konzept.In der oberen Ebene wird der diskrete Zustand desRoboters w?hrend der Ausführung der Aufgabe geregeltund überwacht. Die untere Ebene stellt das gewünschtekontinuierliche Regelungsverhalten der Roboterdynamiksicher. Die hier verwendeten klassischen Regelungskon-zepte werden durch biologisch inspirierte Methodenerg?nzt. Das Verhalten der beiden Ebenen basiert auf denZustandsinformationen, die durch interne (z. B. Winkel-messer) und externe Sensoren (z. B. Kraft-Momenten-,Kameras, Mikrofone) gewonnen werden.3.1 Diskrete RegelungNeben der Aufgabengenerierung und der Koordinationder daraus resultierenden Aktionsfolgen übernimmt dieh?here diskrete Ebene die Fusion der Sensormessungen.Nach der Auswertung dieser Daten erfolgt eine Identifika-tion der Zust?nde bzw. aufgetretenen Ereignisse, die dieaktuelle Situation beschreiben. Basierend darauf werdendie durchzuführenden elementaren Aktionen aktiviertund überwacht. Falls die geplanten Aktionen nicht in derLage sind, das vorgegebene Ziel zu erreichen, gestaltetdie diskrete Regelung dynamisch eine neue Aktionsfolge,passt die bisherige an oder bricht die Ausführung ab.Durch eine modulare diskrete Struktur der Planung istes m?glich, Handlungssequenzen flexibel zu generierenund Grundlagen für ihre effiziente Online-Modifikationzu schaffen. Dadurch wird sowohl eine transparente Mo-dellierung der Aufgabe als auch ein effiziente Bearbeitungvon Online-Entscheidungen gew?hrleistet. Grundlage da-für ist die Einführung von Aktionsprimitiven (AP), dieelementare Teilaufgaben beschreiben. Die Definition ei-nes AP aus [39] wurde mit Hilfe zweier neuer AttributeEund aso erweitert, dass verschiedene Umwelteinflüssemitberücksichtigt werden k?nnen [1]:AP ={HM,ψ,λ,E,a}(1)Dabei enth?lt HM die Informationen über die Bewegung,ψdie zu verwendenden Werkzeuge und Ressourcenund λdie Abbruchbedingung. Sowohl die Effizienz Ealsauch die Affinit?t awerden dazu verwendet, die Zusam-menh?nge zwischen dem auszuführenden AP und demaktuellen Systemzustand zu beschreiben. Beide stellenMasse für die F?higkeit des AP dar, seinen gewünschtenZielzustand zu erreichen.Die Effizienz Estellt die aktuelle Leistungsf?higkeit desAP dar, indem sie die für das AP schon in ψfestgelegtenben?tigten Ressourcen hinsichtlich ihrer Funktionalit?tauswertet. Ein Effizienzwert von 1 bedeutet dann, dassdie Leistungsf?higkeit der erforderlichen Ressourcen ma-ximal ist und das AP optimal ausgeführt werden kann.Ein Effizienzwert von 0 zeigt dagegen ein AP an, dessenAusführung vermieden werden sollte. Die Effizienz E(t)eines AP wird zu jedem Zeitpunkt tdurch das Produktder Effizienzen der nbeteiligten Ressourcen im Bezugauf den aktuellen Zustand des Systems berechnet (sieheAbschnitte 4.1 und 4.3).Die Affinit?t aist dagegen ein relatives Mass, das dieA-priori-Eignung eines AP bewertet, ein gegebenes Zielzu erreichen. Dieser kontextspezifische Vergleich zwi-schen mehreren zur Verfügung stehenden AP kann ausverschiedenen Ansichten erfolgen (aus Sicht der Dauer,der Genauigkeit, des Energieverbrauchs, ...). Dem AP,das in Bezug auf den entsprechenden ausgew?hlten Ver-gleichsparameter als geeigneter bewertet wird, wird dermaximale Affinit?tswert 1 zugewiesen. Da die Affinit?tauf A-priori-Kenntnissen der Leistungsmerkmale jedesAP beruht, ist sie zeitunabh?ngig und berücksichtigtnichtdie tats?chlich vorherrschende Situation. Ihr Wert wirddaher aufgrund von Expertenwissen offline festgelegt.Nach der Zerlegung jeder komplexen Handlung in eineKette von solchen elementaren Aktionen kann der ge-samte Plan mit einem Petri-Netz transparent modelliertwerden. Dabei wird zun?chst jede einzelne Bewegungs-phase als separates Petri-Netz mit einer oder mehrerenStellen kodiert, wobei kontinuierliche Komponenten (wiez. B. Regler oder Bahnplanungsalgorithmen) den einzel-nen Stellen des Petri-Netzes zugeordnet werden. UnterBerücksichtigung der Schnittstellen zwischen APs ent-steht dann das Petri-Netz des gesamten Plans. Ein solcherAnsatz bietet noch den weiteren Vorteil, dass das korrekteAbarbeiten der AP-Folge w?hrend der gesamten Hand-lung überwacht und koordiniert werden kann. Ausserdem20
¨Uberwachung und Regelung humanoider Roboter ???wird dadurch eine Verwaltung der Roboterressourcen er-m?glicht [19;40].Die so entwickelte Aufgabenstruktur dient auch alsGrundlage für den Entscheidungsfindungsalgorithmus,der die zentrale Komponente der diskreten Regelungdarstellt: Der Roboter plant seine diskrete Handlungsse-quenz situationsabh?ngig, indem er ein multikriteriellesOptimierungsproblem online l?st. Basierend auf der Nut-zenfunktionν=E·a,(2)die mit jedem AP assoziiert ist, wird der globale opti-male Pfad, d. h. der Pfad von aktuellem zum Zielzustand,der die AP-Sequenz mit gr?sster Effizienz und gr?ssterAffinit?t beinhaltet, im Planungsnetz durch einen modi-fizierten Dijkstra-Algorithmus gesucht und schrittweiseausgeführt [1].3.2 Kontinuierliche RegelungIn Abh?ngigkeit vom gerade auszuführenden Aktionspri-mitiv werden sowohl auf Basis von klassischen Methodenals auch mit Hilfe von biologisch-motivierten Ans?t-zen Robotertrajektorien generiert. Diese erm?glichen es,menschen?hnliche Bewegungen zu generieren und wei-sen dabei eine erh?hte Robustheit gegenüber St?rungenauf [41]. Eine optimale Verfolgung dieser Trajektoriewird dann durch dynamische Einschaltung des jeweiligenaktionsspezifischen Reglers sichergestellt.So wird z. B. für eine kontaktfreie Ann?herung desRoboterarms an ein bewegtes Objekt ein bildgestütz-ter Regelungsalgorithmus ben?tigt, w?hrend für eineWischbewegung auf einer Objektoberfl?che eine hybrideKraft-/Positionsregelung bevorzugt wird.Erh?hte Sicherheit kann zus?tzlich durch Integrationvon Reflexen nach menschlichem Vorbild in die Re-gelungsarchitektur erreicht werden. Dadurch wird derRoboter in der Lage versetzt, auf unerwartete externeSt?rungen bereits innerhalb des untersten (schnellsten)Regelkreises zu reagieren [16]. Auf diese Art und Weisekann z. B. der Verlust des Gleichgewichts aufgrund ei-ner Kollision durch eine schnelle K?rperstabilisierungkompensiert werden. Eine zus?tzliche Online-Adaptionder Reglerparameter garantiert dann ein optimales dy-namisches Verhalten des Roboters auch unter sichver?ndernden Bedingungen.4 Realisierung perzeptorisch geregelterGrundgeschicklichkeitenDas vorgestellte ?berwachungs- und Regelungskonzeptsoll im Folgenden anhand eines realisierten Fallbeispielsveranschaulicht werden. Zur experimentellen Erpro-bung diente die Versuchsplattform des IOSB, dieaus zwei Roboterarmen und einem Kopf besteht. Sieist mit zahlreichen Sensoren für die Durchführungverschiedener umweltinteraktiver Aufgaben ausgestattet(Kraft-Momenten-Sensor, Schlupfsensor, taktile Senso-Bild 2 Versuchs- und Entwicklungsplattform am IOSB.ren, Stereokamera, Audio-Array, ...). Als Benchmarksei die sehr oft ben?tigte Grundgeschicklichkeit ,,Grei-fen heruntergefallener Objekte“ betrachtet: W?hrend derrechte Arm eine Pick&Place-Aufgabe ausführt, f?llt einzus?tzliches Objekt im Arbeitsbereich des Roboters her-unter (z. B. Becher in Bild 2), das aufgehoben werdenmuss.Die L?sungsstrategie des Roboters orientiert sich anmenschlichem Verhalten in einer vergleichbaren Situa-tion. Zuerst wird eine grobe Richtung des Fallger?uschsdurch ,,H?ren“ mittels des Audio-Arrays detektiert. Dadiese erste Sch?tzung eine sehr geringe Genauigkeit hat,dient sie zur Ausrichtung der Stereokamera im Kopf zurGer?uschquelle hin. Wie beim Menschen kann auf dieseWeise trotz des eingeschr?nkten Sichtfelds der Kameraeine visuelle Erkennung und Lokalisierung des zuf?lligpositionierten Objekts erfolgen. Im Anschluss daran wirdeine Trajektorie für die Ann?herungsbewegung generiertund ausgeführt. Schliesslich wird das Objekt gegriffen.Durch das erarbeitete Konzept ist der Roboter in derLage, auf ?nderungen der Randbedingungen, unerwar-tete Ereignisse und Konflikte in der Ressourcenbelegungzu reagieren und die Aufgabe erfolgreich abzuschlie-ssen. In dieser Arbeit wurde eine vorgeplante Strukturdes Petri-Netzes angenommen. Eine automatische Ge-nerierung der m?glichen Handlungsalternativen (z. B.[42–44]) kann aber ins Konzept problemlos integriertwerden. Ein aus diesem Netz generierter vereinfachterGraph, der die einsetzbaren AP-Folgen beschreibt undals Grundlage für die Roboterentscheidung dient, ist inBild 3dargestellt.Im betrachteten Greifvorgang werden im Folgendenunterschiedliche Situationen analysiert:oAuswahl des Roboterarms für den Greifvorgang (Ab-schnitt 4.1),oSchlupfreflex zur Sicherung von Greifvorg?ngen (Ab-schnitt 4.2),oAuswahl der visuell-gestützten Ann?herungsstrategie(Abschnitt 4.3)undoStossreflex zur Minimierung von Kollisionssch?den(Abschnitt 4.4).21
MethodenBild 3 Vereinfachter Graph derAP-Folge für den betrachtetenGreifvorgang.Trotz der reduzierten Komplexit?t des hier vorgestell-ten Beispiels, l?sst sich das entwickelte Konzept auch aufkomplexere Aufgaben unter realistischen Randbedingun-gen skalieren. Die Parameter, die für die Modellierungder Sequenz ben?tigt werden, k?nnen durch Lernphasenoder Online-Adaption ermittelt werden [1].4.1 Auswahl des Roboterarms für den GreifvorgangSobald ein akustisches Ereignis detektiert wird, erfolgt dieAusrichtung der Kamera zur Schallquelle. Die Positiondes heruntergefallenen Objektes wird anhand der Fusionvon akustischen und visuellen Daten gesch?tzt. Diesewird zusammen mit Informationen über den aktuellenZustand der Antriebe (Residuen [45]) dazu verwendet,mit Hilfe von Fuzzy-Methoden die Effizienz Eder zweiArme für den Greifvorgang zu berechnen. Die dazu ver-wendeten Zugeh?rigkeitsfunktionen sind beispielhaft inBild 4zu sehen. Die Auswertung erfolgt durch RegelnBild 4 Zugeh?rigkeitsfunktionen für die Bewertung der Arm-Effizienz.wie z. B. ,,wenn Abstand nah und Residuen klein dannEffizienz hoch“. Zusammen mit der Verfügbarkeit desGreifers, die kennzeichnet, ob der Arm schon etwas ge-griffen hat oder nicht, fliessen dann diese Informationenin den Entscheidungsprozess.In Bild 5sind die Ergebnisse dargestellt, die aus demHerunterfallen eines Objekts auf die rechte Seite desArbeitsbereichs des Roboters resultieren. Das akustischeEreignis wird w?hrend der ,,Place“-Phase (AP1–ca.11s)detektiert und eine Reaktion in der Roboteraktionen da-durch ausgel?st. Aufgrund der st?ndig berechneten Grei-fereffizienz (Bild 5b) und AP-Nutzwerte (siehe Bild 5c)resultiert der Entscheidungsprozess in der in Bild 5adar-gestellten AP-Folge: Das vom rechten Arm getrageneObjekt muss erst abgesetzt werden (AP2), bevor der Greif-vorgang durchgeführt werden kann (AP11,AP3und AP4).4.2 Schlupfreflex zur Sicherung von Greifvorg?ngenEin Abrutschen gegriffener Gegenst?nde kann verschie-dene Ursachen, wie z. B. eine glatte Oberfl?che odereine Erh?hung des Gewichts beim Füllen eines Be-h?lters haben. Ein Mensch verhindert das Entgleiteneines rutschenden Objekts durch das schnelle, unbe-wusste und reflexartige Verst?rken des Griffs. Ebensoreagiert der Roboter in vergleichbaren F?llen. Dafürwerden Daten eines am Fraunhofer IOSB (Institut fürOptronik, Systemtechnik und Bildauswertung) entwickel-ten Schlupfsensors [46] ausgewertet und bei erkanntemAbrutschen entsprechende Reaktionen durch künstlicheReflexe ausgel?st [16]. Diese Roboterreflexe basieren aufeiner speziellen Version des Leaky-Integrate-and-Fire-Neurons, bei welcher je nach Bedarf auch der Schwellwertdynamisch angepasst werden kann [47;48]. Ein Erreichendieses Schwellwertes l?st die Reaktion aus. Im Falle desSchlupfreflexes ist ein wiederholtes Ausl?sen des Reflexeserforderlich, da nach nur einer ersten, einmaligen Reak-22
¨Uberwachung und Regelung humanoider Roboter ???Bild 5 Signale und Ergebnisse des Entscheidungsprozesses.Bild 6 Beispielhafte Aktivierung des Schlupfreflexs w?hrend der ,,Place“-Phase (AP1).tion des Greifers noch nicht gew?hrleistet werden kann,dass ein Entgleiten des Objekts sicher verhindert wurde.Infolgedessen schliesst sich der Greifer so lange, bis keinweiteres Abrutschen mehr durch den Sensor registriertwird und das Objekt (wieder) sicher gegriffen ist. DasVerhalten des Schlupfreflexes ist in Bild 6sehr gut zuerkennen. Sobald eine Verschiebung des Objekts rela-tiv zur Greiffl?che gemessen wird, wird das Abrutschendurch wiederholte Aktivierung des Reflexes schnell un-terbunden. Da der Schlupfsensor nur im rechten Greiferintegriert ist, ist der Reflex nur w?hrend der Ausführungvon Greifvorg?ngen mit dem rechten Arm vorhanden(d. h. AP1und AP4).4.3 Auswahl der visuell-gestütztenAnn?herungsstrategieBetrachtet wird jetzt der Fall, dass der Becher auf dielinke Seite des Tisches herunterf?llt, wie aus den Effi-zienzen der zwei Arme in Bild 7deutlich zu sehen ist.Unter diesen Umst?nden kann der rechte Arm auch nachAuftreten des akustischen Ereignisses (bei ca. 9.5 s) seine,,Pick&Place“-Aufgabe ungest?rt fortsetzen, w?hrend derlinke Arm für das Greifen des Bechers verantwortlich ist.Die Ann?herungsbewegung wird visuell geregelt, um dieUngenauigkeiten in der Positionssch?tzung zu minimie-ren, und eine kollisionsfreie Trajektorie zu gew?hrleisten.Für den linken Arm k?nnen sowohl die Kopf- als aucheine Handkamera eingesetzt werden (AP5bzw. AP6). Einesolche L?sung bietet eine h?here Genauigkeit und Ro-bustheit. Je mehr sich der Roboter dem Objekt n?hert,desto gr?sser ist die Robustheit gegenüber Beleuchtungs-?nderungen und Verdeckungen.Die Nutzwerte der zwei entsprechenden AP werdenhaupts?chlich anhand der Effizienzen der eingesetztenSensoren berechnet. Die Zugeh?rigkeitsfunktionen fürdie Fuzzifizierung der Faktoren, die diese Effizienzen be-einflussen, sind beispielhaft für die Handkamera in Bild 8dargestellt.Die Ergebnisse des Entscheidungsprozesses k?nnenin Bild 7betrachtet werden. Nach der ersten Vorpo-sitionierung des Armes, um das Objekt ins SichtfeldBild 7 Signale und Ergebnisse des Entscheidungsprozesses.23
MethodenBild 8 Zugeh?rigkeitsfunktionen für die Bewertung der Effizienzen derHandkamera (HK).der Handkamera zu bringen, befindet sich die Hand-kamera in ihrem optimalen Arbeitsbereich und wirddann unter normalen Randbedingungen (d.h. begrenztesMessrauschen) als geeignetster Sensor ausgew?hlt und dasentsprechende AP6wird aktiviert (bei ca. 15 s). Je n?herder Roboter kommt, desto gr?sser wird das Objekt imBild, bis ein Punkt erreicht wird (bei ca. 21 s), in dem dieHandkamera das Objekt nicht mehr lokalisieren kann.Deshalb sinkt der Nutzwert von AP6wieder auf 0 undder Roboter führt den letzten Teil seiner Bewegung wie-der mit Hilfe der Kopfkamera (AP5).Eine Fusion beider Sensoren wird auch durch den ein-geführten Formalismus erm?glicht (siehe [1]).4.4 Stossreflex zur Minimierungvon Kollisionssch?denWie beim Schlupfreflex, der das Abrutschen und Ent-gleiten eines gegriffenen Objekts verhindern soll, mussein Roboter in der Lage sein, schnell und effektiv aufunvorhergesehene Situationen wie Kollisionen zu rea-gieren. Neben einem m?glichst nah am menschlichenBild 9 Bildsequenz eines Stossreflexs und entsprechender Reaktion –Kollision (a), Ausweichen (b), Hindernisumgehung (c–d).Vorbild orientierten Reaktionsverhalten sollen auch dieReaktionszeiten entsprechend schnell sein. ?hnlich zumin Abschnitt 4.2 vorgestellten Schlupfreflex, muss der Ro-boter bei pl?tzlich auftretenden St?ssen innerhalb wenigerMillisekunden durch einen Stossreflex reagieren. Hierbeiwird die Erkennung des Stosses ebenso wie die initialeReaktion, eine aktuelle Bewegung zu stoppen, direkt vomReflex ausgel?st. Für darüber hinausgehende Reaktio-nen wie Ausweichbewegungen übergibt der Reflex andie Petri-Netz basierte Systemüberwachung. Diese leitetsituationsabh?ngige Kompensations- oder Ausweichbe-wegungen durch Aktivierung entsprechender AP ein undstellt nach der Kompensation der St?rung die Rück-kehr zur Weiterführung des ursprünglichen Tasks sicher.Da die Kollisionserkennung einen sehr wichtigen Si-cherheitsaspekt darstellt, ist der Stossreflex aktiv bei derAusführung jedes AP. Eine beispielhafte Reaktion aufeine Kollision mit einem unvorhergesehenen Hindernisw?hrend der Ann?herung an Zielobjekt (AP3) ist in derBildfolge 9zu sehen.5 Zusammenfassung und AusblickEin Konzept, welches humanoiden Robotern die not-wendige Flexibilit?t und Geschicklichkeit bei einerinteraktiven und sicheren Aufgabenbew?ltigung in einerstark ver?nderlichen Umwelt vermittelt, wurde in die-sem Beitrag pr?sentiert. Die Basis des L?sungskonzepts istein modulares, multisensorielles zweischichtiges diskret-kontinuierliches ?berwachungs- und Regelungskonzept.Zentraler Ansatz dafür ist die Zerlegung komplexer Ak-tionen in eine Folge von elementaren Aktionseinheiten(so genannte Aktionsprimitive – AP) mit integriertenRegelungs- und ?berwachungsl?sungen. Die daraus ent-standene Kette von Aktionsprimitiven ist durch einPetri-Netz modelliert, das das korrekte Abarbeiten derge-samten Handlung überwacht und koordiniert. Ausserdemdient es als Grundlage für einen Entscheidungsfindungs-prozess, der basierend auf der Online-Bewertung deraktuellen Eignung jedes AP, die situationsoptimale AP-Folge bestimmt (diskrete Regelung). Die Sicherheit derAusführung der ausgew?hlten AP ist dann zus?tzlichdurch die Integration von menschen?hnlichen Refle-xen garantiert. Das gesamte Konzept wurde umfassenderprobt und hier anhand des Greifvorganges eines un-bekannt positionierten Gegenstandes veranschaulicht.Damit wurde gezeigt, dass es sich aufgrund seiner Modu-larit?t auch für zukünftige Generationen von Industrie-und Servicerobotern eignet, die in Umgebungen mit gr?-sseren Unsicherheiten agieren.DanksagungDiese Arbeit wurde von der Deutschen Forschungsge-meinschaft (DFG) im Rahmen des Sonderforschungsbe-reiches (SFB) 588 ,,Humanoide Roboter – Lernende undkooperierende multimodale Roboter“ gef?rdert.24
¨Uberwachung und Regelung humanoider Roboter ???Literatur[1] Milighetti, G.: Multisensorielle diskret-kontinuierliche ?berwa-chung und Regelung humanoider Roboter, Bd. 6 von KarlsruherSchriften zur Anthropomatik. KIT Scientific Publishing, Karlsruhe,Germany, 2010, ph.D. Thesis.[2] Asfour, T.;Azad, P.;Vahrenkamp, N.;Regenstein, K.;Bierbaum, A.;Welke, K.;Schr?der, J.;Dillmann, R.: Toward humanoid manipula-tion in human-centred environments. Robotics and AutonomousSystems, 56(1), S. 54–65, 2008.[3] Albu-Sch?ffer, A.;Eiberger, O.;Fuchs, M.;Grebenstein, M.;Had-dadin, S.;Ott, C.;Stemmer, A.;Wimb?ck, T.;Wolf, S.;Borst, C.;Hirzinger, G.: Anthropomorphic Soft Robotics – From Tor-que Control to Variable Intrinsic Compliance. In: Pradalier, C.;Siegwart, R.;Hirzinger, G., (Hg.) Robotics Research, Bd. 70 vonSpringer Tracts in Advanced Robotics, S. 185–207, Springer Ber-lin/Heidelberg, 2011.[4] Buschmann, T.;Lohmeier, S.;Ulbrich, H.: Entwurf und Regelungdes humanoiden Roboters Lola. at – Automatisierungstechnik,58, S. 613–621, 2010.[5] Metta, G.;Sandini, G.;Vernon, D.;Natale, L.;Nori, F.:TheiCubhumanoid robot: an open platform for research in embodiedcognition. In: Proceedings of the 8th Workshop on PerformanceMetrics for Intelligent Systems, S. 50–56, ACM, New York, NY,USA, 2008.[6] Hirose, M.;Ogawa, K.: Honda humanoid robots development.Philosophical Transactions of the Royal Society A: Mathemati-cal,Physical and Engineering Sciences, 365(1850), S. 11–19, 2007.[7] Tajima, R.;Honda, D.;Suga, K.: Fast running experiments invol-ving a humanoid robot. In: Proceedings of the IEEE InternationalConference on Robotics and Automation, S. , 2009.[8] Akachi, K.;Kaneko, K.;Kanehira, N.;Ota, S.;Miyamori, G.;Hi-rata, M.;Kajita, S.;Kanehiro, F.: Development of humanoid robotHRP-3P. In: 5th IEEE-RAS International Conference on Huma-noid Robots, S. 50–55, 2005.[9] Ogura, Y.;Aikawa, H.;Shimomura, K.;Morishima, A.;ok Lim, H.;Takanishi, A.: Development of a new humanoid robot WABIAN-2.In: Proceedings of the IEEE International Conference on Roboticsand Automation, S. 76–81, 2006.[10] Park, I.-W.;Kim, J.-Y.;Lee, J.;Oh, J.-H.: Mechanical design of thehumanoid robot platform, HUBO. Advanced Robotics, 21(11),S. , 2007.[11] Gouaillier, D.;Hugel, V.;Blazevic, P.;Kilner, C.;Monceaux, J.;Lafourcade, P.;Marnier, B.;Serre, J.;Maisonnier, B.: Mechatronicdesign of NAO humanoid. In: Proceedings of the IEEE Interna-tional Conference on Robotics and Automation, S. 769–774, 2009.[12] Diftler, M.;Mehling, J.;Abdallah, M.;Radford, N.;Bridgwater, L.;Sanders, A.;Askew, S.;Linn, D.;Yamokoski, J.;Permenter, F.;Har-grave, B.;Platt, R.;Savely, R.;Ambrose, R.: Robonaut 2 – the firsthumanoid robot in space. In: Proceedings of the IEEE Internatio-nal Conference on Robotics and Automation, S. , 2011.[13] Asfour, T.;Welke, K.;Azad, P.;Ude, A.;Dillmann, R.: The karlsruhehumanoid head. In: 8th IEEE-RAS International Conference onHumanoid Robots, S. 447–453, 2008.[14] Bischoff, R.;Kurth, J.;Schreiber, G.;Koeppe, R.;Stemmer, A.;Albu-Sch¨affer, A.;Eiberger, O.;Beyer, A.;Grunwald, G.;Hirzinger, G.: Ausder Forschung zum Industrieprodukt: Die Entwicklung des KUKALeichtbauroboters. at-Automatisierungstechnik, 58(12), S. 670–680, 2010.[15] Werner, T.;Kargov, A.;Gaiser, I.;Bierbaum, A.;Schill, J.;Schulz, S.;Bretthauer, G.: Eine fluidisch angetriebene anthropomorphe Ro-boterhand. at-Automatisierungstechnik, 58(12), S. 681–687, 2010.[16] Bauer, C.;Milighetti, G.;Yan, W.;Mikut, R.: Human-like reflexesfor robotic manipulation using leaky integrate-and-fire neurons.In: Proceedings of the IEEE International Conference on Intelli-gent Robots and Systems, S. , 2010.[17] Dillmann, R.;Asfour, T.: Collaborative Research Center on Huma-noid Robots (SFB 588). KI–Zeitschrift K¨unstliche Intelligenz, 4,S. 26–28, 2008.[18] Milighetti, G.;Kuntze, H.-B.: Fuzzy based decision making for thediscrete-continuous control of humanoid robots. In: Proceedingsof the IEEE International Conference on Intelligent Robots andSystems 2007, San Diego, CA, USA, 2007.[19] Lehmann, A.: Neues Konzept zur Planung, Ausf¨uhrung und¨Uberwachung von Roboteraufgaben mit hierarchischen Petri-Netzen. Dissertation, Universit¨at Karlsruhe, Universit¨atsverlagKarlsruhe, 2008.[20] Kuntze, H.-B.: Position control of Industrial robots-impacts, con-cepts and results. In: Proceedings of the 2nd IFAC-Symposium onRobot Control (SYROCO88), S. 5–7, 1988.[21] Siciliano, B.;Khatib, O.: Springer Handbook of Robotics. SpringerVerlag, Berlin, Heidelberg, Germany, 2008.[22] De Luca, A.: Feedforward/feedback laws for the control of flexiblerobots. In: Proceedings of the IEEE International Conference onRobotics and Automation, S. 233–240, San Francisco, CA, 2000.[23] Kuntze, H.-B.;Sajidman, M.;Jacubasch, A.: A Fuzzy-Logic conceptfor highly fast and accurate position control of industrial robots.In: Proceedings of the IEEE International Conference on Roboticsand Automation, Nagoya, Japan, 1995.[24] Kuntze, H.;Jacubasch, A.;Richalet, J.;Arber, C.:Onthepredictivefunctional control of an elastic industrial robot. In: Proceedingsof the 25th IEEE Conference on Decision and Control, Bd. 25,S. , 1986.[25] Siciliano, B.;Villani, L.: Robot Force Control. Kluwer AcademicPublishers, Norwell, MA, USA, 2000.[26] Hutchinson, S.;Hager, G. D.;Corke, P. I.: A Tutorial on VisualServo Control. 12(5), S. 651–670, 1996.[27] Lambert, G.: Prinzip und Einsatzm?glichkeiten moderner 3-D-Vision Systeme, Objekterkennung in der Robotik – Technolo-gien – Methoden – Anwendungen, 2004.[28] Lippiello, V.;Siciliano, B.;Villani, L.: Position-Based Visual Ser-voing in Industrial Multirobot Cells Using a Hybrid CameraConfiguration. 23(1), S. 73–86, 2007.[29] Malis, E.: Survey of vision-based robot control. In: EuropeanNaval Ship Design, Captain Computer IV Forum, ENSIETA, Brest,France, 2002.[30] Martinet, P.;Chaumette, F.;Hashimoto, K.;Malis, E.: Tutorialon Advanced Visual Servoing. In: International Conference onRobotic Systems, 2004.[31] Burghart, C.;Mikut, R.;Stiefelhagen, R.;Asfour, T.;Holzapfel, H.;Steinhaus, P.;Dillmann, R.: A cognitive architecture for a huma-noid robot: A first approach. In: 5th IEEE-RAS InternationalConference on Humanoid Robots, S. 357–362, 2005.[32] Goerick, C.;K¨orner, E.: Kognitive Humanoide Robotik: Ent-wicklungsschritte in Lernen und Verhaltensorganisation. at-Automatisierungstechnik, 58(11), S. 639–646, 2010.[33] Phriends: Physical human-robot interaction: dependability andsafety.[34] Saphari: Safe and Autonomous Physical Human Aware RobotInteraction.[35] Pfeiffer, F Cruse, H. H.: Autonomes Laufen. Springer Ver-lag, Berlin, Heidelberg, Germany, New York, USA, 2005.[36] Knoll, A.;Hildebrandt, B.;Zhang, J.: Instructing Cooperating As-sembly Robots through Situated Dialogues in Natural Language.In: Proceedings of the IEEE International Conference on Roboticsand Automation, Albuquerque, New Mexico, 1997.[37] Friedmann, M.;Petersen, K.;von Stryk, O.: Tailored real-time si-mulation for teams of humanoid robots. In: Visser, U.;Ribeiro, F.;Ohashi, T.;Dellaert, F., (Hg.) RoboCup 2007: Robot Soccer WorldCup XI, Bd. 5001 von Lecture Notes in Computer Science/ArtificialIntelligence, S. 425–432, Springer-Verlag, Berlin/Heidelberg,2008.[38] Parlitz, C.;Baum, W.;Reiser, U.;H?gele, M.: Intuitive Human-Machine-Interaction and Implementation on a Household RobotCompanion. In: Proceedings of the 12th International Conferenceon Human-Computer Interaction (HCI), S. 922–929, Beijing,China, 2007.25
Methoden[39] Finkemeyer, B.;Kr¨oger, T.;Wahl, F.: Aktionsprimitive: Ein uni-verselles Roboter-Programmierparadigma. at - Automatisierungs-technik, 53(4-5), S. 189–196, 2005.[40] Lehmann, A.;Mikut, R.;Asfour, T.: Petri Nets for Task Supervisionin Humanoid Robots. In: Proceedings of the 37th InternationalSymposium on Robotics (ISR), Munich, Germany, 2006.[41] Bauer, C.;Braun, S.;Chen, Y.;Jakob, W.;Mikut, R.: Optimizationof Artificial Central Pattern Generators with Evolutionary Al-gorithms. In: Proc., 18. Workshop Computational Intelligence,S. 40–54, 2008.[42] Bagchi, S.;Biswas, G.;Kawamura, K.: Task Planning under Uncer-tainty using a Spreading Activation Network. IEEE Transactionon Systems, Man, and Cybernetics, 30(6), S. 639–650, 2000.[43] Pardowitz, M.;Z?llner, R.;Knoop, S.;Dillmann, R.:UsingPhysicalDemonstrations, Background Knowledge and Vocal Commentsfor Task Learning. In: Proceedings of the IEEE InternationalConference on Intelligent Robots and Systems, Beijing, China,2006.[44] Ahle, E.: Autonomous Systems: A Cognitive-Oriented ApproachApplied to Mobile Robotics. Dissertation, Universit?t Duisburg-Essen, Fakult?t für Maschinenbau, Aachen, Germany, 2007.[45] De Luca, A.;Mattone, R.: Actuator failure detection and isolationusing generalized momenta. In: Proceedings of the IEEE Inter-national Conference on Robotics and Automation, S. 634–639,Taipei, Taiwan, 2003.[46] B?chlin, M.;Beyerer, J.;Kuntze, H.-B.;Milighetti, G.: Vorrichtungzum Schlupfüberwachten, kraftschlüssigen Ergreifen, Halten undManipulieren eines Objektes mittels einer Greiferanordnung,2005, p-2005-02 Deutsche Patentanmeldung am 12.07.2005, Amt-liches Aktenzeichen: 10 .5.[47] Azouz, R.;Gray, C. M.: Dynamic Spike Threshold reveals a Me-chanism for Synaptic Coincidence Detection in Cortical Neuronsin vivo. In: Proceedings of the National Academy of Sciences ofthe United States of America, Bd. 97, S. , 2000.[48] Chacron, M. J.;Pakdaman, K.;Longtin, A.: Interspike Interval Cor-relations, Memory, Adaptation, and Refractoriness in a LeakyIntegrate-and-Fire Model with Threshold Fatigue. Neural Com-putation, 15(2), S. 253–278, 2003.Manuskripteingang: November 2011Dr.-Ing. Giulio Milighetti war wissenschaftlicher Mitarbeiter und Pro-jektleiter am Fraunhofer-Institut für Optronik, Systemtechnik und Bild-auswertung (IOSB) in Karlsruhe. Er ist jetzt als Entwickler bei der FirmaKUKA Laboratories GmbH besch?ftigt. Forschungsschwerpunkte: Ro-botik, Regelungstechnik, Sensortechnik.Adresse: KUKA Laboratories GmbH, Zugspitzstrasse 140, D-86165Augsburg, E-Mail: giulio.Dipl.-Inform. Christian Bauer war wissenschaftlicher Mitarbeiter amInstitut für Angewandte Informatik (IAI) des Karlsruher Instituts fürTechnologie (KIT). Forschungsschwerpunkte: Robotik, Regelungstech-nik, Bewegungsanalyse.Adresse: Karlsruher Institut für Technologie (KIT), Institut für Ange-wandte Informatik, Hermann-von-Helmholtz-Platz 1, D-76344 Eggen-stein-Leopoldshafen, E-Mail: christian.bauer@kit.eduapl. Prof. Dr.-Ing. Ralf Mikut ist Projektleiter am Institut für Ange-wandte Informatik (IAI) und ausserplanm?ssiger Professor an der Fakul-t?t für Maschinenbau des Karlsruher Instituts für Technologie (KIT).Forschungsschwerpunkte: Computational Intelligence, Biosignalana-lyse, Bildverarbeitung, Regelungstechnik, Robotik, Bewegungsanalyse.Adresse: Karlsruher Institut für Technologie (KIT), Institut für Ange-wandte Informatik, Hermann-von-Helmholtz-Platz 1, D-76344 Eggen-stein-Leopoldshafen, E-Mail: ralf.mikut@kit.eduDr.-Ing. Helge-Bj?rn Kuntze war bis 2009 Leiter des Gesch?ftsfeldesMess-, Regelungs- und Diagnosesysteme (MRD) am Fraunhofer Insti-tut für Optronik, Systemtechnik und Bildauswertung (IOSB). Er ist jetztwissenschaftlicher Berater und Projektleiter. Forschungsschwerpunkte:Regelungstechnik, Robotik, Fuzzy-Logic und Data Mining.Adresse: Fraunhofer Institut für Optronik, Systemtechnik und Bildaus-wertung, D-76131 Karlsruhe, Fax: +49-(0)721-,E-Mail: helge-bjoern.kuntze@iosb.fraunhofer.de26
???????????????????????????????????????????????????????????????????????????????????????????????????????????????? ???? ?!&&? ?#$%????
?&?&???????&??(?%$)*?*#)?*$??$$*??%? )? ?+,?????????????????-???????&???????&?????.??????/-01?2???3??????????.??????*?.??4??&??&?????????????????????????????2????????????? ?? ????2?,???????????-????????&2.&???????????5&2.????* ?????5&???2??*????????????????????????,???????????-???????&???????&?????.??????/-01??????????????????????????6?????????????????????7???????? ?????????,?????&????3??2??????????????1???&????/-01?3&????2?-?????????? ?? ??0??????????????8?&???0????????????????????????????????%%9?&??&?2???&?????????????????-&????????????????????? ??:??????????????-?2&?????????????&??????????.???????????0??????????7???2?????????0?????????????.?&????&?????-:*?:*5&???????????7???2*&?* 5??.;?&?&*,???????8?&???0??* &????????????????????????????%%??8?&????&?????? ???-? :?-? 2&????????3?????????&??????=??2??&????????0?????????7???2??????5&2.?????,????????????(??????????2?????????????&?????=?????????????,?????????????????????????@???????????????????????????????????????????????A????&??????2?&???????????????&2???????????????????????B??3???????????????????????-?2&???????????????%))2?????2?=??2??C??????????????????????D?E&??????0??????&2*1????&&???E???C?.?&2&3??????,&????????%))?,????????????????&????????,?????&???*,???????????????F????E?? ????????? ???F??2?????????????????-?2&??????????????????&???&???2?F???&??????? ????&???????????&??????G=???G?H#%?)%?#9?9?I?#)? ?F?4G?H#%?)%?#9?9?I???? ?&?? ???J&?? ??&&??????K?? ??&&????:????????????3??????D2&-? ??&??????2?????????#9? ?)??$??A??????????& ????&& ???*3?????? ? ?A?????????A?????????????8?G?@??L??6?22??2???? ????L????22??2???J&????&&????? ?
CitationsCitations0ReferencesReferences48ABSTRACT: In the area of robot control research a large number of sophisticated control algorithms have been developed within the last two decades which can provide almost perfect results in simulation or under laboratory conditions. However, the vast majority of commercial IR systems prefer rather simple concepts which have their origin in the CNC technique. The main reason for the main acceptance of research results is the poor cost-benefit ratio with respect to the most manufacturing applications. There are two prospective approaches to improve considerably this acceptance index which have arisen just in recent years. (1) Robust control concepts considering the conditions of implementation, service and operation within a crude industrial environment. (2) Mechatronics concepts for integrated overall design of electronics and mechanics. The objectives of this contribution are both to summarize the present state of IR control research and industrial practice and to outline on going research efforts at the Fraunhofer-Institute IITB concerning (1) and (2).Chapter · Dec 1989
Full-text · Article · Sep 2006 ABSTRACT: In contrast to classical engineering approaches for the generation of movements in robots or prostheses, approaches to this subject inspired by neurophysiological circuits are in advance. One of the key structures of interest in this area is the Central Pattern Generator (CPG) which has been identified to be the source of movement generation in mammals. This neural circuit is capable of generating cyclic muscle activation patterns completely independent from the brain as shown by Brown in the early 20th century [1, 2]. In the past years this knowledge was adapted to the challenges in movement generation and control in robotics, for example for passive dynamic walkers by P. Manoonpong [3]. In this paper the results of a CPG implementation and its optimization to model the human movement generation are presented, which were aiming at a design to be as biologically realistic as possible. Due to the fact, that biological models are the fundamentals of the simulated CPG, a large number of parameters needs to be set, which results in a very complex configuration process to get an optimized CPG behavior. Based on previous works [4–7] an Evolutionary Algorithm was em-ployed to optimize the rhythm-generation of the CPG. For this optimization the tool GLEAMKIT was used [8]. Electromyographic (EMG) data recorded from a human male during walking on a treadmill have been utilized for the fitness function as well as for evaluation purposes. Full-text · Article · Dec 2008 +1 more author...ABSTRACT: In this paper, a short survey of vision-based robot control (generally called vi-sual servoing) is presented. Visual servoing concerns several field of research including vision systems, robotics and automatic control. Visual servoing can be useful for a wide range of applications and it can be used to control many dif-ferent dynamic systems (manipulator arms, mobile robots, aircraft, etc.). Visual servoing systems are generally classified depending on the number of cameras, on the position of the camera with respect to the robot, on the design of the error function to minimize in order to reposition the robot. In this paper, we describe the main visual servoing approaches proposed in the literature. For simplicity, the examples in the survey focuses on manipulator arms with a single camera mounted on the end-effector. Examples are taken from work made at the Uni-versity of Cambridge for the European Long Term Research Project VIGOR (Visually guided robots using uncalibrated cameras).Article ABSTRACT: We report about the iCub, a humanoid robot for research in embodied cognition. At 104 cm tall, the iCub has the size of a three and half year old child. It will be able to crawl on all fours and sit up to manipulate objects. Its hands have been designed to support sophisticate manipulation skills. The iCub is distributed as Open Source following the GPL/FDL licenses. The entire design is available for download from the project homepage and repository (http://www.robotcub.org). In the following, we will concentrate on the description of the hardware and software systems. The scientific objectives of the project and its philosophical underpinning are described extensively elsewhere [1]. Full-text · Article · Jan 2008 +1 more author...ABSTRACT: Robot assistants in the same environment with humans have to interact with humans and learn or at least adapt to individual human needs. One of the core abilities is learning from human demonstrations, were the robot is supposed to observe the execution of a task, acquire task knowledge and reproduce it. In this paper, a system to interpret and reason over demonstrations of household tasks is presented. The focus is on the model based representation of manipulation tasks, which serves as a basis for reasoning over the acquired task knowledge. The aim of the reasoning is to condense and interconnect the knowledge. A measure for the assessment of information content of task features is introduced that relies both on general background knowledge as well as task-specific knowledge gathered from the user demonstrations. Beside the autonomous information estimation of features, speech comments during the execution, pointing out the relevance of features are considered as well Full-text · Conference Paper · Nov 2006
Full-text · Conference Paper · Sep 2011
Full-text · Conference Paper · Dec 2012 Chapter · Jan 2017 Data provided are for informational purposes only. Although carefully collected, accuracy cannot be guaranteed. Publisher conditions are provided by RoMEO. Differing provisions from the publisher&#x27;s actual policy or licence agreement may be applicable.This publication is from a journal that may support self archiving.

我要回帖

更多关于 ug什么意思 的文章

 

随机推荐