Die Robotik steht an der Schwelle zu einem neuen Zeitalter, in dem Roboter nicht mehr nur starre, vorprogrammierte Aufgaben erfüllen, sondern flexibel und lernfähig auf dynamische Umgebungen reagieren. Ein wichtiger Schritt in diese Richtung ist die mobile Manipulation, bei der Roboter Objekte in ihrer Umgebung erkennen, greifen und bewegen können. Bisherige Systeme stießen jedoch in Szenarien mit sich verändernden Umgebungen an ihre Grenzen. Ein neuer Ansatz namens DynaMem verspricht hier Abhilfe.
DynaMem ist ein innovatives System, das Robotern ermöglicht, in offenen, dynamischen Umgebungen zu agieren und Aufgaben basierend auf natürlichsprachlichen Anweisungen auszuführen. Im Kern des Systems steht ein dynamisches räumlich-semantisches Gedächtnis, das die Umgebung des Roboters repräsentiert. Dieses Gedächtnis basiert auf einer 3D-Datenstruktur, die kontinuierlich aktualisiert wird und Punktwolken der Umgebung speichert. Dadurch kann der Roboter Objekte lokalisieren und auf Veränderungen in der Szene reagieren.
Die Stärke von DynaMem liegt in seiner Fähigkeit, mit offenen Vokabularen zu arbeiten. Dies bedeutet, dass der Roboter nicht auf eine vordefinierte Liste von Objekten beschränkt ist, sondern auch mit neuen, unbekannten Objekten umgehen kann. Diese Fähigkeit wird durch den Einsatz von multimodalen großen Sprachmodellen (LLMs) und modernsten Vision-Language-Modellen ermöglicht. Diese Modelle erlauben es dem Roboter, Objekte anhand ihrer visuellen Eigenschaften und ihrer sprachlichen Beschreibung zu identifizieren und zu lokalisieren.
Herkömmliche Systeme zur mobilen Manipulation gehen oft von einer statischen Umgebung aus. Das bedeutet, dass sie Schwierigkeiten haben, sich an Veränderungen anzupassen, die durch menschliche Eingriffe oder die Aktionen des Roboters selbst verursacht werden. DynaMem hingegen ist darauf ausgelegt, mit solchen dynamischen Szenarien umzugehen. Der Roboter kann neue Umgebungen erkunden, nach Objekten suchen, die sich nicht im Gedächtnis befinden, und das Gedächtnis kontinuierlich aktualisieren, wenn Objekte sich bewegen, erscheinen oder verschwinden.
Die Wirksamkeit von DynaMem wurde in umfangreichen Experimenten mit Stretch SE3-Robotern in realen und simulierten Umgebungen getestet. Die Ergebnisse sind vielversprechend: Bei Pick-and-Drop-Aufgaben mit nicht-stationären Objekten erreichte DynaMem eine durchschnittliche Erfolgsquote von 70%. Dies stellt eine mehr als zweifache Verbesserung gegenüber bisherigen Systemen dar, die auf statischen Umgebungen basieren.
DynaMem eröffnet neue Möglichkeiten für den Einsatz von Robotern in einer Vielzahl von Bereichen. Von der Unterstützung im Haushalt über die Automatisierung in der Industrie bis hin zur Erkundung unbekannter Umgebungen – die Fähigkeit, flexibel auf dynamische Szenarien zu reagieren, ist ein entscheidender Schritt hin zu wirklich autonomen Robotern. Die Entwicklung von DynaMem ist ein wichtiger Beitrag zur Weiterentwicklung der KI-gestützten Robotik und verspricht, die Interaktion zwischen Mensch und Maschine grundlegend zu verändern.
Für Mindverse, ein deutsches Unternehmen, das sich auf KI-gestützte Content-Erstellung, Bildgenerierung und Forschung spezialisiert hat, sind diese Entwicklungen von besonderem Interesse. Mindverse entwickelt maßgeschneiderte KI-Lösungen wie Chatbots, Voicebots, KI-Suchmaschinen und Wissenssysteme. DynaMem könnte die Grundlage für neue, innovative Anwendungen in diesen Bereichen bilden und die Leistungsfähigkeit von KI-Systemen weiter steigern.
Bibliographie: Liu, P., Guo, Z., Warke, M., Chintala, S., Paxton, C., Shafiullah, N. M. M., & Pinto, L. (2024). DynaMem: Online Dynamic Spatio-Semantic Memory for Open World Mobile Manipulation. CoRL 2024 Workshop on Mastering Robot Manipulation in a World of Abundant Data. Qiu, D., Ma, W., Pan, Z., Xiong, H., & Liang, J. (2024). Open-vocabulary Mobile Manipulation in Unseen Dynamic Environments with 3D Semantic Maps. arXiv preprint arXiv:2406.18115. Xiong, H., Mendonca, R., Shaw, K., & Pathak, D. (2024). Adaptive Mobile Manipulation for Articulated Objects In the Open World. arXiv preprint arXiv:2401.14403. Weitere Quellen: - https://huggingface.co/papers - https://arxiv.org/abs/2406.18115 - https://www.dynsyslab.org/mastering-robot-manipulation-in-a-world-of-abundant-data/ - https://open-world-mobilemanip.github.io/ - https://proloewe.de/media/loewe_2016-2017-2018._jahrbuch_der_loewe-zentren_und_-schwerpunkte.pdf - https://natmedlib.uz/fm/?sitemap/file/-oBrxxpw&view=Science/2022/Science%20%5BVol.378%20%236617%5D%20-%202022.10.21.pdf