LLM-gesteuerte Grundrissanalyse verbessert Innenraumnavigation für Sehbehinderte

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Die Innenraumnavigation bleibt eine zentrale Herausforderung für Menschen mit Sehbehinderungen. Bisherige Systeme basieren überwiegend auf infrastrukturbasierten Lösungen, die in dynamischen Umgebungen eingeschränkt sind. Mit Floorplan2Guide wird ein neuer Ansatz vorgestellt, der ein Basismodell nutzt, um Grundrisse in durchsuchbare Wissensgraphen zu überführen und leicht verständliche Navigationsanweisungen zu generieren.

Floorplan2Guide integriert ein großes Sprachmodell (LLM), um räumliche Informationen aus architektonischen Layouts automatisch zu extrahieren. Dadurch entfällt der aufwändige manuelle Vorverarbeitungsaufwand, der bei früheren Parsing‑Methoden erforderlich war. In Experimenten zeigte sich, dass Few‑Shot‑Learning die Navigationsgenauigkeit deutlich steigert im Vergleich zu Zero‑Shot‑Learning, sowohl in simulierten als auch in realen Tests.

Unter den evaluierten Modellen erzielte Claude 3.7 Sonnet die höchste Genauigkeit: 92,31 % bei kurzen, 76,92 % bei mittleren und 61,54 % bei langen Routen, wenn es mit fünf Beispielen (5‑Shot) auf dem MP‑1‑Grundriss trainiert wurde. Der Erfolg von graphbasierten räumlichen Strukturen übertraf die direkte visuelle Analyse um 15,4 % bei allen Modellen. Diese Ergebnisse bestätigen, dass grafische Darstellungen und In‑Context‑Learning die Navigation für Blinde und Sehbehinderte präziser machen.

Ähnliche Artikel