Reproduzierbare Kernel-Banachräume: Neue Basis für Lernen und neuronale Netze
Ein neues theoretisches Fundament für maschinelles Lernen wird vorgestellt, das die Grenzen der klassischen reproduzierenden Kernel-Hilberträume (RKHS) sprengt. Durch die Einführung von „featured reproducing kernel Banach spaces“ (FRKBS) eröffnet die Arbeit einen funktionalanalytischen Rahmen, in dem Lernmodelle mit nicht-quadratischen Normen – etwa feste neuronale Netzwerke – adäquat beschrieben werden können.
Der Kern der Theorie liegt in der Identifikation präziser struktureller Bedingungen, unter denen Feature‑Maps, Kernel‑Konstruktionen und repräsentatorische Resultate – die bisher nur im Hilbertraum gelten – wiederhergestellt werden können. So wird gezeigt, dass die Klassifikation von Lernaufgaben als Minimalnorm‑Interpolation oder Regularisierung in Banachräumen möglich ist und dass zugehörige Existenztheoreme sowie bedingte Representer‑Sätze gelten.
Ein besonderer Schwerpunkt liegt auf der Erweiterung auf vektorwertige FRKBS. Hier wird demonstriert, dass feste neuronale Netzwerke natürliche Instanzen dieser Räume darstellen. Damit entsteht ein einheitlicher Funktionsraum‑Ansatz, der sowohl klassische Kernel‑Methoden als auch moderne neuronale Architekturen abdeckt und klar definiert, wann Prinzipien des kernelbasierten Lernens über die RKHS‑Grenzen hinaustragbar sind.
Die Ergebnisse liefern nicht nur neue mathematische Werkzeuge, sondern eröffnen auch praktische Perspektiven für die Entwicklung von Lernalgorithmen, die robuste Regularisierung und effiziente Interpolation in nicht-Hilbert‑Geometrien ermöglichen. Damit wird ein bedeutender Schritt in Richtung einer umfassenderen Theorie des maschinellen Lernens erreicht.