Neues Verfahren verbessert Testzeit‑Anpassung bei offenen Klassen
Deep‑Learning‑Modelle liefern beeindruckende Ergebnisse, wenn Trainings‑ und Testdaten übereinstimmen. In der Praxis treten jedoch häufig Domain‑Shifts auf, die die Leistung stark beeinträchtigen. Test‑Time‑Adaptation (TTA) passt ein Modell während der Inferenz an die neuen Daten an, setzt aber meist voraus, dass die Klassen im Testfall identisch mit denen im Training sind – ein Szenario, das in der realen Welt selten vorkommt.
Bei offenen Klassen (open‑set TTA) kann die Anwesenheit unbekannter Kategorien die Genauigkeit der bekannten Klassen erheblich verringern. Ein jüngeres Verfahren identifizierte offene Datenpunkte und maximierte deren Entropie, um das Problem anzugehen. Allerdings stützte sich die Filterung ausschließlich auf das ursprüngliche Quellmodell, was bei stark verschobenen Testdaten zu ungenauen Ergebnissen führte.
Die Autoren stellen nun das Primary‑Auxiliary Filtering (PAF) vor, bei dem ein zusätzlicher Filter die vom primären Filter ausgewählten Daten überprüft. Damit wird die Stabilität erhöht und Fehlerakkumulation reduziert. Ergänzend dazu wird Knowledge‑Integrated Prediction (KIP) eingesetzt, das die Ausgaben des adaptierenden Modells, eines Exponential‑Moving‑Average‑Modells und des Quellmodells kalibriert und deren komplementäres Wissen für die offene TTA nutzt.
Durch umfangreiche Tests auf verschiedenartigen Closed‑Set‑ und Open‑Set‑Datensätzen konnte gezeigt werden, dass die Kombination aus PAF und KIP sowohl die Genauigkeit bei bekannten Klassen als auch die Unterscheidungsfähigkeit bei unbekannten Klassen gegenüber bestehenden Methoden verbessert. Der komplette Code ist frei verfügbar unter https://github.com/powerpowe/PAF-KIP-OSTTA.