Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Alli”
Forschung

<p>ML-Angriffe entschlüsseln: Wie man den Angreifer aus Beobachtungen erkennt</p> <p>In automatisierten Entscheidungssystemen sind maschinelle Lernmodelle zunehmend anfällig für Datenmanipulationen. Während bisherige Verteidigungsstrategien meist das Modell selbst oder das gesamte System schützen, richtet sich die neue Forschung in eine andere Richtung: Sie versucht, den Angreifer zu identifizieren, nicht nur die Angriffe zu verhindern.</p> <p>Die Autoren zeigen zunächst, dass ein Angreifer ohne zusätzliche

arXiv – cs.LG
Forschung

<h1>Label-basierte Distanzskalierung verbessert Few-Shot-Textklassifikation</h1> <p>In der Welt der Few-Shot-Textklassifikation, bei der Modelle unbekannte Klassen mit nur wenigen gelabelten Textproben erkennen sollen, gibt es ein zentrales Problem: Während des Trainings werden komplexe Algorithmen entwickelt, doch die gelabelten Stichproben, die im Test verwendet werden, werden zufällig ausgewählt. Dadurch erhalten die Modelle oft keine wirklichen Leitfäden, was zu Fehlklassifikationen führt.</p> <p>Die ne

arXiv – cs.LG