Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Training”
Forschung

Neural Navigation in dichten Menschenmengen: Zero-Shot-Dichtegeneralisierung Eine neue Reinforcement‑Learning‑Methode ermöglicht es Robotern, sich sicher durch stark bevölkerte Räume zu bewegen, ohne dabei einzufrieren oder Kollisionen zu riskieren. Das System nutzt eine dichteinvariante Beobachtungscodierung, die die K‑nächsten Personen und kompakte Menschenmengen‑Zusammenfassungen enthält, sodass die Eingangsstatistiken unabhängig von der Gruppengröße stabil bleiben. Durch gezieltes Training mit 11 bis

arXiv – cs.LG
Forschung

<h1>Skalierung erhöht kritische semantische Duplikate im Pretraining</h1> <p>In der KI‑Forschung wird deutlich, dass Daten­duplikate während des Pretrainings die Generalisierung von Modellen stark beeinträchtigen können. Besonders bei Web‑Skalen wird die Definition eines „Duplikats“ komplexer: Neben offensichtlichen Text‑Übereinstimmungen können semantisch gleichwertige Dokumente – etwa Übersetzungen – zu redundanten Trainingssignalen führen, sobald Modelle leistungsfähiger werden.</p> <p>Die Studie zeigt,

arXiv – cs.LG
Praxis

<h1>LLMs fördern nicht nur bekannte Technologien – neue Tools kommen durch</h1> <p>Ein häufiges Anliegen bei der Nutzung von Sprachmodellen für die Programmierung ist, dass sie die Wahl der Technologie zu denjenigen Werkzeugen verlagern, die am besten in den Trainingsdaten vertreten sind. Dadurch könnten neue, bessere Tools im Hintergrund bleiben. In den letzten Jahren zeigte sich das besonders bei Python oder JavaScript, die deutlich bessere Ergebnisse lieferten als weniger verbreitete Sprachen.</p> <p>Mit

Simon Willison – Blog