MedCoG: LLMs im medizinischen Denken dank Meta‑Kognition effizienter
Large Language Models (LLMs) haben in der medizinischen Entscheidungsfindung großes Potenzial gezeigt, doch die Vorteile nehmen mit zunehmender Modellgröße ab – ein Phänomen, das als Skalierungsgesetz bekannt ist. Die Frage, wie zusätzliche Wissensressourcen in die Praxis umgesetzt werden können, bleibt bislang ungeklärt.
Die neue Studie präsentiert MedCoG, einen medizinischen Meta‑Kognitionsagenten, der ein Wissensgraphen nutzt, um die eigene Wissenslage des Modells zu bewerten. Durch die Einschätzung von Aufgabenkomplexität, Vertrautheit und Wissensdichte steuert MedCoG dynamisch, wann prozedurales, episodisches oder faktisches Wissen einbezogen wird. Dieser Ansatz ermöglicht eine gezielte, bedarfsorientierte Nutzung der LLM‑Kapazitäten.
Durch die Vermeidung unnötiger Skalierung reduziert MedCoG die Rechenkosten, während gleichzeitig die Genauigkeit steigt, indem ablenkende Informationen herausgefiltert werden. Die Autoren führen die Metrik „Inference Density“ ein, die das Verhältnis zwischen theoretisch effektiven Kosten und tatsächlichen Kosten misst. In fünf anspruchsvollen medizinischen Benchmark-Sätzen konnte MedCoG die Inference Density um das 5,5‑fache steigern.
Ein ergänzendes Oracle‑Studie unterstreicht das erhebliche Potenzial der meta‑kognitiven Regulierung. Die Ergebnisse deuten darauf hin, dass MedCoG einen wichtigen Schritt darstellt, um LLMs in der medizinischen Praxis effizienter und zuverlässiger einzusetzen.