Skalierung bringt uns noch nicht zur AGI – Was kommt als Nächstes?
Der Autor hat einen neuen Essay in der New York Times veröffentlicht, in dem er die aktuelle Situation der künstlichen Intelligenz kritisch beleuchtet. Er argumentiert, dass die bisherige Praxis, KI-Modelle einfach zu vergrößern, noch nicht zu einer allgemeinen künstlichen Intelligenz (AGI) oder zu einer „Superintelligenz“ geführt hat.
Im Essay wird deutlich, dass die reine Skalierung zwar beeindruckende Fortschritte in spezifischen Aufgaben ermöglicht, jedoch die grundlegenden Herausforderungen von AGI – wie allgemeines Verständnis, Flexibilität und vertrauenswürdiges Verhalten – weiterhin ungelöst bleiben. Der Autor betont, dass wir uns nicht ausschließlich auf die Größe der Modelle verlassen können, wenn es darum geht, KI-Systeme zu entwickeln, die zuverlässig und ethisch handeln.
Abschließend skizziert er mögliche nächste Schritte: verstärkte Forschung zu erklärbaren KI, die Entwicklung von Sicherheitsmechanismen, die Förderung interdisziplinärer Zusammenarbeit und die Schaffung klarer regulatorischer Rahmenbedingungen. Ziel sei es, einen Weg zu finden, der über die reine Skalierung hinausgeht und echte, vertrauenswürdige Intelligenz schafft.