KI-Optimisten verlieren den Fokus, wenn Chatbots moralisch überreden wollen
Anzeige
Eine aktuelle Studie der SGH Warschau und der Sakarya Business School hat gezeigt, dass große Sprachmodelle (LLMs) kaum Erfolg haben, wenn sie versuchen, Verbraucher von Fair‑Trade‑Produkten zu überzeugen. Die Forschung legt nahe, dass die Modelle bei moralischen Argumenten an Wirksamkeit verlieren – es sei denn, der Käufer ist bereits ein echter Verfechter der Prinzipien.
Ähnliche Artikel
Analytics Vidhya
•
Gemini API File Search: The Easy Way to Build RAG
arXiv – cs.AI
•
LLMs replizieren menschliche Kooperation in Spieltheorie-Experimenten
arXiv – cs.AI
•
Neues Audit-Framework prüft Repräsentativität von Fragen in Online-Diskussionen
arXiv – cs.AI
•
KnowThyself: Chat-basierte Agentenhilfe für verständliche LLM-Analyse
arXiv – cs.AI
•
VeriCoT: Neuro-symbolische Chain-of-Thought-Validierung durch logische Checks
arXiv – cs.AI
•
LLMs spiegeln Kulturwerte: Einfluss von Prompt-Sprache und kultureller Perspektive