Die Idee hinter OpenClaw fasziniert mich: ein persönlicher KI-Assistent, der Software installieren, verändern und sogar seinen eigenen Code anpassen kann. Peter Steinberger beschreibt das im Gespräch mit Lex Fridman als selbstmodifizierende Software.
Das Problem: Damit solche Systeme zuverlässig funktionieren, braucht man meist starke Sprachmodelle. Bei meinen ersten Versuchen mit Claude Opus habe ich an einem Tag schnell 100 CHF an API-Kosten verbrannt. Dagegen sind die Serverkosten für den Betrieb an sich oder ein Mac mini fast billig.
Die grosse Frage ist deshalb: Welche Modelle funktionieren für OpenClaw zuverlässig, ohne dass die Token-Kosten explodieren? Nutzt ihr kleinere Modelle, lokale LLMs oder einen bestimmten Stack?

Schreibe einen Kommentar