Copilot ist nicht gleich Copilot, und Claude Code ist kein besserer Autocomplete. Ich helfe Teams dabei, das Ökosystem zu verstehen, sinnvolle Workflows aufzubauen — und die Risiken nicht zu ignorieren die mit KI-generiertem Code einhergehen.
LLMs verstehen — nicht blind vertrauen
GPT-4o, Claude, Gemini, Llama — jedes Modell hat Stärken, Schwächen und Eigenheiten die sich im Entwicklungsalltag spürbar machen. Wer das nicht kennt, wundert sich warum der eine Assistent besser reviewt und der andere besser refactort.
Dazu kommt die Frage: Cloud-Modell oder lokal? Ollama und Co. ermöglichen vollständig lokale Setups — relevant wenn Datenschutz oder Code-Vertraulichkeit eine Rolle spielen.
CLI-Tools, Editoren, Agenten
Welches Tool zu welchem Team passt hängt vom Stack, dem Workflow und der Risikobereitschaft ab. Hier ein ehrlicher Überblick — ohne Vendor-Hype.
MCP, Agenten & automatisierte Reviews
Model Context Protocol (MCP) ist der Klebstoff zwischen LLMs und externen Tools — Datenbanken, APIs, Ticketsysteme, CI/CD. Damit werden aus einzelnen Prompts echte Workflows.
Agentic Development geht noch weiter: Agenten die selbstständig Aufgaben abarbeiten, Fehler debuggen, Tests schreiben — mit Mensch im Loop oder ohne. Das ist kein Science Fiction mehr, aber es braucht klare Leitplanken.
KI-generierter Code ist kein sicherer Code
LLMs produzieren überzeugend aussehenden Code — der trotzdem SQL-Injection, unsichere Deserialisierung oder hartcodierte Secrets enthalten kann. Modelle halluzinieren Libraries die nicht existieren, und ein Review der nur auf "sieht gut aus" basiert reicht nicht.
Wer KI im Entwicklungsprozess einsetzt braucht einen Plan für diese Risiken — nicht als Bremse, sondern als Grundlage.