Open-Source LLMs (Llama, Mistral, Qwen)
Frei verfügbare Sprachmodelle zum Self-Hosting. Llama 4, Mistral Large 2 und Qwen 3 führen das Feld an.
Kategorie: Modelle & PlattformenKMU-Relevanz: 3/5Kosten: HochTechn. Hürde: high
Open-Source-Modelle haben 2026 das Niveau proprietärer Modelle erreicht [1]. Llama 4 bietet 10M-Token-Kontext, Mistral ist stark für europäische DSGVO-Szenarien [2]. Aber: Self-Hosting erfordert GPU-Server (ab ca. 5.000 EUR für kleinere Modelle, 50.000+ EUR für die großen; oder 500-5.000 EUR/Monat Cloud-GPU-Miete). Für die meisten KMU ist die API-Nutzung derselben Modelle über Anbieter wie Together AI oder Mistral deutlich pragmatischer und günstiger als eigene Infrastruktur.
KI-Videoproduktion
KI-generierte Videos für Marketing, Schulung und E-Commerce. Avatar-Tools und generative Video-Modelle.
Kategorie: Modelle & PlattformenKMU-Relevanz: 4/5Kosten: MittelTechn. Hürde: low
Der KI-Video-Markt wächst mit 34% CAGR [1]. Avatar-Tools (HeyGen, Synthesia) reduzieren Produktionszeit von 30-60 auf unter 5 Minuten [2]. Generative Video-Modelle (Runway, Veo) nähern sich Broadcast-Qualität, nachdem Sora wegen zu hoher Kosten eingestellt wurde [1].
KI-Workflow-Automatisierung
No-Code/Low-Code Plattformen mit nativer KI-Integration. n8n, Make und Zapier als führende Tools.
Kategorie: Werkzeuge & AgentenKMU-Relevanz: 5/5Kosten: KostenlosTechn. Hürde: medium
n8n hat sich mit nativer LangChain-Integration und Self-Hosting als DSGVO-konforme Alternative zu Zapier und Make etabliert [1][2]. Typische KMU-Anwendungsfälle: Lead-Qualifizierung, Rechnungsverarbeitung, RAG-Agenten über die eigene Wissensdatenbank.
Agentic Coding IDEs
KI-gestützte Entwicklungsumgebungen mit autonomen Agenten. Cursor, Windsurf, Copilot und Claude Code.
Kategorie: Werkzeuge & AgentenKMU-Relevanz: 3/5Kosten: Gering (<50 €/Monat)Techn. Hürde: high
2026 ist die Ära der agentischen IDEs: Cursor (Cloud Agents, ab 20 USD/Monat), Copilot (Coding Agent für GitHub Issues, ab 10 USD/Monat), Windsurf (Cascade, ab 15 USD/Monat) und Claude Code (Terminal-Agent mit 1M-Kontext) [1][2]. Für Tech-KMU und Agenturen ein massiver Produktivitätshebel.
KI-gestützte Buchhaltung
Cloud-Buchhaltung mit KI-Belegerkennung und automatischer Buchung. sevdesk, Lexware Office, BuchhaltungsButler.
Kategorie: Werkzeuge & AgentenKMU-Relevanz: 5/5Kosten: Gering (<50 €/Monat)Techn. Hürde: low
Deutsche Cloud-Buchhaltungstools setzen 2026 verstärkt auf KI: automatische Belegerkennung, Buchungsvorschläge, DATEV-Export. sevdesk ist Testsieger im Vergleich von 12 Tools [1]. Lexware Office ab 7,90 EUR/Monat [1]. BuchhaltungsButler punktet bei EÜR und Bilanz/GuV [1].
KI-Agenten
Autonome KI-Systeme, die mehrstufige Aufgaben selbstständig planen und ausführen.
Kategorie: Werkzeuge & AgentenKMU-Relevanz: 4/5Kosten: MittelTechn. Hürde: high
LLMs sind 2026 faktisch zu Agenten-Betriebssystemen geworden [1]. Für klar umrissene Aufgaben funktionieren sie zuverlässig. Framework-Auswahl (LangChain, CrewAI, eigene Agenten) hängt vom Anwendungsfall ab [2]. Für KMU am pragmatischsten über n8n oder ähnliche No-Code-Tools.
Lokale Inferenz-Server
LLM-Inferenz auf eigener Hardware ohne Cloud. Ollama, LM Studio und vLLM als führende Tools.
Kategorie: Daten & InfrastrukturKMU-Relevanz: 4/5Kosten: KostenlosTechn. Hürde: medium
Ollama (250k+ GitHub Stars) ist der De-facto-Standard für lokale LLM-Inferenz [1]. Das MLX-Backend beschleunigt Apple Silicon um bis zu 93% [2]. LM Studio ergänzt mit GUI für weniger technische Nutzer [1]. Für KMU mit sensiblen Daten die einzige Möglichkeit, LLMs DSGVO-konform zu nutzen.
Vektorsuche in PostgreSQL
RAG direkt in PostgreSQL via pgvector. Keine separate Vektordatenbank nötig für die meisten KMU-Fälle.
Kategorie: Daten & InfrastrukturKMU-Relevanz: 4/5Kosten: KostenlosTechn. Hürde: medium
pgvector + pgvectorscale erreicht 471 QPS bei 99% Recall auf 50 Mio. Vektoren [1]. Wer PostgreSQL nutzt (Supabase, Neon), braucht keine separate Vektordatenbank. Supabase bietet Row Level Security für RAG-Dokumente, sodass Zugriffsrechte direkt in Vektorabfragen greifen [2].
Context Engineering
Die Weiterentwicklung von Prompt Engineering: Gestaltung des gesamten Kontextfensters als Informationsarchitektur.
Kategorie: Methoden & PraxisKMU-Relevanz: 4/5Kosten: KostenlosTechn. Hürde: medium
Anthropic hat den Ansatz populär gemacht: Nicht einzelne Prompts optimieren, sondern das gesamte Kontextfenster als Informationsarchitektur gestalten [1]. System-Instruktionen, Tool-Schemas, Dokumente, Beispiele als Interface-Vertrag. Alle großen Anbieter konvergieren auf diese Methodik [2]. Für KMU die wichtigste Grundkompetenz im Umgang mit KI.
RAG vs. Fine-Tuning (Architekturentscheidung)
Wann RAG, wann Fine-Tuning, wann beides? Die wichtigste Architekturentscheidung für KI-Projekte.
Kategorie: Methoden & PraxisKMU-Relevanz: 3/5Kosten: KostenlosTechn. Hürde: high
RAG für dynamisches Wissen (4-8 Wochen Setup), Fine-Tuning für konsistenten Stil und Spezialwissen (8-16 Wochen) [1]. Die besten Systeme kombinieren beides: Fine-Tuned Models mit RAG-Retrieval [2]. Für KMU ist RAG fast immer der richtige Einstieg.