Open-Source-Revolution für Enterprise-KI: Was Poolside Laguna XS.2 für Entwickler bedeutet
Enterprise-KI wird Open Source: Poolside öffnet Laguna XS.2
Manche KI-Modelle sind ehrlich zu sich selbst. Poolside AI's Laguna XS.2 gehört dazu. Kein Hype um Benchmarks oder AGI-Versprechen. Stattdessen eine klare Herkunft: Jahre der Entwicklung für Regierungen und Verteidigungsunternehmen. Dort zählt Stabilität mehr als Tempo.
Jetzt teilt Poolside das Wissen. Unter Apache 2.0 Lizenz für alle zugänglich.
Herkunft schlägt Zahlen
Poolside arbeitete lange im Verborgenen. Air-gapped Systeme. On-Premise-Hardware. Hohe Sicherheitsstufen. Hier war Zuverlässigkeit Pflicht, kein Extra.
Laguna XS.2 entstand nicht für Leaderboards. Sondern für harte reale Einsätze, wo Fehler teuer werden. Das unterscheidet es von der KI-Rennstrecke.
Was das Modell kann
33 Milliarden Parameter insgesamt, nur 3 Milliarden aktiv pro Token. Läuft auf einem Mac mit 36 GB RAM. Praktikabel via Ollama, vLLM oder Transformers.
Schlüsselelemente:
Effiziente Attention: 30 von 40 Layern mit Sliding-Window-Attention und Head-Gating. Kleiner KV-Cache, schneller Inference, gute Long-Context-Qualität.
Reasoning integriert: Unterstützt Tool-Calls mit zwischengeschaltetem Denken. Pro Anfrage ein- oder ausschalten. Nicht immer nötig, aber bereit.
128K Context: Passt Codebasen, Docs und Ketten ohne Token-Probleme.
Fokus auf Coding als Basis
Poolside sieht Coding als Kern aller Agenten-Fähigkeiten. Wer Code schreibt und ausführt, baut eigene Tools. Interagiert flexibel mit Systemen. Mehr als bloße Function-Calling.
Das Modell trainierte auf langen Trajektorien mit Hunderten Tool-Calls. Ideal für autonome Problemlöser.
Benchmarks im Kontext
XS.2 gewinnt nicht überall. Qwen 3.6-35B ist stärker auf SWE-bench. Claude Haiku 4.5 führt Verified.
Trotzdem: Stark bei mehrsprachigem Coding und langen Sequenzen. Benchmarks testen oft Kurzes – XS.2 glänzt in Produktion, bei agentischem Long-Horizon.
So startest du
API-Zugang: Kostenlos bei Poolside, zeitlich begrenzt. Teste XS.2 und das große Laguna M.1 (225B) auf eigenen Tasks.
Lokal: Ollama direkt kompatibel. Transformers oder vLLM für Feintuning.
Agent-Tools: pool als Terminal-Agent mit Agent Client Protocol. Perfekt als Basis für eigene Systeme.
Warum das zählt
KI spaltet sich. Consumer-Modelle jagen Scores und Demos. Enterprise priorisiert Robustheit.
Laguna XS.2 bringt Enterprise-Denken ins Offene. Nicht das Klügste, sondern das Verlässlichste für echte Kosten.
Für Code-Generierung, Agents oder Tool-Integration: Die richtige Wahl. Weights auf HuggingFace. Code open. Docs top. Probier's aus.