När företags-AI blir open source: Vad Poolsides Laguna XS.2 betyder för utvecklare
När företags-AI blir open source: Poolside Laguna XS.2 i fokus
Visst är det skönt med en AI-modell som är ärlig om sitt syfte från start.
De flesta nya modeller svämmar över av benchmark-tabeller, stora löften om prestanda och hintar om AGI runt hörnet. Poolside AI:s Laguna XS.2 tar en annan väg. Den bygger på erfarenheter från år av AI-utveckling för regeringar och försvarsbolag – platser där "skynda sig och krascha" leder till säkerhetsgranskning, inte lansering. Nu delar de med sig av kunskapen. Allt under Apache 2.0-licens. Tillgängligt för alla.
Bakgrund väger tyngre än siffror
Poolside jobbade länge i det tysta. Luftisolerade system. Egen infrastruktur på plats. Säkerhetsnivåer som få utvecklare ens funderar på. Det här var ingen flashig grej – det handlade om att bygga system där tillförlitlighet är ett måste för att överleva.
Att släppa Laguna XS.2 offentligt känns nästan som en bieffekt. Men just det gör den spännande. Modellen är inte finslipad för leaderboarder. Den klarar riktiga, svåra uppgifter i miljöer där fel inte går an.
Det skiljer sig rejält från dagens AI-tävling.
Vad du får i praktiken
Laguna XS.2 har 33 miljarder parametrar totalt, men bara 3 miljarder aktiva per token. Den går att köra på riktigt. Inte teoretiskt – du fixar det på en Mac med 36 GB RAM. Använd Ollama, vLLM eller Transformers för enkel deployment.
Designen speglar verkliga begränsningar:
Effektiv attention: 30 av 40 lager kör sliding window attention med per-head gating. Lågt KV-cache-krav ger snabbare inference, även på längre context utan kvalitetsförlust.
Inbyggd resonemang: Stöd för tankekedjor mellan tool calls. Slå på eller av per förfrågan – perfekt för uppgifter som behöver det.
128K context: Rymmer stora kodbaser, docs och resonemang utan token-problem.
Fokus på kod som grund
Poolside tänker annorlunda: kodning är kärnan i allt agents gör.
En agent som skriver och kör kod hanterar uppgifter självständigt. Bygger egna verktyg. Interagerar med system på sätt function-calling inte når. Det är inte slump i Laguna XS.2 – det är hela idén.
Perfekt för autonoma AI-system. Modellen tränades på sekvenser med hundratals tool calls, inte korta benchmark-uppgifter.
Benchmarks i perspektiv
XS.2 vinner inte alla tester. Qwen 3.6-35B slår den på SWE-bench. Claude Haiku 4.5 toppar Verified.
Men titta närmare: stark på flerspråkig kodning och långa uppgifter. Poolside:s egna tester mäter korta sekvenser – inte XS.2:s styrka. Den lyser i långa, agentiska scenarier som produktionssystem hanterar, men som benchmarks missar.
Kom igång nu
API: Gratis åtkomst tillfälligt via Poolside. Testa XS.2 (open) och M.1 (225B, closed) på dina egna uppgifter.
Lokal körning: Ollama stöder XS.2 direkt. Transformers och vLLM funkar från dag ett för anpassningar.
Agent-verktyg: pool är en lätt terminal-agent med deras Agent Client Protocol. Bra referens för agent-byggare.
Varför det här är stort
AI-världen splittras. Å ena sidan: konsumentmodeller för leaderboards och demos. Å andra: enterprise och statliga system som sätter tillförlitlighet först.
Laguna XS.2 visar vad som händer när enterprise-folket pratar öppet. Inte smartast – mest pålitlig för uppgifter där fel kostar pengar.
För dig som bygger produktions-AI med kodgenerering, agents eller tool-integration: det här tänket slår leaderboard-jaget. Vikterna ligger på HuggingFace. Koden är open source. Docsen är bra. Kolla in om du vill ha en enterprise-kodmodell du kan köra och tweaka själv.