Kubernetes Orkestracija — Kompletni Vodič za Produkciju 2026

Kubernetes Orkestracija — Kompletni Vodič za Produkciju 2026
82% kompanija koristi Kubernetes u produkciji — saznajte kako postaviti K8s klaster, implementirati auto-scaling, load balancing i rolling updates za mikroservisne aplikacije.
Kubernetes (K8s) je danas daleko više od alata za upravljanje kontejnerima — to je de facto operativni sistem moderne cloud-native infrastrukture. Prema CNCF Annual Cloud Native Survey objavljenom u januaru 2026., 82% korisnika kontejnera pokreće Kubernetes u produkciji, što je skok sa 66% u 2023. godini. Ako gradite mikroservisnu aplikaciju, postavljate CI/CD pipeline ili skalabilnu backend infrastrukturu, razumijevanje Kubernetesa nije opcija — to je neophodnost.
U ovom vodiču prolazimo kroz sve što trebate znati: od postavljanja prvog klastera, kroz auto-scaling i load balancing, do rolling updates bez downtime-a. Sve to potkrijepljeno stvarnim primjerima koda i aktuelnim podacima iz industrije.
Zašto Kubernetes Dominira u 2026.
Kubernetes je evoluirao daleko izvan orkestracije kontejnera. Prema CNCF istraživanju, 94% organizacija ili aktivno koristi, testira ili evaluira Kubernetes, dok svega 6% ne koristi platformu uopšte. Tržišna vrijednost K8s ekosistema procjenjuje se na 3,13 milijarde USD u 2026., sa projekcijom rasta na 8,41 milijardu USD do 2031. godine.
Ono što posebno izdvaja 2026. godinu jeste konvergencija Kubernetesa i AI workloada: 66% organizacija koje hostuju generativne AI modele koristi Kubernetes za upravljanje inference workloadima. Mikroservisi i kontejneri postali su mainstream izbor za nove aplikacije, što prirodno vodi prema Kubernetesu kao orkestracionom sloju.
K8s u Produkciji
Prema CNCF Annual Cloud Native Survey 2026 — rekordna produkcijska upotreba, gore sa 66% u 2023.
Container Orchestration
Kubernetes drži 92% tržišnog udjela u container orchestration — bez realnih konkurenata u vidokrugu.
EKS / GKE / AKS
79% K8s korisnika koristi managed servise poput Amazon EKS, Google GKE ili Azure AKS umjesto self-managed klastera.
Ključni Koncepti Kubernetes Arhitekture
Kubernetes upravlja rasporedom kontejnera unutar klastera mašina, prati njihovo zdravlje, upravlja skaliranjem prema zahtjevu i omogućava automatizovane rollout i rollback operacije. Platforma apstrahuje podložnu infrastrukturu, omogućavajući developerima i operatorima da se fokusiraju na definisanje kako aplikacije trebaju raditi.
Ključne Komponente K8s Klastera
- ✓ Control Plane — API server, etcd, scheduler i controller manager koji donose globalne odluke o klasteru
- ✓ Worker Nodes — Mašine (VM ili fizičke) na kojima se pokreću kontejnerizovane aplikacije
- ✓ Pod — Najmanja jedinica deployanja; jedan ili više kontejnera koji dijele mrežu i storage
- ✓ Deployment — Deklarativni opis željenog stanja aplikacije i broja replika
- ✓ Service — Stabilna mrežna adresa za grupu podova, omogućava service discovery i load balancing
- ✓ Namespace — Logička izolacija resursa unutar klastera za različite timove ili okruženja
- ✓ ConfigMap & Secret — Upravljanje konfiguracijom i osjetljivim podacima odvojeno od container image-a
Auto-Scaling: HPA, VPA i Cluster Autoscaler
Jedna od najvećih prednosti Kubernetesa jeste sposobnost automatskog skaliranja aplikacija prema potražnji. Kubernetes podržava tri primarna mehanizma automatskog skaliranja, svaki namijenjen za različite scenarije.
Horizontal Pod Autoscaler (HPA)
HPA automatski ažurira workload resurse (poput Deployment ili StatefulSet) s ciljem automatskog skaliranja kapaciteta prema potražnji. Implementiran je kao Kubernetes API resurs i kontroler koji periodično prilagođava broj replika u workloadu prema opservanoj upotrebi resursa poput CPU-a ili memorije.
apiVersion: autoscaling/v2
kind: HorizontalPodAutoscaler
metadata:
name: mikroservis-hpa
spec:
scaleTargetRef:
apiVersion: apps/v1
kind: Deployment
name: api-servis
minReplicas: 2
maxReplicas: 20
metrics:
- type: Resource
resource:
name: cpu
target:
type: Utilization
averageUtilization: 60
behavior:
scaleUp:
tolerance: 0.05 # 5% tolerancija za scale-up
Kada metrike indiciraju da target treba biti skaliran prema dolje, algoritam gleda prethodno izračunata željena stanja i koristi najvišu vrijednost iz navedenog intervala — čime se izbjegava česta pojava thrashing-a. Kubernetes v1.35 uveo je tolerance polje u beta statusu koje konfiguriše prag za varijacije metrika, sprečavajući autoscaler da skalira za promjene ispod te vrijednosti.
Vertical Pod Autoscaler (VPA) i KEDA
Pored horizontalnog skaliranja, Kubernetes podržava i vertikalno skaliranje putem Vertical Pod Autoscaler (VPA) koji automatski prilagođava CPU i memorijske resurse dodijeljene kontejnerima. VPA nije dio Kubernetes core-a, već add-on koji zahtijeva posebnu instalaciju i Metrics Server.
Za event-driven skaliranje, KEDA (Kubernetes Event-Driven Autoscaling) proširuje HPA mogućnosti i omogućava skaliranje na osnovu vanjskih događaja poput dužine reda čekanja. KEDA je lagana komponenta koja radi uz standardne K8s komponente poput HPA i nudi katalog od 70+ ugrađenih scalera za različite cloud platforme, baze podataka i messaging sisteme.
Jeste li znali?
U mnogim K8s klasterima, stvarna iskorištenost resursa kreće se između 20–45% od onoga što je zatraženo (requested), što znači da su default resource requests često previsoki. Pravilno podešavanje resource requests i limits može donijeti značajne uštede na cloud troškovima — u nekim slučajevima i do 65% smanjenja CPU zahtjeva.
Load Balancing: Tipovi Kubernetes Servisa
Kubernetes nudi nekoliko tipova servisa za upravljanje mrežnim prometom unutar i van klastera. Razumijevanje razlika između njih ključno je za pravilno dizajniranje mikroservisne arhitekture.
| Tip Servisa | Pristup | Upotreba | Produkcija |
|---|---|---|---|
| ClusterIP | Samo unutar klastera | Pod-to-pod komunikacija između mikroservisa | ✓ Preporučeno |
| NodePort | Externi pristup putem node IP-a | Testiranje i razvoj; nije preporučeno za produkciju | ⚠ Samo za testove |
| LoadBalancer | Eksterni cloud load balancer | Produkcijska izloženost servisa internetu | ✓ Preporučeno |
| Ingress | HTTP/HTTPS routing sa jednim IP-om | Više servisa pod istim IP-om; SSL termination | ✓ Optimalno |
| Gateway API | Napredni L7 routing | Nasljednik Ingress API-ja; preporučen od K8s projekta | → Budućnost |
ClusterIP je podrazumijevani tip servisa koji izlaže servis na internoj IP adresi dostupnoj samo unutar klastera — idealan za komunikaciju između mikroservisa. LoadBalancer tip je standardni način izlaganja servisa internetu; na cloud provajderima poput AWS-a, GCP-a ili Azure-a, Kubernetes automatski provisionira cloud load balancer sa javnom IP adresom.
Ingress je najokoristniji kada želite izložiti više servisa pod istim IP-om, a svi koriste isti L7 protokol (tipično HTTP). Plaćate jedan load balancer, a dobijate SSL termination, auth i napredni routing. Napomena: Kubernetes projekat preporučuje korišćenje Gateway API umjesto Ingress-a za nove deploymente, jer je Ingress API zamrznut i neće dobijati nova ažuriranja.
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: mikroservisi-ingress
annotations:
nginx.ingress.kubernetes.io/rewrite-target: /
spec:
rules:
- host: api.mojadomena.com
http:
paths:
- path: /users
pathType: Prefix
backend:
service:
name: user-servis
port:
number: 8080
- path: /orders
pathType: Prefix
backend:
service:
name: order-servis
port:
number: 8080
Rolling Updates: Zero-Downtime Deployment
Rolling update je podrazumijevana strategija deployanja u Kubernetesu. Omogućava ažuriranje skupa podova bez downtime-a, postupnom zamjenom starih instanci novima koje pokreću novu verziju aplikacije. Kubernetes čeka da novi podovi budu zdravi prije uklanjanja starih, a ako nova verzija ne prođe health check, automatski zaustavlja rollout.
apiVersion: apps/v1
kind: Deployment
metadata:
name: api-servis
spec:
replicas: 6
strategy:
type: RollingUpdate
rollingUpdate:
maxSurge: 2 # Max novi podovi iznad željenog broja
maxUnavailable: 1 # Max podovi koji mogu biti nedostupni
selector:
matchLabels:
app: api-servis
template:
metadata:
labels:
app: api-servis
spec:
containers:
- name: api
image: myapp/api:v2.1.0 # Semantičko verzionisanje
resources:
requests:
cpu: "200m"
memory: "256Mi"
limits:
cpu: "500m"
memory: "512Mi"
readinessProbe: # Obavezan za zero-downtime
httpGet:
path: /health
port: 8080
initialDelaySeconds: 10
periodSeconds: 5
livenessProbe:
httpGet:
path: /alive
port: 8080
initialDelaySeconds: 15
Strategije Deployanja — Pregled i Uporedba
Kubernetes nudi više strategija deployanja, svaka sa svojim prednostima i slučajevima upotrebe. Odabir prave strategije ovisi o vašim zahtjevima za rizik, rollback i dostupnost.
| Strategija | Downtime | Rollback | Kada koristiti |
|---|---|---|---|
| Rolling Update | Nema | Postepen | Svakodnevna ažuriranja stateless servisa i web API-ja |
| Blue/Green | Nema | Trenutan | Kritični servisi (plaćanje, autentifikacija) gdje je instant rollback neophodan |
| Canary | Nema | Postepen | Rizičniji releasevi; postepeno povećanje saobraćaja prema novoj verziji |
| Recreate | Da | Brz | Aplikacije koje ne mogu imati dvije verzije istovremeno (schema migracije) |
| Argo Rollouts | Nema | Automatski | Potpuno automatizovani canary i blue-green s metričkom analizom |
Alati poput Argo Rollouts ili Flagger omogućavaju automatski rollback ako nova verzija ne prođe health ili performance metrike. Za implementaciju canary i blue-green strategija potrebni su napredni alati za upravljanje saobraćajem poput Istio, Linkerd ili Gateway API-ja.
Managed K8s Servisi: EKS vs GKE vs AKS
Prema dostupnim podacima, 79% Kubernetes korisnika koristi managed servise umjesto self-managed klastera. Tri dominantna managed K8s servisa — Amazon EKS, Google GKE i Azure AKS — postali su standardni način pokretanja kontejnerizovanih workloada u produkciji.
| Karakteristika | Amazon EKS | Google GKE | Azure AKS |
|---|---|---|---|
| Cijena control plane-a | ~$72/mj po klasteru | Besplatno (Standard) | Besplatno |
| Brzina K8s ažuriranja | 4–8 sedmica | 0–2 sedmice | 3–6 sedmica |
| Operativna složenost | Visoka | Niska (Autopilot) | Srednja |
| Produžena podrška | +12 mj (Extended) | 30 mj (Autopilot) | 24 mj (LTS kanal) |
| Ekosistem integracija | ECR, RDS, SQS, IAM | Artifact Registry, Pub/Sub, Vertex AI | Azure AD, Cosmos DB, DevOps |
| AI/ML workloadi | Inferentia/Trainium | TPU v5 (18-22% jeftinije) | Confidential containers |
Preporuka za 2026: Odaberite EKS ako ste duboko uloženi u AWS ekosistem i trebate maksimalnu kontrolu. Odaberite GKE Autopilot ako želite Kubernetes-native iskustvo sa minimalnim operativnim opterećenjem i AI workloadima. Odaberite AKS ako ste u Microsoft ekosistemu i trebate besplatan control plane sa Azure AD integracijom.
Deployment Mikroservisne Aplikacije — Praktični Primjer
Kubernetes je idealna platforma za mikroservise jer njegovi core feature-i savršeno odgovaraju zahtjevima mikroservisne arhitekture: automatski service discovery putem DNS-a, ugrađeni load balancing, self-healing, horizontalno skaliranje svake usluge nezavisno i zero-downtime rolling deployamenti.
apiVersion: apps/v1
kind: Deployment
metadata:
name: user-servis
namespace: production
spec:
replicas: 3 # Tri instance za visoku dostupnost
selector:
matchLabels:
app: user-servis
template:
metadata:
labels:
app: user-servis
tier: api
spec:
containers:
- name: user-api
image: myapp/user-service:v1.2.0
ports:
- containerPort: 8080
env:
- name: DB_HOST
valueFrom:
secretKeyRef:
name: db-credentials
key: host
---
apiVersion: v1
kind: Service
metadata:
name: user-servis # Drugi servisi pozivaju: user-servis.production.svc
spec:
selector:
app: user-servis
ports:
- port: 8080
targetPort: 8080
type: ClusterIP # Interni servis
Namespace izolacija pruža multi-tenancy za timove ili servise, izolovane resurse i pristup. Resource quotas sprečavaju jedan servis da monopolizuje resurse klastera. ConfigMaps i Secrets upravljaju konfiguracijom i osjetljivim podacima odvojeno od container image-a.
Monitoring i Observability: Prometheus + Grafana
Kubernetes klasteri su dinamična, složena okruženja gdje podovi i nodovi dolaze i odlaze, upotreba resursa stalno fluktuira, a outage-i mogu eskalirati za minute. Bez pravilnog monitoringa, upravljanje produkcijskim klasterom postaje gotovo nemoguće.
Većina timova standardizuje na Prometheus + Grafana za core metrike. Prometheus je open-source monitoring toolkit dizajniran za pouzdanost i skalabilnost u dinamičnim cloud okruženjima — pull-based arhitektura aktivno scrape-uje metrike sa konfigurisanih targeta u navedenim intervalima.
Kompletan Monitoring Stack za K8s Produkciju
- ✓ Prometheus — Prikupljanje i čuvanje time-series metrika; PromQL za napredne upite
- ✓ Grafana — Vizualizacija metrika; interaktivni dashboardi za cluster, node i pod nivo
- ✓ Alertmanager — Routing alarma prema Slack, email, PagerDuty kanalima
- ✓ Grafana Loki — Log agregacija; korelacija metrika i logova unutar Grafana sučelja
- ✓ OpenTelemetry — Distribuirano tracing; eksport prema Jaeger/Tempo/Datadog
- ✓ Kubecost — Monitoring troškova po namespace-u, deploymentu i timu
- ✓ Falco — Runtime security monitoring i detekcija anomalija
# Dodaj Prometheus Community Helm repo
helm repo add prometheus-community \
https://prometheus-community.github.io/helm-charts
helm repo update
# Instaliraj kompletan monitoring stack
helm install kube-prometheus-stack \
prometheus-community/kube-prometheus-stack \
--namespace monitoring \
--create-namespace \
--set grafana.adminPassword=sigurnaLozinka123
# Provjeri status podova
kubectl get pods -n monitoring
Best Practices za K8s u Produkciji 2026
✓ Skaliranje i Performanse
- • Postavite resource requests i limits na osnovu stvarne upotrebe, ne procjene
- • Koristite HPA za horizontalno skaliranje; izbjegavajte konflikt HPA i VPA na istim metrikama
- • Implementirajte readiness i liveness probe za svaki kontejner
- • Koristite Cluster Autoscaler za automatsko dodavanje/uklanjanje nodova
- • Pratite metrike: ako upotreba rijetko prelazi 40-50% allocated resursa, klaster je overprovisioned
✓ Sigurnost i Upravljanje
- • Koristite RBAC za kontrolu pristupa; princip najmanjeg privilegija
- • Redovno ažurirajte K8s verziju — 20% klastera i dalje koristi end-of-life verzije
- • Implementirajte Network Policies za izolaciju mikroservisa
- • Koristite GitOps (ArgoCD, Flux) za deklarativno upravljanje klasterom
- • Namespace izolacija za različite timove i okruženja
Rolling Update Best Practices
- ✓ Uvijek koristite semantičko verzionisanje za container image-e (npr. v1.2.0, ne latest)
- ✓ Konfigurišite readiness probe kako biste osigurali da samo zdravi podovi primaju saobraćaj
- ✓ Integrirajte rolling updates u CI/CD pipeline (Jenkins, GitLab CI, ArgoCD)
- ✓ Testirajte rollback u staging okruženju prije produkcije
- ✓ Pratite CPU i memoriju tokom rollout-a putem Prometheusa i Grafane
- ✗ Ne koristite maxUnavailable: 50% za kritične produkcijske servise
- ✗ Ne zanemarujte konflikte između HPA i rolling update-a koji mogu privremeno udvostručiti resource zahtjeve
"Enterprises are aligning around Kubernetes because it has proven to be the most effective and reliable platform for deploying modern, production-grade systems at scale — including AI — and because of the ecosystem and community that support it.
— Hilary Carter, SVP Research, Linux Foundation (CNCF Annual Cloud Native Survey, januar 2026.)
Izazovi i Ograničenja
Usprkos dominantnoj poziciji, Kubernetes dolazi sa realnim izazovima koje svaki tim mora uzeti u obzir. Prema CNCF istraživanju, 47% organizacija navodi kulturne izazove kao primarnu prepreku deploymentu kontejnera, praćeno nedostatkom obuke (36%), sigurnosnim pitanjima (36%) i složenošću (34%).
| Izazov | Učestalost | Preporučeno Rješenje |
|---|---|---|
| Složenost alata | 37% timova | Platform engineering; Internal Developer Platforms (Backstage, Port) |
| Nedostatak vještina | 33% timova | CKA/CKAD certifikacije; hands-on laboratorije |
| Misconfiguracije | 45% incidenata | GitOps; admission controllers; policy-as-code (OPA Gatekeeper) |
| Troškovi cloud resursa | Najveći bol | Kubecost; right-sizing; Cluster Autoscaler; spot instance-i |
| Sigurnosni propusti | 25% timova | Zero Trust arhitektura; Falco; redovne CVE provjere |
Kubernetes je u 2026. godini nedvojbeno de facto standard za upravljanje kontejnerima u produkciji — sa 82% produkcijskom upotrebom, 92% tržišnim udjelom u container orchestration i rastućom ulogom kao infrastrukturne osnove za AI workloade. Bez obzira da li birate managed servis poput Amazon EKS, Google GKE ili Azure AKS, ili gradite self-managed klaster, razumijevanje auto-scaling mehanizama (HPA, VPA, KEDA), pravilno konfigurisanih load balancing strategija i zero-downtime rolling update procesa čini razliku između nestabilne i produkcijski pouzdane infrastrukture. Kombinacija Prometheusa i Grafane za observability, GitOps principa za upravljanje klasterom i dobro definisanih resource requests i limits čini osnovu svakog zrelog Kubernetes deployamenta — a investicija u ove prakse direktno se odražava na stabilnost, troškove i brzinu isporuke softvera.


