Come KEDA, event driven autoscaler per Kubernetes, vuole contribuire a salvare il pianeta
Se siete tra quanti hanno letto l’articolo di presentazione scritto lo scorso dicembre in merito a KEDA (Kubernetes Event Driven Autoscaler) sarete felici di sapere che questa settimana l’Event-Driven Autoscaler per Kubernetes è passato ufficialmente dallo stato di “sandbox” (quindi praticamente sperimentale) a “incubating” (ossia lo stage intermedio prima di esser “graduated”) all’interno della Cloud Native Computing Foundation (CNCF).
Cosa significhi questo lo spiega questa immagine, tratta direttamente dal sito della CNCF:
Il cammino delle applicazioni che vengono incluse nella CNCF
Come si nota dal sito della CNCF raggiungere lo stato di maturità necessario all’inclusione è un processo lungo e laborioso, che richiede diversi step intermedi da rispettare. Il fatto che KEDA sia oggi nel mezzo di questo cammino è sicuramente un buonissimo auspicio per futuro.
Per quanti invece non conoscono ancora KEDA, basti dire che è un’alternativa all’auto scaler di default di Kubernetes, il quale si basa unicamente sulle metriche di CPU. KEDA cambia l’approccio, ed è costituito da due componenti principali, un agent che attiva e disattiva i deployment Kubernetes per scalare il numero di istanze deployate, e il server di metriche, che espone i dati degli eventi al Horizontal Pod Autoscaler (HPA) per scalare. KEDA può essere aggiunto a qualsiasi cluster Kubernetes, fornendo un autoscaling guidato dagli eventi e basato sui dati forniti da uno scaler, che permette a KEDA di basarsi su una varietà veramente ampia di fonti da interpretare per scegliere se scalare o meno: database, sistemi di messaggistica, sistemi di telemetria, CI/CD e altro (qui la lista completa).
L’avanzamento all’interno della CNCF non fa che dimostrarne la bontà e certo nel momento in cui la release 2.0 della componente è stata scelta ed impiegata da Alibaba, CastAI e tante altre aziende di classe enterprise c’era chiaramente da aspettarselo, ma ciò non toglie che il risultato sia ottimo.
Ma c’è un ulteriore aspetto a rendere KEDA oltremodo interessante: il fatto che l’auto scaling, così organizzato, può essere utilizzato con ambizione per un sensibile risparmio energetico. La tematica è talmente sentita che nel corso della prossima Kubecon, il 14 ottobre 2021, ci sarà un evento dal titolo “How Event Driven Autoscaling in Kubernetes can Combat Climate Change” che sarà tenuto da Annie Talvasto, di CAST AI (uno dei player enterprise ad usare attivamente KEDA di cui parlavamo sopra) e Adi Polak, di Microsoft (che insieme a Red Hat ha creato il progetto KEDA).
È così assurdo pensare che i cambiamenti climatici possano essere combattuti con una migliore efficienza anche dei sistemi informatici? Basta vedere un qualsiasi telegiornale in uno qualsiasi di questi giorni estivi per convincersi: agire per combattere il climate change deve diventare un imperativo categorico, in qualsiasi ambito.
Da sempre appassionato del mondo open-source e di Linux nel 2009 ho fondato il portale Mia Mamma Usa Linux! per condividere articoli, notizie ed in generale tutto quello che riguarda il mondo del pinguino, con particolare attenzione alle tematiche di interoperabilità, HA e cloud.
E, sì, mia mamma usa Linux dal 2009.
Se vuoi sostenerci, puoi farlo acquistando qualsiasi cosa dai diversi link di affiliazione che abbiamo nel nostro sito o partendo da qui oppure alcune di queste distribuzioni GNU/Linux che sono disponibili sul nostro negozio online, quelle mancanti possono essere comunque richieste, e su cui trovi anche PC, NAS e il ns ServerOne. Se ti senti generoso, puoi anche donarmi solo 1€ o più se vuoi con PayPal e aiutarmi a continuare a pubblicare più contenuti come questo. Grazie!
Hai dubbi o problemi? Ti aiutiamo noi!
Se vuoi rimanere sempre aggiornato, iscriviti al nostro canale Telegram.Se vuoi ricevere supporto per qualsiasi dubbio o problema, iscriviti alla nostra community Facebook o gruppo Telegram.
Cosa ne pensi? Fateci sapere i vostri pensieri nei commenti qui sotto.
Ti piace quello che leggi? Per favore condividilo con gli altri.