Risorse VPS fuori controllo #16
Labels
No Label
bug
duplicate
enhancement
help wanted
invalid
question
wontfix
No Milestone
No project
No Assignees
2 Participants
Notifications
Due Date
No due date set.
Dependencies
No dependencies set.
Reference: golem/morgan#16
Loading…
Reference in New Issue
No description provided.
Delete Branch "%!s(<nil>)"
Deleting a branch is permanent. Although the deleted branch may continue to exist for a short time before it actually gets removed, it CANNOT be undone in most cases. Continue?
Si segnalano criticità sul VPS:
Soluzioni da sperimentare:
rotate dei log relativi ai container (al più, silenziamento completo dei log su file e, se si può fare, mantenimento solo dei log temporanei in journalctl)
Limitazione risorse per ciascun container
Potrebbe essere colpa dell'esaurimento degli inode? Da verificare nel momento in cui si presenta il problema con un
df -hi
(Related: #4 )
Ho provato al volo, per l'appunto in questo momento il disco è in condizioni semi-critiche con un'occupazione dell'86% quando, a cose normali, dovrebbe sotto il 50%.
Comunque, questo è il responso del comando sopra citato:
Gli inode sembrerebbero essere sotto controllo.
Magari domani sera approfittiamo della condizione "sfavorevole" del disco per collegarci al server e dare un occhio insieme.
Sembrerebbe di sì...
Se non lo conoscete un altro strumento rapido per il monitoraggio è netdata (in debian è ad un
apt install netdata
di distanza), dà molte statistiche senza bisogno di alcuna configurazione.Non è però consigliato usarlo in modo continuativo, è abbastanza pesante sulle risorse e a volte ha creato esso stesso problemi.
Ma è un buon modo per avere una rapida panoramica alla bisogna.
Il problema sembrerebbe essere risolto grazie a @gbiotti, che con un
ps
si è accorto di uno script con un po' troppe istanze in esecuzione. @giomba ha provveduto ad aggiornare lo script e da quel momento il disco è rimasto stabile (~ 41%-42% di spazio occupato). Teniamo il VPS sott'occhio senza riavviarlo ogni lunedì, se nel giro di un mese non succedono altri scherzi chiuderei questa issue.In ogni caso, diverso tempo fa era stato installato uptime-kuma come prova sul server in officina (chi è in vpn ed ha le credenziali può accedere da http://cassone.golem.linux.it:7030), ed ha permesso di trovare un problema collaterale. Ogni tanto veniva segnalato il down del VPS, tentando di connettersi il sistema era molto lento e la RAM pressocé satura. Nel giro di qualche minuto tornava stabile, non appena il kernel si decideva a sacrificare qualche processo per farsi posto (quasi sempre il database di gitea).
Ora, magari questa era una delle manifestazioni dovute allo script scovato, però è anche vero che non navighiamo nella RAM. Per dire, allo stato attuale, con un uptime di poco più di un giorno, lo stato di occupazione della ram è il seguente:
Un mese e mezzo fa, prima che venisse scovato e patchato lo script, mi sono permesso di aggiungere uno swapfile di 1GB, che ha messo fine a quei brevi down segnalati da uptime-kuma. Insieme al disco teniamo d'occhio anche i down di kuma e la RAM e speriamo che non escano fuori altri scherzi.