2022年1月14日金曜日

drain(pod退避)

1)rasp-node1にスケジュールされたPodrasp-node2に退避させてみる。

メモ1:

demonsetのpodがある状態で、drainが出来ないエラー表示が出てしまう。

(demonset系のPodは、主にk8sのシステム全般に関連したPodで、各Node毎に配備されている。)








メモ2:

--force --ignore-deamonsetsのオプションを追加してdrainを実施するも以下のエラーが出てしまう。






2)demonsetのPodを無視した状態で、drainを実施する。


今度は、--delete-emptydir-dataのオプションを追加して実施する


--delete-emptydir-data:

emptyDir(ノードの排出時に削除されるローカルデータ)を使用しているポッドがあっても続行します。


(参照先)

https://kubernetes.io/docs/reference/generated/kubectl/kubectl-commands#drain










以下、rasp-node2に退避されたことが把握できる。





検証2:


1)rasp-node2.local上にスケジュールされているPod(deployment)をnode1に退避させてみる。

この時にargoCDなどの設定情報も移行されるのか確認してみる。















2)drainを実施する。








3)転移先のNode1に移行も完了して、argoCDにログインした様子。

設定情報自体は、masterのconfig map側に保持されていているので

データ損失もなく利用できる状況なのが確認できた。
















メモ:

ちなみにgrafanaについては、自作のダッシュボードが消えてしまったので

config map上に保持したほうが良いので実施を行いたい。





0 件のコメント:

コメントを投稿

php log(ECS ログ出力)

# PHPエラーログの設定 ENV PHP_INI_DIR /usr/local/etc/php RUN { \ echo 'log_errors = On' ; \ echo 'error_log = /proc/self/...