1)rasp-node1にスケジュールされたPodをrasp-node2に退避させてみる。
メモ1:
demonsetのpodがある状態で、drainが出来ないエラー表示が出てしまう。
(demonset系のPodは、主にk8sのシステム全般に関連したPodで、各Node毎に配備されている。)
メモ2:
--force --ignore-deamonsetsのオプションを追加してdrainを実施するも以下のエラーが出てしまう。
2)demonsetのPodを無視した状態で、drainを実施する。
今度は、--delete-emptydir-dataのオプションを追加して実施する
--delete-emptydir-data:
emptyDir(ノードの排出時に削除されるローカルデータ)を使用しているポッドがあっても続行します。
(参照先)
https://kubernetes.io/docs/reference/generated/kubectl/kubectl-commands#drain
以下、rasp-node2に退避されたことが把握できる。
検証2:
1)rasp-node2.local上にスケジュールされているPod(deployment)をnode1に退避させてみる。
この時にargoCDなどの設定情報も移行されるのか確認してみる。
2)drainを実施する。
3)転移先のNode1に移行も完了して、argoCDにログインした様子。
設定情報自体は、masterのconfig map側に保持されていているので
データ損失もなく利用できる状況なのが確認できた。
メモ:
ちなみにgrafanaについては、自作のダッシュボードが消えてしまったので
config map上に保持したほうが良いので実施を行いたい。
0 件のコメント:
コメントを投稿