GKE 自動スケーリング戦略の理解と組み合わせ のレビュー

18902 件のレビュー

clear as sky

Purba Michael Pintanta Dwides · 1年以上前にレビュー済み

G Sree Ramachandra · 1年以上前にレビュー済み

Singh Ashwinder · 1年以上前にレビュー済み

Hernandez Miro Aleix · 1年以上前にレビュー済み

Jadeja Yashpalsinh · 1年以上前にレビュー済み

Baster Michał · 1年以上前にレビュー済み

Kumar Aniket · 1年以上前にレビュー済み

Casal Manuel Eiras · 1年以上前にレビュー済み

Internet and resource issues.

Herring Dave · 1年以上前にレビュー済み

Kaderi Justin · 1年以上前にレビュー済み

Andres Rabano Eduardo · 1年以上前にレビュー済み

A lot of these commands take much longer to finish than the lab recommends. For example, it's taking 5-8 full minutes for things that this lab says should take "a minute or two". It makes the lab feel very choppy.

Cherry Michelle · 1年以上前にレビュー済み

AIT AMI EL MEHDI · 1年以上前にレビュー済み

Ciara Maciej · 1年以上前にレビュー済み

fauzi mreza · 1年以上前にレビュー済み

Segun Fatokunbo · 1年以上前にレビュー済み

Lim Alexander · 1年以上前にレビュー済み

Rathore Muhammad Umer · 1年以上前にレビュー済み

Jangir Dinesh · 1年以上前にレビュー済み

Sriwastav Ravi · 1年以上前にレビュー済み

Choo Andrew Borg Ning · 1年以上前にレビュー済み

Pod is blocking scale down because it doesn’t have enough Pod Disruption Budget (PDB) Details Scale down of underutilized node is blocked because it has a Pod running on it which doesn’t have enough PDB to allow eviction of the pod. Refer to logs for more details. Recommended actions Review PDB rules of Pod in the log event and update the rules if necessary. { "insertId": "c92d7e13-7e0d-4cad-841d-acc2a404551d@a1", "jsonPayload": { "noDecisionStatus": { "noScaleDown": { "nodes": [ { "reason": { "parameters": [ "event-exporter-gke-7d996c57bf-vs6fl" ], "messageId": "no.scale.down.node.pod.not.enough.pdb" }, "node": { "name": "gke-scaling-demo-default-pool-32fbf8c9-vkks", "cpuRatio": 40, "memRatio": 7, "mig": { "name": "gke-scaling-demo-default-pool-32fbf8c9-grp", "nodepool": "default-pool", "zone": "us-east1-d" } } } ], "nodesTotalCount": 1 }, "measureTime": "1715246108" } }, "resource": { "type": "k8s_cluster", "labels": { "cluster_name": "scaling-demo", "location": "us-east1-d", "project_id": "qwiklabs-gcp-01-fb3dcc713c69" } }, "timestamp": "2024-05-09T09:15:08.242073284Z", "logName": "projects/qwiklabs-gcp-01-fb3dcc713c69/logs/container.googleapis.com%2Fcluster-autoscaler-visibility", "receiveTimestamp": "2024-05-09T09:15:09.270697750Z" } i needed to change maxUnavailable: to 3 and then node went down by 1 number

Venugopalan Naveen · 1年以上前にレビュー済み

Maheshwari Arvind Kumar · 1年以上前にレビュー済み

Mahendar Guda · 1年以上前にレビュー済み

Vallivedu Sailaja · 1年以上前にレビュー済み

公開されたレビューが、製品を購入または使用した人によるものであることは保証されません。Google はこれらのレビューの検証を行っていません。