Azure Databricks用于显示当前群集配置的python命令

Azure Databricks python command to show current cluster config(Azure Databricks用于显示当前群集配置的python命令)
本文介绍了Azure Databricks用于显示当前群集配置的python命令的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我目前正在优化我们的ETL流程,并希望能够看到在处理数据时使用的现有集群配置。这样,我就可以随着时间的推移跟踪我应该使用哪些工作节点大小。

有没有一个命令可以在python中返回集群工作线程#和大小,以便我可以以数据帧的形式写入?

推荐答案

您可以通过调用Cluster Get REST API获取此信息-它将返回json,包括工作进程的数量、节点类型等。

import requests
ctx = dbutils.notebook.entry_point.getDbutils().notebook().getContext()
host_name = ctx.tags().get("browserHostName").get()
host_token = ctx.apiToken().get()
cluster_id = ctx.tags().get("clusterId").get()

response = requests.get(
    f'https://{host_name}/api/2.0/clusters/get?cluster_id={cluster_id}',
    headers={'Authorization': f'Bearer {host_token}'}
  ).json()
num_workers = response['num_workers']

附注:如果您有非笔记本工作,则PAT令牌可能不可用,但您可以生成令牌并将其放在那里

这篇关于Azure Databricks用于显示当前群集配置的python命令的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持编程学习网!

本站部分内容来源互联网,如果有图片或者内容侵犯您的权益请联系我们删除!

相关文档推荐

Leetcode 234: Palindrome LinkedList(Leetcode 234:回文链接列表)
How do I read an Excel file directly from Dropbox#39;s API using pandas.read_excel()?(如何使用PANDAS.READ_EXCEL()直接从Dropbox的API读取Excel文件?)
subprocess.Popen tries to write to nonexistent pipe(子进程。打开尝试写入不存在的管道)
I want to realize Popen-code from Windows to Linux:(我想实现从Windows到Linux的POpen-code:)
Reading stdout from a subprocess in real time(实时读取子进程中的标准输出)
How to call type safely on a random file in Python?(如何在Python中安全地调用随机文件上的类型?)