如何测量Apache Spark和Flink的能耗有没有什么工具或技术可以测量Spark和Flink的能耗
发布于 2020-09-01 15:14:59
欢迎来到堆栈溢出!
Apache spark和Flink是用于分布式计算和流处理的框架,respectively.There与消耗计算能力的框架完全不同。
如果我没记错的话,你问的是使用上述框架开发的应用程序的计算能力消耗。
因此,回答这个问题时,这些应用程序通常部署在服务器/云提供商的任何位置。这些云提供商提供内置指标来跟踪CPU /内存消耗。
如果您在本地运行这些应用程序,则可以使用jprofiler
、jconsole
、visualVM
等工具。这些工具为您提供了CPU消耗、内存消耗等的可视化表示。
P.S:
软件框架是一种抽象,其中提供通用功能的软件可以通过额外的用户编写的代码选择性地更改,从而提供特定于应用程序的软件。
分布式计算,流处理,或者说任何计算都可以在没有上述框架的情况下实现。但这将是一片混乱。框架使开发人员的工作变得容易。由于过度抽象而带来的易用性也带来了权衡,这是一个整体上不同的讨论。
https://stackoverflow.com/questions/63682761
复制相似问题