我在日志分析上运行这个查询。
Perf
| where TimeGenerated >= ago(5m)
| join kind = inner
(
Heartbeat
| where TimeGenerated >= ago(5m)
| summarize arg_max(TimeGenerated, *)
by SourceComputerId
) on Computer
| summarize arg_max(TimeGenerated, *) by SourceComputerId, CounterName
| extend Indicator = strcat(ObjectName,'-', CounterName)
| summarize dict = make_dictionary
(
pack
(
'WorkspaceId'
, TenantId
, Indicator
, CounterValue
, 'TimeGenerated'
, TimeGenerated
, 'Computer'
, Computer
)
) by SourceComputerId
| evaluate bag_unpack(dict)
但有点慢。是否有任何方法来优化它,我希望最快可能的查询达到相同的结果。
发布于 2019-04-04 22:54:42
如果不提及每个join
腿的数据大小(例如记录计数)和SourceComputerId
列的基数,这有点困难。
我建议您浏览一下查询最佳实践文档,该文档涵盖了几种优化技术,看看这是否有帮助
更新:明确提到对您的情况可能有帮助的最佳实践:(供您验证)
https://stackoverflow.com/questions/55525972
复制相似问题