上下文:我们将Azure data Lake中的历史数据存储为版本化的parquet文件,这些文件来自我们现有的Databricks管道,在该管道中我们将写入不同的Delta表。一个特定的日志源是每天大约18 GB的地板。我已经阅读了,并在我为该日志源定义的外部表上使用Kusto.Explorer执行了一些查询。在Kusto.Explorer<e
小问题:是否有人知道是否可以通过JDBC将Kusto函数(Azure Data )公开为视图。背景:
我们有一些可以连接到JDBC目标的工具(第三方不能更改)。不幸的是,它们中的大多数都不能看到或使用过程/函数,而只能在视图和表上操作。我们有一些非常复杂的查询用KQL实现,我们希望在这些工具中使用,并且不能在SQL.中轻松完成。Kusto函数由JDBC驱动程序作为过程公开
是否有任何方法可以使用KQL查询大型本地文件(10k+行),例如Excel、CSV等,以及存储在Kusto ()中的数据?下面是我的场景:我广泛使用KQL来探索Kusto (Azure data Explorer)集群中托管的数据。大多数情况下,这些探索是非常动态的,并且是在一次性的情况下调查情况。对于一些数据,我只有Excel和CSV文件,我想加入Kus