我目前正在研究一个实时仪表盘的需求,该仪表盘使用带有power bi输出的steam分析。用户希望看到当前小时的累积总和。这将在下一小时开始时恢复为0。
据我所知,翻滚窗口应该可以做到这一点,但是在Power BI仪表板中这个值不会改变。
任何帮助都将不胜感激!
示例:
SELECT System.Timestamp AS Timestamp,
SUM(Revenue) AS Revenue
INTO [TotalRevenuePerHour]
FROM [Input]
GROUP BY TUMBLINGWINDOW(hour,1)
我正在尝试将我在Power BI桌面上做的报告嵌入到移动应用程序中。API只显示我可以嵌入整个报表,而不是页面/块。
我又找了一遍,找到了这个。然而,看起来Power BI Embedded和Power BI (online)是两个不同的产品,它们有不同的API。
示例-获取在Power BI桌面上创建并在线发布的报告:
1- Power BI Online API
GET https://api.powerbi.com/beta/myorg/Dashboards
2- Power BI Embedded API
https://api.powerbi.com/v1.0/collections
我正在尝试在power BI中创建一些动态图表。 我的数据如下所示: year Product exp claim_type clCost clCount
2010 A 0.21 0 0
2010 A 0.85 0 0
2010 A 0.15 BI 5000 1
2010 B 1.00 BI 1000 1
2010 B 0.33
在Power BI中,您可以使用Power BI REST API在数据集中插入行,并拥有活动的仪表板。该功能的问题在于更新现有行。POWER BI REST API中没有更新命令。
有一个DELETE命令,但它删除整个表数据,如果您有一个大约有500.000行的表,这不是一个选项。
要实现实时仪表板,我需要某种更新命令或变通方法。有没有人有这个想法?
我有一个来自Azure data Bricks的数据源,并且我正在使用Power BI中的Azure Data Bricks连接器。有一个名为Reference Number的列,像PERT这样的值以pert的形式出现。小写而不是大写-这似乎并不是所有的值都会发生,比如AD435是ok的。字段在Power BI中为ABC文本,在Azure Data Brick中为字符串。 在Azure Data Brick中,它是PERT而不是pert。如果我引入一条记录,而不是表中的所有记录,那么它会以pert而不是PERT的形式出现,这很奇怪。当从Azure Data Brick引入表格时,还有谁在Po
我有一个Spark dataframe,它有一个字符串类型的列("assigned_products"),它包含如下值:
"POWER BI PRO+Power BI (free)+AUDIO CONFERENCING+OFFICE 365 ENTERPRISE E5 WITHOUT AUDIO CONFERENCING"
我想计算"+"在字符串中的出现次数,并在一个新列中返回该值。
我尝试了以下方法,但一直返回错误。
from pyspark.sql.functions import col
DF.withColumn('Number_
在PowerBIIntegration模式下,将新条目(行)写入OneDrive上的Excel表格时要使用的公式。 我已经将我的Power BI报告发布到Power BI Online -我已经从我的输入Excel文件->中的两个表中添加了5个字段我已经从Power BI ->开始在PowerApps中创建了一个NewForm屏幕我的PowerBIIntegration数据表包含填充NewForm ->中的下拉列表的字段现在我想在我的名为Assignments的Excel文件的第三个表中写入一个NewForm条目-我不能使用SubmitForm控件。我应该使用什么公式?我的
我有一个非常大的动态Power BI仪表板,我开发的客户端用户非常希望能够在Excel中访问它。我尝试了两种方法来连接它: 1. In Excel >> Data/Get Data/From Power BI
2. In published Power BI Dashboard menu: Analyze in Excel 如果且仅当我可以将计数或总和放入值框中时,它在Excel中显示的内容才看起来很棒。我不断收到这个错误,需要帮助来修复:“您正在移动的字段不能放在报告的该区域中。” 请让我知道我可以提供哪些有用的额外信息。任何有见地的人都会非常感谢!