使用Nifi,我正在查询redis服务器的地理空间数据。但是,一旦我停止处理器,我正在查询的密钥将被删除。
我想在处理器中创建和重用redis连接。
但是代码在正常的java类中工作,如果我运行该代码,键就不会删除。
我不明白为什么钥匙会被删除。下面是redis地理空间数据的自定义处理器代码。
/*
* Licensed to the Apache Software Foundation (ASF) under one or more
* contributor license agreements. See the NOTICE file distributed with
* thi
在这段代码中,我想将lastDate保存在数组中,并使用它来增加startDate和endDate的属性值automatically.but,它不生成流文件。,我试图修复它,但它不能创建浮点,我应该更改什么?
var OutputStreamCallback = Java.type("org.apache.nifi.processor.io.OutputStreamCallback");
var StandardCharsets = Java.type("java.nio.charset.StandardCharsets");
Date.prototype.
我试图从JSON中提取一个值到flowfile-attribute.当我运行EvaluateJsonPath处理器时,我会得到一个错误声明
"Unable to get a scalar value for expression $..fields.storyBoard.stringValue。
输入JSON如下所示:
{
"name" : "projects/fakedims-0000/databases/(default)/documents/device/0000",
"fields" : {
"report
我有一个GenerateFlowFile处理器,我有2个属性userId(equals=1)和参数(equals=5),我有一个服务,它应该给我从(1到5)的每个userId的响应声,所以我需要调用它5次,我想要的是在执行脚本中生成5流文件调用相关的id服务5次我已经尝试了下面的代码,但它对我不起作用,你能给我任何建议,我该怎么办?
var OutputStreamCallback = Java.type("org.apache.nifi.processor.io.OutputStreamCallback");
var StandardCharsets = Java.type(
我正在尝试读取来自Nifi处理器的json数据,我使用下面的代码通过计算将一个键值更新到每个记录中,但我面临着**list indices must be integers in <script> at line number 43**问题。 ? 。 当手动添加json file时,相同的代码工作正常 我的代码是: import json
import java.io
from org.apache.commons.io import IOUtils
from java.nio.charset import StandardCharsets
from org.apache.nif
是否可以在NIFI处理器中使用xmlHttpRequest来调用远程rest服务?在我的例子中,ExecuteScript处理器(使用Javascript)不能计算XMLHttpRequest;有没有类似的解决方案可以用来获取响应数据?
var OutputStreamCallback = Java.type("org.apache.nifi.processor.io.OutputStreamCallback");
var StandardCharsets = Java.type("java.nio.charset.StandardCharsets");
Da
Processors I'm referring to 处理器"InvokeHTTP“是否可能从前一个处理器(在本例中为SELECT_FROM_SNOWFLAKE)获取信息"id”? Where i want to change 我希望“远程URL”是这样的: http://${hostname()}:8080/nifi-api/processors/${previousProcessorId()}
是否可以在后续的ExecuteSQL处理器中引用FlowFile的内容?
例如:
我使用GenerateTableFetch和ExecuteSQL来轮询数据库表。
接下来,我使用QueryRecord来转换结果--特别是使用MAX()和GROUP BY操作,因为我不能在GenerateTableFetch处理器上使用这个操作符。
。
SELECT
hu_id
,wh_id
,MAX(audit_timestamp) AS "newest_timestamp"
FROM FLOWFILE
GROUP BY
hu_id
,wh