Neo4j有一个“连接结果节点”复选框选项,我收集到这个选项后,会在最初的查询之后运行第二个查询来连接节点。 例如 MATCH (n:User)
where n.Verified = 'false'
return n
order by n.followers DESC
Limit 40 该查询返回40个相互连接的节点。虽然这可以在Neo4j浏览器中工作,但我不能让它在Neo4j bloom中连接。那么问题是,在幕后连接结果节点的第二个查询是什么? 谢谢
我将数据加载到Neo4j实例中,在该实例中,对于每个节点,我将时间信息记录在属性键(.time)中,格式如下:
YYYY MM-DD
示例:time: 1937-01-01
这些都是字符串,我想将它们转换为datetime,以便在Neo4j Bloom和各种基于时间的查询中使用它们。我尝试使用以下公式(以及它的各种变体):
MATCH (p:Image)
WHERE p.time IS NOT NULL
SET p.time = datetime({ epochMillis: apoc.date.parse(p.time, 's', 'yyyy-MM-dd HH:m
我编写了显示客户成本百分比的代码。我想根据这个百分比将买家分为不同的类别。例如,如果百分比<50,则客户端属于类别A(我需要一个列来写入此内容)。我如何实现这一点? MATCH (c:Customer)-[b:BUY]->(p:Product)
WITH SUM(b.count*p.unit_price) As total
MATCH (c:Customer)-[b:BUY]->(p:Product)
RETURN c.name AS Customer,
100.0 * SUM(b.count*p.unit_pr
我刚开始创建索引,目前我的表在WHERE子句中对同一列有3个部分索引,对于同一个表具有不同的列组合。我试着用1布卢姆指数来代替它们。
但是,当我使用下面的语法使用WHERE子句创建bloom索引时,我得到了以下错误:
CREATE EXTENSION bloom;
CREATE INDEX idx_bloom_bar ON message USING bloom
(s, p, c, m, e, id)
WHERE (islatest = true)
WITH (length=56, col1=4, col2=4, col3=4, col4=4, col5=4, col6=4);
SQL
我刚刚开始探索基于图形分析的Neo4j。我正在尝试使用下面的Neo4j示例来使用Neo4j浏览器中可用的外壳来检测欺诈:
示例(下面)中列出的查询以表格格式返回记录。
MATCH (accountHolder:AccountHolder)-[]->(contactInformation)
WITH contactInformation,
count(accountHolder) AS RingSize
MATCH (contactInformation)<-[]-(accountHolder)
WITH c
我和neo4j一样也是Django的新手。我使用Django 1.4.5,neo4j 1.9.2和neo4django 0.1.8
我为person节点创建了NodeModel,并将其索引到'owner‘和'name’属性上。这是我的models.py:
from neo4django.db import models as models2
class person_conns(models2.NodeModel):
owner = models2.StringProperty(max_length=30,indexed=True)
name = mode
我正在尝试使用ne4j-admin导入工具将大约300G的csv数据导入到neo4j中。但是,存储neo4j的目录没有那么大的可用空间。
如何更改导入工具写入的目录?我试过了:
--database= /new/directory/my.graphdb
但得到的信息如下:
'database' should be a name but you seem to have specified a path:
有人能解释一下如何做到这一点吗?
我对strcat和分段错误有点问题。错误如下:
Program received signal EXC_BAD_ACCESS, Could not access memory.
Reason: KERN_INVALID_ADDRESS at address: 0x0000000000000000
0x00007fff82049f1f in __strcat_chk ()
(gdb) where
#0 0x00007fff82049f1f in __strcat_chk ()
#1 0x0000000100000adf in bloom_operation (bloom=0x10010008
我在Apache中使用了Bloom过滤器的Breeze实现。我的Bloom过滤器期望200,000,000 keys.But,我将面临以下异常:
User class threw exception: org.apache.spark.SparkException: Job aborted due to stage failure: Task 1 in stage 5.0 failed 4 times, most recent failure: Lost task 1.3 in stage 5.0 (TID 161, SVDG0752.ideaconnect.com): org.apache.
我有两种类型的节点:投资者和创业
我想创建一个查询,而用户可以提供,比如说3作为输入,只有与至少3个不同的初创公司有关系的投资者才会返回。此解决方案将用于neo4j Bloom。
我的尝试:
MATCH p = (s1:Startup)<-[r:INVESTOR_INVESTED_IN]-(i:Investor)-[r2:INVESTOR_INVESTED_IN]->(s2:Startup)
WHERE id(s1) in $nodes AND id(s2) in $nodes AND s1<>s2
RETURN p
根据我上面的尝试,如何从最小
我正在从json文件中将大量Neo4j节点加载到系统中。这个错误消息失败了,“未能调用过程apoc.merge.node:由:java.lang.NullPointerException引起”--我没有看到足够的信息来找出我做错了什么,因为这是我第一次使用它,我只是没有看到它。这是错误堆栈上的最后7个错误。看起来错误是在调用merge_node时产生的。
File "F:\ClientSide\current\testload1.py", line 104, in <lambda>
nodes.apply(lambda h: merge_node(h),