社区小伙伴反馈在实践文章《 使用图数据库 Nebula Graph 数据导入快速体验知识图谱 OwnThink》时,遇到了一些问题,Nebula Graph 将在本文对该文章中出现的问题进行 Debug。
使用 nebula-importer 时,报错:
panic: yaml: line 14: mapping values are not allowed in this contex
这个错误原因是 config.yaml 文件里的第一个
**- path**
字段没对齐,更改方式是在第一个
- path
字段前面加个空格。该错误在最新打包的 oss 包里已经更正。更改之后的配置文件可去 GitHub (链接:
https://github.com/jievince/rdf-converter/blob/master/rdf-import.yaml)或者直接复制下面信息。
version: v1rc1
description: example
clientSettings:
concurrency: 10 # number of graph clients
channelBufferSize: 128
space: test
connection:
user: user
password: password
address: 127.0.0.1:3699
logPath: ./err/test.log
files:
- path: ./vertex.csv
failDataPath: ./err/vertex.csv
batchSize: 100
type: csv
csv:
withHeader: false
withLabel: false
schema:
type: vertex
vertex:
tags:
- name: entity
props:
- name: name
type: string
- path: ./edge.csv
failDataPath: ./err/edge.csv
batchSize: 100
type: csv
csv:
withHeader: false
withLabel: false
schema:
type: edge
edge:
name: relation
withRanking: false
props:
- name: name
type: string
使用 nebula-importer 导数据的过程中,报
writing tcp 127.0.0.1... write: broken_pipe
错误信息,这个报错是 Nebula Graph 的一个 bug 导致,已在本次 rc2 (预发布)更新包内修复,请去 GitHub (链接:
https://github.com/vesoft-inc/nebula/releases/tag/v1.0.0-rc2) 下载。
在部分低配置机器上内存不够的问题,原默认配置针对 64 GB 以上内存的机型。更改了默认 partition 数量, 默认 wal 文件大小和 wal buffer 大小。pr 见: https://github.com/vesoft-inc/nebula/pull/1330
当有大量数据时,storage 突然 failover 后,存在启动过程数据加载过慢,报 Internal error,或者报端口占用的等问题,目前已被修复。pr 见: https://github.com/vesoft-inc/nebula/pull/1341
最后,附上 Nebula Graph GitHub 地址: https://github.com/vesoft-inc/nebula,如果你在使用 Nebula Graph 过程中遇到任何问题,欢迎 GitHub 联系我们或者加入微信交流群,请联系微信号:NebulaGraphbot
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。