Memori ArangoDB meluap - apakah tidak ada solusi?

Saat saya melakukan kueri AQL, saya mengalami kesalahan ini:

Kueri: AQL: kueri akan menggunakan lebih banyak memori daripada yang diizinkan (saat dijalankan)

Kumpulan data saya: 9 miliar simpul, 19 miliar tepi

Cluster saya memiliki tiga node, menjalankan Centos 7 dengan RAM 32 GB

Saya hanya berharap query tersebut dapat dieksekusi dan tidak dilaporkan salah. File konfigurasi apa yang dapat dimodifikasi untuk mencapai tujuan tersebut? Saya baru mengenal ArangoDB.


person feitianStyle    schedule 06.12.2017    source sumber
comment
Selamat datang di JADI! Harap baca cara bertanya.   -  person Cris Luengo    schedule 06.12.2017


Jawaban (1)


Beberapa perhitungan di balik amplop menyarankan Anda perlu menggunakan mesin RocksDB:

(100 * 28 * 10^9) / (3 * (32 * 10^9)) => 29.17

Lihat https://www.arangodb.com/why-arangodb/comparing-rocksdb-mmfiles-storage-engines/

person peak    schedule 06.12.2017
comment
Saya sudah menggunakan rocksdb, Anda dapat memberi tahu saya cara menghitungnya, terima kasih! - person feitianStyle; 07.12.2017
comment
Saya baru saja menggunakan angka Anda dan menebak rata-rata jumlah byte per (V+E). Jika Anda sudah menggunakan RocksDB dan memiliki ruang disk yang cukup, mungkin penyebabnya adalah ArangoDB memiliki beberapa persyaratan memori terkait indeks yang dikelolanya. Indeks apa yang telah Anda tetapkan? Sepertinya Anda harus menghubungi ArangoDB secara lebih langsung, misalnya. di github.com/arangodb/arangodb/issues - person peak; 07.12.2017
comment
Saya tidak memiliki indeks khusus, Ini adalah indeks default arangodb, Ya. Ruang disk saya cukup, saya sudah mengajukan pertanyaan di GitHub, tetapi tim pengembangan tidak menyelesaikannya - person feitianStyle; 07.12.2017
comment
Mungkin indeks default membutuhkan banyak RAM? Sudahkah Anda melihat github.com/arangodb/arangodb/issues/3806 ? Apa masalahmu #? - person peak; 07.12.2017