milvus+minio批量初始化大量数据的时候minio崩了快400g内存 #46190
Unanswered
aicoderhefei
asked this question in
Q&A and General discussion
Replies: 2 comments 1 reply
-
|
insert的数据经过proxy先进入pulsar/kafka,然后再从pulsar/kafka流向datanode,如果collection是loaded,则pulsar/kafka的数据也同时流向querynode。datanode把数据持久化到minio,大约每拿到100MB就会存为一个segment。随着segment数量增多,datanode再把100MB的那些segment合并成为1GB左右的segment。同时indexnode积极地给各个segment建索引,有的100MB的segment 也会被建索引。当若干个100MB的segment合并成1GB的segment之后,indexnode又会给这个1GB的segment建索引。于是这里就会有很多写放大,一般3到5倍这样。也就是说当你连续insert了50GB数据之后,写入minio的最终可能有200GB之多。 如果collection是loaded状态,那么这些数据会被querynode加载到内存。如果你是standalone milvus,由于datnode,indexnode也在使用内存,所以加在一起的内存用量就会高于数据量的大小。 一般的缓解方式是:
|
Beta Was this translation helpful? Give feedback.
1 reply
-
|
好的,谢谢 |
Beta Was this translation helpful? Give feedback.
0 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
-
后期重新初始化发现批量500份占用桶50g,一个礼拜后回复3个g,想咨询一下这个是什么机制或者有什么配置嘛,支持大批量灌库
Beta Was this translation helpful? Give feedback.
All reactions