MongoDB
 sql >> база данни >  >> NoSQL >> MongoDB

Импортиране на много голям набор от записи в MongoDB с помощта на nodejs

Не е отговор на вашата точна ситуация на импортиране от .csv файл, а вместо това, на групово вмъкване(я)

-> Първо, няма специални операции за „групово“ вмъкване, всичко е forEach накрая.

-> ако се опитате да прочетете голям файл асинхронно, което би било много по-бързо от процеса на запис, тогава трябва да помислите за промяна на подхода си, първо да разберете колко може да обработва вашата настройка (или просто натиснете-n -пробен период).

---> След това променете начина, по който четете от файл, не е нужно да четете всеки ред от файл, async-ly, научете се да чакате, използвайте forEach, forEachSeries от Async.js, за да намалите вашите четения близо до mongodb write ниво и сте готови.



  1. Redis
  2.   
  3. MongoDB
  4.   
  5. Memcached
  6.   
  7. HBase
  8.   
  9. CouchDB
  1. MongoDB InsertBatch JObject - Грешка при сериализиране

  2. Изтриването на колекция Mongo не изчиства дисково пространство

  3. Получаване на грешка при изчакване при свързване на MongoDB Atlas с Mongoose

  4. Spring Data Mongo:upsert с различни актуализирани полета

  5. MongoDB Aggregation:Преброяване на отделни полета