PostgreSQL
 sql >> база данни >  >> RDS >> PostgreSQL

Проблеми с производителността на групово вмъкване на PostgreSQL/JooQ при зареждане от CSV; как да подобря процеса?

Най-бързият начин за групово вмъкване от CSV файл в PostgreSQL е с Копиране . Командата COPY е оптимизирана за вмъкване на голям брой редове.

С Java можете да използвате Реализация на копиране за JDBC драйвер на PostgreSQL

Тук има хубав малък пример за това как да го използвате:как да копирате данни от файл в PostgreSQL с помощта на JDBC?

Ако имате CSV със заглавки, бихте искали да изпълните команда, подобна на тази:

\COPY mytable FROM '/tmp/mydata.csv' DELIMITER ';' CSV HEADER

Друго повишаване на производителността, когато добавяте големи количества данни към съществуваща таблица, е да премахнете индексите, да вмъкнете данните и след това да създадете отново индексите.



  1. Database
  2.   
  3. Mysql
  4.   
  5. Oracle
  6.   
  7. Sqlserver
  8.   
  9. PostgreSQL
  10.   
  11. Access
  12.   
  13. SQLite
  14.   
  15. MariaDB
  1. Синтактична грешка на PostgreSQL в параметризирана заявка на дата $1

  2. грешка при кодиране на postgres в приложението sidekiq

  3. SQLAlchemy:актуализиране от_select

  4. Възможно ли е да се преброят всички редове с еднакъв идентификатор с COUNT?

  5. ФАТАЛНО:удостоверяването на паролата не бе успешно за потребител postgres (postgresql 11 с pgAdmin 4)