Mysql
 sql >> база данни >  >> RDS >> Mysql

Spark:Четенето на голяма MySQL таблица в DataFrame е неуспешно

Spark JDBC API изглежда се разклонява, за да зареди всички данни от MySQL таблицата в паметта без. Така че, когато се опитате да заредите голяма таблица, това, което трябва да направите, е първо да използвате клонирани данни на Spark API към HDFS (JSON трябва да се използва за запазване на структурата на схемата), както следва:

spark.read.jdbc(jdbcUrl, tableName, prop)
       .write()
       .json("/fileName.json");

След това можете да работите нормално с HDFS.

spark.read().json("/fileName.json")
       .createOrReplaceTempView(tableName);



  1. Database
  2.   
  3. Mysql
  4.   
  5. Oracle
  6.   
  7. Sqlserver
  8.   
  9. PostgreSQL
  10.   
  11. Access
  12.   
  13. SQLite
  14.   
  15. MariaDB
  1. Neo4j - Създайте ограничение с помощта на Cypher

  2. Как да изберете ред с максимална стойност в таблицата на mysql

  3. Ограничете стойността на MySQL тип данни до конкретен диапазон (за предпочитане не ENUM)

  4. Вмъкване/вижте изображение в/от MySQL DB

  5. PHP PDO MySQL заявка LIKE -> множество ключови думи