PostgreSQL
 sql >> база данни >  >> RDS >> PostgreSQL

Не може да се свърже с postgres с помощта на jdbc в pyspark shell

Може би ще бъде полезно.

В моята среда SPARK_CLASSPATH съдържа път към postgresql конектор

from pyspark import SparkContext, SparkConf
from pyspark.sql import DataFrameReader, SQLContext
import os

sparkClassPath = os.getenv('SPARK_CLASSPATH', '/path/to/connector/postgresql-42.1.4.jar')

# Populate configuration
conf = SparkConf()
conf.setAppName('application')
conf.set('spark.jars', 'file:%s' % sparkClassPath)
conf.set('spark.executor.extraClassPath', sparkClassPath)
conf.set('spark.driver.extraClassPath', sparkClassPath)
# Uncomment line below and modify ip address if you need to use cluster on different IP address
#conf.set('spark.master', 'spark://127.0.0.1:7077')

sc = SparkContext(conf=conf)
sqlContext = SQLContext(sc)

url = 'postgresql://127.0.0.1:5432/postgresql'
properties = {'user':'username', 'password':'password'}

df = DataFrameReader(sqlContext).jdbc(url='jdbc:%s' % url, table='tablename', properties=properties)

df.printSchema()
df.show()

Това парче код позволява да използвате pyspark, където имате нужда. Например, аз съм го използвал в проекта Django.



  1. Database
  2.   
  3. Mysql
  4.   
  5. Oracle
  6.   
  7. Sqlserver
  8.   
  9. PostgreSQL
  10.   
  11. Access
  12.   
  13. SQLite
  14.   
  15. MariaDB
  1. Как Log() работи в PostgreSQL

  2. Какво е новото в PostgreSQL 11

  3. Многоредова вложка с pg-promise

  4. Как да получа min, медиана и максимум от моята заявка в postgresql?

  5. Вмъквайте данни в 3 таблици наведнъж с помощта на Postgres