Предпочитам да използвам собствена рамка за данни на spark, защото ми позволява повече персонализиране. Мога да използвам stringtype свойство за прехвърляне на json поле от рамка с данни към jsonb поле в таблицата. В този случай моята рамка с данни има две полета.
from pyspark import SparkConf
sc = SparkContext.getOrCreate(SparkConf())
spark = SparkSession(sc)
df = spark.read.format('csv') \
.option('delimiter','|') \
.option('header','True') \
.load('your_path')
##some transformation...
url = 'jdbc:postgresql://your_host:5432/your_databasename'
properties = {'user':'*****',
'password':'*****',
'driver': "org.postgresql.Driver",
'stringtype':"unspecified"}
df.write.jdbc(url=url, table='your_tablename', mode='append', properties=properties)
Преди да изпълните горния скрипт, трябва да създадете таблицата в postgresql, тъй като свойството mode е зададено като добавяне . Това е както следва:
create table your_tablename
(
my_json_field jsonb,
another_field int
)