MongoDB
 sql >> база данни >  >> NoSQL >> MongoDB

MongoDB Spark Connector py4j.protocol.Py4JJavaError:Възникна грешка при извикване на o50.load

Разбрах отговора на въпроса си. Това беше проблем със съвместимостта с конектора Mongo-Spark и версията на Spark, до която надстроих. По-конкретно, стойността findTightestCommonTypeOfTwo беше преименувана в PR:

https://github.com/apache/spark/pull/16786/files

За Spark 2.2.0 съвместимият Mongo-Spark конектор също е 2.2.0, така че в моя пример пакетът ще бъде зареден така:

--packages org.mongodb.spark:mongo-spark-connector_2.11:2.2.0\

Това може да се промени в бъдеще, така че когато използвате конектора, трябва да проверите за съвместимост с използваната версия на Spark.




  1. Redis
  2.   
  3. MongoDB
  4.   
  5. Memcached
  6.   
  7. HBase
  8.   
  9. CouchDB
  1. Изтичане на памет в MongoDB курсора (OutOfMemory)?

  2. Как да обединим няколко полета в колекция?

  3. създаване на група и анализиране на данни от списък с масиви в birt

  4. Динамични ключове след $group by

  5. пролетни данни mongodb id картографиране на полета