MongoDB
 sql >> база данни >  >> NoSQL >> MongoDB

Spark не изпълнява задачи

Ако някой се е натъкнал на това като мен и работи върху клъстер, но има нужда да изпълнява някои локални скриптове на целеви възел .

РЕШЕНИЕ

Най-лесното безпогрешно решение би било да зададете PYSPARK_PYTHON env в началото на скрипта, тъй като в моя случай pyspark-shell не може да го вземе, дори ако е конфигуриран правилно в $SPARK_HOME/conf/spark-env.sh или дори в spark-defaults.conf и ~/.bashrc (и двете по-малко желани от първата опция).

import os
os.environ['PYSPARK_PYTHON'] = '/path/to/python3' # Worker executable
os.environ['PYSPARK_DRIVER_PYTHON'] = '/path/to/python3' # Driver executable

ВЪЗМОЖНА ПРИЧИНА

Не съм напълно сигурен, но предполагам, че pyspark, инсталиран от pip във вашия venv, е различен от този, който всъщност е зареден от самия Spark и не намира правилната променлива env, прибягвайки до изпълнимите файлове на Python 2.7 по подразбиране, въпреки че го конфигурира навсякъде.



  1. Redis
  2.   
  3. MongoDB
  4.   
  5. Memcached
  6.   
  7. HBase
  8.   
  9. CouchDB
  1. MongoDB $in оператор за заявка

  2. не може да преобразува от 'MongoDB.Driver.IMongoCollection<>' в 'System.Collections.Generic.IEnumerable<>'

  3. Mongorestore, от сървър за производство на метеор до локален

  4. MongoDB заявка за главна първа буква в съществуваща база данни

  5. Как да използвам MongoDB Ruby Driver, за да направя група (групиране по)?