运行单元测试
要运行单元测试,请运行 run-tests.sh
脚本。您需要设置以下环境变量:
SPARK_HOME
:您的本地 Apache Spark 副本。有关如何下载 Apache Spark 的详细信息,请查看.travis.yml
和download_spark_dependencies.sh
。HYPEROPT_FMIN_SEED
:随机种子。您需要从.travis.yml
中获取其值。
例如:
hyperopt$ HYPEROPT_FMIN_SEED=3 SPARK_HOME=/usr/local/lib/spark-2.4.4-bin-hadoop2.7 ./run_tests.sh
要运行单个文件的单元测试,可以将文件名作为参数添加,例如:
hyperopt$ HYPEROPT_FMIN_SEED=3 SPARK_HOME=/usr/local/lib/spark-2.4.4-bin-hadoop2.7 ./run_tests.sh hyperopt/tests/test_spark.py
要运行除 test_spark.py
之外的所有单元测试,请添加 --no-spark
标志,例如:
hyperopt$ HYPEROPT_FMIN_SEED=3 ./run_tests.sh --no-spark
要运行除 test_spark.py
之外的单个文件的单元测试,请在 --no-spark
标志后添加文件名作为参数,例如:
hyperopt$ HYPEROPT_FMIN_SEED=3 ./run_tests.sh --no-spark test_base.py