运行单元测试

要运行单元测试,请运行 run-tests.sh 脚本。您需要设置以下环境变量:

  • SPARK_HOME:您的本地 Apache Spark 副本。有关如何下载 Apache Spark 的详细信息,请查看 .travis.ymldownload_spark_dependencies.sh
  • HYPEROPT_FMIN_SEED:随机种子。您需要从 .travis.yml 中获取其值。

例如:

hyperopt$ HYPEROPT_FMIN_SEED=3 SPARK_HOME=/usr/local/lib/spark-2.4.4-bin-hadoop2.7 ./run_tests.sh

要运行单个文件的单元测试,可以将文件名作为参数添加,例如:

hyperopt$ HYPEROPT_FMIN_SEED=3 SPARK_HOME=/usr/local/lib/spark-2.4.4-bin-hadoop2.7 ./run_tests.sh hyperopt/tests/test_spark.py

要运行除 test_spark.py 之外的所有单元测试,请添加 --no-spark 标志,例如:

hyperopt$ HYPEROPT_FMIN_SEED=3 ./run_tests.sh --no-spark

要运行除 test_spark.py 之外的单个文件的单元测试,请在 --no-spark 标志后添加文件名作为参数,例如:

hyperopt$ HYPEROPT_FMIN_SEED=3 ./run_tests.sh --no-spark test_base.py