--py-files
指定依赖模块、文件。--archives
指定虚拟环境。--py-files
的方式指定。--archives
的方式可以直接打包使用整个开发测试环境,这种方式支持编译安装 C 相关的依赖,推荐依赖环境较为复杂时使用。--py-files
依赖包pip install -i https://mirrors.tencent.com/pypi/simple/ <packages...> -t depcd depzip -r ../dep.zip .
python3 -m venv pyvenvsource pyvenv/bin/activate(pyvenv)> pip3 install -i [https://mirrors.tencent.com/pypi/simple/](https://mirrors.tencent.com/pypi/simple/) packages(pyvenv)> deactivatetar czvf pyvenv.tar.gz pyvenv/
conda create -y -n pyspark_env conda-pack <packages...> python=<3.9.x>conda activate pyspark_envconda pack -f -o pyspark_env.tar.gz
pyvenv.tar.gz
上传到 cos 中。bash pyspark_env_builder.sh -hUsage:pyspark-env-builder.sh [-r] [-n] [-o] [-h]-r ARG, the requirements for python dependency.-n ARG, the name for the virtual environment.-o ARG, the output directory. [default:current directory]-h, print the help info.
参数 | 描述 |
-r | 指定 requirements.txt 位置 |
-n | 指定虚拟环境名称,默认 py3env |
-o | 指定虚拟环境保存本地目录,默认当前目录 |
-h | 打印 help 信息 |
# requirement.txtrequests# 执行如下命令bash pyspark_env_builder.sh -r requirement.txt -n py3env
--archives
参数填入虚拟环境的完整路径, #号后面为解压文件夹名称。--config
参数中指定运行环境参数。spark.pyspark.python = venv/pyspark_venv/bin/python3
spark.pyspark.python = venv/bin/python3
spark.pyspark.python = venv/bin/python3
本页内容是否解决了您的问题?