jdk 버전 : jdk-8u321-linux-x64
스파크 버전 : spark-3.2.1-bin-hadoop3.2
설정 파일 : spark-env.sh
위치 : spark-env.sh 파일은 보통 스파크 설치 파일의 conf 폴더 안에 있다.
예를 들어서 내가 /home 에 스파크를 설치했으면
/home/spark/conf/spark-env.sh 가 있을 것이다
export SPARK_WORKER_INSTANCES=3
위와 같이 설정하면 워커는 3개가 된다
export SPARK_WORKER_INSTANCES=2
위와 같이 설정하면 워커는 2개가 된다
export SPARK_WORKER_INSTANCES=1
위와 같이 설정하면 워커는 1개가 된다
export SPARK_WORKER_INSTANCES=3
export SPARK_WORKER_INSTANCES=2
'Data Engineering > Spark' 카테고리의 다른 글
[Spark] 스파크 메인 웹 UI (스파크 마스터) 포트 변경하는 방법 (0) | 2022.03.30 |
---|---|
[Spark] 스파크 스탠드얼론 워커의 코어와 메모리 설정하는 방법 (stand-alone) (0) | 2022.03.30 |
[Hadoop] 하둡 core-site.xml 설정파일 확인하기 (0) | 2022.03.25 |
[Spark] 스파크 실행시 설정값 우선순위 (0) | 2022.03.25 |
[Zookeeper] 주키퍼 설정파일 zoo.cfg 정리 (0) | 2022.03.25 |