1. 사용자는 Spark를 실행 2. Spark-Submit 으로 애플리케이션 제출 3. Spark Driver Process 가 Main()을 실행 4. SparkContext를 생성 5. SparkContext와 Spark Cluster Manager 연결 6. Spark Driver Process 가 Spark Cluster Manager 로 부터 Executor 실행을 위한 리소스 요청 7. Spark Context는 작업 내용을 task 단위로 분할하여 Executor 에 전송 8. 각 Executor는 작업을 수행 9. 결과를 저장
Step 1) Spark의 conf 폴더에서 metrics.properties 파일 생성 후 다음 내용 작성 *.sink.prometheusServlet.class=org.apache.spark.metrics.sink.PrometheusServlet *.sink.prometheusServlet.path=/metrics/prometheus master.sink.prometheusServlet.path=/metrics/master/prometheus applications.sink.prometheusServlet.path=/metrics/applications/prometheus Step 2) spark-submit 실행시 다음 명령어 추가 --conf spark.ui.prometheus.enabled=tr..
Creating zookeeper-navigator ... done Creating spark-master-1 ... done Creating spark-master-2 ... done WARNING: The "spark-slave" service specifies a port on the host. If multiple containers for this service are created on a single host, the port will clash. Creating zeppelin ... Creating 3_spark-cluster-zookeeper_spark-slave_1 ... Creating 3_spark-cluster-zookeeper_spark-slave_1 ... error Crea..