2_bash_operator.py
from airflow import DAG
from airflow.operators.bash_operator import BashOperator
from datetime import datetime
default_args = {
'owner' : 'ParkGyeongTae'
}
dag = DAG (
dag_id = '2_bash_operator',
start_date = datetime(2022, 5, 4),
schedule_interval = '* * * * *',
catchup = False,
tags = ['test'],
description = 'Bash Operator Sample',
default_args = default_args
)
sleep_1 = BashOperator (
task_id = 'sleep_1',
bash_command = 'sleep 10',
dag = dag
)
sleep_2 = BashOperator (
task_id = 'sleep_2',
bash_command = 'sleep 10',
dag = dag
)
sleep_3 = BashOperator (
task_id = 'sleep_3',
bash_command = 'sleep 10',
dag = dag
)
sleep_4 = BashOperator (
task_id = 'sleep_4',
bash_command = 'sleep 5',
dag = dag
)
sleep_5 = BashOperator (
task_id = 'sleep_5',
bash_command = 'sleep 5',
dag = dag
)
sleep_6 = BashOperator (
task_id = 'sleep_6',
bash_command = 'sleep 5',
dag = dag
)
sleep_1 >> sleep_2 >> sleep_3 >> sleep_4 >> sleep_5 >> sleep_6
'Data Engineering > Airflow' 카테고리의 다른 글
[Airflow] 아파치 에어플로우는 워커간의 코드를 동기화 하는 기능이 없다. (0) | 2022.10.02 |
---|---|
[Airflow] Bash Operator로 간단한 echo DAG 만들어보기 (0) | 2022.05.04 |
[Airflow] Python Operator로 간단한 Dag 만들어보기 (0) | 2022.05.04 |
[Airflow] airflow에 연결된 postgreSQL 테이블 확인하기 (0) | 2022.04.18 |
[Airflow] 다양한 Dag Graph 실습해보자 (Bash operator) (0) | 2022.04.18 |