일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
- DB
- Cloud
- sql
- 엘라스틱서치
- airflow
- EC2
- Elk
- 파이썬
- 데이터브릭스
- databricks
- prompt
- 데이터검증
- Kafka
- Autoloader
- 인프런
- ElasticSearch
- ELK스택
- subnet
- python
- AWS
- 깃허브
- LLM
- 코딩테스트
- openai
- json
- 백준
- associate
- spark
- VPC
- 프로그래머스
- Today
- Total
목록airflow (2)
데이터 히스토리북 (Data History Book)
사이드 프로젝트를 위해서 ec2에 mysql,kafka,airflow를 설치했다. airflow 설치하는 방법에 대해 기록하려고 한다. python3 를 통해 가상환경 생성 해당 작업만의 패키지를 설치하기 위해 가상환경을 생성하는 작업을 먼저 진행한다. # 가상환경 생성 $ python3 -m venv venv-test-airflow # 가상환경 실행 $ source venv-test-airflow/bin/activate Airflow 설치 $ pip install apache-airflow SQLite 초기화 airflow의 db는 기본으로 sqlite를 쓰고 있으며, db를 초기화 한다 $ airflow db init 유저 계정 생성 # 계정 생성 명령어 (\\ 앞에 띄어쓰기 있어야함) $ airfl..
Upbit 실시간 비트 코인 데이터를 Kafka Producer로 부터 Consumer로 보내고 Mysql DB에 적재한 뒤 한 시간 한번 실행하는 Schedule는 Airflow 스케줄로 배치하는 Pipeline구축 🛠️ 사용 기술 및 라이브러리 Pandas AWS S3 Mysql Kafka Airflow 💻 담당한 기능 (AWS, Kafka, Airflow , Mysql) 작업 내용 1. AWS EC2에 kafka, airflow, mysql install 2. pyupbit를 kafka로 연동 3. mysql db에 적재 4.airflow로 1시간마다 배치 스케줄링 설정 🧨 Error mysql.connector.errors.InterfaceError: 2003: Can't connect to My..