일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
- ELK스택
- DB
- ElasticSearch
- Cloud
- openai
- Autoloader
- 프로그래머스
- 데이터검증
- Elk
- Kafka
- subnet
- airflow
- json
- python
- 엘라스틱서치
- 파이썬
- 백준
- EC2
- 데이터브릭스
- prompt
- AWS
- 코딩테스트
- databricks
- sql
- LLM
- VPC
- spark
- 인프런
- associate
- 깃허브
- Today
- Total
목록Kafka (2)
데이터 히스토리북 (Data History Book)
kafka description 💡 각 DB와 시스템 사이에 kafka를 도입하여 보내는 쪽(producer)과 받는 쪽 (consumer) 신경 쓸 필요 없이 kafka에서 중개역할 수행 controller 각 broker에게 담당 파티션 할당 수행 broker 동작 모니터링 관리 kafka broker (=server) 실행된 Kafka application server를 의미함 producerdprp message를 받아서 offset(consumer에서 메시지를 어디부터 어디까지 읽었는지 저장하는 값) 할당 만약 offset=4 인 경우, offset 0,1,2,3은 메시지를 읽은 것으로 추정 partition내의 한 칸, offset, index apache zookeeper (=message ..
Upbit 실시간 비트 코인 데이터를 Kafka Producer로 부터 Consumer로 보내고 Mysql DB에 적재한 뒤 한 시간 한번 실행하는 Schedule는 Airflow 스케줄로 배치하는 Pipeline구축 🛠️ 사용 기술 및 라이브러리 Pandas AWS S3 Mysql Kafka Airflow 💻 담당한 기능 (AWS, Kafka, Airflow , Mysql) 작업 내용 1. AWS EC2에 kafka, airflow, mysql install 2. pyupbit를 kafka로 연동 3. mysql db에 적재 4.airflow로 1시간마다 배치 스케줄링 설정 🧨 Error mysql.connector.errors.InterfaceError: 2003: Can't connect to My..