일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- avo
- reactive
- kafkastream
- Slick
- scala
- confluent
- Elasticsearch
- scala 2.10
- play framework
- kafka streams
- enablekafkastreams
- kafka interactive query
- RabbitMQ
- spring-cloud-stream
- aws
- 한빛미디어
- statestore
- Spring
- gradle
- 플레이 프레임워크
- Kafka
- spring-batch
- spring-kafka
- springboot
- kafkastreams
- schema registry
- 카프카
- Logstash
- coursera
- Elk
- Today
- Total
목록Avro (2)
b
logstash 에는 이미 kafka input 모듈이 있기 때문에 쉽게 카프카 메시지를 엘라스틱에 저장할 수 있다. ( https://www.elastic.co/guide/en/logstash/current/plugins-inputs-kafka.html )몇가지 주의할 점 1) 주문번호등을 Partition Key로 이용할 경우에, 데이터가 어느 파티션에 들어가 있는지, Offset은 얼마인지도 중요한 디버깅 요소가 된다. 이러한 데이터도 함께 elasticsearch 에 넣으려면 add_field를 이용한다. 우선 input 쪽에 아래의 설정을 추가하여 메타 정보를 사용할 수 있게 한다input {kafka {decoreate_events => true}} 그리고 filter 영역에 아래처럼 추가하여..
GenericRecordFile/String 기반의 Schema 에서 Avro Object를 생성하는 것을 말한다. 이 방법은 runtime 에서 실패할 수 있기 때문에 사용에서는 추천되는 방법은 아니지만, 쉽게 사용 할 수 있는 장점이 있다. Schema{ "type": "record", "namespace": "com.example", "name": "user", "fields": [ { "name": "name", "type": "string" } ] }다시피 GenericRecordBuilder builder = new GenericRecordBuilder(schemaString); builder.set("name", "bistros"); GenericData.Record bistros = bui..