일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- Slick
- confluent
- scala 2.10
- 플레이 프레임워크
- RabbitMQ
- reactive
- spring-batch
- enablekafkastreams
- Logstash
- schema registry
- statestore
- Spring
- aws
- spring-kafka
- coursera
- scala
- 카프카
- Elasticsearch
- kafka interactive query
- gradle
- avo
- play framework
- spring-cloud-stream
- Elk
- kafkastreams
- kafka streams
- kafkastream
- 한빛미디어
- Kafka
- springboot
- Today
- Total
b
Schema Registry , Schema Evolution 본문
몇 달전에 메모장에 적어놨던 내용인데, 지우면 또 까먹을 듯 해서 기록으로 남김
* 기존 Java Class에서 Avro Schema 획득하기
ReflectData.get().getSchema 를 이용하여, 쉽게 json형식의 AvroSchema를 획득할 수 있다. (검증은 꼭 할것)
아쉽지만 record 타입을 자동으로 찾아서 해준다거나, vargs 형식으로 getSchema를 사용할 수는 없다.
Schema schema = ReflectData.get().getSchema(Order.class);
System.out.println(schema.toString(true));
* Schema Evolution
1. backward : 새스키마로 이전 데이터를 읽을 수 있다.
ex) 새 field를 추가할때 default value를 넣는다. 필드가 없다면 default value를 사용한다. 즉 데이터는 old type인데 읽는 쪽이 new type
2. forward : 스키마가 변하지 않는데, 새로운 스키마의 데이터가 들어오면 ignore 한다.
'forward' : we want forward compatible when we want to make a data stream evolve without chaning our downstream consumers . 즉, 데이터는 new type인데 읽는 쪽이 old type
3. full : 1,2번 두개 합친거
- 필드를 추가할 때에는 default를 무조건 넣어야 한다(backward position)
- default가 있는 필드만 remove 할 수 있다.
* avro schema 를 사용하는 추천 가이드
1. PK를 사용해라
2. remove될수 있는 필드라면 default를 제공하라
3. enum은 주의해서 사용하라. - 시간이 흘러도 evolve 할 수 없다?
4. rename 하지 말것, 필요하다면 다른 필드를 넣어라
5. 항상 default value를 쓰고, required field는 삭제하지 마라