일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- Slick
- confluent
- Logstash
- statestore
- RabbitMQ
- avo
- 플레이 프레임워크
- spring-batch
- scala 2.10
- 한빛미디어
- spring-kafka
- Kafka
- scala
- Elk
- Spring
- enablekafkastreams
- springboot
- kafka streams
- schema registry
- Elasticsearch
- play framework
- kafkastream
- reactive
- coursera
- aws
- kafkastreams
- gradle
- 카프카
- kafka interactive query
- spring-cloud-stream
- Today
- Total
b
Schema Registry , Schema Evolution 본문
몇 달전에 메모장에 적어놨던 내용인데, 지우면 또 까먹을 듯 해서 기록으로 남김
* 기존 Java Class에서 Avro Schema 획득하기
ReflectData.get().getSchema 를 이용하여, 쉽게 json형식의 AvroSchema를 획득할 수 있다. (검증은 꼭 할것)
아쉽지만 record 타입을 자동으로 찾아서 해준다거나, vargs 형식으로 getSchema를 사용할 수는 없다.
Schema schema = ReflectData.get().getSchema(Order.class);
System.out.println(schema.toString(true));
* Schema Evolution
1. backward : 새스키마로 이전 데이터를 읽을 수 있다.
ex) 새 field를 추가할때 default value를 넣는다. 필드가 없다면 default value를 사용한다. 즉 데이터는 old type인데 읽는 쪽이 new type
2. forward : 스키마가 변하지 않는데, 새로운 스키마의 데이터가 들어오면 ignore 한다.
'forward' : we want forward compatible when we want to make a data stream evolve without chaning our downstream consumers . 즉, 데이터는 new type인데 읽는 쪽이 old type
3. full : 1,2번 두개 합친거
- 필드를 추가할 때에는 default를 무조건 넣어야 한다(backward position)
- default가 있는 필드만 remove 할 수 있다.
* avro schema 를 사용하는 추천 가이드
1. PK를 사용해라
2. remove될수 있는 필드라면 default를 제공하라
3. enum은 주의해서 사용하라. - 시간이 흘러도 evolve 할 수 없다?
4. rename 하지 말것, 필요하다면 다른 필드를 넣어라
5. 항상 default value를 쓰고, required field는 삭제하지 마라