есть ощущение, что во втором случае десериализованный объект в виде json`a отправляется как коллекция строк в виде массива байт. и его принять надо как коллекцию строк и пропускать через маппер
но, повторюсь, другие запросы работают - данные десериализуются. уточню - десериализуются в объекты других классов. но все классы выполнены компиляцией в автоматическом режиме, они единообразны и уже многократно отработаны
Вот. Jsonseriizer в спринге информацию о типе (классе) прописывает в хедере. Когда используешь spring cloud stream мне кажется по умолчанию используется json serializer.
Когда используешь spring-kafka (твой второй пример) то по умолчанию используется кафковский Bytearrayserializer (не помню точное название, пишу с дивана и с телефона)
а кто-нибудь использовал acknowledgement.nack() в спринг кафке, я ведь правильно понимаю, что сообщение будет отброшено, через таймаут снова вычитано и так будет вечный кайф?
Спасибо, разобрался. Всё именно так. Вопрос: могу ли я настроить десериализатор так, чтобы он автоматически распознавал тип из поступившего массива байт?