Нужно менять значение flush.size - в этом случае в файл будет записано такое количество записей, которое укажешь в данном параметре. Но есть нюанс. Допустим это значение 100000. Коннектор записал 50000. Ждет еще данные и, о чудо, падает. Считай, что эти данные (50000 типа записанных) ты потерял. Лечится параметром
rotate.interval.ms - в данном случае данные будут коммитиься в интервалом, уазанном в этом параметре. Но файл будет закрываться и создаваться новый. Но: мы ж хотим, чтобы они были примерно одинакового размера в hdfs... Вот такого не получится