еще вопрос про кастомные метрики: заметил в примере реализации accuracy что вычисление идет итеративно через цикл, почему это не делается по "питоновски" когда используется numpy или просто через слайсы производятся операции ?
Всем привет, делаю бинарную классификацию с параметром Logloss, в обучаюшей выборке примеров одного класса значительно больше примеров второго класса (на пару порядков), и в результате обучения модель везде предсказывает только первый класс. Есть ли какие-то общие методы как готовить данные / указать какие-то параметры чтобы объекты второго класса тоже нормально детектились моделью? Кажется странным в обучающей выборке откидывать часть данных, относящихся к первому классу, но другого способа я пока не нашел.
Еще вариант поварьировать порог, у вас, скорее всего, класс 1 предсказывается, если модель выдала предсказание > 0.5, можно получить другие предсказания, если вы будете относить к первому классу по другому порогу