Size: a a a

Data Science Chat

2021 September 14

S

Somebody in Data Science Chat
Видимо ln(y)=ln(y^)+ln(eps)
При преобразовании дают
y=y^*eps, а не y=y^+eps, как это должно быть...
источник

S

Somebody in Data Science Chat
Точнее не так
источник

S

Somebody in Data Science Chat
А может и так...
Прологарифмировали таргеты, оценили каким-то ln(y^), получили ошибку ln(eps), здесь R2 отцрицательным быть не должен, а вот при возведении e в степень...
Получится не совсем та гиперплоскость в исходном пространстве, стало быть возникают ненулевые ковариации
Наверное, так
источник

S

Somebody in Data Science Chat
Наверное
источник

A

Andrey in Data Science Chat
Всего-то нужно выполнить потенцирование предиктов, взять исходные таргеты и рассчитать R^2 по формуле
источник

A

Andrey in Data Science Chat
Сумму квадратов разностей предиктов и среднего таргета поделить на сумму квадратов разностей таргета и среднего таргета
источник

A

Andrey in Data Science Chat
Или как 1 - MSE/var(y)
источник

S

Somebody in Data Science Chat
Ну и получится ровно y=y^*eps
источник

A

Andrey in Data Science Chat
Лолшто?
источник

S

Somebody in Data Science Chat
Логарифмируешь y
Оцениваешь, получаешь
ln(y)=ln(y^)+ln(eps)
Справа у нас такие обозначения оценки и остатка
Экспоненту берем в степени этого дела, получаем какую-то хрень
источник

A

Andrey in Data Science Chat
Я искренне не понимаю, к чему тут умножение на ошибку. А на новых данных, где истинного значения нет, на что множить будешь?
источник

S

Somebody in Data Science Chat
Если без обозначений ln(y)=y^+eps
y=exp(y^+eps)
источник

S

Somebody in Data Science Chat
С чего вдруг мне множить что-то на новые данные, где истинных значений нет?
А MSE как тогда считать? А любую другую метрику? Это тут вообще к чему?
источник

A

Andrey in Data Science Chat
Если ln(y)=2, то y = e^2. Независимо от того, какая там ошибка
источник

S

Somebody in Data Science Chat
И..?
источник

A

Andrey in Data Science Chat
Это правильная форма записи модели, а не формула вычисления предикта
источник

S

Somebody in Data Science Chat
Я вот про это
источник

S

Somebody in Data Science Chat
А не про то, что предикты нельзя в степень экспоненты засунуть
источник

A

Andrey in Data Science Chat
MSE и все производные метрики вычисляются абсолютно одинаково для модели на исходных данных и для модели на логарифмах, где добавляется этап обратного преобразования
источник

S

Somebody in Data Science Chat
Ты как-то выпал из диалога, кажется
Или я
источник