как я понимаю, принцип должен был такой:
1) если модель плохо работает на семпле с качественными данными — мы наказываем её сильнее, увеличивая loss, умножая на высокий вес сэмпла
2) если модель плохо сработала на семпле с плохими данными, то мы сильно её за это не ругаем, умножая loss на 1 или, может, на значение меньше 1
имеет такая теория право на жизнь? в классификации веса юзают активно как по классам, так и по семплам, а вот по регрессии особо инфы не нашел