Как правильнее реализовать с точки зрения архитектуры? У меня есть две функции parse
def parse(self, response):
.....
yield scrapy.Request(details_link, callback=self.details, cb_kwargs=dict(item=item.copy()))
def details(self, response, item):
yield item
Мне нужно минимизировать число обращений к сайту. Чтобы если объект есть в Mysql базе и он не изменился(это можно понять в первой функции parse), то итем дропается. Если изменился то проваливается глубже и возвращает весь итем. Причем если изменилась только цена, то первой функции тоже вполне достаточно, чтобы обновить объект в базе. У меня настроен pipeline на сохранение в базу. Как то можно ему дополнительные параметры передать, чтобы в зависимости от них обновить объект частично, полностью, создать новый или ничего не делать?