Size: a a a

2020 October 22

ЛГ

Лев Гареев in Scrapy
Кирилл
Хз, код вроде выглядит нормально. Дополнительные запросы не должны влиять на предыдущие, если они нормально отрабатывались раньше, то и сейчас должны. Скорее всего проблема в подсчетах
я просто перезапускал код
источник

ЛГ

Лев Гареев in Scrapy
несколько раз
источник

ЛГ

Лев Гареев in Scrapy
Кирилл
Хз, код вроде выглядит нормально. Дополнительные запросы не должны влиять на предыдущие, если они нормально отрабатывались раньше, то и сейчас должны. Скорее всего проблема в подсчетах
вот без перелистывания
источник

ЛГ

Лев Гареев in Scrapy
и все оки, 20 ссылок)
источник

ЛГ

Лев Гареев in Scrapy
мистика сранная
источник

К

Кирилл in Scrapy
Ну видишь оно в конце, может и там так же
источник

К

Кирилл in Scrapy
Не спамь сообщениями, в одном пиши
источник

ЛГ

Лев Гареев in Scrapy
Извините, дурная привычка. Нашел ссылку, где надо всего 100 достать, пойду за сигаретами и аущу полный цикл до конца по ней
источник

G

Georgiy in Scrapy
Лев Гареев
 for i in range(len(full_product_url)):
           yield scrapy.Request(full_product_url[i], callback=self.price_parse,
                                meta={'product_url': full_product_url[i]})
       next_page = response.xpath('//div[@class="pagination span12"]//li[last()]/a/@href').extract_first()
       if next_page:
           yield scrapy.Request(
               response.urljoin(next_page),
               callback=self.parse
           )
добавь priority=1 в запрос, где callback=self.price_parse .после этого путаницы с порядком должно стать меньше
источник

ЛГ

Лев Гареев in Scrapy
Georgiy
добавь priority=1 в запрос, где callback=self.price_parse .после этого путаницы с порядком должно стать меньше
Ты меня спас) Спасибо! Стали появляться 3, 2, 1, 0
источник

SS

Stepan Smirnov in Scrapy
Dr. Bot
так амазон вроде даже рекомендуют с aws парсить. ибо айпи в белом листе )
они свои ip будут банить/каптчи выкидывать если сильно их нагружать?
источник

S

SoHard 🎄 in Scrapy
Лев Гареев
 for i in range(len(full_product_url)):
           yield scrapy.Request(full_product_url[i], callback=self.price_parse,
                                meta={'product_url': full_product_url[i]})
       next_page = response.xpath('//div[@class="pagination span12"]//li[last()]/a/@href').extract_first()
       if next_page:
           yield scrapy.Request(
               response.urljoin(next_page),
               callback=self.parse
           )
О боже
источник

S

SoHard 🎄 in Scrapy
Не поменшало бы понять что так делать не надо
источник

S

SoHard 🎄 in Scrapy
Эта итерация по списку как будто из си
источник

К

Кирилл in Scrapy
В си не так
источник

AR

Andrey Rahmatullin in Scrapy
я сразу написал что переписать на питон
источник

AR

Andrey Rahmatullin in Scrapy
Лев Гареев
Ты меня спас) Спасибо! Стали появляться 3, 2, 1, 0
приоритет не влияет на то, скачается ли страница вообще
источник

МС

Михаил Синегубов... in Scrapy
народ, всем драсть.
про авито, переписал на реквесты. Вообще ничего не перенастраивал по заголовкам и прочему - работает, сцука.
так что собака роется где то в скрапи....
источник

AR

Andrey Rahmatullin in Scrapy
запустил этот код - 'item_scraped_count': 39
источник

AR

Andrey Rahmatullin in Scrapy
и чо вот было страдать
источник