Size: a a a

2021 May 30

DA

Danila Artyukhov in Scrapy
и после каждой итерации по страницам проверять наличие контента?
источник

AR

Andrey Rahmatullin in Scrapy
ну уж точно не "заполнить start_urls в start_requests"
источник

DA

Danila Artyukhov in Scrapy
А как будет правильно
источник

AR

Andrey Rahmatullin in Scrapy
если вопрос в том как собрать все страницы не зная заранее их количество, то переходить на следующую страницу с предыдущей
источник

DA

Danila Artyukhov in Scrapy
Хорошо. Сейчас попробую
источник

ЕJ

Евгений Jen in Scrapy
при смене прокси скорее всего запросы будут фейлиться ConnecionError
и в scrappy для таких случаев должны быть настройки ретраев и таймауты между ретараями если страница не прогрузилась

вот выставить задержку между ретраями секунд 30
источник

AR

Andrey Rahmatullin in Scrapy
Только вот нет такого
источник

ЕJ

Евгений Jen in Scrapy
может есть какой то хук на обработку ошибок
источник

OS

Oleg Shleiko in Scrapy
Через тот же мидлвар смотри response
источник

AR

Andrey Rahmatullin in Scrapy
Есть, но не поможет
источник

(

(o_O) in Scrapy
источник

AR

Andrey Rahmatullin in Scrapy
Ну да
источник

МС

Михаил Синегубов... in Scrapy
народ, вопрос, кто как делает
есть несколько (пока, в дальнейшем, несколько десятков) пауков. Инкрементный сбор (нужны только новые). Работа через базу данных. С этим все норм.
Кто что посоветует, в плане запуска таких пауков? Желательно - вебморду.... Или, как сами работаете с такими задачами, может запускать из консольки и не бить голову?
источник

AV

Anatoli Valenda in Scrapy
Airflow подойдёт для такого?
источник

AV

Anatoli Valenda in Scrapy
Ещё я как-то натыкался на скрапи.д с веб интерфейсом. Могу попробовать найти
источник

AV

Anatoli Valenda in Scrapy
pip install scrapydweb
источник

AV

Anatoli Valenda in Scrapy
Надеюсь поможет
источник
2021 May 31

SS

Stepan Smirnov in Scrapy
А "работа через бд" что значит?
источник

МС

Михаил Синегубов... in Scrapy
Промежуточные данные и результат в постгресе.
Хз, важно это или нет
источник

SS

Sergey Sergey in Scrapy
Я просто написал на питоне скрипт, который сабпроцессом вызывает пауки в нужном порядке или одновременно. И из крона его дергаю
источник