Size: a a a

2020 December 07

К

Кирилл in Scrapy
Можешь еще последовательные запросы попробовать, если там проблемы останется, то значит дело не в этом
источник

D

Dmitry in Scrapy
Ок. Поэкспериментирую. Хотел просто понять они концептуально вообще должны путаться, или нет? Но я так понял, что никто не уверен :)
источник

МС

Михаил Синегубов... in Scrapy
Dmitry
А если dont_merge_cookies=true поставить, то по-идее это должно решить проблему?
"To create a request that does not send stored cookies and does not store received cookies, set the dont_merge_cookies key to True in request.meta."

кажется оно по другому работатет
источник

К

Кирилл in Scrapy
Dmitry
Ок. Поэкспериментирую. Хотел просто понять они концептуально вообще должны путаться, или нет? Но я так понял, что никто не уверен :)
Конечно не должны, это был бы баг
источник

D

Dmitry in Scrapy
Кирилл
Конечно не должны, это был бы баг
Понял, спасибо.
источник

D

Dmitry in Scrapy
Михаил Синегубов
"To create a request that does not send stored cookies and does not store received cookies, set the dont_merge_cookies key to True in request.meta."

кажется оно по другому работатет
Почему? Ровно так. Я прописываю свои куки в хедер, а сохраненные не передаются и не получаются ни в какие джары.
источник

МС

Михаил Синегубов... in Scrapy
Ну, хз. Мне показалось что ты не через Хидер передаеш
источник

К

Кирилл in Scrapy
Я думаю Дмитрий про теорию http, что куки в хэдэрах передаются
источник

A

Andrii in Scrapy
'DOWNLOADER_MIDDLEWARES': {
       'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None,
       'scrapy_user_agents.middlewares.RandomUserAgentMiddleware': 700,
       'rotating_proxies.middlewares.RotatingProxyMiddleware': 610,
       'rotating_proxies.middlewares.BanDetectionMiddleware': 620,
       },
почему не ротейтит ЮА ?
источник

A

Andrii in Scrapy
с каждим запросом
источник

К

Кирилл in Scrapy
Andrii
'DOWNLOADER_MIDDLEWARES': {
       'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None,
       'scrapy_user_agents.middlewares.RandomUserAgentMiddleware': 700,
       'rotating_proxies.middlewares.RotatingProxyMiddleware': 610,
       'rotating_proxies.middlewares.BanDetectionMiddleware': 620,
       },
почему не ротейтит ЮА ?
источник

К

Кирилл in Scrapy
Ты это делал?
источник

A

Andrii in Scrapy
да, вот так у меня
custom_settings = {
       "ROTATING_PROXY_LIST": [
       'http://22225',
       ],
       'DOWNLOADER_MIDDLEWARES': {
       'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None,
       'scrapy_user_agents.middlewares.RandomUserAgentMiddleware': 700,
       'rotating_proxies.middlewares.RotatingProxyMiddleware': 610,
       'rotating_proxies.middlewares.BanDetectionMiddleware': 620,
       },
       'DOWNLOAD_DELAY': 0.7,
       'HTTPCACHE_ENABLED': True,
       'RANDOM_UA_PER_PROXY': True
   }
источник

ГП

Глеб Пономарев... in Scrapy
Народ посоветуйте норм уроки по splash + scrapy
источник

B

Bulatbulat48 in Scrapy
Глеб Пономарев
Народ посоветуйте норм уроки по splash + scrapy
для начала лучше освоить документацию по scrapy
источник

A

Andrii in Scrapy
Глеб Пономарев
Народ посоветуйте норм уроки по splash + scrapy
источник

К

Кирилл in Scrapy
Andrii
да, вот так у меня
custom_settings = {
       "ROTATING_PROXY_LIST": [
       'http://22225',
       ],
       'DOWNLOADER_MIDDLEWARES': {
       'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None,
       'scrapy_user_agents.middlewares.RandomUserAgentMiddleware': 700,
       'rotating_proxies.middlewares.RotatingProxyMiddleware': 610,
       'rotating_proxies.middlewares.BanDetectionMiddleware': 620,
       },
       'DOWNLOAD_DELAY': 0.7,
       'HTTPCACHE_ENABLED': True,
       'RANDOM_UA_PER_PROXY': True
   }
Тогда хз, может, что-то с обновлениями поломалось, пакет то старый. Дэбаж
источник

П

Пастырь in Scrapy
Ребят. Кто работал со Scrapy, подскажите пжлст куда двигаться
Необходимо натравить паука на сайт, собрать все ссылки, и если они включают в себя /profiles/ - распарсить данные.
использовал rule, но проблема в том, что данные находятся в глубине примерно 3-4 и правила сразу отсекают все ссылки на главной
источник

AR

Andrey Rahmatullin in Scrapy
не используй rule
источник

К

Кирилл in Scrapy
Пастырь
Ребят. Кто работал со Scrapy, подскажите пжлст куда двигаться
Необходимо натравить паука на сайт, собрать все ссылки, и если они включают в себя /profiles/ - распарсить данные.
использовал rule, но проблема в том, что данные находятся в глубине примерно 3-4 и правила сразу отсекают все ссылки на главной
Или сразу давай такую страницу чтоб там были подходящие ссылки, или пиши ещё правила, чтоб довести паука до нужных страниц на которых есть нужные ссылки
источник