Size: a a a

2021 May 28

A

Andrii in Scrapy
Впихнуть реквестс в паука 😂
источник

AV

Anatoli Valenda in Scrapy
Я думал не скрапи использовать, но в тот момент, когда всплыла необходимость делать последовательно, уже весь код был написан. Там защита на это завязана и можно бан отхватить.
источник

МС

Михаил Синегубов... in Scrapy
ну, это смотри сам. Я уверен что скрапи можно заставить делать то, что тебе надо. Но не уверен, что это будет "дешевле" (и по времени в том числе), чем переписать на реквесты.
источник

(

(o_O) in Scrapy
На уродца:
class SeqSpider(scrapy.Spider):

   urls = [
       'http://example.com/1',
       'http://example.com/2',
       'http://example.com/3',
   ]

   def start_requests(self):
       yiel scrapy.Request(self.urls.pop(0))

   def parse(self, response, **kwargs):
       if self.urls:
           yield respone.follow(self.urls.pop(0))
источник

МС

Михаил Синегубов... in Scrapy
кстати, если брать соединения, то скрапи их держит больше, чем конкурирующих запросов...
источник

МС

Михаил Синегубов... in Scrapy
если это критично
источник

(

(o_O) in Scrapy
?
источник

G

Georgiy in Scrapy
насколько я помню, в документации scrapy - это не описано настолько подробно.
источник

МС

Михаил Синегубов... in Scrapy
берешь проксю с авторотацией, с "ограничением одновременных соединений = 50", ставишь CONCURRENT_REQUESTS=50

получаешь ор от сервиса "дохрена соединений"
источник

(

(o_O) in Scrapy
Да соединений всё равно будет CONCURRENT_REQUESTS максимум.
источник

G

Georgiy in Scrapy
приоритеты запросов тоже... могут не срабатывать https://stackoverflow.com/q/59443851/10884791
источник

МС

Михаил Синегубов... in Scrapy
неа, не будет. Я у ребят брал тестовый период, попросили "не боле 10 одновременных", короче, для гарантии мне пришлось упасть до 3.
источник

МС

Михаил Синегубов... in Scrapy
могут, из коробки они, по моему, чуток странно работают. Но я их не особо много пользовал
источник

SK

Semyon Krutolevich in Scrapy
Ребят, ламоду кто-нибудь парсил, подскажите пожалуйста как подгружали js страницы, splash не работает?
источник

AR

Andrey Rahmatullin in Scrapy
источник

SK

Semyon Krutolevich in Scrapy
спасибо, а аякс запрос получается для разных страниц разный, где можно про это почитать)
источник

AR

Andrey Rahmatullin in Scrapy
источник
2021 May 29

V

Victor in Scrapy
Народ, во время парсинга меняется прокся раз в 2 минуты. Смена прокси занимает 20 секунд. Как запаузить паука на это время?
источник
2021 May 30

G

Georgiy in Scrapy
@de_vicont 👆эту ситуацию уже разбирали
источник

DA

Danila Artyukhov in Scrapy
Привет. Только начал разбираться. У меня такой вопрос. Мне нужно спарсить страницы на который есть данные. На сайте бар селектора страниц бесконечный. То есть на 34 ещё есть данные, но можно переключиться дальше на 35, 36 и т.д. В методе parse я уже описал обработчик страницы. Но как мне собрать нужное количество url, именно с контентом. Я так понимаю мне нужно заполнить start_urls в start_requests?
источник