Size: a a a

2020 February 16

EB

Elisei Badanin in Scrapy
он загружает страницы, выполняет луа скрипт и отдает результат
источник

VB

Vladyslav Babych in Scrapy
Я просто новичёк) Вот к примеру стандартный паук работает асинхронно, так как скрапи асинхронный верно?
источник

AR

Andrey Rahmatullin in Scrapy
наверно
источник

EB

Elisei Badanin in Scrapy
в луа скрипте можно что-то сделать, поменять и результат поменять
источник

VB

Vladyslav Babych in Scrapy
А вот если мы запросы делаем через сплэш то всё время выполнение сплэше наш паук ждёт?
источник

AR

Andrey Rahmatullin in Scrapy
нет, там хттп обычный
источник

AR

Andrey Rahmatullin in Scrapy
пауку это такой же Request как всё
источник

EB

Elisei Badanin in Scrapy
сплеш, это что-то типа прокси, которое рендерит жс итд
источник

VB

Vladyslav Babych in Scrapy
тобишь он не сильно затормаживает общий процесс?
источник

EB

Elisei Badanin in Scrapy
сильно
источник

VB

Vladyslav Babych in Scrapy
И как  тогда можно ускорить это всё?
источник

EB

Elisei Badanin in Scrapy
он рендорит всю страницу(грузит картинки, ксс, если не отключить)
источник

EB

Elisei Badanin in Scrapy
зависит от ситуации
источник

AR

Andrey Rahmatullin in Scrapy
вы про разное
источник

AR

Andrey Rahmatullin in Scrapy
запрос к сплешу остальным запросам не мешает
источник

VB

Vladyslav Babych in Scrapy
Andrey Rahmatullin
запрос к сплешу остальным запросам не мешает
Спасибо большое, понял
источник
2020 February 17

AB

Alexander B in Scrapy
пишу спайдер, на последнем генераторе собираю item уже, но понадобилось от туда джойнить url, сходить по нему, распарсить и вернуться в генератор с полученной инфой и дособрать item. делаю например так:
description = scrapy.Request(
           url=f'{response.url}?description',
           callback=self._parse_description
       )
и оно возвращает мне реквест вместо результата колбека, как правильно замутить не юзая другие модули типа requests
источник

МС

Михаил Синегубов in Scrapy
Alexander B
пишу спайдер, на последнем генераторе собираю item уже, но понадобилось от туда джойнить url, сходить по нему, распарсить и вернуться в генератор с полученной инфой и дособрать item. делаю например так:
description = scrapy.Request(
           url=f'{response.url}?description',
           callback=self._parse_description
       )
и оно возвращает мне реквест вместо результата колбека, как правильно замутить не юзая другие модули типа requests
нихрена не понял, но, помоему это inline_requests
источник

МС

Михаил Синегубов in Scrapy
источник

AR

Andrey Rahmatullin in Scrapy
да
источник