Size: a a a

2020 February 17

МС

Михаил Синегубов in Scrapy
гони код в личку (или сюда)
источник

МС

Михаил Синегубов in Scrapy
надеюсь у тебя там не увешано все йтемами и пайпами :)

просто у меня из коробки все работало. Только, обычно, хренова куча других запросов в методе было. Из-за этого косячило часто
источник

AB

Alexander B in Scrapy
ща, попробую ешё кой чего
источник

EB

Evgeny Bukharev in Scrapy
Alexander B
пишу спайдер, на последнем генераторе собираю item уже, но понадобилось от туда джойнить url, сходить по нему, распарсить и вернуться в генератор с полученной инфой и дособрать item. делаю например так:
description = scrapy.Request(
           url=f'{response.url}?description',
           callback=self._parse_description
       )
и оно возвращает мне реквест вместо результата колбека, как правильно замутить не юзая другие модули типа requests
аналогичная ситуация, но в моём случае нужно выполнить запрос сейчас а не параллельно с калбеком, так как дальнейшая работа без результатов  бесмысленна, получилось что либо придумать?
источник

AB

Alexander B in Scrapy
да, inline_requests работают
источник

AB

Alexander B in Scrapy
просто оборачиваете метод в декоратор и используете консструкцию another_resp = yield scrapy.Request(another_url)
источник

AB

Alexander B in Scrapy
все реквесты в обернутом методе будут возращать response  на месте, потом его обрабтывайте как обычно
источник

EB

Evgeny Bukharev in Scrapy
Alexander B
просто оборачиваете метод в декоратор и используете консструкцию another_resp = yield scrapy.Request(another_url)
счас попробую, благодарствую
источник

EB

Evgeny Bukharev in Scrapy
Alexander B
все реквесты в обернутом методе будут возращать response  на месте, потом его обрабтывайте как обычно
у меня почемуто метод возвращает генератор а не респонс
источник

AB

Alexander B in Scrapy
Не, делай сразу всю эту фигню в методе в котором обрабатываешь и его оборачивай
источник

AB

Alexander B in Scrapy
Не так как я выше фоткал))
источник

М

Мак in Scrapy
а есть ли какое то решение, ну например разместить на впс паука и снаружи передавать запросом какие то строковые параметры для поиска
источник

AR

Andrey Rahmatullin in Scrapy
scrapyd? ScrapyRT?
источник

М

Мак in Scrapy
это же вроде просто демоны
источник

М

Мак in Scrapy
именно их я не пользовал, по мне так scrapy-do показался удобнее в качестве демона. но у него я не заметил таких функций
источник

М

Мак in Scrapy
scrapy crawl first_scrapy -a group = accessories
надо что то такое, чтоб оправлять подобный запрос на адрес впс... или это походу уже отдельный апи писать надо?
источник

М

Мак in Scrapy
а не, scrapyd пользовал - матерился изрядно на эти яйца)))
источник

EB

Elisei Badanin in Scrapy
Мак
scrapy crawl first_scrapy -a group = accessories
надо что то такое, чтоб оправлять подобный запрос на адрес впс... или это походу уже отдельный апи писать надо?
так это и есть scrapyd
источник

EB

Elisei Badanin in Scrapy
можно всякие scrapydweb посмотреть
источник

iz

izzz zzi in Scrapy
Elisei Badanin
можно всякие scrapydweb посмотреть
+
источник