Size: a a a

2020 April 02

c

camilo in Scrapy
LinkExtractor doesn't work
источник

AR

Andrey Rahmatullin in Scrapy
camilo
@wrar42 could you help me please?
other people already helped you, if that wasn't enough please describe the problem again, after fixing the problems people pointed you at
источник

c

camilo in Scrapy
The problem is that LinkExtractor doesn't work
источник

AR

Andrey Rahmatullin in Scrapy
you aren't even using it, why would it "work"
источник

c

camilo in Scrapy
Andrey Rahmatullin
you aren't even using it, why would it "work"
источник

AR

Andrey Rahmatullin in Scrapy
yeah, you just created an empty LinkExtractor object and put it into a Rule object which you never use
источник

AR

Andrey Rahmatullin in Scrapy
this isn't supposed to "work"
источник

c

camilo in Scrapy
Do I use the Rule object?
источник

AR

Andrey Rahmatullin in Scrapy
I just said that you don't...
источник

c

camilo in Scrapy
I change the question, How does Crawlspider with start_requests?
источник

AR

Andrey Rahmatullin in Scrapy
it doesn't use start_requests()
источник

c

camilo in Scrapy
Can't I use Crawlspider with start_requests?
источник

AR

Andrey Rahmatullin in Scrapy
you probably can, if you reimplement parts of it (at least the ones that handle start_urls and start the CrawlSpider machinery)
источник

c

camilo in Scrapy
Thank you
источник

AC

Alexander Chaptykov in Scrapy
Всем привет! А как правильно парсить через скрапи с помощью селениума?
Пробовал через scrapy_selenium import SeleniumRequest но тогда некоторые домены не парсятся, а вот если напрямую в parse ф-ии обрабатывать урл с помощью selenium webdriver  то гораздо больше доменов удается спарсить. Но минус в другом - создается 10к процессов хрома
источник
2020 April 03

R

Roma in Scrapy
Как правильно не знаю - юзаю selenoid - remote web driver - там сессия протухают и закрываются
источник

R

Roma in Scrapy
источник

Asen Баал in Scrapy
Alexander Chaptykov
Всем привет! А как правильно парсить через скрапи с помощью селениума?
Пробовал через scrapy_selenium import SeleniumRequest но тогда некоторые домены не парсятся, а вот если напрямую в parse ф-ии обрабатывать урл с помощью selenium webdriver  то гораздо больше доменов удается спарсить. Но минус в другом - создается 10к процессов хрома
а driver.pagesource что не канает?
источник

Asen Баал in Scrapy
или я чего то не допонимаю
источник

Asen Баал in Scrapy
Народ, подскажите можно как то сделать типа "динамического" кода
типа
webdriver.arg1().arg2() и что бы вместо arg1 и arg2 подставлять find id, css, name и т.д
источник