Size: a a a

2020 February 29

Q

Qwelcer in Scrapy
Alexander Serebrov
А, ну так это норма)
спасибо, теперь понял чуть чуть
источник

AS

Alexander Serebrov in Scrapy
Scrapy же так и работает, асинхронно, какой респонз первым пришёл, тот первым и распарсился
источник

AS

Alexander Serebrov in Scrapy
Порядок не сохранятся
источник

Q

Qwelcer in Scrapy
Alexander Serebrov
Scrapy же так и работает, асинхронно, какой респонз первым пришёл, тот первым и распарсился
ага, эт понял уже)
источник

Q

Qwelcer in Scrapy
плохо когда англ не знаешь, считай почти по примерам доки учусь...
источник

EB

Elisei Badanin in Scrapy
гуглотранслейт творит чудеса….
источник

Q

Qwelcer in Scrapy
Elisei Badanin
гуглотранслейт творит чудеса….
да тоже через раз) иногда так переведет что лучше б промолчал)
источник

EB

Elisei Badanin in Scrapy
дучше, чем ничего)
источник

AR

Andrey Rahmatullin in Scrapy
Qwelcer
плохо когда англ не знаешь, считай почти по примерам доки учусь...
плохо, да.
источник

М

Мак in Scrapy
А как в итоге приоритет обработки колбека действует
источник

М

Мак in Scrapy
?
источник

EB

Elisei Badanin in Scrapy
там разные стретегии есть
источник

М

Мак in Scrapy
Если уровня три перехода до целевых итемов - я что то не заметил, чтоб выставление приоритета ускоряло процесс именно их добычи, а не шатания по начальным страницам
источник

М

Мак in Scrapy
Как можно выставить приоритет именно вертикальных переходов, а не в горизонт?
источник
2020 March 01

i

ildar in Scrapy
Мак
Как можно выставить приоритет именно вертикальных переходов, а не в горизонт?
чет вспомнился фильм Event Horizon. А если по теме, то вот эта штука: https://docs.scrapy.org/en/latest/topics/settings.html#depth-priority
источник

i

ildar in Scrapy
источник

i

ildar in Scrapy
если ты надеешься с помощью этой штуки сортировать, то особо не надейся, она просто к примеру для того, чтобы результаты нужные пошли, особенно в связке с DEPTH_LIMIT
источник

🇺L

🇺🇦 Ad Libitum in Scrapy
доброй ночи. начинаю изучать scrapy. поэкспериментировал с докой и getquotes, теперь пытаюсь написать простой спайдер который получает данные со страницы и переходит на следующую. выглядит так:

...
   def parse(self, response):
       for article in response.css('article'):
           item = {
               'title': article.xpath("//h1/text()").extract_first().strip(),
               'categories': article.xpath("//a[@class='tag__link']/text()").extract(),
               'url': response.url,
               'tags': article.xpath("//span[@class='b-singlepost-tags-items']/a/text()").extract(),
           }
           yield item


работает, но когда я запускаю scrapy runspider articles.py -o articles.json он мне пишет в JSON две записи вместо одной, хотя <article> там всего один. Почему так, подскажите, пожалуйста? Спасибо.
источник

AO

Alexey Orloff in Scrapy
Чтобы индексировать страницы и проводить поиск по этим документам, нужно полностью сохранять HTML документ(текст без тегов) в базу данных?
источник

AR

Andrey Rahmatullin in Scrapy
🇺🇦 Ad Libitum
доброй ночи. начинаю изучать scrapy. поэкспериментировал с докой и getquotes, теперь пытаюсь написать простой спайдер который получает данные со страницы и переходит на следующую. выглядит так:

...
   def parse(self, response):
       for article in response.css('article'):
           item = {
               'title': article.xpath("//h1/text()").extract_first().strip(),
               'categories': article.xpath("//a[@class='tag__link']/text()").extract(),
               'url': response.url,
               'tags': article.xpath("//span[@class='b-singlepost-tags-items']/a/text()").extract(),
           }
           yield item


работает, но когда я запускаю scrapy runspider articles.py -o articles.json он мне пишет в JSON две записи вместо одной, хотя <article> там всего один. Почему так, подскажите, пожалуйста? Спасибо.
Записи одинаковые?
источник