Size: a a a

2020 December 04

К

Кирилл in Scrapy
Тогда может быть, я больше про бд говорил
источник

S

SoHard 🎄 in Scrapy
источник

S

SoHard 🎄 in Scrapy
во, наглядно
источник

К

Кирилл in Scrapy
Там вроде ещё xml вариант есть. Или он только для price.ua, что бы это ни было
источник

1

15821 in Scrapy
Всё верно, writerow принимает словарь где указываешь в какую ячейку записывать, он сам делает пропуски на не указанных, небольшое доп. знание в csv в копилочку)
источник

S

SoHard 🎄 in Scrapy
15821
Всё верно, writerow принимает словарь где указываешь в какую ячейку записывать, он сам делает пропуски на не указанных, небольшое доп. знание в csv в копилочку)
пишешь в json

import pandas as pd
d = pd.read_json('ololo.json')
d.to_csv('out.csv')
источник

1

15821 in Scrapy
хм, т.е. он хэадеры сам подабавляет и сделает пропуски на пустых?
источник

S

SoHard 🎄 in Scrapy
да
источник

1

15821 in Scrapy
интересно, сейчас кофеёк допью и опробую, огромная благодарочка если это так работает как мне надо :)
источник

МС

Михаил Синегубов... in Scrapy
кстати, ни у кого не было задачи писать каждый айтем в отдельный json? а то я столкнулся недавно. Кроме как тупого пересоздания айтемэкспортера (ага, еще и пустые поля надо) ни до чего не додумался...
источник

Ra

Ruslan aka DUDE in Scrapy
есть ли разница в парсерах?

from lxml.etree import HTMLParser
vs
from lxml import html

или одно и тоже?
источник

AR

Andrey Rahmatullin in Scrapy
https://lxml.de/lxmlhtml.html первый абзац
источник

Ra

Ruslan aka DUDE in Scrapy
благодарю!
источник
2020 December 05

S

SoHard 🎄 in Scrapy
источник

М

Максим in Scrapy
Как сделать, чтобы во время скрапинга произошел переход на другую страницу и сработала для нее другая функция?
источник

М

Максим in Scrapy
Делаю так, не получается
link = concat(DOMAIN, response.xpath('//div[@id="etab"]/a/@href').get())
establishments = scrapy.Request(
               url=link,
               callback=self.parse_etab,
               errback=self.error,
           )
источник

К

Кирилл in Scrapy
Максим
Делаю так, не получается
link = concat(DOMAIN, response.xpath('//div[@id="etab"]/a/@href').get())
establishments = scrapy.Request(
               url=link,
               callback=self.parse_etab,
               errback=self.error,
           )
yield establishments
источник

AR

Andrey Rahmatullin in Scrapy
Максим
Как сделать, чтобы во время скрапинга произошел переход на другую страницу и сработала для нее другая функция?
источник

М

Максим in Scrapy
Кирилл
yield establishments
Мне надо сделать примерно так
{
"blabla": 124214,
"wqerty" : "!@415",
"establishments": establishments
}
источник

AR

Andrey Rahmatullin in Scrapy
передавай данные, собранные на первой странице, в коллбэк для второй
источник