Size: a a a

2020 November 02

МС

Михаил Синегубов... in Scrapy
рабочая папка должна быть настроена на scrapy.cfg.

по все равно, не понял, зачем городить все это.
источник

ЛГ

Лев Гареев in Scrapy
Archie
ктонить запускал скрапи через Popen? подскажите команду
я запускал через сабпроцесс, у меня в одном из проектов он лежит в боте и работает через эту команду, но у меня не было выбора и это вроде костыли еще те :)
источник

A

Archie in Scrapy
Лев Гареев
я запускал через сабпроцесс, у меня в одном из проектов он лежит в боте и работает через эту команду, но у меня не было выбора и это вроде костыли еще те :)
а как правильно записывать?
источник

ЛГ

Лев Гареев in Scrapy
Archie
а как правильно записывать?
 code = subprocess.call("scrapy crawl for_parsing -o test.csv")
источник

A

Archie in Scrapy
Михаил Синегубов
рабочая папка должна быть настроена на scrapy.cfg.

по все равно, не понял, зачем городить все это.
из другого проекта через селери и popen запускаю скрапи проект
источник

AR

Andrey Rahmatullin in Scrapy
это ему не поможет, у него рабочий каталог не тот
источник

A

Archie in Scrapy
Andrey Rahmatullin
это ему не поможет, у него рабочий каталог не тот
поменял уже
источник

AR

Andrey Rahmatullin in Scrapy
ну вот и хорошо
источник

i

i in Scrapy
SoHard 🎄
можно как-то в скрапи парсить по вот таких вот комментариях?
можно через xpath, типа response.xpath('.//div[@id="content"]').xpath('.//ul[@class="list-unstyled"]/comment()[contains(.,"Артикул")]').get() - ну, в твоем случае Machintype
источник

i

i in Scrapy
а, уже ответили)
источник

c

culnaen in Scrapy
for event_info, _, event, *_ in div.xpath('./div[1][@class="row align-items-center"]'):
       print(type(event_info) ,event_info, len(event_info))
       print(event_info[0], event_info[1])
       for event_type, event_time in event_info:
           print(event_type, event_time)

<class 'lxml.html.HtmlElement'> <Element div at 0x24b88c26d10> 2
<Element div at 0x24b88c26d60> <Element div at 0x24b88c41040>
Traceback (most recent call last):
 File "c:/Users/user/Documents/projects/test/main.py", line 15, in <module>
   for event_type, event_time in event_info:
ValueError: not enough values to unpack (expected 2, got 0)

Не пойму, в чем проблема.  Через xpath получаю div'ы, в первом for я распаковываю список и все проходит нормально, но вот во втором случае он почему-то не дает распаковать , хотя судя по принтам там HtmElement с двумя div'ами
источник

AR

Andrey Rahmatullin in Scrapy
казалось бы при чём тут скрапи
источник

c

culnaen in Scrapy
Ты админ, а про описание чата должен я рассказывать?
источник

AR

Andrey Rahmatullin in Scrapy
ну это обычная проблема с пониманием питоньих листов
источник

c

culnaen in Scrapy
Я просто пытаюсь понять, проблем в хтмлэлементе или нет
Хотя Len показывает, что да, там находится два элемента, но распаковать не даёт
источник

AR

Andrey Rahmatullin in Scrapy
потому что если в листе два элемента, не надо из него таплы пытаться достать
источник

c

culnaen in Scrapy
Да
источник

S

SoHard 🎄 in Scrapy
culnaen
Ты админ, а про описание чата должен я рассказывать?
источник

ЛГ

Лев Гареев in Scrapy
culnaen
for event_info, _, event, *_ in div.xpath('./div[1][@class="row align-items-center"]'):
       print(type(event_info) ,event_info, len(event_info))
       print(event_info[0], event_info[1])
       for event_type, event_time in event_info:
           print(event_type, event_time)

<class 'lxml.html.HtmlElement'> <Element div at 0x24b88c26d10> 2
<Element div at 0x24b88c26d60> <Element div at 0x24b88c41040>
Traceback (most recent call last):
 File "c:/Users/user/Documents/projects/test/main.py", line 15, in <module>
   for event_type, event_time in event_info:
ValueError: not enough values to unpack (expected 2, got 0)

Не пойму, в чем проблема.  Через xpath получаю div'ы, в первом for я распаковываю список и все проходит нормально, но вот во втором случае он почему-то не дает распаковать , хотя судя по принтам там HtmElement с двумя div'ами
код лучше слать в кавычках
источник

ЛГ

Лев Гареев in Scrapy
а то нечитабельная херня получается, имхо
источник