Size: a a a

2021 April 10

K

Kayota in Scrapy
Все вроде бы просто, селектор ловит в браузере все фото, но в scrapy shell он видит только две
источник

К

Кирилл in Scrapy
11 изображений есть в script[type="application/ld+json"] Размер можно получить просто изменив w_600,f_auto на w_2000,f_auto
источник

K

Kayota in Scrapy
Спасибо, а я сам не могу к апи запросы делать? Я вот я еще что нашел - https://www.reebok.ru/api/products/GY2711/ - где последнее это id продукта
источник

K

Kayota in Scrapy
там вроде json со всей инфой
источник

К

Кирилл in Scrapy
Наверное можешь
источник

K

Kayota in Scrapy
Спасибо
источник

r

rink0 in Scrapy
Подскажите, с селениумом много не работал, по этому не компетентен в этом вопросе.

Я нашёл нужный проект по автоматизации на гитхабе, написанный на селениуме. Там используется non headless(т.е открывается окно браузера и ты видишь как оно всё само тыкает)
Собственно вопрос, в теории если я изменю настройки на headless. и запущу скрипт оно должно так же работать?
Спрашиваю потому что пока что протестить этот проект не могу
источник

К

Кирилл in Scrapy
Теоретически будет, но возможно нужно будет добавить в настройки размеры окна и т.п. Если были причины на использование такого варианта
источник

OS

Oleg Shleiko in Scrapy
Всем добрый день. Вопрос, как преобразовать request.headers в нормальный (не байтовый) тип для записи в логи
вот как он возвращается: DEBUG: {b'Referer': [b'https://yandex.ru/'], b'User-Agent': [b'Mozilla/5.0....

Upd
:
request.headers.to_unicode_dict()
источник

r

rink0 in Scrapy
Благодарю
источник

OS

Oleg Shleiko in Scrapy
Спецы по селениуму, подскажите плз как шевелить мышью?
источник

r

rink0 in Scrapy
я по другому делал
источник

r

rink0 in Scrapy
.decode("utf-8")
вот так можно ещё
источник

OS

Oleg Shleiko in Scrapy
для данного типа не подходит
источник

r

rink0 in Scrapy
ну это для строки, не для словаря
источник

r

rink0 in Scrapy
в твоем случае тот вариант который ты сделал, намного круче и удобнее, да
источник

r

rink0 in Scrapy
Затянулось конечно пару часов. Но вот, наконец дописал readme.

Вот этот .py файлик сохраняет куки в json и после можно и использовать
https://github.com/r1nko/scrapy_manage_cookies

Очень буду признателен за критику, идеи и предложения
источник

r

rink0 in Scrapy
страшно конечно, очень страшно
источник

МС

Михаил Синегубов... in Scrapy
не боись, какашками не больно закидаем
источник

r

rink0 in Scrapy
круто конечно если бы это из коробки было в скрапи, написал в сетингах мол AUTO_SAVE_COOKIES=TRUE и всё)
источник