Size: a a a

2020 May 01

М

Мак in Scrapy
отбирают, демпингуют, потом обсираются
источник

🎈

🎈Denis in Scrapy
Хотя взрослому дядьке нечего делать на фрилансе
источник

М

Мак in Scrapy
обычно наработано несколько постоянных заказчиков просто
источник

🎈

🎈Denis in Scrapy
Тогда это уже мало отличается от постоянной работы
источник

🎈

🎈Denis in Scrapy
Нахер заказчика послать можно, но лишишься заказчика, так же, как и с начальником на постоянке
источник

R

Roma in Scrapy
🎈Denis
Хотя взрослому дядьке нечего делать на фрилансе
Я пару дней назад просматривал Upwork какие проекты постят, просто интересно какие проеты вообще -  ничего интересного не увидел хотя с радостью че нить зафигачил интересное. Потому на фрилансе не только молодежь - но и поиск каких нить интерсных проектов
источник

R

Roma in Scrapy
Еще одна интересная статья для тех кто освоит видосы от yandex ну и практическая часть
источник

R

Roma in Scrapy
источник

М

Мак in Scrapy
да, это я читал вчера... мощная статья
источник

R

Roma in Scrapy
Мак
да, это я читал вчера... мощная статья
Ого - я ее как раз таки  и прочитал сначала а потом пошел по ссылкам смотреть видосы
источник

М

Мак in Scrapy
ну, меня алкоголь вчера ждал на кухне, а не за компьютером, поэтому видосы я не смотрел уже)))
источник

R

Roma in Scrapy
))) Да это как говорится  - unusual )) Алкоголь вообще плохо и мешает думать....Просто я уж щас типа пойду спать - а вам есть че глянуть и почитать))))
источник

i

ildar in Scrapy
Genadyi
Ребята я так понял если выкинуть БС4 то работать будет побыстрее? Тк можно и без него тк он и не нужен он просто работу упрощает? И голыш lxml лучше?
я предпочитаю импортить parsel, и его юзать. если бс4 выкинуть то да, будет быстрее. Но не намного, я примерно в 1.5-2 раза получал ускорение на частном случае.
источник

MV

Maxim Voloshko in Scrapy
Если нужно авторизоваться на сайте и перейти на несколько страниц, то лучше юзать селениум ?
источник

i

ildar in Scrapy
зависит от сайта и того, насколько ты хочешь углубляться в тему. и какая скорость тебе нужна (и какую либу-фреймворк ты для дальнейшего скрапинга используешь) можно пост-запросом в requests залогиниться, примерно таким же макаром в скрапи, посмотрев какие поля заголовков страница в браузере шлет сайту при логине  через copy as curl.
источник

i

ildar in Scrapy
источник

MV

Maxim Voloshko in Scrapy
Посмотрю, спасибо
источник

TK

Tatiana Kondratevich in Scrapy
Добрый вечер, Подскажите, пожалуйста, почему функция parse может не делать return планируемого когда перед ней присутствуют конструкции
yield response.follow(url_product, callback=self.add_sku_and_save_result) 
?
источник

К

Кирилл in Scrapy
Сделает ретурн, только не с первого раза
источник

TK

Tatiana Kondratevich in Scrapy
Паук заканчивает обработку, но так и не возвращает в конце
источник