Size: a a a

2020 April 02

i

ildar in Scrapy
Well, it not needed in your code(maybe), cause you calling callback by name, but in most cases it should be overrided and you even don't have to callback for parse() method, cause start_requests by design will firstly call parse()
источник

i

ildar in Scrapy
camilo
I can't change for parse, because parse overrides Crawlspider
Anyway, that not the point, the error is here:
источник

i

ildar in Scrapy
Переслано от ildar
Oh, I've found your error
источник

i

ildar in Scrapy
Переслано от ildar
You iterating by num, not by urls))
источник

i

ildar in Scrapy
Переслано от ildar
See "for url in num" )
источник

c

camilo in Scrapy
I am converting urls to a list of tuples and then iterate on this
источник

i

ildar in Scrapy
camilo
I am converting urls to a list of tuples and then iterate on this
are you sure? when I'm trying you code, I'm getting error
источник

i

ildar in Scrapy
источник

i

ildar in Scrapy
and why do you need this? You can write just
urls=tuple(urls)
or
urls=tuple(set(urls)) in case you need to eliminate dublicates. but actually you don't need this, cause scrapy has built in dupefilter
источник

c

camilo in Scrapy
ildar
and why do you need this? You can write just
urls=tuple(urls)
or
urls=tuple(set(urls)) in case you need to eliminate dublicates. but actually you don't need this, cause scrapy has built in dupefilter
I turn 1 into 2
источник

i

ildar in Scrapy
maybe you need to extract them somehow from here: "Each produced link will be used to generate a Request object, which will contain the link’s text in its meta dictionary (under the link_text key)"?
источник

i

ildar in Scrapy
I'm just reading the docs, never worked with crawlspider before and want to begin use it
источник

i

ildar in Scrapy
hmm, ahaaa:  the received Response object will contain the text of the link that produced the Request in its meta dictionary (under the link_text key)
источник

i

ildar in Scrapy
источник

i

ildar in Scrapy
item['link_text'] = response.meta['link_text']
источник

Asen Баал in Scrapy
ребят, мне нужно две вещи. Запись нажатых ссылок и вводимых данных. Как это можно сделать?
источник

Asen Баал in Scrapy
В дальнейшем аналогичные действия будут повторяться в селениуме, только с другими вводимыми данными.
Видел iMacros. В целом как бы и вариант, но несколько более замороченный, придётся приеобразовывать тэги, потом искать их. Хотелось бы просто ссылки сразу получать
источник

Asen Баал in Scrapy
хотя щяс полазил, у iMacros несколько способов записи, так что можно выбрать нужный
источник

r

rtme in Scrapy
Подскажите, есть сеты табличных данных в консоли показано количество td в сете. (название ячейки и значение)

Таких сетов почти 15к. Есть решение лучше чем на ходу создавать колонки под название ячейки чтобы сохранить в нормальном виде ?

(проверять наличие колонки, сохранять значение)
источник

r

rtme in Scrapy
источник