Size: a a a

2020 March 28

К

Кирилл in Scrapy
какие ключи
источник

К

Кирилл in Scrapy
в примере четко показано как задавать
источник

К

Кирилл in Scrapy
зачем json
источник

RG

Roman Gangal in Scrapy
Кирилл
какие ключи
в примере вот  это [
   'http://proxy0:8888',
   'http://user:pass@proxy1:8888',
   'https://user:pass@proxy1:8888'
]
источник

К

Кирилл in Scrapy
ну, а ты что скинул
источник

RG

Roman Gangal in Scrapy
этот пример с ошибкой json.decoder.JSONDecodeError: Expecting value: line 2 column 5 (char 6)
источник

RG

Roman Gangal in Scrapy
в доках пишет что proxy file content, must conform to json format, otherwise will cause json
источник

RG

Roman Gangal in Scrapy
вот я и пробую в json делать
источник

iz

izzz zzi in Scrapy
{"HTTPS_PROXIES": ["ip:8118", "ip:8118", "ip:8118", "ip:8118", "ip:8118", "ip:8118"]}
источник

М

Мак in Scrapy
Список же
источник

iz

izzz zzi in Scrapy
Roman Gangal
вот я и пробую в json делать
# -*- coding: utf-8 -*-
import re
import json

PROXY = []
regex = re.compile("(\d+\.\d+\.\d+\.\d+:\d+)")

with open('proxies.txt') as f:
   for line in f:
       try:
           result = regex.search(line)
           if result:
               PROXY.append(result.group(1))
       except:
           pass

with open('proxy.json', 'w+') as f:
   f.write(json.dumps({'HTTPS_PROXIES': list(set(PROXY))}))
источник

RG

Roman Gangal in Scrapy
izzz zzi
# -*- coding: utf-8 -*-
import re
import json

PROXY = []
regex = re.compile("(\d+\.\d+\.\d+\.\d+:\d+)")

with open('proxies.txt') as f:
   for line in f:
       try:
           result = regex.search(line)
           if result:
               PROXY.append(result.group(1))
       except:
           pass

with open('proxy.json', 'w+') as f:
   f.write(json.dumps({'HTTPS_PROXIES': list(set(PROXY))}))
спасибо друг! все работает! а за скрипт отдельная благодарность!!!
источник

iz

izzz zzi in Scrapy
Roman Gangal
спасибо друг! все работает! а за скрипт отдельная благодарность!!!
Тоже была проблема
источник

RG

Roman Gangal in Scrapy
Еще одна проблемка есть. Пакую свой парсер в яйцо для последующего деплоя.  Использую команду scrapyd-deploy --build-egg  my_parser.egg  Все пакует отлично. Но у меня на уровне с файлом scrapy.cfg есть парочка текстовых файлов которые тоже нужно в яйцо упаковать, а по умолчанию оно их не видит. Помогите, кака прописать в setup.py чтоб паковало текстовые файлы на одном уровне вложенности с файлом scrapy.cfg ?
источник

К

Кирилл in Scrapy
Сам не пробовал, но вот по теме https://github.com/scrapy/scrapyd-client/issues/46
источник

RG

Roman Gangal in Scrapy
спасибо!
источник

iz

izzz zzi in Scrapy
Roman Gangal
Еще одна проблемка есть. Пакую свой парсер в яйцо для последующего деплоя.  Использую команду scrapyd-deploy --build-egg  my_parser.egg  Все пакует отлично. Но у меня на уровне с файлом scrapy.cfg есть парочка текстовых файлов которые тоже нужно в яйцо упаковать, а по умолчанию оно их не видит. Помогите, кака прописать в setup.py чтоб паковало текстовые файлы на одном уровне вложенности с файлом scrapy.cfg ?
куда деплой?
источник

RG

Roman Gangal in Scrapy
izzz zzi
куда деплой?
scrapyd на серваке
источник
2020 March 29

🎅B

🎅 Austin Bluethy in Scrapy
Traceback (most recent call last):
 File "D:\anaconda\lib\site-packages\twisted\internet\defer.py", line 654, in _runCallbacks
   current.result = callback(current.result, *args, **kw)
 File "D:\anaconda\lib\site-packages\scrapy\spiders\__init__.py", line 90, in parse
   raise NotImplementedError('{}.parse callback is not defined'.format(self.__class__.__name__))
NotImplementedError: NflSpider.parse callback is not defined


Как ее исправить?
источник

СТ

Семён Трояновский in Scrapy
Пишет что callback не определен
источник