Size: a a a

2021 December 09

R

ReinRey in Python
Жал, очень хотелось. Ну ок. Может у кого исходники выкуплю. Если повезёт
источник

.

. in Python
bot.send_video(chat_id=id, reply_to_message_id = message.id,video= video)
источник

.

. in Python
Что за файл то
Какой формат?
источник

R

ReinRey in Python
Sqllite
источник

R

ReinRey in Python
Система шифрования AES256 GSM
источник

R

ReinRey in Python
Gcm
источник

.

. in Python
Файл расшифровать или элемент в файле?
источник

R

ReinRey in Python
Короче с бд, клчю шифра нашёл, но он меньше чем в гугловском и хрен знает чё с ним не так, логины дёргает, а пароли не хочет
источник

R

ReinRey in Python
Элемент
источник

.

. in Python
Тут никак не помочь
источник

R

ReinRey in Python
Да как то можно, вопрос как, ну ладно, спасибо что хоть не послал) Буду дальше искать решение
источник

.

. in Python
Удачи)
источник

a

alex in Python
Здравствуйте, пытаюсь решить одну задачу, для этого выбрал python. Подскажите как лучше работать с большими текстовыми файлами "до 1гб", загружать их полностью в ОЗУ и потом работать, или же построчно? Спасибо!
источник

.

. in Python
Попробуйте  multiprocessing
Распределить память по потокам и обрабатывать отдельный участок памяти в своём потоке
источник

a

alex in Python
А если у только 2 файла? У меня есть файлы txt там только строки"но очень много" 5-6ти значные буквыцыфры. Нужно найти одинаковые строки, так вот 800мб он делает часа 4-5😭
источник

.

. in Python
Думаю multiprocessing это то что вам нужно
Например мне нужно было спарсить данные
Там было 20000 товаров
Всё это парсилось бы дня 2(через селениум парсил)
Я разделил эту задачу на 6 потоков
Результат - 3 часа, это уже более менее
источник

a

augmentedCat in Python
multiprocessing это немного не потоки
источник
2021 December 10

.

. in Python
Процессы*
источник

a

augmentedCat in Python
Да!
источник

NS

Naumenko Sergey in Python
Ну их можно разбить на несколько списков. например на 20 списков, каждый по 10%. И каждый обработать в своем процессе
источник