Size: a a a

2018 October 06

DM

Dmitry Mishunin | HashEx in DeСenter Dev
ну это когда ты даешь свою апу в облако, а они там ее гоняют как хотят
источник

DM

Dmitry Mishunin | HashEx in DeСenter Dev
один сервак медленно будет парсить 200к сайтов, как ни крути
источник

DM

Dmitry Mishunin | HashEx in DeСenter Dev
либо в проц упрешься, либо в диск, либо в память
источник

DM

Dmitry Mishunin | HashEx in DeСenter Dev
хотя для хтмла много памяти не надо конечно
источник

DM

Dmitry Mishunin | HashEx in DeСenter Dev
вот прямо такие же страдания как у тебя с ботом :)
источник

АВ

Артемий Владимиров in DeСenter Dev
то есть у хецнера настолько жирный и быстрый ка­нал, что я скорее в ресурсы упрусь, чем забью ка­нал?
источник

АВ

Артемий Владимиров in DeСenter Dev
у вас кстати на слово кaнал сообщения удаляются :( Поэтому его приходится по особому писать
источник

АВ

Артемий Владимиров in DeСenter Dev
Ещё раз апну вопрос, кто нибудь в курсе, где можно условно бюджетный сервер взять с персональным гигабитным каналом в пределах 50$ но с оплатой в битках, и без мороки с досканальным KYC, как это происходит на хецнере.
источник

АВ

Артемий Владимиров in DeСenter Dev
Ещё такой вопрос, есть 200 гигабайтный файл, его надо очистить от дублей (повторяющиеся строки), чем быстрее всего это можно сделать? Уже операционная система роли не играет. Правильно ли я понимаю, что самое быстрое решение будет через линукс команду sort -u ?
источник

АВ

Артемий Владимиров in DeСenter Dev
разумное время, ну хотя бы пару недель... максимум месяц. Чем быстрее тем лучше, но не годы, как на винде софтинами типа TextPipe
источник

A

Alex in DeСenter Dev
Артемий Владимиров
Ещё такой вопрос, есть 200 гигабайтный файл, его надо очистить от дублей (повторяющиеся строки), чем быстрее всего это можно сделать? Уже операционная система роли не играет. Правильно ли я понимаю, что самое быстрое решение будет через линукс команду sort -u ?
Да. По идее будет быстрее, чем день
источник

A

Alex in DeСenter Dev
Хотя нет, идей тут нет - глупое предположение 😢
Но лучше чем sort -u не найти
источник

L

Lxgn in DeСenter Dev
Артемий Владимиров
Ещё такой вопрос, есть 200 гигабайтный файл, его надо очистить от дублей (повторяющиеся строки), чем быстрее всего это можно сделать? Уже операционная система роли не играет. Правильно ли я понимаю, что самое быстрое решение будет через линукс команду sort -u ?
сразу в голову пришло 2 варианта:
- с помощью файловой системы reiserfs в линуксе, она позвоняет в одной папке держать милион мелких файлов с низкой сокростью доступа
- с помощью базы данных, если построчно в строчке не менее 10 символов, это это 20 лямов записей

дело в неделях не стоит, тут в часах
источник

АВ

Артемий Владимиров in DeСenter Dev
благодарю за ответы.
источник

Nadezhda СryptоBazar Fund in DeСenter Dev
Есть в чате IT комании со штатом 20-30 человек с компитенциями решения задач блокчейн проектов ? Маякните в личку  - такие )
источник

Nadezhda СryptоBazar Fund in DeСenter Dev
а есть реальные тут?)
источник

SI

Stas Ivanov in DeСenter Dev
Nadezhda СryptоBazar Fund
Есть в чате IT комании со штатом 20-30 человек с компитенциями решения задач блокчейн проектов ? Маякните в личку  - такие )
А что нужно то?
источник

Nadezhda СryptоBazar Fund in DeСenter Dev
Есть задачи от международных блокчейн компаний. Ищу под эти задачи IT компании. Несколько IT компаний
источник

J

John in DeСenter Dev
Nadezhda СryptоBazar Fund
Есть задачи от международных блокчейн компаний. Ищу под эти задачи IT компании. Несколько IT компаний
а как блокчейн компания может быть не IT компанией?
источник

SI

Stas Ivanov in DeСenter Dev
John
а как блокчейн компания может быть не IT компанией?
Так там наоборот же: it с компетенциями в бч
источник