DATApedia - канал про Data Science, и все что связано с данными, в котором вы найдете:
— Переведенные зарубежные статьи, которые есть только у нас; — Возможность предложить нам статью для перевода; — Полезные видео; — Профессиональный юмор;
Присоединяйтесь, давайте расти как профессионалы вместе 😉
Товарищи, подскажите, пожалуйста. Есть утилитарная цель: взять, скажем, 100 фото и присобачить к каждой по 10 лиц из других фото (т.е. поменять лицо). Какой (ие) наиболее разумный путь это сделать? Правильно ли я понимаю, что самые лучшие сетки уже вшиты в коммерческие приложения (ex, Face App)?
всем привет. как можно векторизовать текст если он большой и не лезет в память? пока использую CountVectorizer. думал считать кусок файла, векторизовать, затем опять кусок и опять векторизовать, но это не работает.
Используй HashingVectorizer, он не требует составления словаря, и потому очень хорошо работает в онлайн режиме. Если поставить n_features небольшой (скажем, 30К), то у тебя ещё и размерность будет меньше чем при CountVectorizer'е, но некоторые слова будут путаться (что обычно не страшно).
получается в цикле пройдем весь файл, считываем кусок, векторизуем его, тренируем модель на ней, затем считываем следующий кусок, векторзиуем, дообучаем модель и т.д.?
Привет. Кто-нибудь знает есть ли в torch какая-нибудь реализованная библиотека по кодированию изображений и нахождению расстояний/степени схожести между ними?? Что-то на подобии face_encodings в модуле face_recognition. P.s. я сел torch осваивать на днях