Size: a a a

Data Science Chat

2021 October 17

💀

💀 in Data Science Chat
Кто может подсказать где можно почитать\посмотреть как написать нейросеть распознающую звуки?
источник

М

Манкурт Кобейн... in Data Science Chat
Никак. Это социология же, лол
источник

М

Манкурт Кобейн... in Data Science Chat
Загугли и смотри. Куча подобных материалов разной сложности
источник

I

Ilya in Data Science Chat
интересная тема. Я посмотрел видео, чисто математически на мой взгляд там достаточно обоснованно, что надо на n-1 делить. https://www.youtube.com/watch?v=D1hgiAla3KI&t=0s
источник

--

-- -- in Data Science Chat
дык одна степень свободы уходит на расчет среднего, так что -1
источник

B

Backdoor in Data Science Chat
хай
источник

B

Backdoor in Data Science Chat
Как дела?
источник

A

Andrey in Data Science Chat
всем привет. а кто-либо знает норм либы управления операциями, типа ortools, но когда у функции случайные входы?

нужно найти оптимальный план, когда некоторые входы омрачены шумами.

знаю, есть подходы когда достаточно укладываться в окна (в том же ortools), в принципе это близко, но равномерный случай.

можно конечно монтекарлой набрасывать и матожидание (хоть гауссовскими процесамми) оптимизировать...

но вдруг что готовенькое есть.
источник

SL

Sergey L in Data Science Chat
да, но все-таки это "вуду магия" для упрощения понимания, которая, например, меня не устраивала, т.к. на вопросы она не отвечает. А назвать чем-то что-то можно что угодно все же.
Выше присылали доказательство, годится. Что-то такое видел давно совсем.
но опять же данные утверждения скорее следствия, чем причины, как и многие вещи, где начинается диалог за степени свободы. Все-таки стоит понимать, что это все модели. Так-то делить можно на любой параметр, но оценка будет несмещенной (с меньшей ошибкой), если делить на n-1. Это в принципе все, что и требуется для понимания происходящего.
Могу ошибаться, кнчн
источник

--

-- -- in Data Science Chat
Ну тогда пишем lim n->inf и доказываем строго по Гнеденко, например
источник

SL

Sergey L in Data Science Chat
Спасибо, посмотрю
источник

--

-- -- in Data Science Chat
Это ж не что-то сакральное. Матстатисика вполне себе строгий раздел высшей математики.
источник

SL

Sergey L in Data Science Chat
вы правы. Есть нюансы просто образовательного профиля/бэкграунда. Поэтому нужно наверствовать и "обрастать мясом", когда выпадает минута) хорошие книги - это круто
источник

I

Ilya in Data Science Chat
небольшой вопрос для понимания разницы Low Rank Approximation и PCA в контексте SVD:
Допустим у нас матрица данных N x F, где N - количество семплов, а F количество фич.
То Low Rank Approximation это по сути процесс, который стремится выбросить максимальное количество семплов (по соображениями того, что они практически несут ноль новой информации, почти сингулярныу) с минимальным вредом для матрицы (схожесть например в метрике Форбиниуса и тд. должна быть максимальной), последнее конечно в зависимости от желанного расстояния, то есть 1% потери информации, или 0.5% и т.д.

А PCA не трогает N измерения, а работает с F измерением, там задание найти подпространство N x F_small, так чтобы вся информация N x F максимально хорошо сохранялась в этом подпространстве (то есть чтобы проекция всех фич была с максимальным сохранением информации), можно ли так обозначить разницу ?
источник

D

Da in Data Science Chat
Всем привет.
Ищем в команду международного стартапа партнёра MI/AI разработчика  с опытом. Сфера Medtech
источник

I

Ilya in Data Science Chat
ну или кратко, Low Rank Approximation это об уменьшение N, а PCA об уменьшение F.
источник

RM

Roman Markevich in Data Science Chat
Всем привет 👋 Кто использовал gpt-3?
источник

М

Манкурт Кобейн... in Data Science Chat
Господа и дамы, можете покритиковать сборку?
На что сместить акценты, с цего их убрать?
+ я ещё не придумал, что в него по памяти втыкать лучше, и каким количеством ватт питать, так что если что подскажите - буду благодарен.

Цель: домашняя машина для компьютерного зрения;

Бюджет: 160к руб;

gpu: https://www.e-katalog.ru/GIGABYTE-GEFORCE-RTX-3060-EAGLE-OC-LHR-12G.htm ( 74.960 руб)

cpu: https://www.e-katalog.ru/AMD-RYZEN-5-MATISSE.htm ( 17.190 руб )

ram: https://www.e-katalog.ru/CRUCIAL-BL2K16G32C16U4B.htm ( 12.329 руб )

mb: https://www.e-katalog.ru/ASROCK-B450M-PRO4-F.htm ( 5.301 руб )

box: https://www.e-katalog.ru/ZALMAN-I3.htm ( 3.880 руб )
источник

J

Jaa in Data Science Chat
Память в 2 раза больше видеопамяти нужна
источник

М

Манкурт Кобейн... in Data Science Chat
Уже посоветовали в одном чате. Значит точно стоит накинуть... Спасибо!
источник