Не совсем так, там ситуация намного сложнее. Просто обернуть случайный протокол в вебсокеты не проканает. Китайцы уже говна поели с самопальными обфускациями и пришли к выводу, что нужно делать не максимально обфусцированный (читай - рандомный) трафик, который статанализом можно определять, а заворачивать в нормальные протоколы, к которым не подкопаешься (
https://trojan-gfw.github.io/trojan/ и их ишью-трекер).
Когда мы делали Кравлеру (
crawlera.com), то пришли к тому же выводу. Чтобы максимально уворачиваться от антиботов, нужно делать трафик неотличимым от нормальных клиентов, а не втупую генерировать юзерагенты, хедеры или параметры тлс.
Это не новость. Скажем, для того, чтобы сделать такую подделку под старину, что обманет экспертов, нужно обладать такими навыками и умением, что дешевле и проще просто реально где-то раздобыть настоящую старину