А вот и обещанная моделька для детекции токсичных или просто обидных/стрёмных текстов:
https://huggingface.co/cointegrated/rubert-tiny-toxicity.
В
этом блокноте традиционно можно поиграться с ней, не вылезая из браузера.
Это нейросетка, для запуска требует Python и довольно тяжеловесные зависимости (pytorch, numpy, transformers), но работает быстро. Если понравится, но не захочется связываться с питоном, то пишите, могу дать доступ по HTTP API.