Пример дешевого использования современных технологий.
1. Берем дешевое оборудование от HikVision под любым суббрендом - стоимость 2 камер с кабелями - около 5 тыщ
только не забываем что HikVision обычно идет с бэкдором в комплекте, так что не желательно чтобы в инет торчало ( что впрочем не всегда помогает ).
2. Настраиваем сохранение потока с камеры на писюк или сервер, где будет происходить обработка:
ffmpeg -i "rtsp://192.168.1.10:554/user=admin&password=&channel=3&stream=0.sdp?" -c copy -flags +global_header -f segment -segment_time 1800 -segment_format_options movflags=+faststart -reset_timestamps 1 channel_3_%d.mp4 > log_stream
команда сохраняет получасовые видосики с соответствующего канала/камеры.
Раньше надо было мудохаться с каким нибудь zoneminder теперь же полно нормально работающих программных решений позволяющих работать с потоками видео, что называется из коробки – например выделение участков на видео с движением в отдельные отрывки:
dvr-scan --threshold 2 -tb 1s -tp 1s -l 3s --kernel-size -1 -bb -i filename -m opencv -d detectedevents > log_scan
команда сохраняет моменты, где в видео было движение (+ настройки шумов и продолжительности) в отдельные файлики в папочке detectedevents
3. Анализ – берем самый простой и популярный ultralytics - уже вышла в прод yolo8 , но yolo5 тоже норм работает
#git clone https://github.com/ultralytics/yolov5.git
#cd yolov5
#pip install -r requirements.txt
python detect.py --source ./detectedevents/202405261225.mp4 --save-txt –save-csv
раскраска видоса подписями с вероятностью совпадения и выгрузкой в виде уже готовом для загрузки в базу данных.
В таблички вида – дата время, канал , координаты на изображении, классифицированный объект ( вероятность ) .
Yolov уже подготовлен для загрузки в FPGA кстати - Келдыш ( https://library.keldysh.ru/prep_vw.asp?pid=9612 )
для yolov2 - https://github.com/markcxli/FPGA_DPU
и прч.
FPGA в 50 энергоэффективней GPU
Итого – пару часов на чтение документации, и если все брать б/у до 10к рублей на круг.
А еще можно это же все запихать на железо современного "персонального переносного следящего устройства", т.е. мобильника-дебильника. Все оптимизировать под и прч.
А можно и сразу условно говоря в "железо", чтобы работало быстро и не ело батарейку, а еще можно попробовать сделать бизнес на продаже интегрированных решений для, как пыталось сделать нвидиа - https://www.nvidia.com/ru-ru/autonomous-machines/embedded-systems/ , не очень пока летает судя по продажам, тем более конкуренты не спят...
Но сегодня не про технические деталях, сегодня о другом.
Очевидно, что можно навесить любую метамодель на обработанные данные – доработать – у автомобилей выделять номера ( и сразу по ним делать запросы к API к другим бгг системам ), человечков сохранять в виде отдельных изображений с подгрузкой к виртуальным профилям... (так работает интернет слежка со стороны типа коммерсов например, когда по поведению выделяют пользователей ты-тупа или вероятно уже и телесрама, если вдруг кто без симкарты зарегился ).
Если речь про "оффлайн" - дополнительный поток для "обогащения" – с bluetooth и wifi детекторов – поток событий, соответственно если человечек прошел несколько раз перед и специфично исказив "электромагнитное" поле на районе то, можно уже составить соответствующую картинку.
После заливки всего добра в БД современные аналитические системы позволяют отвечать на вопросы вроде – кто ходит по утрам на районе и каким маршрутом.
Или покажи всех залетных в этой локации.
С включением по соответствующему тригеру, соответствующих "скриптов" и это далеко не всегда "продажа" какой нибудь ненужной ботвы.
Систем на рынке работающих в таком режиме уже полным полно - не только причем в "информационном" сегменте, но начали появляться решения вокруг правового поля или "индустриального", и Россия одна из лидеров, есть уже и стандарты проектирования мета систем, увязкой с цифровыми двойниками, повышение надежности одновременно с простотой проектирования за счет "модульности" и прч... соответственно дело только в исходных наборах... и что гораздо важнее речь совсем не про "арифмометры", а про мета модели, которые работают уже с агрегированными данными.
Вот тут начинается самое интересное – системы из "модель" – "поток данных" - "тригер" – "реакция" существовали и до появления цифры как таковой.
И реально ржака - сейчас на фоне этого "прогресса" стали легко обнаруживаться условно говоря "Т-800" (в т.ч. самособранные) – когда всех загнали в телесрам с ты-тупом ( до того как, в другие платформы хе хе) – даже собранный на коленке анализатор, но сканирующий всю поляну, моментально выявляет странные аномалии в шаблонах поведения или генерируемых "словесных" потоках отдельных биоединиц, а также механику срабатывания "тригеров" на, по которым уже соответственно восстанавливаются и "архитектуры с принципами устройства", работающих в мета пространстве самих Систем (и анти-систем, бгг).
Следующий уровень это конечно разбор принципов координации и возникновения самих Систем и там уже механики не так много кстати - работают концептуальные моменты.
Для затравки