Иногда приходится разрабатывать большие проекты с парсингом из большого количества сорсов, обновлением данных, проверкой того что парсер не сломался итд. Раньше либо писал сам всё, либо использовал библиотеки типа grablib на питоне, не хочется изобретать велосипед и использовать спец инструменты/фреймворки. Сейчас запускаю подобный проект и подумываю в качестве движка парсинга использовать а-парсер с управлением через API из своей системы. Нравится что уже решены проблемы с прокси, автоповторами, рекапчей итд. При этом опасаюсь что не хватит гибкости в каких-то моментах из-за чего количество неудобств превысит полученные плюшки. У кого есть опыт запуска подобного на данном софте? Плюсы/минусы/подводные камни? Я так понимаю spyserp работает на основе а-парсера?