1. Вступайте в наш Telegram чат: https://t.me/a_parser Нас уже 2600+ и мы растем!
    Скрыть объявление

A-Parser - парсер для профессионалов SEO

июл
28
by Support at 12:39
(1.089 Просмотров / 0 Симпатии)
4 Комментарии
Мы расширили возможности: теперь в вашем распоряжении более 100 000 резидентных прокси с автоматической ротацией IP каждые 5 минут, до 2000 потоков одновременно и безлимитный трафик - идеально для стабильной и быстрой работы с A-Parser.

Оптимальны для:
  • Масштабного парсинга поисковых систем (Google, Bing, Yahoo, DuckDuckGo)
  • Сбора данных с маркетплейсов: Amazon, eBay, Aliexpress и др.
  • Парсинга каталогов, агрегаторов, отзывов и локальных бизнесов
  • Мониторинга цен, позиций и наличия товаров
  • Многопоточной работы через A-Parser и API
  • Безопасного обхода блокировок и антибот-систем
Актуальные тарифы (безлимитный трафик, IP-ротация, поддержка 7/7):

На 7 дней:
  • 20 потоков — $10
  • 50 потоков — $17
  • 100 потоков — $25
  • 200 потоков — $39
  • 500 потоков — $95
  • 1000 потоков — $189
  • 2000 потоков — $379
На 31 день:
  • 20 потоков — $29
  • 50 потоков...
июл
17
by Support at 13:10
(1.892 Просмотров / 0 Симпатии)
0 Комментарии
Улучшения
  • Добавлено 6 новых FreeAI парсеров, каждый из которых предоставляет возможность парсить ИИ ответы с соответствующих сервисов без необходимости регистрации и использования API:
  • В SE::Google SE::Google добавлена возможность парсить AI Overview (ИИ ответ) вместе с массивом источников
  • В SE::Yandex SE::Yandex добавлена возможность парсить ответ от Алисы (ИИ ответ) вместе с массивом источников
  • В SE::Yandex::WordCraft SE::Yandex::WordCraft добавлена опция Parse queries for Rivals pages, при включении которой собираются популярные запросы для каждой из ссылок в Rivals pages
  • В SE::Google SE::Google улучшен сбор totalcount
  • В Net::Whois Net::Whois...
июл
07
by Support at 11:24
(2.774 Просмотров / 1 Симпатии)
0 Комментарии
Только 3 дня - тестовый пакет Premium Proxy на 3 Гигабайта для всех!

Доступно всем, даже если у вас нет лицензии на A-Parser или если вы уже использовали триал
✅ Варианты использования не ограничены, идеально подходит как для парсинга, так и для браузинга
✅ 10 миллионов IP адресов в 200 странах и 5000+ городах
Подробное описание, для активации триала перейдите в Личный кабинет
✅ При возникновении любых вопросов пишите в нашу поддержку @aparser_bot
июн
30
by Support at 11:30
(3.018 Просмотров / 0 Симпатии)
0 Комментарии
Парсинг популярных запросов за сутки Google Trends
Обновление парсера для сбора поисковых трендов за сутки с Google Trends.
  • Теперь в качестве запросов нужно указывать код региона, для которого нужно собрать тренды. Тем самым можно сразу парсить данные со всех необходимых регионов.
Rozetka - получение данных по API
Обновление парсера для сбора данных о товарах на торговой площадке Rozetka.
  • Парсер полностью переписан и адаптирован к актуальному API Rozetka
  • Изменен набор собираемых данных
Парсер постов из X (Twitter)
Обновление парсера постов из социальной сети X (Twitter).
  • Парсер переписан на TypeScript(API v2)
  • Улучшена работа с браузером
  • Полностью изменены собираемые...
июн
09
by Support at 15:14
(3.737 Просмотров / 0 Симпатии)
0 Комментарии
Улучшения
  • NodeJS обновлен до версии 22.15.1
  • Во всех парсерах Яндекс теперь используется общий модуль авторизации (где это необходимо)
  • SE::Yandex SE::Yandex - добавлена возможность отключать сессии
  • Maps::Google Maps::Google - реализована возможность многостраничного парсинга, добавлен сбор одиночного результата
  • OpenAI::ChatGPT OpenAI::ChatGPT - обновлены модели, добавлена опция Additional options для указания дополнительных параметров
  • Check::BackLink Check::BackLink - проверка robots.txt теперь учитывает параметр Don't verify TLS certs
  • В Util::AntiGate Util::AntiGate добавлена поддержка Botlab для текстовых каптч
  • В Util::* парсерах изменено значение таймаута по-умолчанию:
    • для AntiCaptcha - 5 сек
    • для других провайдеров - 15 сек
    • это обновление важно для всех, кто сталкивался с блокировкой от сервисов разгадывания за слишком большое количество запросов с ошибками
    ...