1. Этот сайт использует файлы cookie. Продолжая пользоваться данным сайтом, Вы соглашаетесь на использование нами Ваших файлов cookie. Узнать больше.
  2. Вступайте в наш Telegram чат: https://t.me/a_parser Нас уже 2600+ и мы растем!
    Скрыть объявление

A-Parser - парсер для профессионалов SEO

дек
04
by Support at 15:07
(7.974 Просмотров / 0 Симпатии)
0 Комментарии
36-й сборник рецептов, в котором опубликованы парсер для проверки текстов на уникальность, парсер GitHub и парсер для получения информации о посещаемости сайтов. А также список обновленных пресетов из нашего Каталога.

Проверка текста на уникальность
Задача проверки текстов на уникальность является одной из самых частых для копирайтеров. Возможность осуществлять такую проверку предоставляют много ресурсов. И парсер для одного из таких сервисов опубликован по ссылке выше.

Парсер Github
Согласно Википедии, GitHub - это крупнейший веб-сервис для хостинга IT-проектов и их совместной разработки. Поэтому мы не могли обойти его стороной и публикуем парсер данных о репозиториях при поиске по ключевому слову на данном ресурсе.
[​IMG]

Парсинг количества трафика на...
дек
04
by Support at 15:04
(6.712 Просмотров / 0 Симпатии)
0 Комментарии
В связи с Черной пятницей мы разыграли 5 лицензий на А-Парсер среди всех новых участников нашего telegram чата, которые присоединились к нему в период проведения акции. Результаты розыгрыша в видео:



1. 2 декабря 2019 в 12:00 мы зафиксируем новый состав участников чата и сформируем список новых участников, появившихся с момента старта акции
2. С помощью сервиса random.org мы выберем кандидатов для выигрыша для каждой из лицензии
3. Кандидаты будут разделены на основных(зеленые) и запасных(оранжевые), запасные кандидаты будут использованы в порядки их очереди
4. После определения всех кандидатов, мы свяжемся с основными для проверки на ботов и читеров, у каждого кандидата будет до 24 часов на контакт с нами
5. В случае отрицательной проверки - будет выбран следующий кандидат из запасных в порядке очереди, для него будет также проведена проверка
6. Все основные моменты розыгрыша мы запишем на видео и загрузим вместе с...
ноя
21
by Support at 15:50
(8.281 Просмотров / 1 Симпатии)
0 Комментарии
В этом видео уроке рассмотрен способ создания пресета для анализа сайта в глубину.



В уроке рассмотрено:
  • Парсинг в глубину (уровень) сайта относительно страницы запроса при помощи функции "Парсить до уровня"
  • Получение title (с очисткой от HTML сущностей)
  • Получение таких параметров как:
    • кол-во предыдущих редиректов
    • код ответа сервера
    • кол-во внешних ссылок
Полезные ссылки:

Оставляйте комментарии и подписывайтесь на наш канал на YouTube!

...
ноя
11
by Support at 12:21
(8.772 Просмотров / 0 Симпатии)
0 Комментарии
Улучшения
  • В SE::Google::ByImage SE::Google::ByImage добавлена поддержка рекаптч, а также улучшена работа в целом
  • В SE::Yandex SE::Yandex добавлена возможность одновременной работы авторазгадывания каптч и антигейта
  • В Rank::Ahrefs Rank::Ahrefs добавлена возможность выбора типа домена
  • Полностью переписан SE::Yandex::SQI SE::Yandex::SQI, изменен набор собираемых данных
  • Реализован бан прокси в SE::DuckDuckGo::Images SE::DuckDuckGo::Images
  • В Net::Whois Net::Whois добавлен парсинг даты освобождения домена
  • Оптимизирована работа с прокси при использовании большого числа попыток
  • Улучшена работа функции Bypass Cloudflare
  • Добавлен tools.aparser.version(), позволяющий получить информацию о версии A-Parser
Исправления в связи с изменениями в выдаче
  • В мобильной верстке SE::Google::Modern SE::Google::Modern исправлен парсинг новостей, а также исправлен парсинг ссылок и анкоров в desktop выдаче
  • В SE::Yandex SE::Yandex...
окт
30
by Support at 12:13
(8.754 Просмотров / 2 Симпатии)
0 Комментарии
9-й сборник статей. В нем мы разберемся, как делать пресеты для анализа всех страниц сайта, научимся парсить все ссылки сайта из индекса ПС и будем проверять существование запросов. Поехали!

Создание пресета для анализа страниц сайта
Анализ страниц на сайте - это один из самых популярных кейсов использования А-Парсера. При этом можно собирать очень много различных параметров, начиная от проверки доступности и заканчивая поиском определенных слов на странице.
О том, как сделать простой анализатор сайта и пойдет речь в этой статье.

Парсинг разными способами максимум результатов из индекса поисковых систем
Парсинг из индекса поисковых систем всех страниц сайта - это еще один популярный кейс для A-Parser. ПС ограничивают кол-во результатов по одному запросу, поэтому нужно как-то обходить это ограничение. Как это сделать - описано в нашей статье....