-
Этот сайт использует файлы cookie. Продолжая пользоваться данным сайтом, Вы соглашаетесь на использование нами Ваших файлов cookie. Узнать больше.
-
Вступайте в наш Telegram чат: https://t.me/a_parser Нас уже 2600+ и мы растем!Скрыть объявление
A-Parser - парсер для профессионалов SEO
дек
04
36-й сборник рецептов, в котором опубликованы парсер для проверки текстов на уникальность, парсер GitHub и парсер для получения информации о посещаемости сайтов. А также список обновленных пресетов из нашего Каталога.
Проверка текста на уникальность
Задача проверки текстов на уникальность является одной из самых частых для копирайтеров. Возможность осуществлять такую проверку предоставляют много ресурсов. И парсер для одного из таких сервисов опубликован по ссылке выше.
Парсер Github
Согласно Википедии, GitHub - это крупнейший веб-сервис для хостинга IT-проектов и их совместной разработки. Поэтому мы не могли обойти его стороной и публикуем парсер данных о репозиториях при поиске по ключевому слову на данном ресурсе.
Парсинг количества трафика на...
Проверка текста на уникальность
Задача проверки текстов на уникальность является одной из самых частых для копирайтеров. Возможность осуществлять такую проверку предоставляют много ресурсов. И парсер для одного из таких сервисов опубликован по ссылке выше.
Парсер Github
Согласно Википедии, GitHub - это крупнейший веб-сервис для хостинга IT-проектов и их совместной разработки. Поэтому мы не могли обойти его стороной и публикуем парсер данных о репозиториях при поиске по ключевому слову на данном ресурсе.
Парсинг количества трафика на...
дек
04
В связи с Черной пятницей мы разыграли 5 лицензий на А-Парсер среди всех новых участников нашего telegram чата, которые присоединились к нему в период проведения акции. Результаты розыгрыша в видео:
1. 2 декабря 2019 в 12:00 мы зафиксируем новый состав участников чата и сформируем список новых участников, появившихся с момента старта акции
2. С помощью сервиса random.org мы выберем кандидатов для выигрыша для каждой из лицензии
3. Кандидаты будут разделены на основных(зеленые) и запасных(оранжевые), запасные кандидаты будут использованы в порядки их очереди
4. После определения всех кандидатов, мы свяжемся с основными для проверки на ботов и читеров, у каждого кандидата будет до 24 часов на контакт с нами
5. В случае отрицательной проверки - будет выбран следующий кандидат из запасных в порядке очереди, для него будет также проведена проверка
6. Все основные моменты розыгрыша мы запишем на видео и загрузим вместе с...
2. С помощью сервиса random.org мы выберем кандидатов для выигрыша для каждой из лицензии
3. Кандидаты будут разделены на основных(зеленые) и запасных(оранжевые), запасные кандидаты будут использованы в порядки их очереди
4. После определения всех кандидатов, мы свяжемся с основными для проверки на ботов и читеров, у каждого кандидата будет до 24 часов на контакт с нами
5. В случае отрицательной проверки - будет выбран следующий кандидат из запасных в порядке очереди, для него будет также проведена проверка
6. Все основные моменты розыгрыша мы запишем на видео и загрузим вместе с...
ноя
21
В этом видео уроке рассмотрен способ создания пресета для анализа сайта в глубину.
В уроке рассмотрено:
Оставляйте комментарии и подписывайтесь на наш канал на YouTube!
...
В уроке рассмотрено:
- Парсинг в глубину (уровень) сайта относительно страницы запроса при помощи функции "Парсить до уровня"
- Получение title (с очисткой от HTML сущностей)
- Получение таких параметров как:
- кол-во предыдущих редиректов
- код ответа сервера
- кол-во внешних ссылок
- https://a-parser.com/resources/357/ - готовый пресет в Каталоге
- https://a-parser.com/resources/356/ - подробное описание по созданию настроек для парсинга в глубину сайта
- https://a-parser.com/wiki/advanced-options/#parse-all-results - документация по функции "Парсить до уровня"
Оставляйте комментарии и подписывайтесь на наш канал на YouTube!
...
ноя
11
Улучшения
- В SE::Google::ByImage добавлена поддержка рекаптч, а также улучшена работа в целом
- В SE::Yandex добавлена возможность одновременной работы авторазгадывания каптч и антигейта
- В Rank::Ahrefs добавлена возможность выбора типа домена
- Полностью переписан SE::Yandex::SQI, изменен набор собираемых данных
- Реализован бан прокси в SE::DuckDuckGo::Images
- В Net::Whois добавлен парсинг даты освобождения домена
- Оптимизирована работа с прокси при использовании большого числа попыток
- Улучшена работа функции Bypass Cloudflare
- Добавлен tools.aparser.version(), позволяющий получить информацию о версии A-Parser
- В мобильной верстке SE::Google::Modern исправлен парсинг новостей, а также исправлен парсинг ссылок и анкоров в desktop выдаче
- В SE::Yandex...
окт
30
9-й сборник статей. В нем мы разберемся, как делать пресеты для анализа всех страниц сайта, научимся парсить все ссылки сайта из индекса ПС и будем проверять существование запросов. Поехали!
Создание пресета для анализа страниц сайта
Анализ страниц на сайте - это один из самых популярных кейсов использования А-Парсера. При этом можно собирать очень много различных параметров, начиная от проверки доступности и заканчивая поиском определенных слов на странице.
О том, как сделать простой анализатор сайта и пойдет речь в этой статье.
Парсинг разными способами максимум результатов из индекса поисковых систем
Парсинг из индекса поисковых систем всех страниц сайта - это еще один популярный кейс для A-Parser. ПС ограничивают кол-во результатов по одному запросу, поэтому нужно как-то обходить это ограничение. Как это сделать - описано в нашей статье....
Создание пресета для анализа страниц сайта
Анализ страниц на сайте - это один из самых популярных кейсов использования А-Парсера. При этом можно собирать очень много различных параметров, начиная от проверки доступности и заканчивая поиском определенных слов на странице.
О том, как сделать простой анализатор сайта и пойдет речь в этой статье.
Парсинг разными способами максимум результатов из индекса поисковых систем
Парсинг из индекса поисковых систем всех страниц сайта - это еще один популярный кейс для A-Parser. ПС ограничивают кол-во результатов по одному запросу, поэтому нужно как-то обходить это ограничение. Как это сделать - описано в нашей статье....
Страница 24 из 68