Проверка базы сайтов на нахождение определенного текста на странице На входе - файл с ссылками, на выходе - файл с ссылками где встречается искомый текст Используем парсер Net::HTTP для скачивания искомой страницы, в результат сохраняем запрос(ссылку которую проверяем): Фильтруем $data - контент скачанной страницы, тип фильтра Contain string(содержит строку) и указываем саму строку Под эту задачу так же подходит фильтр по регулярному выражению(RegEx match) Другие примеры: Фильтрация картинок по разрешению Фильтрация ссылок по вхождению строки Сохранение сайтов с определённым Google PageRank Парсинг определённых доменных зон Фильтрация ссылок из выдачи Google по признакам У фильтров есть множество вариантов применения, спрашивайте непонятные моменты в этом топике
Подскажите как реализовать следующую проверку: на входе - файл с ссылками, проверяем наличие текста в <body>***</body> Результат нужно получить в виде списка всех ссылок, со значениями 0 (нет совпадений) или 1 (есть совпадения) http://site.ru/example-1.html,0 http://site.ru/example-2.html,1 http://site.ru/example-3.html,0 Заранее спасибо.
Фильтрами это не решить, т.к. когда результат отфильтровывается он не записывается в файл, т.е. с помощью фильтров можно оставлять в файле ссылки только там где есть текст, или наоборот только там где нет зато легко решить с помощью Parse custom result:
Есть список URL, нужно проверить и сохранить, в коде которых есть <span class="UiDlfo" - именно по имени класса. Как реализовать?
Пример есть в первом сообщении либо прямо в Документации: https://a-parser.com/docs/guides/task-settings/results-filters#filter-by-text