http://a-parser.com/threads/785/#post-1867 только в новых версиях формат запроса должен выглядеть так: Код: site:$query
Не стал создавать новую тему, т.к. есть похожая задача. Подскажите пожалуйста, как сделать пресет. Очень нужно прогнать на индексацию в Яндекс/Google список страниц (не сайтов). Т.е. необходимо загрузить список урлов одного сайта (2-3 тыс.) и получить по ним статус индексации (Google, Google_main, Yandex, а может даже в Bing и Yahoo). Заранее спасибо.
Добрый день Нужно проверить страницы на индекс в гугле и яндексе. На выходе нужно получить файл (ексель). И например если страница в гугле поставить 1 если нету 0. Делаю все, как выше на скриншоте. Но! результата нету Что не так?
Сверху с ошибкой был запрос. Я так пишу: $query.orig, Google: $p1.totalcount, Yandex: $p2.totalcount\n или так: $query:$p1.totalcount\n$p1.serp.format('$link\n') Но результат не записывется в файл.
Картинки не грузятся, результат в любом случае должен писаться, покажи как именно выглядит файл результата после завершения задания
Задание в работе - поэтому и пустой файл И оно будет висеть и ждать прокси(Wait proxy threads) пока ты не подключишь прокси к парсеру
Ок, работает. Еще только два вопроса. Как задать точную форму запроса site:"query", что была проверка только одной конкретной ссылки, чтоб totalcount был 1, а не 45422? Как вывести этот результат в ексель файл в две строки. Сссылка и число? Спасибо.
этого можно добиться только указывая ссылку на конкретную страницу сайта, если указывать ссылку на корень сайта то гугл будет выдавать количество всех проиндексированных страниц, это можно обработать с помощью шаблона: Код: [% p1.totalcount ? 1 : 0 %] Код: $query\n$p1.totalcount\n
Спасибо. Еще такой вопрос. Как сделать, чтобы результат который записывается в csv файл, был не строкой, а в две колонки, чтоб можно было отсортировать. Сейчас результат просто записывается в сроку.
Спасмбо, с этим разобрались. Еще вопрос про скорость. Сейчас очень-очень медленая скорость. Speed cur/avg:52/32 В общем с такой скоростью 1 тыс. строк будет проверять целый день)) Прокси рабочие.