Сейчас делаю рефспам Хрумером и увидел на ГФБ про рефспам апарсером. Особенно понравилось: Подскажите как...
Дак очень просто, берем Net::HTTP и в Additional headers указываем хедер Referer: с нужным параметром
как обычно... подавать на вход комбинацию ресурс куда отправлять + кого спамим разделять запрос через Query builder указывать нужную часть в нужном месте
Можно сделать так что бы тянулись данные из разных файлов + зациклить + указать количество реферер запросов за раз?
в примере данные и так тянутся из разных файлов, это вообще не относится конкретно к рефспаму, это стандартные возможности парсера, рекомендую почитать документацию http://a-parser.com/wiki/query-format/ также и количество итераций можно задать, например добавляя к исходной ссылке #{num:1:100}: $query#{num:1:100};{subs:spam} якорь # будет отброшен при передачи запроса по HTTP
Доброго дня всем, настроил все по скринам, но у меня не работает, посмотрел снифером, получается что апарсер шлет запросы с пустым referer на те страницы которые должны быть в запросе как referer. Поделитесь плз пресетом. Выяснил что не отрабатывает string split в source query и сепаратор, как решить вопрос?
Добрый день. Проблема в том, что скрин выше уже немного устарел. Сейчас, для того, чтобы данное задание работало, нужно включить опцию Query Builders after format. Спойлер: Код для импорта Код: eyJwcmVzZXQiOiJSZWZzcGFtIiwidmFsdWUiOnsicHJlc2V0IjoiUmVmc3BhbSIs InBhcnNlcnMiOltbIk5ldDo6SFRUUCIsImRlZmF1bHQiLHsidHlwZSI6Im92ZXJy aWRlIiwiaWQiOiJoZWFkZXJzIiwidmFsdWUiOiJSZWZlcmVyOiAkcXVlcnkubGlu ayJ9LHsidHlwZSI6Im92ZXJyaWRlIiwiaWQiOiJmb3JtYXRyZXN1bHQiLCJ2YWx1 ZSI6IiRxdWVyeSAtICRxdWVyeS5saW5rOiAkY29kZVxcbiJ9XV0sInJlc3VsdHNG b3JtYXQiOiIkcDEucHJlc2V0IiwicmVzdWx0c1NhdmVUbyI6ImZpbGUiLCJyZXN1 bHRzRmlsZU5hbWUiOiIkZGF0ZWZpbGUuZm9ybWF0KCkudHh0IiwiYWRkaXRpb25h bEZvcm1hdHMiOltdLCJyZXN1bHRzVW5pcXVlIjoibm8iLCJxdWVyeUZvcm1hdCI6 WyIkcXVlcnk7e3N1YnM6c3BhbX0iXSwidW5pcXVlUXVlcmllcyI6ZmFsc2UsInNh dmVGYWlsZWRRdWVyaWVzIjpmYWxzZSwiaXRlcmF0b3JPcHRpb25zIjp7Im9uQWxs TGV2ZWxzIjpmYWxzZSwicXVlcnlCdWlsZGVyc0FmdGVySXRlcmF0b3IiOnRydWV9 LCJyZXN1bHRzT3B0aW9ucyI6eyJvdmVyd3JpdGUiOmZhbHNlfSwiZG9Mb2ciOiJk YiIsImtlZXBVbmlxdWUiOiJObyIsIm1vcmVPcHRpb25zIjpmYWxzZSwicmVzdWx0 c1ByZXBlbmQiOiIiLCJyZXN1bHRzQXBwZW5kIjoiIiwicXVlcnlCdWlsZGVycyI6 W3sic291cmNlIjoicXVlcnkiLCJ0eXBlIjoic3RyaW5nU3BsaXQiLCJzZXBhcmF0 b3IiOiI7IiwidG8iOlsicXVlcnkiLCJsaW5rIl19XSwicmVzdWx0c0J1aWxkZXJz IjpbXSwiY29uZmlnT3ZlcnJpZGVzIjpbXX19
Оптимально это брать базу и делать по ней реф-рассылку, например с доменом: jhflhlkdshjsjhslsdfhgf.ru и потом недели 2 парсить поисковики и собирать появившиеся ссылки. Так получим реально работающие сылки, при этом быстроиндексируемые. Потом их можно прочекать на наличии ссылки на странице. Аналогично делаю когда рассылаю объявы хрумером по сырой базе, и получаю только реально работающие..
В файле запросов - список сайтов, на которые будут делаться запросы (с http://). В файле queries/subs/spam.txt - список рефереров.
то есть из файла spam.txt апарсер будет брать по порядку каждую строку и рефспамить её указанное количество раз, каждой на каждую строку в списоке сайтов, на которые будут делаться запросы?