Добрый вечер. Ребята подскажите как реализовать: Нужно скачать файлы с сайта (точнее выкачать сайт большой) У меня есть файл со ссылками, некоторые с расширением html, другие просто в папке/.. как реализовать скачивание файлов, чтобы каждый файл на выходе назывался точно так как и урл в ссылке Cылка http://ru.ru/bla_bla.html - файл получается bla_bla.html И возможно вообще ли вообще просто выкачать сайт да и все за раз?
То же интересно - на данный момент со всеми новыми обновлениями апарсера есть ли возможность им скачивать html страницы или полностью выкачивать сайты ?
Просто скачивать html страницы можно было всегда: для этого можно использовать парсер Net::HTTP и выводить в результат $data А выкачивать полностью сайты, с сохранением перелинковки и со всеми JS/CSS файлами - значительно сложнее, и на данный момент такого решения нет.