Posibilidades ilimitadas en A-Parser

Hemos reunido todos los beneficios en una sola página; puede encontrar información detallada sobre cada función en la documentación.

Windows
Linux
macOS (Docker)
Logotipos de los Scrapers en el fondo

Editor de tareas

Múltiples Scrapers en una sola tarea

Utilice hasta 20 extractores en una sola tarea, distribuyendo los hilos de manera uniforme para reducir los bloqueos de proxies y aumentar la velocidad de extracción de datos.

Preajustes de Scraper

Numerosas configuraciones para cada scraper pueden guardarse en preajustes separados y reutilizarse en varias tareas.

Constructor de consultas

La separación de los datos de entrada le permite cambiar el formato de la consulta y escribir datos relacionados adicionales en los resultados.

Formateo de consultas

Un formato de consulta separado para cada scraper dentro de una tarea, con control sobre el orden de ejecución del formateo.

Deduplicación de consultas

Si no está seguro de los datos de entrada, A-Parser se asegura de que no se realice ningún trabajo redundante.

Macros de sustitución

Expansión automática de consultas, sustitución de subconsultas de archivos e iteración a través de combinaciones alfanuméricas y listas.

Formateo de resultados

El potente Template Toolkit le permite aplicar lógica adicional a los resultados y generar datos en varios formatos, incluyendo JSON, SQL y CSV.

Deduplicación de resultados

Las capacidades avanzadas de deduplicación garantizan la unicidad de las cadenas, enlaces y dominios que recibe.

Filtrado de resultados

Guarde solo los datos que cumplan con sus criterios: coincidencias de subcadenas, comparaciones numéricas o expresiones regulares.

Guardado simultáneo en diferentes archivos

Utilice diferentes formatos para diferentes archivos y aplique condiciones y filtros adicionales, todo dentro de una sola tarea para conservar los recursos de análisis.

Registro de tareas

Un registro detallado para cada hilo y cada consulta permite una depuración rápida y conveniente de las tareas.

Encadenamiento de tareas

Extienda la lógica de A-Parser ejecutando automáticamente diferentes tareas en secuencia, pasando los resultados de una tarea como consultas para la siguiente.

Guardado de bases de datos de deduplicación

¿Construyendo bases de datos a partir de múltiples tareas? El guardado de las bases de datos de deduplicación garantiza que siempre obtendrá solo resultados nuevos.

Control del número de hilos

Al ejecutar cada tarea con un número específico de hilos, puede asegurarse de que A-Parser no exceda su plan de proxies o los recursos de su servidor.

Depurador de tareas

Utilice el depurador para verificar rápidamente el funcionamiento de una tarea durante su creación, con una ejecución rápida y una visualización clara del registro.

Cola de tareas y programador

Adición de múltiples tareas

La cola de tareas le libera de esperar a que termine una tarea. Añada un número ilimitado de tareas independientes.

Ejecución simultánea de tareas

Controle el número de tareas que se ejecutan simultáneamente, reduciendo significativamente el tiempo total para obtener resultados.

Gestión de tareas

Inicie, pause, edite o elimine tareas. Reanude las tareas desde donde las dejó; A-Parser continuará recopilando información.

Prioridades de tareas

Con una gran cola de tareas, es crucial controlar qué tareas comienzan antes que otras.

Límite dinámico de hilos

Establezca un límite global de hilos para todas las tareas, y A-Parser distribuirá automáticamente los hilos entre las tareas activas.

Historial de tareas

Acceda a un historial completo de tareas completadas, vea estadísticas y vuelva a añadir tareas para otra ejecución.

Programador de tareas

Ejecute tareas recurrentes utilizando el programador de tareas con configuraciones flexibles para los intervalos de repetición.

Verificadores de proxies y gestión de proxies

Soporte para proxies HTTP(S) y SOCKS4/5

A-Parser funciona con todos los protocolos proxy, y el verificador de proxies puede probar todos los tipos simultáneamente.

Verificadores de proxies ilimitados

Añada verificadores de proxies separados para diferentes fuentes de proxies, cada uno con sus propias configuraciones de verificación.

Verificación y descarga de proxies multihilo

Gestione el número de hilos de verificación y descarga por separado para cada verificador de proxies.

Soporte para proxies con autorización

Especifique las credenciales de acceso del proxy en la configuración del verificador de proxies o en listas de proxies con datos de autorización separados.

Varios tipos de verificación

A-Parser verifica el soporte del método POST, el anonimato, el tiempo de respuesta y otros parámetros de los proxies.

Opción para desactivar la verificación de proxies

Si confía en que sus proxies funcionan, puede desactivar la verificación para ahorrar recursos.

Selección de verificador de proxies por tarea

Para cada tarea, puede seleccionar fuentes de proxies específicas, lo que permite una asignación flexible de recursos.

Selección de verificador de proxies por Scraper

Para una flexibilidad aún mayor, utilice diferentes proxies dentro de una sola tarea, como proxies separados para los scrapers de Google y Yandex.

Baneo de proxies

Si un servicio bloquea un proxy, A-Parser dejará de usarlo durante un tiempo especificado, reduciendo las solicitudes fallidas.

Límite de hilos por proxy

Puede limitar el número máximo de hilos por proxy para evitar el uso excesivo de sus recursos.

Reutilización de proxies entre intentos

Por defecto, A-Parser utiliza un proxy único para cada intento de descarga de datos, pero este comportamiento puede cambiarse.

Reserva de proxies

Esta función le permite excluir ciertos proxies del uso general y asignarlos solo a tareas específicas.

Configuraciones flexibles

Todas las configuraciones organizadas en preajustes

Guarde grupos de configuraciones en diferentes preajustes y reutilícelos en varias tareas.

Configuraciones detalladas para cada Scraper

Por ejemplo, el scraper de Google permite especificar el número de páginas, resultados por página, configuraciones de idioma, geolocalización y mucho más.

Importación y exportación

Exporte sus configuraciones y scrapers para compartirlos con otros, o importe tareas preestablecidas de nuestro catálogo.

Multihilo y rendimiento

Arquitectura asíncrona

A-Parser está construido sobre una arquitectura completamente asíncrona, capaz de ejecutar hasta 10.000 hilos asíncronos concurrentes.

Numerosas optimizaciones

A-Parser emplea muchas optimizaciones para un mejor rendimiento, y constantemente perfilamos y mejoramos nuestro código.

Millones y miles de millones de consultas y resultados

No hay límites en el número de consultas, el tamaño de los archivos de consulta o el número de resultados.

Bajo consumo de recursos

La mayoría de las tareas se ejecutan sin problemas en cualquier ordenador de oficina o doméstico estándar, así como en cualquier VDS de nivel básico.

Distribución de carga entre núcleos

Actualmente, A-Parser puede utilizar eficientemente hasta 4 núcleos de procesador. Pronto estará disponible una licencia con soporte ilimitado de núcleos.

Reconocimiento de captchas

Integración con XEvil y CapMonster

El software de reconocimiento CAPTCHA más popular soporta muchos tipos de CAPTCHAs, incluyendo reCAPTCHA v2.

Integración con servicios de reconocimiento en línea

Ofrecemos integración con la gran mayoría de servicios, incluyendo Anti-Captcha, RuCaptcha, CapMonster.cloud, 2captcha y otros.

Soporte de reconocimiento en los Scrapers

El soporte de reconocimiento de CAPTCHA está integrado en todos los scrapers populares. También puede usarlo desde sus propios scrapers personalizados de JavaScript.

Desarrollo de preajustes basados en expresiones regulares

Recopilación de datos de sitios arbitrarios

Aplique expresiones regulares a los datos obtenidos del scraper Net::HTTP o del spider HTML::LinkExtractor.

Trabajo con variables y arrays

Recopile puntos de datos individuales en variables o bloques repetitivos (listas, tablas) en arrays. Muestre los datos en un formato conveniente utilizando el motor de plantillas.

Ampliación de las capacidades del Scraper estándar

Puede aplicar procesamiento adicional a los datos fuente de todos los scrapers integrados (por ejemplo, resultados de búsqueda de Google).

Navegación por paginación

Utilice expresiones regulares para encontrar enlaces a la siguiente página de paginación, y A-Parser navegará automáticamente por todas las páginas.

Validación de datos

Utilice expresiones regulares para validar contenido, verificar bloqueos de proxies o detectar captchas. A-Parser reintentará automáticamente con otro proxy en caso de fallo.

Procesamiento adicional de resultados

Con el constructor de resultados, puede realizar operaciones de búsqueda y reemplazo utilizando expresiones regulares en los resultados de scraping.

Desarrollo de Scrapers en JavaScript

Código JavaScript simple y conciso

Código lineal y síncrono utilizando async/await, que A-Parser ejecutará en un entorno multihilo.

Manejo de proxies y reintentos

A-Parser le permite concentrarse en escribir código de extracción y transformación de datos, manejando automáticamente toda la gestión de proxies y los reintentos.

Soporte de TypeScript

Escriba en JavaScript moderno (ES2020+) o utilice TypeScript para una tipificación fuerte y resaltado de sintaxis.

Uso de módulos Node.js

El vasto catálogo de módulos NPMJS le permite extender las capacidades de extracción y procesamiento de datos de A-Parser de forma ilimitada.

Control de Chrome vía Puppeteer con soporte de proxies

A-Parser añade soporte para proxies a la popular biblioteca Puppeteer, permitiendo el uso automático de diferentes proxies para diferentes pestañas.

Llamada a scrapers integrados y a otros scrapers de JavaScript

Puede enviar solicitudes a cualquier scraper integrado o a otros scrapers de JavaScript, lo que permite la creación de lógica arbitrariamente compleja.

Automatización y API

Control total vía API HTTP/JSON

Envíe solicitudes HTTP desde sus propios programas y scripts, o utilice nuestras bibliotecas prefabricadas para Node.js, Python, PHP y Perl.

Creación de tareas

Añada tareas por nombre de preajuste o proporcionando una estructura JSON completa con configuraciones detalladas.

Gestión de la cola

Obtenga control total sobre la cola de tareas, rastree los estados de las tareas y descargue los resultados.

Solicitudes únicas y masivas en modo de bloqueo

Envíe una solicitud HTTP y reciba los resultados inmediatamente al finalizar la recopilación de datos.

API de Redis

Nuestra solución para proyectos de alta carga. Conecte un número ilimitado de instancias de A-Parser para procesar solicitudes API en una cola de Redis con mínima latencia.

Actualización de A-Parser vía API

Para una automatización completa, está disponible una actualización remota de A-Parser a través de una llamada a la API.

Mejoras continuas y soporte

Más de 140 versiones de A-Parser lanzadas desde 2011

La constante evolución de A-Parser proporciona a nuestros usuarios nuevas capacidades año tras año.

Actualizaciones regulares de Scrapers integrados

Probamos todos los scrapers integrados diariamente y automáticamente, lo que nos permite lanzar actualizaciones rápidamente en respuesta a cualquier cambio de diseño o resultado.

Soporte técnico

El soporte técnico gratuito está disponible para todos nuestros usuarios y es considerado por ellos como el mejor entre productos similares.

Materiales educativos

Publicamos regularmente materiales educativos, ejemplos de preajustes y extractores, así como vídeos tutoriales en nuestro canal de YouTube.

Escuchamos sus comentarios en nuestro foro

La mayoría de las nuevas funciones y scrapers se desarrollan basándose en las solicitudes de nuestros usuarios.

Servicios de pago

Podemos ahorrarle tiempo ofreciendo el desarrollo personalizado de scrapers en nuestra plataforma, así como la integración con su lógica de negocio y bases de datos.

Elija la licencia adecuada

Licencia de por vida, las actualizaciones se compran por separado

A-Parser Lite

Extractores básicos de Google y Yandex

$ 179
  • Incluye extractores de Google y Yandex
  • 3 meses de actualizaciones
  • Proxies adicionales: 20 hilos durante 2 semanas
  • Soporte
Popular

A-Parser Pro

Acceso a todos los extractores

$ 299
  • Suite completa de más de 110 extractores
  • Cree sus propios extractores JavaScript
  • 6 meses de actualizaciones
  • Proxies adicionales: 50 hilos durante un mes
  • Incluye todas las características del plan Lite

A-Parser Enterprise

Acceso a todos los extractores y API

$ 479
  • Control de API
  • Procesamiento de tareas multinúcleo
  • Integración con Redis
  • Incluye todas las características del plan Pro

Actualizaciones: $49 por 3 meses, $149 por un año, o $399 de por vida

Soluciones de pago

Desarrollo de extractores personalizados

Creemos que cualquier dato puede extraerse.

Ofrecemos soluciones personalizadas para obtener cualquier dato de cualquier sitio web.

Desarrollaremos un extractor que exporte los resultados en el formato que necesites, según tus requisitos.