Cuando trabajamos con scraping web, muchas tareas se repiten constantemente: acceder a una web, esperar a que cargue, extraer datos, guardar resultados, cerrar sesión... Automatizar estos procesos no solo ahorra tiempo, sino que mejora la eficiencia, evita errores humanos y permite escalar proyectos a gran volumen.
Las tareas más comunes que podemos automatizar en un proyecto de scraping incluyen:
Este ejemplo se puede lanzar cada día automáticamente con el uso de tareas programadas.
from selenium import webdriver from selenium.webdriver.common.by import By import time # 1. Inicializa el navegador driver = webdriver.Chrome() # 2. Accede a la web driver.get("https://www.paraisovirgenextra.com/") # 3. Espera a que cargue el contenido time.sleep(2) # 4. Interactúa: rellena formulario y hace clic driver.find_element(By.XPATH, './/div[@class="ui input"]/input').send_keys("Cañada") driver.find_element(By.XPATH, './/div[@class="ui input"]/button').click() # 5. Espera y extrae resultados time.sleep(2) resultados = driver.find_elements(By.CLASS_NAME, "precios") for r in resultados: print(r.text)Simula un clic sobre un elemento: driver.find_element(By.ID, "submit").click()Introduce un texto en un formulario: driver.find_element(By.ID, "comment").send_keys(valoracion)En Windows: Programador de tareas
.py o un archivo .bat que lo invoque.Esta píldora formativa está extraída del Curso online de Web scraping con Selenium: extracción y automatización de datos.
No pierdas tu oportunidad y ¡continúa aprendiendo!
Este sitio utiliza cookies propias y de terceros con fines analíticos anónimos, para guardar tus preferencias y garantizar el correcto funcionamiento del sitio web.
Puedes aceptar todas las cookies, rechazarlas o configurarlas según tus preferencias utilizando los botones correspondientes.
Puedes obtener más información y volver a configurar tus preferencias en cualquier momento en la Política de cookies