Cuando trabajamos con scraping web, muchas tareas se repiten constantemente: acceder a una web, esperar a que cargue, extraer datos, guardar resultados, cerrar sesión... Automatizar estos procesos no solo ahorra tiempo, sino que mejora la eficiencia, evita errores humanos y permite escalar proyectos a gran volumen.
Las tareas más comunes que podemos automatizar en un proyecto de scraping incluyen:
Este ejemplo se puede lanzar cada día automáticamente con el uso de tareas programadas.
from selenium import webdriver
from selenium.webdriver.common.by import By
import time
# 1. Inicializa el navegador
driver = webdriver.Chrome()
# 2. Accede a la web
driver.get("https://www.paraisovirgenextra.com/")
# 3. Espera a que cargue el contenido
time.sleep(2)
# 4. Interactúa: rellena formulario y hace clic
driver.find_element(By.XPATH, './/div[@class="ui input"]/input').send_keys("Cañada")
driver.find_element(By.XPATH, './/div[@class="ui input"]/button').click()
# 5. Espera y extrae resultados
time.sleep(2)
resultados = driver.find_elements(By.CLASS_NAME, "precios")
for r in resultados:
print(r.text)Simula un clic sobre un elemento:
driver.find_element(By.ID, "submit").click()Introduce un texto en un formulario:
driver.find_element(By.ID, "comment").send_keys(valoracion)En Windows: Programador de tareas
.py o un archivo .bat que lo invoque.Esta píldora formativa está extraída del Curso online de Web scraping con Selenium: extracción y automatización de datos.
No pierdas tu oportunidad y ¡continúa aprendiendo!
Este sitio utiliza cookies propias y de terceros con fines analíticos anónimos, para guardar tus preferencias y garantizar el correcto funcionamiento del sitio web.
Puedes aceptar todas las cookies, rechazarlas o configurarlas según tus preferencias utilizando los botones correspondientes.
Puedes obtener más información y volver a configurar tus preferencias en cualquier momento en la Política de cookies