python爬虫14--Selenium动态渲染页面抓取
1.声明浏览器对象
from selenium import webdriver browser = webdriver.Chrome() # browser = webdriver.Firefox() # browser = webdriver.Edge()
2.访问页面
from selenium import webdriver browser = webdriver.Chrome() url = ‘http://www.baidu.com‘ browser.get(url) print(browser.page_source) browser.close() #使用完要关闭浏览器
3.节点查找
3.1 单个节点
从淘宝首页提取搜索框
from selenium import webdriver from selenium.webdriver.common.by import By browser = webdriver.Chrome() url = ‘http://www.taobao.com‘ browser.get(url) input_first = browser.find_element_by_id(‘q‘) #根据id获取 input_second = browser.find_elements_by_css_selector(‘#q‘) #根据css选择器获取 input_third = browser.find_element_by_xpath(‘//*[@id="q"]‘) #根据xpath获取 input_forth = browser.find_element(By.ID,‘q‘) #find_element() print(input_first,input_second,input_third,input_forth) browser.close()
运行结果为WebElement类型,<selenium.webdriver.remote.webelement.WebElement (session="47f594f34cc9868f68ab3653e1d542a6">
find_element()方法只查询到第一个节点
3.2 多个节点
查询左侧导航栏
from selenium import webdriver from selenium.webdriver.common.by import By url = ‘http://www.taobao.com‘ browser = webdriver.Chrome() browser.get(url) lis1 = browser.find_elements_by_css_selector(‘.service-bd li‘) #class属性为service-bd的ul下的所有li标签,返回结果为列表 lis2 = browser.find_elements(By.CSS_SELECTOR,‘.service-bd li‘) print(len(lis1),lis1) print(len(lis2),lis2) browser.close()
3.3 节点交互
Selenium可以驱动浏览器来执行一些操作,常用方法有:
- send_keys():输入文字
- clear():清空文字
- click():点击按钮
在输入框中输入要查找的内容进行搜索
from selenium import webdriver import time url = ‘http://www.taobao.com‘ browser = webdriver.Chrome() browser.get(url) input = browser.find_element_by_id(‘q‘) input.send_keys(‘电脑‘) time.sleep(3) input.clear() input.send_keys(‘笔记本电脑‘) button = browser.find_elements_by_css_selector(‘.btn-search tb-bg‘) button.click() browser.close()
3.4 执行JavaScript
对于某些操作selenium API没有提供,如下拉进度条,可以直接模拟运行javascript,使用execute_script()方法。
from selenium import webdriver import time url = ‘http://www.taobao.com‘ browser = webdriver.Chrome() browser.get(url) browser.execute_script(‘window.scrollTo(0,document.body.scrollHeight)‘) time.sleep(5) browser.execute_script(‘alert("To Buttom")‘)
4.获取节点信息
page_source属性可以获取网页源代码,然后可以使用解析库获取信息。
selenium选择节点,返回的WebElement类型,也有对应的属性和方法来获取节点信息。
4.1 获取属性
get_attribute()方法获取属性。
input = browser.find_element_by_id(‘q‘) print(input.get_attribute(‘name‘))
4.2 获取文本值
text属性可获取文本值。
lis = browser.find_elements_by_css_selector(‘.service-bd li‘) for li in lis: print(li.text)
4.3 获取id、位置、标签名和大小
id属性获取节点id;location属性获取该节点在页面中的相对位置;tag_name属性获取标签名;size属性获取节点宽高。
5.切换Frame
iframe即子Frame,相当于页面的子页面,结构和外部网页的结构完全一致,selenium打开页面后,默认在父级的Frame里,不能获取到在子Frame里的节点,需要使用switch_to.frame()方法来切换Frame。
from selenium import webdriver from selenium.common.exceptions import NoSuchElementException browser = webdriver.Chrome() url = ‘https://www.runoob.com/try/try.php?filename=jqueryui-api-droppable‘ browser.get(url) browser.switch_to.frame(‘iframeResult‘) #切换到子Frame try: logo1 = browser.find_element_by_class_name(‘logo‘) except NoSuchElementException: print(‘no logo‘) browser.switch_to.parent_frame() #切换到父级Frame logo = browser.find_element_by_class_name(‘logo‘) print(logo) print(logo.text) browser.close()
6.延时等待
selenium中get()方法会在网页框架加载结束后结束执行,此时如果获取page_source,可能不是浏览器完全加载的页面,所以需要延时等待一段时间,确保节点全部加载。
6.1 隐式等待
使用隐式等待,如果selenium在DOM中没有找到节点,会继续等待,超出设定时间后,会抛出找不到节点的异常,规定了一个固定时间,默认时间为0。用implicitly_wait()实现隐式等待。
from selenium import webdriver browser = webdriver.Chrome() browser.implicitly_wait(10) browser.get(‘http://www.baidu.com‘) input = browser.find_element_by_id(‘kw‘) print(input) browser.close()
6.2显示等待
显示等待指定一个最长等待时间,如果在规定时间内没有加载出来,会抛出超时异常。
from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC browser = webdriver.Chrome() url = ‘http://www.taobao.com‘ browser.get(url) wait = WebDriverWait(browser,10) #引入WebDriverWait对象,指定最长等待时间 input = wait.until(EC.presence_of_element_located((By.ID,‘q‘))) #调用until()方法,传入等待条件expected_conditions button = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR,‘.btn-search‘))) print(input,button) browser.close()
7.前进和后退
back()后退;forward()前进。
from selenium import webdriver import time browser = webdriver.Chrome() browser.get(‘http://www.baidu.com‘) browser.get(‘http://taobao.com‘) browser.get(‘https://www.cnblogs.com/‘) browser.back() time.sleep(3) browser.forward() time.sleep(3) browser.back() time.sleep(3) browser.close()
8.选项卡操作
from selenium import webdriver import time browser = webdriver.Chrome() browser.get(‘http://www.baidu.com‘) browser.execute_script(‘window.open()‘) #新开启一个选项卡,即第二个 print(browser.window_handles) #获取当前开启的所有选项卡,以列表的形式返回,此处两个 browser.switch_to.window(browser.window_handles[1]) #切换到第二个选项卡 browser.get(‘http://taobao.com‘) #在第二个选项卡打开淘宝页面 time.sleep(3) browser.switch_to.window(browser.window_handles[0]) #切换到第一个选项卡 browser.get(‘https://www.cnblogs.com/‘) #在第一个选项卡打开博客页面
更多资料见参考文档:https://selenium-python.readthedocs.io/api.html
9.案例--使用selenium抓取淘宝商品
目标:
利用selenium抓取淘宝商品并用pyquery解析得到商品的图片、名称、价格、购买人数、店铺名称和店铺所在地信息,并保存到MongoDB中。