目录

Python+Requests+lxml爬虫

misaraty 更新 | 2022-01-26
前言
关于Python爬虫的简单介绍。

爬虫方案

Python爬虫方案大体有以下四种:

  1. Requests + Beautiful Soup 4 + Selenium
  2. Requests + lxml + Selenium
  3. Scrapy
  4. Requests-HTML

我更喜欢Requests + lxml模式。

安装

1
2
conda install -c conda-forge requests
conda install -c conda-forge lxml

示例

1
url = 'https://www.aqistudy.cn/historydata/'
  • 伪装成浏览器或者搜索引擎蜘蛛,此处提供了三种写法,我倾向Baiduspider+
1
2
3
# headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36'}
headers = {'user-agent': 'Baiduspider+(+http://www.baidu.com/search/spider.htm)'}
# headers = {'user-agent': 'Googlebot/2.1(+http://www.google.com/bot.html)'}
1
2
3
4
5
6
7
8
ip_list = [
    '60.167.135.117:1133',
    '116.27.98.201:9999',
    '183.166.21.49:9999'
]
proxies = {
    'http': random.choice(ip_list)
}
  • 确定XPath信息,从网站中随意点击两个城市名,借助Chrome浏览器的更多工具开发者工具CopyCopy XPath,对比这两个XPath

./xpath.png
XPath

1
2
3
/html/body/div[3]/div/div[1]/div[2]/div[2]/ul[2]/div[2]/li[5]/a
/html/body/div[3]/div/div[1]/div[2]/div[2]/ul[4]/div[2]/li[6]/a
# /html/body/div[3]/div/div[1]/div[2]/div[2]/ul/div[2]/li/a/text()
  • XPath写法为/html/body/div[3]/div/div[1]/div[2]/div[2]/ul/div[2]/li/a/text()
1
2
3
4
5
response = requests.get(url=url, headers=headers, proxies=proxies)
response.encoding = 'utf-8'
tree = etree.HTML(response.text)
city = tree.xpath('/html/body/div[3]/div/div[1]/div[2]/div[2]/ul/div[2]/li/a/text()')
print(city)
  • 全部代码如下,
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
#!/usr/bin/env python
# -*-coding:utf-8 -*-
import os
import re
import linecache
import math
import random
# import time
# import datetime
import shutil
# import numpy as np
import requests
from lxml import etree
# import matplotlib.pyplot as plt
os.chdir(os.path.split(os.path.realpath(__file__))[0])
 
url = 'https://www.aqistudy.cn/historydata/'
# 头部信息,将该请求伪装成浏览器的请求
# headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36'}
headers = {'user-agent': 'Baiduspider+(+http://www.baidu.com/search/spider.htm)'}
# headers = {'user-agent': 'Googlebot/2.1(+http://www.google.com/bot.html)'}
# user_agent_list = [
    # 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36',
    # 'Baiduspider+(+http://www.baidu.com/search/spider.htm)',
    # 'Googlebot/2.1(+http://www.google.com/bot.html)'
# ]
# headers ={
    # 'User-Agent': 'random.choice(user_agent_list)'
# }
# https://developers.whatismybrowser.com/useragents/explore/software_name/baidu-spider/
# https://developers.google.com/search/docs/advanced/crawling/overview-google-crawlers
# https://www.cnblogs.com/byeb/articles/9942858.html
ip_list = [
    '60.167.135.117:1133',
    '116.27.98.201:9999',
    '183.166.21.49:9999'
]
proxies = {
    'http': random.choice(ip_list)
}
# proxies = {
  # 'http': 'http://10.10.1.10:3128',
  # 'https': 'http://10.10.1.10:1080',
# }
# https://gohom.win/2016/01/21/proxy-py/
# https://blog.csdn.net/qq_39610888/article/details/81209647
# https://www.kuaidaili.com/free/
response = requests.get(url=url, headers=headers, proxies=proxies)
response.encoding = 'utf-8'
tree = etree.HTML(response.text)
city = tree.xpath('/html/body/div[3]/div/div[1]/div[2]/div[2]/ul/div[2]/li/a/text()')
print(city)    
    
######    
# https://blog.csdn.net/qq_37251994/article/details/107844882
# https://blog.csdn.net/qq_37251994/article/details/108132122
# https://blog.51cto.com/13760351/2512753
  • 运行结果为,
1
['阿坝州', '安康', '阿克苏地区', '阿里地区', '阿拉善盟', '阿勒泰地区', '安庆', '安顺', '鞍山', '克孜勒苏州', '安阳', '蚌埠', '白城', '保定', '北海', '宝鸡', '北京', '毕节', '博州', '白山', '百色', '保山', '白沙', '包头', '保亭', '本溪', '巴彦淖尔', '白银', '巴中', '滨州', '亳州', '长春', '昌都', '常德', '成都', '承德', '赤峰', '昌吉州', '五家渠', '昌江', '澄迈', '重庆', '长沙', '常熟', '楚雄州', '朝阳', '沧州', '长治', '常州', '潮州', '郴州', '池州', '崇左', '滁州', '定安', '丹东', '东方', '东莞', '德宏州', '大理州', '大连', '大庆', '大同', '定西', '大兴安岭地区', '德阳', '东营', '黔南州', '达州', '德州', '儋州', '鄂尔多斯', '恩施州', '鄂州', '防城港', '佛山', '抚顺', '阜新', '阜阳', '富阳', '抚州', '福州', '广安', '贵港', '桂林', '果洛州', '甘南州', '固原', '广元', '贵阳', '甘孜州', '赣州', '广州', '淮安', '海北州', '鹤壁', '淮北', '河池', '海东地区', '邯郸', '哈尔滨', '合肥', '鹤岗', '黄冈', '黑河', '红河州', '怀化', '呼和浩特', '海口', '呼伦贝尔', '葫芦岛', '哈密地区', '海门', '海南州', '淮南', '黄南州', '衡水', '黄山', '黄石', '和田地区', '海西州', '河源', '衡阳', '汉中', '杭州', '菏泽', '贺州', '湖州', '惠州', '吉安', '金昌', '晋城', '景德镇', '金华', '西双版纳州', '九江', '吉林', '即墨', '江门', '荆门', '佳木斯', '济南', '济宁', '胶南', '酒泉', '句容', '湘西州', '金坛', '鸡西', '嘉兴', '江阴', '揭阳', '济源', '嘉峪关', '胶州', '焦作', '锦州', '晋中', '荆州', '库尔勒', '开封', '黔东南州', '克拉玛依', '昆明', '喀什地区', '昆山', '临安', '六安', '来宾', '聊城', '临沧', '娄底', '乐东', '廊坊', '临汾', '临高', '漯河', '丽江', '吕梁', '陇南', '六盘水', '拉萨', '乐山', '丽水', '凉山州', '陵水', '莱芜', '莱西', '临夏州', '溧阳', '辽阳', '辽源', '临沂', '龙岩', '洛阳', '连云港', '莱州', '兰州', '林芝', '柳州', '泸州', '马鞍山', '牡丹江', '茂名', '眉山', '绵阳', '梅州', '宁波', '南昌', '南充', '宁德', '内江', '南京', '怒江州', '南宁', '南平', '那曲地区', '南通', '南阳', '平度', '平顶山', '普洱', '盘锦', '蓬莱', '平凉', '莆田', '萍乡', '濮阳', '攀枝花', '青岛', '琼海', '秦皇岛', '曲靖', '齐齐哈尔', '七台河', '黔西南州', '清远', '庆阳', '钦州', '衢州', '泉州', '琼中', '荣成', '日喀则', '乳山', '日照', '韶关', '寿光', '上海', '绥化', '石河子', '石家庄', '商洛', '三明', '三门峡', '山南', '遂宁', '四平', '商丘', '宿迁', '上饶', '汕头', '汕尾', '绍兴', '三亚', '邵阳', '沈阳', '十堰', '松原', '双鸭山', '深圳', '朔州', '宿州', '随州', '苏州', '石嘴山', '泰安', '塔城地区', '太仓', '铜川', '屯昌', '通化', '天津', '铁岭', '通辽', '铜陵', '吐鲁番地区', '铜仁地区', '唐山', '天水', '太原', '台州', '泰州', '文昌', '文登', '潍坊', '瓦房店', '威海', '乌海', '芜湖', '武汉', '吴江', '乌兰察布', '乌鲁木齐', '渭南', '万宁', '文山州', '武威', '无锡', '温州', '吴忠', '梧州', '五指山', '西安', '兴安盟', '许昌', '宣城', '襄阳', '孝感', '迪庆州', '锡林郭勒盟', '厦门', '西宁', '咸宁', '湘潭', '邢台', '新乡', '咸阳', '新余', '信阳', '忻州', '徐州', '雅安', '延安', '延边州', '宜宾', '盐城', '宜昌', '宜春', '银川', '运城', '伊春', '云浮', '阳江', '营口', '榆林', '玉林', '伊犁哈萨克州', '阳泉', '玉树州', '烟台', '鹰潭', '义乌', '宜兴', '玉溪', '益阳', '岳阳', '扬州', '永州', '淄博', '自贡', '珠海', '湛江', '镇江', '诸暨', '张家港', '张家界', '张家口', '周口', '驻马店', '章丘', '肇庆', '中山', '舟山', '昭通', '中卫', '张掖', '招远', '资阳', '遵义', '枣庄', '漳州', '郑州', '株洲']