scrpay shell 获取信息基本操作方法

user-agent 是爬虫的标题头,有反爬措施的网站会识别爬虫的 agent,如果识别出是机器的情况下,会拒绝信息的返回。所以此时需要添加 user-agent,模仿浏览器让服务器认为是正常的访问。

scrapy shell 添加 user-agent 方法:

scrapy shell 命令

1.scrapy shell url  #url 指你所需要爬的网址

2. 有些网址数据的爬取需要 user-agent,scrapy
shell 中可以直接添加头文件,

第①种方法

 scrapy shell -s USER_AGENT="Mozilla/5.0 (Windows NT 6.1)
AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.86 Safari/537.36"
url  #url指你所需要爬的网址

第②种方法
 

  scrapy shell

  from scrapy import Request

  req=Request("url",headers={‘User-Agent‘:"Mozilla/5.0
(Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.86
Safari/537.36"})

  resp=fetch(req)

3. 对于爬取到的网址的数据,希望将其保存到本地文件中,

  with open("e:/python/text.txt",‘w‘) as f:

    f.write(response.body.decode(‘utf-8‘))

4.scrapy shell 对于检验正则表达式和 css 以及 xpath 是很方便的用法,

scrapy shell -s USER_AGENT="Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like
Gecko) Chrome/59.0.3071.86 Safari/537.36" url  #该步骤之后将得到一个页面请求的回答信息response

response.css(".job-name::attr(title)")  #使用css提取到具体数据

以上便是几种通过框架中 shell 功能获取信息和存储信息的基本操作。