首先解析一下cookie的原理部分
指某些网站为了辨别用户身份、进行 session 跟踪而储存在用户本地终端上的数据(通常经过加密)由网络服务器发送出来以存储在网络浏览器上,从而下次这位独一无二的访客又回到该网络服务器时,可从该浏览器读回此信息。这是很有用的,让浏览器记住这位访客的特定信息,如上次访问的位置、花费的时间或用户首选项(如样式表)。Cookie 是个存储在浏览器目录的文本文件,当浏览器运行时,存储在 RAM 中。一旦你从该网站或网络服务器退出,Cookie 也可存储在计算机的硬驱上。当访客结束其浏览器对话时,即终止的所有 Cookie。
Cookies最典型的应用是判定注册用户是否已经登录网站,用户可能会得到提示,是否在下一次进入此网站时保留用户信息以便简化登录手续,这些都是Cookies的功用。
因此:浏览时任何时候都有cookie(除非你自己关了),不过你在登录之后获取到的cookie则会是保留你登录状态的cookie。
###################各种爬虫代码的分界线###################
1:scrapy:在spider中把你新的请求加一个参数
1 2 3 4 5 |
class SanzhaSpider(Spider): name = "douban" allowed_domains = ["http://www.douban.com"] def start_requests(self): yield Request(response.url,cookies={‘viewed‘:‘"1083428"‘, ‘__utmv‘:‘30149280.3975‘}, callback=self.parse_with_cookie) |
你可以搜 scrapy set cookie 有详细的部分。(可能有版本更新问题)
2:phantomjs: 内部函数addCookie调用即可,
1 2 3 4 5 6 7 8 9 |
phantom.addCookie({ 'name': 'some name here', /* required property */ 'value': 'some hash here', 'domain': 'ea.some domain here.com', /* required property */ 'path': '/', 'httponly': false, 'secure': false, 'expires': (new Date()).getTime() + (10000 * 60 * 60) /* <-- expires in 10 hour */ }); |
查官网是最好的:addCookie | PhantomJS
3:使用urllib2
1 2 3 4 |
import urllib2 opener = urllib2.build_opener() opener.addheaders.append(('Cookie', 'cookiename=cookievalue')) f = opener.open("http://example.com/") |
这个,不用说了吧。
4:如何用程序自动获取cookie呢?
python 有个叫Cookie的包。
Python Cookie HTTP获取cookie并处理
还有用requests自带监控cookie
python爬虫学习(六)requests 关于cookie的堪误