"User-Agent"
#定义一个爬虫类
"w"
#爬虫执行时间
#每爬取一个页面随机休眠1-2秒钟的时间
#初始化url属性
"输入贴吧名:"
"输入起始页:"
"第%d页抓取成功"
#请求函数,得到页面,传统三步
#保存文件函数
#linux不会存在上述问题,可以直接使用decode解码
"{}-{}页.html"
#定义路径
#入口函数
#调用入口函数
"pn"
#查看程序执行时间
#以脚本的形式启动爬虫
"gbk"
#实例化一个对象spider
"__main__"
"输入终止页:"
#windows会存在乱码问题,需要使用gbk解码,并使用ignore忽略不能处理的字节
#+1操作保证能够取到整数
"ignore"
#提示
#发请求
"kw"
#拼接URL地址
文章为作者独立观点,不代表股票交易接口观点