51Testing软件测试论坛

标题: scrapy爬虫框架简单Demo [打印本页]

作者: 八戒你干嘛    时间: 2019-6-18 09:31
标题: scrapy爬虫框架简单Demo
settings.py
  1. #Mysql数据库的配置信息
  2. MYSQL_HOST = '127.0.0.1'
  3. MYSQL_DBNAME = 'testdb'         #数据库名字,请修改
  4. MYSQL_USER = 'root'             #数据库账号,请修改
  5. MYSQL_PASSWD = '123456'         #数据库密码,请修改

  6. MYSQL_PORT = 3306               #数据库端口,在dbhelper中使用
复制代码

  1. ITEM_PIPELINES = {
  2.     'webCrawler_scrapy.pipelines.WebcrawlerScrapyPipeline': 300,#保存到mysql数据库
  3.     'webCrawler_scrapy.pipelines.JsonWithEncodingPipeline': 300,#保存到文件中
复制代码
items.py
  1. class WebcrawlerScrapyItem(scrapy.Item):
  2.     '''定义需要格式化的内容(或是需要保存到数据库的字段)'''
  3.     # define the fields for your item here like:
  4.     # name = scrapy.Field()
  5.     name = scrapy.Field()   #修改你所需要的字段
复制代码
pipelines.py一、保存到数据库的类WebcrawlerScrapyPipeline(在settings中声明)
  1. def __init__(self,dbpool):
  2.         self.dbpool=dbpool
复制代码
  1. #pipeline默认调用
  2.     def process_item(self, item, spider):
  3.         query=self.dbpool.runInteraction(self._conditional_insert,item)#调用插入的方法
  4.         query.addErrback(self._handle_error,item,spider)#调用异常处理方法
  5.         return item
复制代码
  1.     #写入数据库中
  2.     def _conditional_insert(self,tx,item):
  3.         #print item['name']
  4.         sql="insert into testpictures(name,url) values(%s,%s)"
  5.         params=(item["name"],item["url"])
  6.         tx.execute(sql,params)
复制代码
  1. #错误处理方法
  2.     def _handle_error(self, failue, item, spider):
  3.         print failue
复制代码











作者: 八戒你干嘛    时间: 2019-6-18 09:37
二、保存到文件中的类JsonWithEncodingPipeline(在settings中声明)
  1. class JsonWithEncodingPipeline(object):
  2.     '''保存到文件中对应的class
  3.        1、在settings.py文件中配置
  4.        2、在自己实现的爬虫类中yield item,会自动执行'''   
  5.     def __init__(self):
  6.         self.file = codecs.open('info.json', 'w', encoding='utf-8')#保存为json文件
  7.     def process_item(self, item, spider):
  8.         line = json.dumps(dict(item)) + "\n"#转为json的
  9.         self.file.write(line)#写入文件中
  10.         return item
  11.     def spider_closed(self, spider):#爬虫结束时关闭文件
  12.         self.file.close()
复制代码
dbhelper.py
  1. def __init__(self):
  2.         self.settings=get_project_settings() #获取settings配置,设置需要的信息

  3.         self.host=self.settings['MYSQL_HOST']
  4.         self.port=self.settings['MYSQL_PORT']
  5.         self.user=self.settings['MYSQL_USER']
  6.         self.passwd=self.settings['MYSQL_PASSWD']
  7.         self.db=self.settings['MYSQL_DBNAME']
复制代码
  1. #连接到mysql,不是连接到具体的数据库
  2.     def connectMysql(self):
  3.         conn=MySQLdb.connect(host=self.host,
  4.                              port=self.port,
  5.                              user=self.user,
  6.                              passwd=self.passwd,
  7.                              #db=self.db,不指定数据库名
  8.                              charset='utf8') #要指定编码,否则中文可能乱码
  9.         return conn
复制代码
  1.     #连接到具体的数据库(settings中设置的MYSQL_DBNAME)
  2.     def connectDatabase(self):
  3.         conn=MySQLdb.connect(host=self.host,
  4.                              port=self.port,
  5.                              user=self.user,
  6.                              passwd=self.passwd,
  7.                              db=self.db,
  8.                              charset='utf8') #要指定编码,否则中文可能乱码
  9.         return conn
复制代码
  1. #创建数据库
  2.     def createDatabase(self):
  3.         '''因为创建数据库直接修改settings中的配置MYSQL_DBNAME即可,所以就不要传sql语句了'''
  4.         conn=self.connectMysql()#连接数据库

  5.         sql="create database if not exists "+self.db
  6.         cur=conn.cursor()
  7.         cur.execute(sql)#执行sql语句
  8.         cur.close()
  9.         conn.close()
复制代码
实现具体的爬虫.py(即模板中的pictureSpider_demo.py文件)
  1. name="webCrawler_scrapy"    #定义爬虫名,要和settings中的BOT_NAME属性对应的值一致

  2.     allowed_domains=["desk.zol.com.cn"] #搜索的域名范围,也就是爬虫的约束区域,规定爬虫只爬取这个域名下的网页

  3.     start_urls=["http://desk.zol.com.cn/fengjing/1920x1080/1.html"]   #开始爬取的地址
复制代码
  1. def parse(self, response):
复制代码
  1.   item=WebcrawlerScrapyItem()  #实例item(具体定义的item类),将要保存的值放到事先声明的item属性中
  2.     item['name']=file_name
  3.     item['url']=realUrl
  4.     print item["name"],item["url"]   

  5.     yield item  #返回item,这时会自定解析item
复制代码











作者: Miss_love    时间: 2020-12-30 15:12
支持分享




欢迎光临 51Testing软件测试论坛 (http://bbs.51testing.com/) Powered by Discuz! X3.2