Сканер Google Play для Scrapy+Selenium+Headless Chrome

рептилия Selenium Chrome Scrapy

предисловие

  • Покажите, как использовать Scrapy для сканирования статических данных и Selenium+Headless Chrome для сканирования динамически сгенерированных данных JS для сканирования всего Google Play.Индонезийский рынокДанные Приложения.
  • УведомлениеВ разных странах разные форматы данных и разные методы парсинга.. Если вы сканируете данные приложения на рынках других стран, вам необходимо изменить код для анализа данных (в следующем разделеGooglePlaySpider.pyфайл).
  • Рабочая среда проекта:
  • Операционная платформа:macOS
  • Версия Python:3.6
  • ИДЕ:Sublime Text

Установить

Создайте проект с помощью Scrapy

  • $ scrapy startproject gp

Определить данные сканераItem

  • существуетitems.pyДобавлены файлы:

    # 产品
    class ProductItem(scrapy.Item):
        gp_icon = scrapy.Field()  # 图标
        gp_name = scrapy.Field()  # GP名称
        // ...
    
    # 评论
    class GPReviewItem(scrapy.Item):
        avatar_url = scrapy.Field()  # 头像链接
        user_name = scrapy.Field()  # 用户名称
        // ...
    

Создать сканер

  • существуетspidersсоздание папкиGooglePlaySpider.py:

    import scrapy
    from gp.items import ProductItem, GPReviewItem
    
    
    class GooglePlaySpider(scrapy.Spider):
        name = 'gp'
        allowed_domains = ['play.google.com']
    
        def __init__(self, *args, **kwargs):
            urls = kwargs.pop('urls', [])  # 获取参数
            if urls:
                self.start_urls = urls.split(',')
            print('start urls = ', self.start_urls)
    
        def parse(self, response):
            print('Begin parse ', response.url)
    
            item = ProductItem()
    
            content = response.xpath('//div[@class="LXrl4c"]')
    
            try:
                item['gp_icon'] = response.urljoin(content.xpath('//img[@class="T75of ujDFqe"]/@src')[0].extract())
            except Exception as error:
                exception_count += 1
                print('gp_icon except = ', error)
                item['gp_icon'] = ''
    
            try:
                item['gp_name'] = content.xpath('//h1[@class="AHFaub"]/span/text()')[0].extract()
            except Exception as error:
                exception_count += 1
                print('gp_name except = ', error)
                item['gp_name'] = ''
            
            // ...
                
            yield item
    
  • Запустите поисковый робот:

    $ scrapy crawl gp -a urls='https://play.google.com/store/apps/details?id=id.danarupiah.weshare.jiekuan&hl=id'

  • Данные комментария:

    'gp_review': []
    
  • Причина, по которой данные комментариев не могут быть получены, заключается в следующем: данные комментариев динамически генерируются кодом JS, поэтому необходимо имитировать браузер, чтобы запросить веб-страницу для их получения.

Получить данные комментариев через Selenium+Headless Chrome

  • В самой внутреннейgpПрофиль создания папкиconfigs.pyи добавьте путь браузера:

    # 浏览器路径
    CHROME_PATH = r''  # 可以指定绝对路径,如果不指定的话会在$PATH里面查找
    CHROME_DRIVER_PATH = r''  # 可以指定绝对路径,如果不指定的话会在$PATH里面查找
    
  • существуетmiddlewares.pyсоздание файлаChromeDownloaderMiddleware:

    from scrapy.http import HtmlResponse
    from selenium import webdriver
    from selenium.common.exceptions import TimeoutException
    from gp.configs import *
    
    
    class ChromeDownloaderMiddleware(object):
    
        def __init__(self):
            options = webdriver.ChromeOptions()
            options.add_argument('--headless')  # 设置无界面
            if CHROME_PATH:
                options.binary_location = CHROME_PATH
            if CHROME_DRIVER_PATH:
                self.driver = webdriver.Chrome(chrome_options=options, executable_path=CHROME_DRIVER_PATH)  # 初始化Chrome驱动
            else:
                self.driver = webdriver.Chrome(chrome_options=options)  # 初始化Chrome驱动
    
        def __del__(self):
            self.driver.close()
    
        def process_request(self, request, spider):
            try:
                print('Chrome driver begin...')
                self.driver.get(request.url)  # 获取网页链接内容
                return HtmlResponse(url=request.url, body=self.driver.page_source, request=request, encoding='utf-8',
                                    status=200)  # 返回HTML数据
            except TimeoutException:
                return HtmlResponse(url=request.url, request=request, encoding='utf-8', status=500)
            finally:
                print('Chrome driver end...')
    
  • существуетsettings.pyдополнение файла:

    DOWNLOADER_MIDDLEWARES = {
       'gp.middlewares.ChromeDownloaderMiddleware': 543,
    }
    
  • Рептилия снова бегает:

    $ scrapy crawl gp -a urls='https://play.google.com/store/apps/details?id=id.danarupiah.weshare.jiekuan&hl=id'

  • Данные комментария:

    'gp_review': [{'avatar_url': 'https://lh3.googleusercontent.com/-RZM2NdsDoWQ/AAAAAAAAAAI/AAAAAAAAAAA/ACLGyWCJIbUq9MxjbT2dmsotE2knI_t1xQ/s48-c-rw-mo/photo.jpg',
     'rating_star': '5',
     'review_text': 'Euis Suharani',
     'user_name': 'Euis Suharani'},
                   {'avatar_url': 'https://lh3.googleusercontent.com/-ppBNQHj5SUs/AAAAAAAAAAI/AAAAAAAAAAA/X8z6OBBBnwc/s48-c-rw/photo.jpg',
     'rating_star': '3',
     'review_text': 'Pengguna Google',
     'user_name': 'Pengguna Google'},
                   {'avatar_url': 'https://lh3.googleusercontent.com/-lLkaJ4GjUhY/AAAAAAAAAAI/AAAAAAAABfA/UPoS4CbDOpQ/s48-c-rw/photo.jpg',
     'rating_star': '5',
     'review_text': 'novi anna',
     'user_name': 'novi anna'},
                   {'avatar_url': 'https://lh3.googleusercontent.com/-XZDMrSc_pxE/AAAAAAAAAAI/AAAAAAAAAAA/awl5OkP7uR4/s48-c-rw/photo.jpg',
     'rating_star': '4',
     'review_text': 'Pengguna Google',
     'user_name': 'Pengguna Google'}]
    

использоватьsqlalchemyдействоватьMySQL

  • в файле конфигурацииconfigs.pyДобавьте информацию о подключении к базе данных:

    # 数据库连接信息
    DATABASES = {
        'DRIVER': 'mysql+pymysql',
        'HOST': '127.0.0.1',
        'PORT': 3306,
        'NAME': 'gp',
        'USER': 'root',
        'PASSWORD': 'root',
    }
    
  • в самом сокровенномgpпапка создать файл подключения к базе данныхconnections.py:

    from sqlalchemy.ext.declarative import declarative_base
    from sqlalchemy import create_engine
    from sqlalchemy.orm import sessionmaker
    from sqlalchemy_utils import database_exists, create_database
    from gp.configs import *
    
    # sqlalchemy model 基类
    Base = declarative_base()
    
    
    # 数据库连接引擎,用来连接数据库
    def db_connect_engine():
        engine = create_engine("%s://%s:%s@%s:%s/%s?charset=utf8"
                               % (DATABASES['DRIVER'],
                                  DATABASES['USER'],
                                  DATABASES['PASSWORD'],
                                  DATABASES['HOST'],
                                  DATABASES['PORT'],
                                  DATABASES['NAME']),
                               echo=False)
    
        if not database_exists(engine.url):
            create_database(engine.url)  # 创建库
            Base.metadata.create_all(engine)  # 创建表
    
        return engine
    
    
    # 数据库会话,用来操作数据库表
    def db_session():
        return sessionmaker(bind=db_connect_engine())
    
    
  • в самом сокровенномgpсоздание папкиsqlalchemy modelдокументmodels.py:

    from sqlalchemy import Column, ForeignKey
    from sqlalchemy.dialects.mysql import TEXT, INTEGER
    from sqlalchemy.orm import relationship
    from gp.connections import Base
    
    
    class Product(Base):
        # 表的名字:
        __tablename__ = 'product'
    
        # 表的结构:
        id = Column(INTEGER, primary_key=True, autoincrement=True)  # ID
        updated_at = Column(INTEGER)  # 最后一次更新时间
    
        gp_icon = Column(TEXT)   # 图标
        gp_name = Column(TEXT)  # GP名称
        // ...
    
    
    class GPReview(Base):
        # 表的名字:
        __tablename__ = 'gp_review'
    
        # 表的结构:
        id = Column(INTEGER, primary_key=True, autoincrement=True)  # ID
        product_id = Column(INTEGER, ForeignKey(Product.id))
        avatar_url = Column(TEXT)   # 头像链接
        user_name = Column(TEXT)  # 用户名称
        // ...
    
  • существуетpipelines.pyКод операции добавления файла в базу данных:

    from gp.connections import *
    from gp.items import ProductItem
    from gp.models import *
    
    
    class GoogleplayspiderPipeline(object):
    
        def __init__(self):
            self.session = db_session()
    
        def process_item(self, item, spider):
            print('process item from gp url = ', item['gp_url'])
    
            if isinstance(item, ProductItem):
    
                session = self.session()
    
                model = Product()
                model.gp_icon = item['gp_icon']
                model.gp_name = item['gp_name']
                // ...
    
                try:
                    m = session.query(Product).filter(Product.gp_url == model.gp_url).first()
    
                    if m is None:  # 插入数据
                        print('add model from gp url ', model.gp_url)
                        session.add(model)
                        session.flush()
                        product_id = model.id
                        for review in item['gp_review']:
                            r = GPReview()
                            r.product_id = product_id
                            r.avatar_url = review['avatar_url']
                            r.user_name = review['user_name']
                            // ...
    
                            session.add(r)
                    else:  # 更新数据
                        print("update model from gp url ", model.gp_url)
                        m.updated_at = item['updated_at']
                        m.gp_icon = item['gp_icon']
                        m.gp_name = item['gp_name']
                        // ...
    
                        product_id = m.id
                        session.query(GPReview).filter(GPReview.product_id == product_id).delete()
                        session.flush()
                        for review in item['gp_review']:
                            r = GPReview()
                            r.product_id = product_id
                            r.avatar_url = review['avatar_url']
                            r.user_name = review['user_name']
                            // ...
    
                            session.add(r)
    
                    session.commit()
                    print('spider_success')
                except Exception as error:
                    session.rollback()
                    print('gp error = ', error)
                    print('spider_failure_exception')
                    raise
                finally:
                    session.close()
            return item
    
  • Пучокsettings.pyдокументITEM_PIPELINESЗаметки открыты:

    ITEM_PIPELINES = {
       'gp.pipelines.GoogleplayspiderPipeline': 300,
    }
    
  • Запустите сканер еще раз:

    $ scrapy crawl gp -a urls='https://play.google.com/store/apps/details?id=id.danarupiah.weshare.jiekuan&hl=id'

  • ПроверятьMySQLДанные сканера хранятся в базе данных:

    • доступMySQL:$ mysql -u root -p,введите пароль:root
    • Список всех баз данных:mysql> show databases;, вы можете увидеть только что созданныйgp
    • доступgp:mysql> use gp;
    • Перечислите все таблицы данных:mysql> show tables;, вы можете увидеть только что созданныйproductиgp_review
    • Посмотреть данные о продукте:mysql> select * from product;
    • Просмотр данных обзора:mysql> select * from gp_review;

полный код проекта