葡京赌场网址导入项目时,有关[2016-04-03 20:38:02 – Dex Loader] Unable to execute dex: Multiple dex files 问题

近期己以学习androidUI设计,在网上搜寻了一个UI菜单界面开源代码示例,按照步骤导入项目,运行的时候控制台结果报了之类错误:

这是我的群众号博原创保护之首篇文章原创的必定将支撑自己连续上扬。现在勾勒这篇文章的工夫是晚上11:30,写了就回寝室休息了,希望再度多的冤家及自己一块同行(本需要一个好之胞妹的救济)。(自我的新书《Python爬虫开发暨项目实战》披露了,大家在这里可以视样章

[2016-04-03 20:38:02 – Dex Loader] Unable to execute dex: Multiple dex
files define
Lcn/w/song/widget/navigation/RollNavigationBar$NavigationBarListener;
[2016-04-03 20:38:02 – UseWidgetDemo] Conversion to Dalvik format
failed: Unable to execute dex: Multiple dex files define
Lcn/w/song/widget/navigation/RollNavigationBar$NavigationBarListener;


使是自我百度了瞬间,原因是出重复,即导入的jar包重复。我查看了一下jar包,我发现自己把内部的一个名吧w.song.android.widget-1.0.4.jar导入了少潮,结果导致品种无法正常运行。于是自己当构建路径——配置路径里去了w.song.android.widget-1.0.4.jar,使得项目面临单单保留了一个w.song.android.widget-1.0.4.jar。重新运行项目时,成功运行。

哼了,废话不多说,咱们上今天底主题。上同首咱们讲解了代理ip上篇,本篇咱们继续教授代理ip。这无异首是达标等同篇之推而广之和优化,主要的改动是使scrapy来展开爬取代理ip,同时演示在scrapy框架中怎么动mongodb数据库,最后用多线程批量验证代理ip的合理性,大大加速了进度。

把:我当下百度查看的网址:http://blog.csdn.net/penglijiang/article/details/38112511


这次自己选的依旧是www.xicidaili.com/nn/,我之后打算开一个挺之代理ip池,方便之后开分布式爬虫

使用firebug审批元素,查阅如何解析html,上同一首我曾经讲了了,所以即使不详细说了,大家不亮的足省代理ip上篇。

下我们得描绘代码了,由于我们用的是scrapy框架进行爬取,所以首先先生成scrapy工程,在cmd中
输入scrapy startproject proxySpider_scrapy,然后下pycharm打开

工程结构如下:

db包中db_helper:实现之凡mongodb的增删改查。和代理ip上篇长了proxyId字段。

detect包中
1.detect_proxy:验证代理ip的可用性的线程
2.detect_manager: 用来治本验证线程,监控线程状态

spiders包中 proxySpider:主要实现爬虫的逻辑和html解析

items:主要是讲述了ip和port

pipelines:里面要是拿爬取到的ip和port存储到数据库中

main:主要是到位参数的判定与爬虫的启动(俺们用下本来启动爬虫不以命令行)

还要说一下检测:我是为此
ip.chinaz.com/getip.aspx用作检测网址,如若采取代理访问不过期,而且响应码为200,咱们就是觉得是成的代理


属下去运行程序看看效果:
  以windows下切换到工程目录,运行python main.py
-h
,会看出我定义之运用验证与参数设置。和达成等同篇基本上全相同。

就运行python main.py -c 1 5 (意思是爬取1-5页的ip地址):

此时若想说明ip的不易:运行python main.py -t db

使用多线程验证的快杀急匆匆,我设置了5只线程。两分钟未交,就证实了。124单ip是得运用的

看一下mongodb数据库

大家瞩目到不行proxyId字段了吗?这个以咱们进行多线程分段验证的下是充分有因此底。详细的下,请圈代码。

** 当咱们下一致篇讲解突破反爬虫的当儿即便可行使这些ip了**。

下面把剖析和说明的代码贴一下:

proxySpider.py:
#coding:utf-8
import scrapy
from proxySpider_scrapy.db.db_helper import DB_Helper
from proxySpider_scrapy.detect.detect_proxy import Detect_Proxy
from proxySpider_scrapy.detect.detect_manager import Detect_Manager
from proxySpider_scrapy.items import ProxyItem


'''
这个类的作用是将代理数据进行爬取
'''
class ProxySpider(scrapy.Spider):
    name = 'proxy'
    start_urls = ["http://www.xicidaili.com/nn/"]
    allowed_domains = []
    db_helper = DB_Helper()
    detecter = Detect_Manager(5)
    Page_Start = 1
    Page_End = 4
    headers = {
         'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
        'Accept-Language': 'en',
        'Referer':'http://www.xicidaili.com/'
    }

    def parse(self, response):
        '''
        解析出其中的ip和端口
        :param response:
        :return:
        '''
        trs = response.xpath('//tr[@class="odd" or @class=""]')
        for tr in trs:
            item = ProxyItem()
            tds = tr.xpath('./td/text()').extract()
            for td in tds:
                content = td.strip()
                if len(content)>0:
                    if content.isdigit():
                        item['port'] = content
                        print 'ip:',item['ip']
                        print 'port:',item['port']
                        break
                    if content.find('.')!= -1:
                        item['ip'] = content


            yield item
        if self.Page_Start < self.Page_End:
            new_url = self.start_urls[0]+str(self.Page_Start)
            self.Page_Start += 1
            yield scrapy.Request(new_url,headers=self.headers,callback=self.parse)

pipelines.py:
# -*- coding: utf-8 -*-

# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html

from proxySpider_scrapy.spiders.proxySpider import ProxySpider


class ProxyPipeline(object):
    proxyId = 1 #设置一个ID号,方便多线程验证
    def process_item(self, item, spider):
        '''

        :param item:
        :param spider:
        :return:
        '''
        if spider.name == 'proxy':#需要判断是哪个爬虫

            proxySpider = ProxySpider(spider)
            proxy = {'ip':item['ip'],'port':item['port']}
            proxy_all = {'ip':item['ip'],'port':item['port'],'proxyId':self.proxyId}
            if proxySpider.db_helper.insert(proxy,proxy_all) == True:#插入数据
                 self.proxyId += 1
            return item

        else:
            return item

detect_manager.py:
#coding:utf-8
from threading import Thread
import time

from proxySpider_scrapy.db.db_helper import DB_Helper
from proxySpider_scrapy.detect.detect_proxy import Detect_Proxy

'''
定义一个管理线程,来管理产生的线程
'''
class Detect_Manager(Thread):

    def __init__(self,threadSum):
        Thread.__init__(self)
        sqldb = DB_Helper()#将序号重新恢复
        sqldb.updateID()
        self.pool =[]
        for i in range(threadSum):
            self.pool.append(Detect_Proxy(DB_Helper(),i+1,threadSum))


    def run(self):
        self.startManager()
        self.checkState()

    def startManager(self):
        for thread in self.pool:
            thread.start()

    def checkState(self):
        '''
        这个函数是用来检测线程的状态
        :return:
        '''
        now = 0
        while now < len(self.pool):
            for thread in self.pool:
                if thread.isAlive():
                    now = 0
                    break
                else:
                    now+=1
            time.sleep(0.1)
        goodNum=0
        badNum =0
        for i in self.pool:

            goodNum += i.goodNum
            badNum += i.badNum
        sqldb = DB_Helper()#将序号重新恢复
        sqldb.updateID()
        print 'proxy good Num ---',goodNum
        print 'proxy bad Num ---',badNum

detect_proxy.py:
#coding:utf-8
import socket
from threading import Thread

import urllib

'''
这个类主要是用来检测代理的可用性
'''
class Detect_Proxy(Thread):


    url = 'http://ip.chinaz.com/getip.aspx'
    def __init__(self,db_helper,part,sum):
        Thread.__init__(self)
        self.db_helper = db_helper
        self.part = part#检测的分区
        self.sum = sum#检索的总区域

        self.counts = self.db_helper.proxys.count()
        socket.setdefaulttimeout(2)
        self.__goodNum = 0
        self.__badNum = 0

    @property
    def goodNum(self):
        return self.__goodNum

    @goodNum.setter
    def goodNum(self,value):
        self.__goodNum = value

    @property
    def badNum(self):
        return self.__badNum


    @badNum.setter
    def badNum(self,value):
        self.__badNum = value


    def run(self):

        self.detect()#开始检测


    def detect(self):
        '''
        http://ip.chinaz.com/getip.aspx  作为检测目标
        :return:
        '''

        if self.counts < self.sum:
            return

        pre = self.counts/self.sum
        start = pre * (self.part-1)
        end = pre * self.part
        if self.part == self.sum:#如果是最后一部分,结束就是末尾
            end = self.counts
        # print 'pre-%d-start-%d-end-%d'%(pre,start,end)

        proxys = self.db_helper.proxys.find({'proxyId':{'$gt':start,'$lte':end}})#大于start小于等于end,很重要


        for proxy in proxys:

            ip = proxy['ip']
            port = proxy['port']
            try:
                proxy_host ="http://ha:ha@"+ip+':'+port #随便添加了账户名和密码,只是为了防止填写账户名密码暂停的情况
                response = urllib.urlopen(self.url,proxies={"http":proxy_host})
                if response.getcode()!=200:
                    self.db_helper.delete({'ip':ip,'port':port})
                    self.__badNum += 1
                    print proxy_host,'bad proxy'
                else:
                    self.__goodNum += 1
                    print proxy_host,'success proxy'

            except Exception,e:
                print proxy_host,'bad proxy'
                self.db_helper.delete({'ip':ip,'port':port})
                self.__badNum += 1
                continue

完整的代码自家一度上传播github上

今天底分享就交这边,已经晚上12:15了,如果大家觉得还可呀,请打赏我。提前透露一下,下一致篇会教授突破反爬虫