说明:该篇博客是博主一字一码编写的,实属不易,请尊重原创,谢谢大家!

1.概述

前言:前两天刚写了第一篇博客https://blog.csdn.net/qq_41782425/article/details/84934224 发现阅读量很少,博主很生气,当时就想到使用爬虫来增加阅读量,于是一言不合就开始敲代码

分析:首先刚开始我觉得csdn网站不存在反爬虫,于是直接通过urllib2库对我写的第一篇文章,进行while True无限循环访问,然后通过print response.url发现响应的url地址变成了https://passport.csdn.net/login?xxxxxxx,根本没有进入我要访问的url地址,当通过浏览器不断访问博客时,也会提示登录,所以使用爬虫进行访问也同样会跳转到登录界面的,所以我自己将headers中附带登录后的cookie,这样就不会再从访问内容目标地址跳转到登录地址了。

说明:原本我打算使用scrapy框架进行爬取,但是内容太少,不需要爬取全网站,所以直接写个爬虫py文件即可,为了防止访问太密集导致被封IP,所以使用了https://www.kuaidaili.com/free/inha/ 该免费代理网站的代理IP,也是用了User-Agent大全进行隐藏本机的UA。

注:CSDN网站并不是淘宝同级网站,所以爬取该网站很简单

2.闲话不扯了,直接看代码

1.USER-AGENT代码:

反爬虫和隐藏本机UA是不可缺少的一步(User-Agent这个网上一搜一大把)

USER_AGENTS = [
        'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36 OPR/26.0.1656.60',
        'Opera/8.0 (Windows NT 5.1; U; en)',
        'Mozilla/5.0 (Windows NT 5.1; U; en; rv:1.8.1) Gecko/20061208 Firefox/2.0.0 Opera 9.50',
        'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; en) Opera 9.50',
        'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:34.0) Gecko/20100101 Firefox/34.0',
        'Mozilla/5.0 (X11; U; Linux x86_64; zh-CN; rv:1.9.2.10) Gecko/20100922 Ubuntu/10.10 (maverick) Firefox/3.6.10',
        'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/534.57.2 (KHTML, like Gecko) Version/5.1.7 Safari/534.57.2',
        'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.71 Safari/537.36',
        'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11',
        'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10.0.648.133 Safari/534.16',
        'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.11 TaoBrowser/2.0 Safari/536.11',
        'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.71 Safari/537.1 LBBROWSER',
        'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; .NET4.0E; LBBROWSER)',
        'Mozilla/5.0 (Windows NT 5.1) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.84 Safari/535.11 SE 2.X MetaSr 1.0',
        'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Trident/4.0; SV1; QQDownload 732; .NET4.0C; .NET4.0E; SE 2.X MetaSr 1.0)',
        'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.122 UBrowser/4.0.3214.0 Safari/537.36'
    ]

2.URL代码:

准备将要访问的url链接地址(存在url_list列表中,这里是我个人博客的网址,包括资源,帖子等)

说明:这样做可以将访问度减少,避免检测到某个页面在极断时间内一直在被访问

url_list = [
        "https://blog.csdn.net/qq_41782425/article/details/84934224",
        "https://blog.csdn.net/qq_41782425/article/category/8519763",
        "https://me.csdn.net/qq_41782425",
        "https://me.csdn.net/download/qq_41782425",
        "https://me.csdn.net/bbs/qq_41782425"
    ]

3.proxy代码:

说明:代理这块我跟大多人不一样,我是直接写一个get_proxy方法,利用爬虫将代理网站的IP爬取下来,存在类属性中方便我在代码中使用,不用open在read那些华而不实的方法

注:因代码简单所以没有加注释(有不懂的可以在下面评论,我这个方法在线爬取都是最新的免费代理,好到爆炸)

    def get_proxy(self):
        self.page+=1
        headers = {"User-Agent" : "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11"}
        request = urllib2.Request("https://www.kuaidaili.com/free/inha/"+str(self.page), headers=headers)
        html = urllib2.urlopen(request).read()
        # print html
        content = etree.HTML(html)
        ip = content.xpath('//td[@data-title="IP"]/text()')
        port = content.xpath('//td[@data-title="PORT"]/text()')

        for i in range(len(ip)):
            for p in range(len(port)):
                if i == p:
                    if ip[i] + ':' + port[p] not in self.proxy:
                        self.proxy.append(ip[i] + ':' + port[p])
        # print self.proxy
        if self.proxy:
            print "现在使用的是第" + str(self.page) + "页代理IP"
            self.spider()

4.spider代码:

说明:通过urllib2中的ProxyHandler类构建一个Handler处理器对象,再通过build_opener方法构建一个全局的opener,之后所有的请求都可以用urlopen()方式去发送即可

注:为了让大家更清楚,最后添加了注释(大家觉得写得不错的就点个喜欢,谢谢)

    def spider(self):
        num = 0 # 用于访问计数
        err_num = 0 #用于异常错误计数
        while True:
            # 从列表中随机选择UA和代理
            user_agent = random.choice(self.USER_AGENTS)
            proxy = random.choice(self.proxy)

            # proxy = json.loads('{"http":'+'"'+proxy+'"}')
            # print proxy
            # print type(proxy)
            referer = random.choice(self.url_list) #随机选择访问url地址
            headers = {
                # "Host": "blog.csdn.net",
                "Connection": "keep-alive",
                "Cache-Control": "max-age=0",
                "Upgrade-Insecure-Requests": "1",
                # "User-Agent": user_agent,
                "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8",
                # "Referer": "https://blog.csdn.net/qq_41782425/article/details/84934224",
                # "Accept-Encoding": "gzip, deflate, br",
                "Accept-Language": "zh-CN,zh;q=0.9",
                "Cookie": "your cookie"

            }
            try:
                # 构建一个Handler处理器对象,参数是一个字典类型,包括代理类型和代理服务器IP+PROT
                httpproxy_handler = urllib2.ProxyHandler({"http": proxy})
                opener = urllib2.build_opener(httpproxy_handler)
                urllib2.install_opener(opener)
                request = urllib2.Request(referer,headers=headers)
                request.add_header("User-Agent", user_agent)
                response = urllib2.urlopen(request)
                html = response.read()
                # 利用etree.HTML,将字符串解析为HTML文档
                content = etree.HTML(html)
                # 使用xpath匹配阅读量
                read_num = content.xpath('//span[@class="read-count"]/text()')
                # 将列表转为字符串
                new_read_num = ''.join(read_num)
                # 通过xpath匹配的页面为blog.csdn.net/qq_41782425/article/details/84934224所以匹配其他页面返回的为空
                if len(new_read_num) != 0:
                    print new_read_num

                num += 1
                print '第' + str(num) + '次访问'
                print response.url + " 代理ip: " + str(proxy)
                # print request.headers
                time.sleep(1)
                # 当访问数量达到100时,退出循环,并调用get_proxy方法获取第二页的代理
                if num > 100:
                    break
            except Exception as result:
                err_num+=1
                print "错误信息(%d):%s"%(err_num,result)
                # 当错误信息大于等于30时,初始化代理页面page,重新从第一页开始获取代理ip,并退出循环
                if err_num >=30:
                    self.__init__()
                    break
            # url = "https://blog.csdn.net/qq_41782425/article/details/84934224"
            # try:
            #     response = requests.get(url,headers=headers,proxies={"http":""})
            #     num += 1
            #     print '第' + str(num) + '次访问'
            #     print response.url
            # except Exception as result:
            #     err_num+=1
            #     print "错误信息(%d):%s"%(err_num,result)
            #     if err_num >=30:
            #         break
        # 当退出循环时,看就会执行get_proxy获取代理的方法
        print "正在重新获取代理IP"
        self.get_proxy()

5.启动代码:

if __name__ == "__main__":
    CsdnSpider().get_proxy()

6.效果图:

D:\PycharmProjects\Web_Crawler\venv\Scripts\python.exe D:/PycharmProjects/Web_Crawler/practice/csdnSpider.py
现在使用的是第1页代理IP
第1次访问
https://blog.csdn.net/qq_41782425/article/category/8519763 代理ip: 123.162.168.192:8088
第2次访问
https://me.csdn.net/bbs/qq_41782425 代理ip: 60.182.22.244:8118
第3次访问
https://me.csdn.net/qq_41782425 代理ip: 222.186.45.144:9000
第4次访问
https://me.csdn.net/qq_41782425 代理ip: 27.24.215.49:37644
第5次访问
https://me.csdn.net/qq_41782425 代理ip: 101.76.209.69:9000
第6次访问
https://me.csdn.net/bbs/qq_41782425 代理ip: 175.11.194.73:80
第7次访问
https://me.csdn.net/download/qq_41782425 代理ip: 111.230.254.195:47891
第8次访问
https://blog.csdn.net/qq_41782425/article/category/8519763 代理ip: 123.162.168.192:53281
第9次访问
https://me.csdn.net/bbs/qq_41782425 代理ip: 180.118.134.103:8118
阅读数:419
第10次访问
https://blog.csdn.net/qq_41782425/article/details/84934224 代理ip: 111.198.77.169:47891
第11次访问
https://me.csdn.net/qq_41782425 代理ip: 27.24.215.49:8118
阅读数:419
第12次访问
https://blog.csdn.net/qq_41782425/article/details/84934224 代理ip: 221.224.136.211:9000
第13次访问
https://me.csdn.net/qq_41782425 代理ip: 221.224.136.211:8118
第14次访问
https://me.csdn.net/download/qq_41782425 代理ip: 222.171.251.43:35101
阅读数:419
第15次访问
https://blog.csdn.net/qq_41782425/article/details/84934224 代理ip: 111.230.254.195:8118
阅读数:419
第16次访问
https://blog.csdn.net/qq_41782425/article/details/84934224 代理ip: 180.118.86.75:1080
第17次访问
https://me.csdn.net/qq_41782425 代理ip: 101.76.209.69:47891
第18次访问
https://me.csdn.net/bbs/qq_41782425 代理ip: 222.186.45.144:37644
第19次访问
https://me.csdn.net/qq_41782425 代理ip: 123.162.168.192:42164
第20次访问
https://blog.csdn.net/qq_41782425/article/category/8519763 代理ip: 180.118.134.103:47891

说明:因为访问时间过快阅读数过段时间再到浏览器刷新即可,还有一个情况就是我打印的阅读量为第一篇博客的阅读量,随机访问5个页面,所以看到的阅读量是慢慢的增加,这样也是比较安全的,当访问超过100后,会更换第二页的代理,测试都没问题

注:当打印出来的response.url为https://passport.csdn.net/login时,就要更换你的cookie了

阅读数:420
第98次访问
https://blog.csdn.net/qq_41782425/article/details/84934224 代理ip: 47.95.9.128:8118
第99次访问
https://blog.csdn.net/qq_41782425/article/category/8519763 代理ip: 111.198.77.169:80
第100次访问
https://me.csdn.net/qq_41782425 代理ip: 111.198.77.169:8088
第101次访问
https://me.csdn.net/qq_41782425 代理ip: 124.235.135.210:8118
正在重新获取代理IP
现在使用的是第2页代理IP
阅读数:420
第1次访问
https://blog.csdn.net/qq_41782425/article/details/84934224 代理ip: 221.224.136.211:35101
阅读数:420
第2次访问
https://blog.csdn.net/qq_41782425/article/details/84934224 代理ip: 115.223.243.136:13289
第3次访问
https://me.csdn.net/download/qq_41782425 代理ip: 180.104.107.46:9000
第4次访问
https://me.csdn.net/qq_41782425 代理ip: 139.196.125.96:9000
第5次访问
https://me.csdn.net/download/qq_41782425 代理ip: 180.118.128.250:8118
第6次访问
https://me.csdn.net/download/qq_41782425 代理ip: 180.118.134.103:53281
第7次访问
https://me.csdn.net/bbs/qq_41782425 代理ip: 182.107.13.217:9000
第8次访问
https://blog.csdn.net/qq_41782425/article/category/8519763 代理ip: 115.223.243.136:9000
阅读数:421
第9次访问
https://blog.csdn.net/qq_41782425/article/details/84934224 代理ip: 115.223.243.136:9000
第10次访问
https://me.csdn.net/qq_41782425 代理ip: 121.232.194.69:9000
第11次访问
https://blog.csdn.net/qq_41782425/article/category/8519763 代理ip: 139.196.125.96:9000
第12次访问
https://me.csdn.net/qq_41782425 代理ip: 175.11.194.73:9000

3.完整代码

说明:尝试自己写一下,逻辑很简单,实现也很简单

# coding:utf-8

import urllib2
from lxml import etree
import random
import time
import json,requests

class CsdnSpider():
    USER_AGENTS = [
        'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36 OPR/26.0.1656.60',
        'Opera/8.0 (Windows NT 5.1; U; en)',
        'Mozilla/5.0 (Windows NT 5.1; U; en; rv:1.8.1) Gecko/20061208 Firefox/2.0.0 Opera 9.50',
        'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; en) Opera 9.50',
        'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:34.0) Gecko/20100101 Firefox/34.0',
        'Mozilla/5.0 (X11; U; Linux x86_64; zh-CN; rv:1.9.2.10) Gecko/20100922 Ubuntu/10.10 (maverick) Firefox/3.6.10',
        'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/534.57.2 (KHTML, like Gecko) Version/5.1.7 Safari/534.57.2',
        'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.71 Safari/537.36',
        'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11',
        'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10.0.648.133 Safari/534.16',
        'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.11 TaoBrowser/2.0 Safari/536.11',
        'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.71 Safari/537.1 LBBROWSER',
        'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; .NET4.0E; LBBROWSER)',
        'Mozilla/5.0 (Windows NT 5.1) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.84 Safari/535.11 SE 2.X MetaSr 1.0',
        'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Trident/4.0; SV1; QQDownload 732; .NET4.0C; .NET4.0E; SE 2.X MetaSr 1.0)',
        'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.122 UBrowser/4.0.3214.0 Safari/537.36'
    ]
    url_list = [
        "https://blog.csdn.net/qq_41782425/article/details/84934224",
        "https://blog.csdn.net/qq_41782425/article/category/8519763",
        "https://blog.csdn.net/qq_41782425/article/details/84993073",
        "https://me.csdn.net/qq_41782425",
        "https://me.csdn.net/download/qq_41782425",
        "https://me.csdn.net/bbs/qq_41782425"
    ]
    def __init__(self):
        self.page = 0
        self.proxy = []
    def get_proxy(self):
        self.page+=1
        headers = {"User-Agent" : "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11"}
        request = urllib2.Request("https://www.kuaidaili.com/free/inha/"+str(self.page), headers=headers)
        html = urllib2.urlopen(request).read()
        # print html
        content = etree.HTML(html)
        ip = content.xpath('//td[@data-title="IP"]/text()')
        port = content.xpath('//td[@data-title="PORT"]/text()')
        # 将对应的ip和port进行拼接
        for i in range(len(ip)):
            for p in range(len(port)):
                if i == p:
                    if ip[i] + ':' + port[p] not in self.proxy:
                        self.proxy.append(ip[i] + ':' + port[p])
        # print self.proxy
        if self.proxy:
            print "现在使用的是第" + str(self.page) + "页代理IP"
            self.spider()

    def spider(self):
        num = 0 # 用于访问计数
        err_num = 0 #用于异常错误计数
        while True:
            # 从列表中随机选择UA和代理
            user_agent = random.choice(self.USER_AGENTS)
            proxy = random.choice(self.proxy)

            # proxy = json.loads('{"http":'+'"'+proxy+'"}')
            # print proxy
            # print type(proxy)
            referer = random.choice(self.url_list) #随机选择访问url地址
            headers = {
                # "Host": "blog.csdn.net",
                "Connection": "keep-alive",
                "Cache-Control": "max-age=0",
                "Upgrade-Insecure-Requests": "1",
                # "User-Agent": user_agent,
                "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8",
                # "Referer": "https://blog.csdn.net/qq_41782425/article/details/84934224",
                # "Accept-Encoding": "gzip, deflate, br",
                "Accept-Language": "zh-CN,zh;q=0.9",
                "Cookie": "your cookie"
            }
            try:
                # 构建一个Handler处理器对象,参数是一个字典类型,包括代理类型和代理服务器IP+PROT
                httpproxy_handler = urllib2.ProxyHandler({"http": proxy})
                opener = urllib2.build_opener(httpproxy_handler)
                urllib2.install_opener(opener)
                request = urllib2.Request(referer,headers=headers)
                request.add_header("User-Agent", user_agent)
                response = urllib2.urlopen(request)
                html = response.read()
                # 利用etree.HTML,将字符串解析为HTML文档
                content = etree.HTML(html)
                # 使用xpath匹配阅读量
                read_num = content.xpath('//span[@class="read-count"]/text()')
                # 将列表转为字符串
                new_read_num = ''.join(read_num)
                # 通过xpath匹配的页面为blog.csdn.net/qq_41782425/article/details/84934224所以匹配其他页面返回的为空
                if len(new_read_num) != 0:
                    print new_read_num

                num += 1
                print '第' + str(num) + '次访问'
                print response.url + " 代理ip: " + str(proxy)
                # print request.headers
                time.sleep(1)
                # 当访问数量达到100时,退出循环,并调用get_proxy方法获取第二页的代理
                if num > 100:
                    break
            except Exception as result:
                err_num+=1
                print "错误信息(%d):%s"%(err_num,result)
                # 当错误信息大于等于30时,初始化代理页面page,重新从第一页开始获取代理ip,并退出循环
                if err_num >=30:
                    self.__init__()
                    break
            # url = "https://blog.csdn.net/qq_41782425/article/details/84934224"
            # try:
            #     response = requests.get(url,headers=headers,proxies={"http":""})
            #     num += 1
            #     print '第' + str(num) + '次访问'
            #     print response.url
            # except Exception as result:
            #     err_num+=1
            #     print "错误信息(%d):%s"%(err_num,result)
            #     if err_num >=30:
            #         break
        # 当退出循环时,看就会执行get_proxy获取代理的方法
        print "正在重新获取代理IP"
        self.get_proxy()

if __name__ == "__main__":
    CsdnSpider().get_proxy()

(最新)使用爬虫刷CSDN博客访问量——亲测有效的更多相关文章

  1. 用python爬虫监控CSDN博客阅读量

    作为一个博客新人,对自己博客的访问量也是很在意的,刚好在学python爬虫,所以正好利用一下,写一个python程序来监控博客文章访问量 效果 代码会自动爬取文章列表,并且获取标题和访问量,写入exc ...

  2. centos安装服务参考博客,亲测可用

    centos 安装nginx参考 日志log报错 nginx -c /etc/nginx/nginx.conf https://blog.csdn.net/weixin_41004350/articl ...

  3. Python爬虫小实践:爬取任意CSDN博客所有文章的文字内容(或可改写为保存其他的元素),间接增加博客访问量

    Python并不是我的主业,当初学Python主要是为了学爬虫,以为自己觉得能够从网上爬东西是一件非常神奇又是一件非常有用的事情,因为我们可以获取一些方面的数据或者其他的东西,反正各有用处. 这两天闲 ...

  4. Python爬虫简单实现CSDN博客文章标题列表

    Python爬虫简单实现CSDN博客文章标题列表 操作步骤: 分析接口,怎么获取数据? 模拟接口,尝试提取数据 封装接口函数,实现函数调用. 1.分析接口 打开Chrome浏览器,开启开发者工具(F1 ...

  5. JAVA爬虫挖取CSDN博客文章

    开门见山,看看这个教程的主要任务,就去csdn博客,挖取技术文章,我以<第一行代码–安卓>的作者为例,将他在csdn发表的额博客信息都挖取出来.因为郭神是我在大学期间比较崇拜的对象之一.他 ...

  6. 本人在CSDN上的技术博客访问量突破了10万次,特此截图留念

                从 2011-11-16在CSDN开博至今,将近三年.  在近三年的时间里,本博的访问量于2014-07-01突破了10万次,单篇博文<软件开发高手须掌握的4大SQL精髓 ...

  7. Python 实用爬虫-04-使用 BeautifulSoup 去水印下载 CSDN 博客图片

    Python 实用爬虫-04-使用 BeautifulSoup 去水印下载 CSDN 博客图片 其实没太大用,就是方便一些,因为现在各个平台之间的图片都不能共享,比如说在 CSDN 不能用简书的图片, ...

  8. 利用爬虫爬取指定用户的CSDN博客文章转为md格式,目的是完成博客迁移博文到Hexo等静态博客

    文章目录 功能 爬取的方式: 设置生成的md文件命名规则: 设置md文件的头部信息 是否显示csdn中的锚点"文章目录"字样,以及下面具体的锚点 默认false(因为csdn中是集 ...

  9. python requests、xpath爬虫增加博客访问量

    这是一个分析IP代理网站,通过代理网站提供的ip去访问CSDN博客,达到以不同ip访同一博客的目的,以娱乐为主,大家可以去玩一下. 首先,准备工作,设置User-Agent: #1.headers h ...

随机推荐

  1. 洛谷 P1914 小书童——密码

    P1914 小书童——密码 题目背景 某蒟蒻迷上了“小书童”,有一天登陆时忘记密码了(他没绑定邮箱or手机),于是便把问题抛给了神犇你. 题目描述 蒟蒻虽然忘记密码,但他还记得密码是由一串字母组成.且 ...

  2. SQL Server 为代码减负之存储过程

        存储过程能够用来提高数据库的查询效率.由于它事先被编译过.被储存于内存中,每次执行前.不必被从新编译,所以效率非常高. 存储过程是一组sql增删改查的集合,假设程序中的一个功能涉及到对数据库的 ...

  3. mysql异常Lock wait timeout exceeded; try restarting transaction

    mysql中使用update语句更新数据报错: Lock wait timeout exceeded; try restarting transaction. 这是由于你要更新的表的锁在其它线程手里. ...

  4. vim 基础学习之查找

    普通模式下 /->正向查找 n-向下查找 N-向上查找 ?->反向查找 N-向下查找 n-向上查找 <C-r><C-w> <C-r>-引用,例如引用寄存 ...

  5. js的style和getArribute("属性名")

    getAttribute()是HTML DOM的一个方法,用以获取HTML元素的属性(如id,name,type以及其他自定义属性). style是HTML DOM的一个关于样式的对象,style对象 ...

  6. CSS的导入方式:link与import方式的区别

    在前端开发中,加载CSS样式文件有两种方式:link方式与import方式,它们之间的区别主要有以下几点: 1.兼容性不一样 link是一个HTML标签,所以它不存在兼容性问题,而import方式则具 ...

  7. 全面了解Linux下Proc文件系统

    全面了解Linux下Proc文件系统   Proc是一个虚拟文件系统,在Linux系统中它被挂载于/proc目录之上.Proc有多个功能 ,这其中包括用户可以通过它访问内核信息或用于排错,这其中一个非 ...

  8. Regularized logistic regression

    要解决的问题是,给出了具有2个特征的一堆训练数据集,从该数据的分布可以看出它们并不是非常线性可分的,因此很有必要用更高阶的特征来模拟.例如本程序中个就用到了特征值的6次方来求解. Data To be ...

  9. js--基于面向对象的组件开发及案例

    组件的开发:多组对象之间想兄弟关系一样,代码复用的形式. 问题:1).参数不写会报错:利用对象复制————配置参数和默认惨啊书的覆盖关系(逻辑或也可以)2).参数特别多时会出现顺序问题:json解决 ...

  10. 洛谷——P1311 选择客栈

    https://www.luogu.org/problem/show?pid=1311 题目描述 丽江河边有n 家很有特色的客栈,客栈按照其位置顺序从 1 到n 编号.每家客栈都按照某一种色调进行装饰 ...