• 字符串排列组合问题

    给你一个字符串,比如‘abc’,请打印出该字符串的所有排列组合: 以‘abc’为例,输出的结果应该是:'abc', 'acb', 'bac', 'bca', 'cab', 'cba' 请用python代码编码实现: def fun1(s=''): if len(s) = 1: return [s] else: sl = [] for i in range(len(s)): for j in...

    2018-09-18 06:42:46

  • 常见的反爬虫和应对方法

    0x01 常见的反爬虫 这几天在爬一个网站,网站做了很多反爬虫工作,爬起来有些艰难,花了一些时间才绕过反爬虫。在这里把我写爬虫以来遇到的各种反爬虫策略和应对的方法总结一下。 从功能上来讲,爬虫一般分为数据采集,处理,储存三个部分。这里我们只讨论数据采集部分...

    2018-09-18 06:42:44

  • JSON数据提取

    JSON(JavaScript Object Notation) 是一种轻量级的数据交换格式,它使得人们很容易的进行阅读和编写。同时也方便了机器进行解析和生成。JSON在数据交换中起到了一个载体的作用,承载着相互传递的数据。JSON适用于进行数据交互的场景,比如网站前台与后台之间的数据交互...

    2018-09-18 06:42:43

  • python3 拼接字符串的7种方法

    1、直接通过(+)操作符拼接 ' Hello ' + ' ' + ' World ' + ' ! ' ' Hello World! ' 使用这种方式进行字符串连接的操作效率低下,因为python中使用 + 拼接两个字符串时会生成一个新的字符串,生成新的字符串就需要重新申请内存,当拼接字符串较多时自然会影响效率。 2...

    2018-09-18 06:42:43

  • locust使用经验---每个任务使用新的链接以及处理大量T

    最近由于项目需要,在研究打压测试工具,以及当测试连接过多后端服务器配置问题 测试工具选用locust,locust中文意思为蝗虫,可以想象,locust就像成片的蝗虫,扑向我们的服务。 它支持分布式的打压测试,每个实例可自定义执行任务,执行任务可用python脚本实现,具体...

    2018-09-18 06:42:42

  • Python爬虫项目--爬取猫眼电影Top100榜

    本次抓取猫眼电影Top100榜所用到的知识点: 1.python requests库 2.正则表达式 3.csv模块 4.多进程 正文 目标站点分析 通过对目标站点的分析,来确定网页结构,进一步确定具体的抓取方式. 1. 浏览器打开猫眼电影首页,点击"榜单", 点击"Top100榜",即可看到目标页面. 2.浏览...

    2018-09-18 06:42:39

  • python学习第一天关于编程介绍和计算机硬件介绍

    1 .什么是编程语言? 首先是什么语言?语言是一个事物与另外一个事物沟通的介质 那么编程语言是人与计算机之间沟通的介质 2什么是编程(what) 编程就是程序员自己想做的事情让计算机去做的过程 百度:为了使计算机能够理解人的意图,人类就必须将需解决的问题的思路、...

    2018-09-18 06:42:36

  • python中的变量

    什么是变量?总结不好也记不得它的完整定义,就举个例子来便于自己学习总结吧。假如我们要计算1+2的值,那么首先在内存中要存储两个值,一个是:1,一个是:2。内存中有了这两个值,计算的时候就会找到它们进行计算。但是我们可能是计算任意两个数相加,数学中我们常用...

    2018-09-18 06:42:37

  • Django日志

    日志级别 5 个级别 debug 调试 info 普通信息 warning : 提醒警告 error: 发生了错误 critical: 严重的错误 在settings中添加: 1 LOGGING = { 2 ' version ' : 1.0 , 3 ' handlers ' : { 4 ' file ' : { 5 ' level ' : ' INFO ' , 6 ' class ' : ' logging.FileHandle...

    2018-09-18 06:42:32

  • 【Python3爬虫】Scrapy爬取豆瓣电影TOP250

    继续学习scrapy这个好用的框架,而今天要实现的就是使用是scrapy爬取豆瓣电影TOP250榜单上的电影信息。 步骤如下: 一、爬取单页信息 首先是建立一个scrapy项目,在文件夹中按住shift然后点击鼠标右键,选择在此处打开命令行窗口,输入以下代码: scrapy startproject...

    2018-09-18 06:42:33

2