热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

python登录代码_转载——Python模拟登录代码

Createdon2014-2-20author:Vincentimporturllib.parseimportgzipimportjsonimportrefromhtt

'''

Created on 2014-2-20

@author: Vincent

'''

import urllib.parse

import gzip

import json

import re

from http.client import HTTPConnection

from htmlutils import TieBaParser

import httputils as utils

# 请求头

headers = dict()

headers["Connection"] = "keep-alive"

headers["Cache-Control"] = "max-age=0"

headers["Accept"] = "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8"

headers["User-Agent"] = "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/32.0.1700.107 Safari/537.36"

headers["Content-Type"] = "application/x-www-form-urlencoded"

headers["Accept-Encoding"] = "gzip,deflate,sdch"

headers["Accept-Language"] = "zh-CN,zh;q=0.8"

headers["COOKIE"] = ""

# COOKIE

COOKIEs = list()

# 个人信息

userInfo = {}

def login(account, password):

'''登录'''

global COOKIEs

headers["Host"] = "wappass.baidu.com"

body = "username={0}&password={1}&submit=%E7%99%BB%E5%BD%95&quick_user=0&isphone=0&sp_login=waprate&uname_login=&loginmerge=1&vcodestr=&u=http%253A%252F%252Fwap.baidu.com%253Fuid%253D1392873796936_247&skin=default_v2&tpl=&ssid=&from=&uid=1392873796936_247&pu=&tn=&bdcm=3f7d51b436d12f2e83389b504fc2d56285356820&type=&bd_page_type="

body = body.format(account, password)

conn = HTTPConnection("wappass.baidu.com", 80)

conn.request("POST", "/passport/login", body, headers)

resp = conn.getresponse()

COOKIEs += utils.getCOOKIEsFromHeaders(resp.getheaders())

utils.saveCOOKIEs(headers, COOKIEs)

# 登录成功会返回302

return True if resp.code == 302 else False

def getTieBaList():

'''获取已关注的贴吧列表'''

conn = HTTPConnection("tieba.baidu.com", 80)

conn.request("GET", "/mo/m?tn=bdFBW&tab=favorite", "", headers)

resp = conn.getresponse()

tieBaParser = TieBaParser()

tieBaParser.feed(resp.read().decode())

tbList = tieBaParser.getTieBaList()

return tbList

def getSignInfo(tieBaName):

'''获取贴吧签到信息'''

queryStr = urllib.parse.urlencode({"kw":tieBaName, "ie":"utf-8", "t":0.571444})

conn = HTTPConnection("tieba.baidu.com", 80)

conn.request("GET", "/sign/loadmonth?" + queryStr, "", headers)

data = gzip.decompress(conn.getresponse().read()).decode("GBK")

signInfo = json.loads(data)

return signInfo

tbsPattern = re.compile('"tbs" value=".{20,35}"')

def signIn(tieBaName):

'''签到'''

# 获取页面中的参数tbs

conn1 = HTTPConnection("tieba.baidu.com", 80)

queryStr1 = urllib.parse.urlencode({"kw": tieBaName})

conn1.request("GET", "/mo/m?" + queryStr1, "", headers)

html = conn1.getresponse().read().decode()

tbs = tbsPattern.search(html).group(0)[13:-1]

# 签到

conn2 = HTTPConnection("tieba.baidu.com", 80)

body = urllib.parse.urlencode({"kw":tieBaName, "tbs":tbs, "ie":"utf-8"})

conn2.request("POST", "/sign/add" , body , headers)

resp2 = conn2.getresponse()

data = json.loads((gzip.decompress(resp2.read())).decode())

return data

def getUserInfo():

'''获取个人信息'''

headers.pop("Host")

conn = HTTPConnection("tieba.baidu.com", 80)

conn.request("GET", "/f/user/json_userinfo", "", headers)

resp = conn.getresponse()

data = gzip.decompress(resp.read()).decode("GBK")

global userInfo

userInfo = json.loads(data)

if __name__ == "__main__":

account = input("请输入帐号:")

password = input("请输入密码:")

ok = login(account, password)

if ok:

getUserInfo()

print(userInfo["data"]["user_name_weak"] + "~~~登录成功", end="\n------\n")

for tb in getTieBaList():

print(tb + "吧:")

signInfo = signIn(tb)

if signInfo["no"] != 0:

print("签到失败!")

print(signInfo["error"])

else:

print("签到成功!")

print("签到天数:" + str(signInfo["data"]["uinfo"]["cout_total_sing_num"]))

print("连续签到天数:" + str(signInfo["data"]["uinfo"]["cont_sign_num"]))

print("------")

else:

print("登录失败")



推荐阅读
  • Python瓦片图下载、合并、绘图、标记的代码示例
    本文提供了Python瓦片图下载、合并、绘图、标记的代码示例,包括下载代码、多线程下载、图像处理等功能。通过参考geoserver,使用PIL、cv2、numpy、gdal、osr等库实现了瓦片图的下载、合并、绘图和标记功能。代码示例详细介绍了各个功能的实现方法,供读者参考使用。 ... [详细]
  • 使用正则表达式爬取36Kr网站首页新闻的操作步骤和代码示例
    本文介绍了使用正则表达式来爬取36Kr网站首页所有新闻的操作步骤和代码示例。通过访问网站、查找关键词、编写代码等步骤,可以获取到网站首页的新闻数据。代码示例使用Python编写,并使用正则表达式来提取所需的数据。详细的操作步骤和代码示例可以参考本文内容。 ... [详细]
  • 本文介绍了NetCore WebAPI开发的探索过程,包括新建项目、运行接口获取数据、跨平台部署等。同时还提供了客户端访问代码示例,包括Post函数、服务器post地址、api参数等。详细讲解了部署模式选择、框架依赖和独立部署的区别,以及在Windows和Linux平台上的部署方法。 ... [详细]
  • 文章目录简介HTTP请求过程HTTP状态码含义HTTP头部信息Cookie状态管理HTTP请求方式简介HTTP协议(超文本传输协议)是用于从WWW服务 ... [详细]
  • 最近在学Python,看了不少资料、视频,对爬虫比较感兴趣,爬过了网页文字、图片、视频。文字就不说了直接从网页上去根据标签分离出来就好了。图片和视频则需要在获取到相应的链接之后取做下载。以下是图片和视 ... [详细]
  • 本文介绍了响应式页面的概念和实现方式,包括针对不同终端制作特定页面和制作一个页面适应不同终端的显示。分析了两种实现方式的优缺点,提出了选择方案的建议。同时,对于响应式页面的需求和背景进行了讨论,解释了为什么需要响应式页面。 ... [详细]
  • Scrapy 爬取图片
    1.创建Scrapy项目scrapystartprojectCrawlMeiziTuscrapygenspiderMeiziTuSpiderhttps:movie.douban.c ... [详细]
  • 目录爬虫06scrapy框架1.scrapy概述安装2.基本使用3.全栈数据的爬取4.五大核心组件对象5.适当提升scrapy爬取数据的效率6.请求传参爬虫06scrapy框架1. ... [详细]
  • 博主使用代理IP来自于网上免费提供高匿IP的这个网站用到的库frombs4importBeautifulSoupimportrandomimporturllib.re ... [详细]
  • 本文介绍了Windows操作系统的版本及其特点,包括Windows 7系统的6个版本:Starter、Home Basic、Home Premium、Professional、Enterprise、Ultimate。Windows操作系统是微软公司研发的一套操作系统,具有人机操作性优异、支持的应用软件较多、对硬件支持良好等优点。Windows 7 Starter是功能最少的版本,缺乏Aero特效功能,没有64位支持,最初设计不能同时运行三个以上应用程序。 ... [详细]
  • 代理模式的详细介绍及应用场景
    代理模式是一种在软件开发中常用的设计模式,通过在客户端和目标对象之间增加一层中间层,让代理对象代替目标对象进行访问,从而简化系统的复杂性。代理模式可以根据不同的使用目的分为远程代理、虚拟代理、Copy-on-Write代理、保护代理、防火墙代理、智能引用代理和Cache代理等几种。本文将详细介绍代理模式的原理和应用场景。 ... [详细]
  • 本文整理了常用的CSS属性及用法,包括背景属性、边框属性、尺寸属性、可伸缩框属性、字体属性和文本属性等,方便开发者查阅和使用。 ... [详细]
  • 本文由编程笔记#小编为大家整理,主要介绍了markdown[软件代理设置]相关的知识,希望对你有一定的参考价值。 ... [详细]
  • css元素可拖动,如何使用CSS禁止元素拖拽?
    一、用户行为三剑客以下3个CSS属性:user-select属性可以设置是否允许用户选择页面中的图文内容;user-modify属性可以设置是否允许输入 ... [详细]
  • 1.webkit内核中的一些私有的meta标签,这些meta标签在开发webapp时起到非常重要的作用(1) ... [详细]
author-avatar
佩弦_秦子轩_188
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有