Python【网络编程】内置模块urllib

mac2022-06-30  74

from urllib import request,parseurl = 'http://www.nnzhp.cn'req = request.urlopen(url) #打开一个url,发get请求content = req.read().decode() #获取返回结果,req.read()方法返回的是一个二进制的数据,需要进行解码,故此处调用了decode()方法print(content) #结果输出:html页面代码,是一个字符串类型fw = open('baidu.html','w',encoding='utf-8')fw.write(content) #把获取到的html页面内容写入baidu.html文件print("=============get请求=================")#发送get请求时,请求参数直接跟url地址写在一块import jsonurl='http://api.nnzhp.cn/api/user/stu_info?stu_name=xiaohei'req = request.urlopen(url)content = req.read().decode()print(content)res_dic = json.loads(content) #返回的结果如果是一个json格式的字符串,则转成字典if res_dic.get('error_code') == 0: print('测试通过')else: print('测试失败', res_dic)print("=============post请求================")#发送post请求时,需要使用parse.urlencode()方法给我们拼接好参数;#发送post请求时,request.urlopen()方法需要带上post请求的相关参数url = 'http://api.nnzhp.cn/api/user/login'#定义请求数据data = { 'username':'admin', 'passwd':'aA123456' }data = parse.urlencode(data) #urlencode,自动拼接好参数,拼接后的参数格式为:xx=xx&xx=11,urlencode()返回的是字符串类型req = request.urlopen(url,data.encode()) #发post请求print(req.read().decode())#网络爬虫:利用网络编程技术去访问其他网站,抓取网页的内容信息,得到信息后,再对信息进行调整,#如果是想把抓取到的内容嵌入到自己公司网站中,则需要跟公司的网站样式风格保持,则需要对HTML、JS、CSS等等进行相关的调整#调整好信息后,可以把该部分信息嵌入到自己的网站中,或者存入数据库中等等

转载于:https://www.cnblogs.com/mtszw/p/9061566.html

最新回复(0)