当前位置: 首页 > news >正文

asp网站开发工程师东莞做网站的联系电话

asp网站开发工程师,东莞做网站的联系电话,360网络推广,域名换了网站需要备案么Python – 网络爬虫 流程: 1. 连接链接获取页面内容(html文件); 2. 过滤获取需要信息(正则) [可能重复步骤1,2] ; 3. 存储文件到本地。一)网络连接获取页面内容 # 网络…

Python – 网络爬虫

流程:
1. 连接链接获取页面内容(html文件);
2. 过滤获取需要信息(正则) [可能重复步骤1,2] ;
3. 存储文件到本地。

一)网络连接获取页面内容

# 网络连接获取页面内容es
import urllib.request as request # 使用网络请求类库
import urllib.error as error # 连接
import requests # 另一种网络连接方式headers = {'Connection':'keep-alive','Accept-Language':'zh-CN,zh;q=0.9','Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8','User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36',
}# 简单直接访问网页 (某些网页可能被拒绝访问)
def getHtml(url):try:req = request.Request(url) # 获取请求webpage = request.urlopen(req) # 打开页面方法1# webpage = request.urlopen(url) # 打开页面方法2html = webpage.read() # 读取页面内容return htmlexcept error.URLError as e:print(str(e.code) + '\t' + e.reason)return Nonedef getXMLText(url):try:response = requests.get(url) # headers = headersresponse.raise_for_status()response.encoding = "utf-8"return response.textexcept:return None# 配置访问请求
def getHtmlWithHead(url):req = request.Request(url, headers)  # 发送请求同时传data表单webpage = request.urlopen(req) html = webpage.read() # 读取页面内容return html#====================================================
def main():url = input('输入网址: ')print(getHtml(url))print(getXMLText(url))#----------------------------------------------------------------
if __name__ == '__main__':main()
python用于爬虫的库: urllib, requestsurllib.request 用于打开和读取URL, (request.urlopen)
urllib.error 用于处理前面request引起的异常, (:403	Forbidden)
urllib.parse 用于解析URL,urlopen(url, data=None, timeout=<object object at 0x000001D4652FE140>, *, cafile=None, capath=None, cadefault=False, context=None)。

二)过滤、筛选、替换

1. from bs4 import BeautifulSoup as bs: # 使用文档解析类库, 整理HTML文件,方便处理
soup = bs(html, 'html.parser') # 'lxml'# 返回为数组
info = soup.find_all('div', attrs={'class' : 'add'})# 获取所有标签为'div', 属性为class,属性值为'add'的数据: <div class="add">当前位置:xxxx</div>
info = soup.select('p') # 获取所有标签为'a'(链接)的数据:<a href="https://www.xxx.com/">xxx</a>
2. import re # 正则# 返回为数组
title = re.compile(r'<h2>(.*?)</h2>').search(str(info))# 在info字符串内获取所有被<h2>和</h2>包围的字段
3. str 字符操作
author = str(info).replace('<p>','').replace('</p>','').rstrip() # lstrip()

三)本地存储

import os # 含文件读写
import time # time.sleep(0.1)dir = 'D:\\Python\\Data\\'
path = 'D:\\Python\\Data\\text.txt'
1. create dir
isExists = os.path.exists(dir)if not isExists:os.mkdir(path)2. write: 'w','wb'
file = open(path,'w',encoding='utf-8') # 以'utf-8'编码方式向path路径指向的文件内写入(不存在会自动创建)
file.write('content')
file.close() # 写完后记得关闭3. read: 'r','rb'
file = open(path, 'rb')
http://www.fp688.cn/news/162632.html

相关文章:

  • .net网站制作常州网站推广公司
  • python做网站用什么框架百度用户服务中心官网
  • 荆州公司做网站郑州网站关键词排名
  • 汉中做网站的公司山东最新资讯
  • wordpress建站阿里云网络营销公司有哪些
  • 网站项目综合设计作业 代做百度账户代运营
  • 更换网站域名之后太原seo服务
  • 网站界面排版seo推广网络
  • windows同步wordpressseo知识点
  • 图书馆网站开发总结湖口网站建设
  • 现在网站主怎么做淘宝客自媒体代运营
  • 做一网站需要哪些语言百度指数的功能
  • 开发的网站5118数据分析平台
  • 企业网站建设电话上海网络seo
  • 长沙好的网站建设品牌建设网官方网站
  • 团购机票网站建设深圳全网推广排名
  • 网站建设工程师 html5株洲百度seo
  • 广东省网站免备案网站排名软件
  • 宁波网站建设哪家强上海seo推广平台
  • 海参企业网站怎么做北京网站sem、seo
  • 做网站外链腾讯控股第三季度营收1401亿
  • 360 的网站链接怎么做seo优化排名价格
  • 网站做蜘蛛池有用吗百度关键词搜索排名统计
  • 湖南省郴州市简介济南优化哪家好
  • 夏天做那些网站致富今日热点新闻事件摘抄50字
  • 天津做网站优化公司网站搭建
  • 建设网站必备的三大要素哪个公司做网站推广最好
  • 微信定制开发 网站开发广州seo关键字推广
  • 单位网站建设情况网站媒体推广
  • 日本男女直接做的视频网站saas建站平台