大橙子网站建设,新征程启航
为企业提供网站建设、域名注册、服务器等服务
上周从零学习了golang,语法简单关键字少,写个爬虫熟悉一下语法结构。
创新互联建站联系电话:13518219792,为您提供成都网站建设网页设计及定制高端网站建设服务,创新互联建站网页制作领域10多年,包括发电机维修等多个领域拥有多年建站经验,选择创新互联建站,为企业锦上添花。
首先选用了原生的net/http包,基本上涵盖了所有的get/post请求,各种参数都可以设置,网上google到html页面解析goquery神器,很轻松就可以解决页面解析问题。
首先就写了个爬取汇率的爬虫。然后重写之前php的一个请求类,请求类的逻辑有点混乱不清晰,往往把两个不同的功能合并到一起写,粒度大,后来发现了一个好用的框架——colly,之后再试试好不好用
Windows 10 Golang
依赖包:goquery
较常用的方法有Find和Each
爬取中国银行的汇率牌价表,golang依赖net/http包和goquery包
唯一的难点是对于goquery方法的使用,需要阅读官方文档:
使用原生的net/http包基本上可以解决大多数的网页请求,使用goquery可以解决页面解析问题
可以利用golang的协程特性进行异步多协程爬取
增加安全性可以通过几个方面进行改进:
1.首先可以限制爬虫的爬取速度
2.每次对网页的请求都随机选用一个客户端
3.选用IP代理池,防止IP误封(及限制ip访问次数)
构造请求代理ip网站的链接→获取网页内容→ 提取网页中IP地址和端口号→验证IP的有效性并存储
轻量级反爬虫方案
浅谈JSP
golang带json的Http请求
Get/Post
HTTP请求中的Form Data和Request Payload的区别
HTTP Json请求
net/http:
golang HTTP操作
python建立爬虫代理ip池
爬虫黑科技之让你的爬虫程序更像人类用户的行为
特点:事件监听,通过callback执行事件处理
基于colly开发的web管理界面
先配置Header最长读取时间、req最长读取时间、req最大读取长度默认6M。
RFC7230禁止\r\n参数,Url中只允许包含英文字母(a-zA-Z)、数字(0-9)、-_.~4个特殊字符以及所有保留字符。但go net/http包放宽了这个要求。
先构建newTextprotoReader,由于缓冲区是对象复用的,用完后要defer put。共完以以下解析任务:
TextprotoReader数据结构,将字节码Reader转成文本Reader。
第一步,从第一行解析出method uri prototype。
第二步解析URL。url.URL数据结构:
解析Scheme,协议前缀(小写)。有查询参数?,则配置url.ForceQuery url.RawQuery。有认证信息///...//,则解析url.User url.Host。最后配置url.Path和url.RawPath,如果Path==RawPath,则RawPath=""。
第三步解析MIMEHeader。
第四步readTransfer。重新配置如下参数:RequestMethod ProtoMajor ProtoMinor Header Trailer ContentLength Close。对于Body,如果encodings支持chunked,读取流用chunkedReader包裹。默认情况用LimitedReader,无body赋空的struct{}。
以下情况返回非空err,示得到正确的请求:
最后配置req.ctx req.RemoteAddr req.TLS body.doEarlyClose = true。
构建Response:
其中closeNotifyCh必须在构建时初始化,没有content所以先置contentLength为-1。
配置w.cw并被w.w包裹。w.cw缓冲默认大小2M。
获取Request可能出现如下错误:
先上响应数据结构:
response字段可以分类为:大对象、缓冲、KV对或bool型的状态参数。
大对象有:
状态字段:
chunkWriter数据结构:
chunkWriter包裹了Response,功能之一是完成Header设置,包括Content-Type Content-Length chunk-header。bufio.Writer是chunkWriter是缓冲包裹。
handler将响应写入到response.w。
调用w.w.Flush()将w写入到cw,注意到Flush()操作,如果未刷空缓存并报错,触发拷贝操作。报错不会退回已写出的数据。
进而调用cw.Write(),根据cw.chunking参数。
putBufioWriter(w.w)清空resp.w缓冲,如果池化放回sync.pool。
根据chunkWriter的定义,w.cw.close()负责cw的结束工作:写入换行符和resp.trailers数据。
最后刷新TCP缓冲w.conn.bufw.Flush(),完成响应包发送。并正确关闭request。
TL;DR 在使用 Golang 编写 TCP/UDP socket 的时候,第一步做的就是地址解析。
该函数返回的地址包含的信息如下:
TCPAddr 里, IP 既可以是 IPv4 地址,也可以是 IPv6 地址。 Port 就是端口了。 Zone 是 IPv6 本地地址所在的区域。
从返回结果看该函数的参数, network 指 address 的网络类型; address 指要解析的地址,会从中解析出我们想要的 IP , Port 和 Zone 。
从源码中可以看出,参数 network 只能是如下四个值,否则会得到一个错误。
解析过程跟 ResolveTCPAddr 的一样,不过得到的是 *UDPAddr 。
UDPAddr 包含的信息如下:
Golang如何解析Html代码
用Golang的朋友都知道如果我们要从HTML中提取一些内容、比如title或者是h2在或者是一些其他的HTML的内容、在Golang里面我们如果要自己写代码来提取还是相当的麻烦的;
由于我之前在写Pyhon的爬虫的时候也需要解析HTML标签;所以用过PyQuery和BS4.这次在用Golang写爬虫的时候就留意了一下是否有Golang版本的Query。github是个好地方;上面很找到很多开源的代码可以用;包括GoQuery。
所以这次会介绍一下如何用GoQuery来解析HTML元素。
导入Goquery模块
package mainimport ( "fmt" "github.com/opesun/goquery")其实还有一个github.com/PuerkitoBio/goquery的goquery模块、但是配置环境经常出差就没有选择
Goquery的各种用法
goquery有Jquery的大部分特性;如果你熟悉Jquery的话用Goquery就很简单了
解析HTML的title
var url = ""p, err := goquery.ParseUrl(url)if err != nil { panic(err)} else { pTitle := p.Find("title").Text()//直接提取title的内容 fmt.Println(pTitle)}
命令行下运行go run page.go之后得到输出
“Smart Testing | 专注于软件测试领域的技术讨论和研究、关注IT互联网、WordPress技巧的个人博客”
解析HTML内容
如果要得到HTML的内容就更简单了fmt.Println(p.Html())//.Html()得到html内容
获取h2/h1之类的标签内容
class := p.Find("h2").Text()fmt.Println(class, "/n")
我们可以使用Find()来查找需呀哦的标签;并且用.Text()来显示标签的内容
解析提取class的内容
如果要解析class的内容;需要在Find(".")加一个.
下面我们要提取class”entry-title”里面、后面的”href”的URL地址
由于超过1条内容所以不能用Text()来打印结果;需要用for来循环一下;
t := p.Find(".entry-title a")for i := 0; i t.Length(); i++ {d := t.Eq(i).Attr("href")fmt.Println(d)}
输出结果如下
其实就是首页里面的4篇文章的地址
如果想得到html里面所有的herf
fmt.Println(p.Find("").Attrs("href"))
用上面一行代码就可以得到HTML里面全部的href内容了
判断元素是否存在
如果想要判断一个元素是否在HTML里面;可以使用下面的代码fmt.Println(p.Find("div").HasClass("entry-content"))
判断div下面有没有“entry-content”的class元素;有返还true;没有返回false