如果需要多线程(多端口)下载网页,保证下载速度和网页解析速度和开发速度的在合理的范围之内,哪一款语言是最优的。
golang 并发使用最强的,在正则匹配速度,爬虫软件包的丰富程度上和 perl 、python 还有不小差距。
pyhon 的异步下载引擎貌似使用不是特别方便(个人对 pyhon 不熟,勿喷)
php 有 https://github.com/walkor/Workerman 这样的高性能网页服务器框架,有没有易用的爬虫框架?
node.js 异步下载貌似很强大,有没有大型爬虫项目使用 node.js 做爬虫,同时网页解析,文件处理,unicode 转码全部使用这个语言的爬虫案例?
perl 有一个 mojo::useragent 配合 libEV ,并发能力很强大。perl 在文本正则处理、文本编码转换,网页 dom 解析都有成熟的处理方案和软件包,这个是目前作者最喜欢的平台。
c# 据说是最强大爬虫平台,没接触多少。
java 平台性能很强劲,软件包也丰富,笔者知之甚少。
rust 貌似爬虫全套组件都有,而且比较新。貌似可以做出极致压榨硬件性能的方案。
|  |      1slowgen      2022-09-15 04:30:43 +08:00  14 不一定要 all in one ,任务调度、发送请求、解析内容、数据入库等可以用微服务的理念拆分开来,这样也方便扩展和重构,这玩意没有万金油的。 从事件驱动的玩法上看,在异步里面做 cpu 复杂度高的计算都会降低时间循环的效率,所以解析复杂度高的东西都是拆分出去的,避免阻塞发送请求的代码。 如果你观察过云服务商的 serverless ,你会发现它们那些通过队列事件触发的函数本质上也是一个 http 函数,因为可以和 api 网关 /k8s 结合,在更新版本时候可以把新流量导到新版本上,老版本等原有的 http 连接都关闭完就销毁。 我目前在用 Node.js 写的爬虫也是这么设计的,目前是基于 NestJS 这个 web 框架做爬虫,结合 nsq 做任务调度,每个外发请求都是用 http 接口来触发,用 traefik 做网关和灰度切换,再结合 k8s 和部署和健康检查做滚动更新。 目前用的到库: jsonata:用来解析复杂 json ,降低代码复杂度 cheerio:服务端的 jquery ,在 python 有 BeautifulSoup ,在 java 有 jsoup ,也是类似的功能 cld:语言检测,在 python 里有 langdetect 不过也准备重构了,目前碰到的问题是任务堆积多了之后内存涨得快回落得慢,说白了就是 gc 回收不及时,打算先用 C# 把调度和发送请求的部分重构一下,再不行就换 rust ,解析和入库还是用回 nodejs 。 | 
|  |      2dfgddgf OP  1 @shuimugan 这个思路新奇,复杂的问题拆解为更为简单的基础问题。 这是 linux shell 编程的基本思路。 您的观点可以得到验证。在异步的环境里做网页解析,确实占用率比较高。大概异步使用高精度的时间作为时间的区分标准,不停地查询 io 状态,这个比较耗费资源。 按照这样的逻辑推断。应该把异步交给一个专门的组件(软件)来搞,而同步的工作、大量耗费 cpu 资源的用队伍列表的方式使用常规的软件来搞。 学习了。这种专业的问题,只有资深专家,做过大型项目的前辈才能了解其中的诀窍。 | 
|  |      3LeeReamond      2022-09-15 04:51:47 +08:00 爬虫没有什么特定一个阶段兴起快速抢占市场的问题,所以基本上市占率比较高的就是好用的。 另外 python 异步挺简单的,确实只是你不了解而已 | 
|      4laolaowang      2022-09-15 08:46:59 +08:00 golang | 
|  |      5focuxin      2022-09-15 08:52:17 +08:00 Nodejs ,DOM 和 JavaScript 的优势 | 
|  |      6ciming      2022-09-15 08:53:40 +08:00 前几天好看到一个 nodejs 的爬虫框架 https://crawlee.dev/ | 
|      7bl4ckoooooH4t      2022-09-15 09:13:30 +08:00  1 我这的做法是把要抓取的 url 放 redis ,Python 多线程从 redis 取任务爬取,结果通过 kafka 给下游解析。 可以分布式部署。目前 3 台机器,带宽在 50MB~100MB/s 左右,每日爬 200w url 左右。 | 
|  |      8MEIerer      2022-09-15 09:14:32 +08:00 Python 爬虫大概是最简单的 | 
|      9xz410236056      2022-09-15 09:27:05 +08:00 虽然我是喜欢 golang 的。但是 Python 的库是真他妈强,你数据搞下来不得处理吗,Python 数据处理的库功能是真强。 “pyhon 的异步下载引擎貌似使用不是特别方便” Python 的逻辑是有需要你开多个进程,同进程内用协程,多线程属于骗自己。 | 
|  |      10encro      2022-09-15 09:28:52 +08:00 | 
|  |      11encro      2022-09-15 09:38:15 +08:00 当然 Scrapy 也许仍然是最简单容易的分布式爬虫。 一般的爬虫需要异步吗? 答案是重点要考虑架构异步,而不是程序上的异步。 就是说要考虑分布式任务调度 /并发防重爬 /广度有限 OR 深度优先这样的问题,而不是爬虫代码里面多写几个 await 。 | 
|  |      12ragnaroks      2022-09-15 09:38:45 +08:00 任何可以调用 chromium 的语言都是最佳 | 
|      13lmshl      2022-09-15 09:41:28 +08:00 不考虑生态的话我觉得是 NodeJS ,7-8 年前我就开始用它写爬虫了 考虑生态的话应该是 Python | 
|  |      14DonaidTrump      2022-09-15 09:45:27 +08:00 via iPhone 自己熟练的才是最佳的 | 
|  |      15urlk      2022-09-15 10:01:16 +08:00 十多年前网络小说最火那会, 满大街 PHP 盗版小说网站, 小说内容全是爬虫采集的, | 
|  |      16sunwei0325      2022-09-15 10:02:59 +08:00 via iPhone  2 爬的好的都在里面踩缝纫机呢吧 | 
|  |      18zbatman      2022-09-15 10:10:30 +08:00 有请八方辩手入场 | 
|  |      19v2yllhwa      2022-09-15 10:13:29 +08:00 via Android @xz410236056 python io 时释放 gil 锁,多线程爬虫也还好吧 | 
|  |      20kaiger      2022-09-15 10:14:04 +08:00 scrapy 我感觉挺简单的 | 
|  |      21wangtian2020      2022-09-15 10:14:36 +08:00 最佳的爬虫语言是你最擅长最熟悉的语言 因为我只会 nodejs ,随意就是它了 | 
|      22tzar      2022-09-15 10:16:04 +08:00 无意义的问题 | 
|  |      23zhuangzhuang1988      2022-09-15 10:19:36 +08:00 熟悉啥语言用啥。 | 
|      24dcsuibian      2022-09-15 10:36:07 +08:00  1 我觉得是 Node.js ,毕竟 web 本来就是 js 的主战场 1 、对 JSON 的处理好得不得了(毕竟就是来源于 js 的) 2 、方便处理 DOM ,这基本就是前端的工作 3 、异步支持极好(因为 js 的单线程特性,不异步就卡死了) 4 、部分网页的 DOM 其实是 js 生成的,如果你选的就是 js ,那么会比较熟悉 5 、puppeteer 、playwright 这种爬虫杀手锏,都是优先支持 js 的 我是先学的 Python 的 Scrapy ,然后又用了 Node.js 。 我感觉 Node.js 不需要什么爬虫框架,直接 axios 请求下来,然后 cheerio 解析就好了。(最主要是可以复用写前端的经验) 唯有对速度不敢确定,因为我都限制请求频率的,怕踩缝纫机 | 
|      25Dganzh      2022-09-15 10:36:58 +08:00 写 Go 的人喜欢造轮子,是时候造一个大而全的爬虫框架了 | 
|  |      27CodeSorcerer      2022-09-15 10:49:56 +08:00 用 PHP 的话  https://github.com/kiddyuchina/Beanbun 这个是基于 Workerman 的爬虫框架 或者使用 swoole 的一些框架也 OK | 
|      28wxf666      2022-09-15 10:57:36 +08:00 | 
|  |      29placeholder      2022-09-15 11:01:19 +08:00  1 要做爬虫就先用当前技术栈做呗,性能差能差到哪去, 你给性能整上去了给人网站干崩了,你性能再好有屁用 反正都是偷着爬,最多尊重一下 robots 文件 | 
|  |      30byte404      2022-09-15 11:05:49 +08:00 单站爬虫的速度倒是其次,能取到数据就是最好的结果,慢点都无所谓;也就是用啥都一样,性能要求不会太高(至少没有高到你换语言的程度) | 
|  |      31815979670      2022-09-15 11:07:00 +08:00 php 有一个 querylist 用起来还挺方便的 写数组就行了 http://querylist.cc/ | 
|  |      32777777      2022-09-15 11:19:43 +08:00 golang ,我们现在日均 1500w 网站 | 
|  |      33herozzm      2022-09-15 11:19:47 +08:00 我觉得是 go ,多线程完美匹配多线程爬虫 | 
|      34Jirajine      2022-09-15 11:31:01 +08:00 爬虫这种经常变化的场景,不宜用静态语言,尤其不宜用 rust 这种类型严格的静态语言。 | 
|      35haolongsun      2022-09-15 12:38:38 +08:00 如果真的有时间来学习的话,就 all in rust 吧,rust 的网络库质量非常的高,库的作者专门研究 http 的. | 
|  |      36kkocdko      2022-09-15 13:12:09 +08:00 rsshub ,使用 nodejs 的大型(中型)爬虫项目。 | 
|  |      37we9ta      2022-09-15 13:16:46 +08:00 必须是易语言,不接受反驳 | 
|  |      38charmToby      2022-09-15 13:25:37 +08:00 上招聘 APP ,搜索关键字爬虫,绝大部分都是 Python 。 | 
|      39terranboy      2022-09-15 13:50:54 +08:00 一般的随便什么语言都一样, 要爬真正有价值的内容 还得整合浏览器进去 , 想要性能就得堆机器 | 
|  |      40iwh718      2022-09-15 14:05:13 +08:00 via Android perl | 
|      41zzzkkk      2022-09-15 14:25:16 +08:00 @815979670  用 puppeteer 写了个爬虫 美区 3000 个 lambda 用 php guzzlehttp 根本起不来 3000 个链接 最后用 aws go client 解决了 php 真的步 per 后尘了 | 
|  |      42dfgddgf OP @zzzkkk guzzle 看了一些源代码,底层貌似没有依赖 c 或者 c++ 应该是底层没有设计成高度可靠的组件。 perl 的爬虫模块 mojo::useragent 配合 libEV ,确实很强大。 cygwin 平台并发 50 轻轻松松,而且还保持 http 连接可以复用 | 
|  |      43sunnysab      2022-09-15 14:54:45 +08:00 via Android 还真用 rust 写过爬虫,是先拿 Python 做原形,然后用 rust 重写。rust 的网页解析性能和浏览器相当,但是 python 明显慢多了(数秒,不可接受)。 不过 rust 里解析 HTML 的代码不好看,也不排除是我思想没转过弯用了太多 unwrap()。😂😂 | 
|      44Cbdy      2022-09-15 14:56:02 +08:00 via Android 我只知道 Google 搜索引擎的爬虫主要是 C++和 Java 写的 | 
|      45zzzkkk      2022-09-15 15:02:20 +08:00 @dfgddgf  perl 已死 倒闭了活该 there is more than one way to do it , 不要说控制结构 连变量在不同 context 都取不同的值 增加码农的大脑 负担 | 
|      46zzzkkk      2022-09-15 15:04:15 +08:00 | 
|  |      48yekern      2022-09-15 15:28:29 +08:00 php querylist 可以写好规则就可以了. 同时可以支持插件扩展, 支持无头浏览器 | 
|  |      49laravel      2022-09-15 15:35:03 +08:00 我在用 nodejs 写爬虫,用 puppeteer cheerio axios 这些库,都是针对特定网站写爬虫。 | 
|  |      50buyan3303      2022-09-15 16:05:43 +08:00 熟悉哪种编程语言,就用哪种语言的爬虫框架。 多数学 python 的人,使用的是 scrapy 。python 以及 scrapy 有较为丰富的教程,我曾经就一边看着某课网的爬虫实战教程,一边自己学着爬虾米音乐,即使有些内容不适配,但是那个实战教程,从采集到入库一成套都教了,还教了 xpath lxml 匹配失败的原因之类的东西。 | 
|  |      51shyling      2022-09-15 16:07:45 +08:00 爬虫种类多啊。。 爬量的和爬有保护的内容的不一样 | 
|  |      52fuxkcsdn      2022-09-15 16:13:58 +08:00 反正不是 python 就对了,python 除了 bs 库比较好用外,并没看出有啥特别的优势 加上现在 cdp 协议的普及,很多反爬还是得靠 cdp 来实现,cdp 就是 nodejs 的地盘了 | 
|      53ljtnine      2022-09-15 16:18:27 +08:00 aiohttp | 
|  |      54www5070504      2022-09-15 16:29:40 +08:00 肯定是库多 省事的那个 爬虫性能大多数浪费在 io 上 啥语言性能也不会有明显优势 | 
|  |      55zzl22100048      2022-09-15 16:47:13 +08:00 @ljtnine aiohttp 这个库 bug 太多了 | 
|  |      56xieren58      2022-09-15 18:01:16 +08:00 nodejs +  playwright + cheerio, 谁使用谁知道. (刑 | 
|      57ljtnine      2022-09-15 18:21:55 +08:00 @zzl22100048 啊?我用这个库写过一个简单的爬虫,还没遇到过问题 | 
|      58wxf666      2022-09-15 18:32:52 +08:00 @zzl22100048 有啥 bug 吗?我用这个库爬了好多小说了 @dfgddgf 我提供一个 Python 异步 + 多线程 的数据: 环境:Redmi Note 5 (高通骁龙 636 )的 Linux Deploy 里,Debian 11 arm64 ,Python 3.10 ,百兆 WIFI ,电池供电 流程:sqlite3 读取网址,aiohttp 并发下载多个章节,json 解析,每本书所有章节合并成一个 json ,编码成 UTF-16 ,多线程 lzma 压缩,每一千本保存一个 tar 速度:峰值 700 章节 /秒(每个章节需下载一个页面,大约在凌晨 3 点 ~ 7 点) | 
|  |      59ox180      2022-09-15 19:22:20 +08:00 js | 
|  |      60Aloento      2022-09-15 19:40:19 +08:00 看需求吧,我个人用的是 C#,自带的那个 driver 是真的强大 | 
|  |      61uqf0663      2022-09-15 21:02:56 +08:00 如果有一天 楼上的人熟悉易语言,就会知道论搞爬虫这方面,在易语言面前楼主列的这些外国玩意都是渣渣。 | 
|  |      62zzl22100048      2022-09-15 21:52:28 +08:00 | 
|      63duke807      2022-09-15 21:54:58 +08:00 via Android python | 
|  |      64tikazyq      2022-09-15 21:56:55 +08:00 python | 
|  |      65tikazyq      2022-09-15 21:57:30 +08:00 比较 popular 的爬虫合集,不用谢 https://github.com/BruceDone/awesome-crawler | 
|      66wxf666      2022-09-15 23:22:34 +08:00 @zzl22100048  > 高并发下有概率出现读取 tcp 流的异常和 broken pipe 异常; Emm 。。反正我做了错误检测,超时 /错了就重试。也不知道频不频繁 > session 不能携带之前的 cookie ; 也没注意这个问题,因为爬的小说不要求登录。。 | 
|  |      67locoz      2022-09-16 04:36:57 +08:00 via Android 想用啥用啥啊,为什么要局限于一个语言?语言只是个工具而已 |