first
项目地址:crawler-for-github-trending
项目中基本每一句代码都写有注释(因为就这么几行😂),适合对node爬虫感兴趣的同学入入门。
introduction
50 lines, minimalist node crawler for trending.
一个50行的node爬虫,一个简单的, , 体验项目。
usage
首先保证电脑已存在node环境,然后
1.拉取本项目
git clone http://www.51sjk.com/Upload/Articles/1/0/268/268508_20210708023852339.git cd crawler-for-github-trending npm i node index.js
2.或者下载本项目压缩包,解压
cd crawler-for-github-trending-master // 进入项目文件夹 npm i node index.js
examples
当启动项目后,可以看到控制台输出
listening on port 3000!
此时打开浏览器,进入本地服务 http://localhost:3000/daily
http://localhost:3000/time-language // time表示周期,language代表语言 例如:
http://localhost:3000/daily // 代表今日 可选参数:weekly,monthly
http://localhost:3000/daily-javascript// 代表今日的java分类 可选参数:任意语言
稍微等待即可看到爬取完毕的返回数据:
[ { "title": "lib-pku / libpku", "links": "http://www.51sjk.com/Upload/Articles/1/0/268/268508_20210708023858520.jpg", "description": "贵校课程资料民间整理", "language": "javascript", "stars": "14,297", "forks": "4,360", "info": "3,121 stars this week" }, { "title": "squeezerio / squeezer", "links": "http://www.51sjk.com/Upload/Articles/1/0/268/268508_20210708023858567.jpg", "description": "squeezer framework - build serverless dapps", "language": "javascript", "stars": "3,212", "forks": "80", "info": "2,807 stars this week" }, ... ]
more
本项目仅供爬取体验,每次访问都会实时爬取数据,所以数据返回速度会比较慢,实际操作应该是定时爬取数据然后将数据存进数据库,数据从数据库返回从而提高数据返回效率。
但项目很基础,可以作为以上各个node模块最基础的练手使用,希望可以帮到大家 😀