现在我们来给博客增加存档功能,当进入存档页时,按年份和日期的降序列出所有的文章。首先,我们在主页左侧导航中添加存档页(archive)的链接,修改 header.ejs,在 home 下添加一行代码:<span><a title="存档" href="/archive">archive</a></span>打开 post.js ,在最后添加以下代码://返回所有文章存档信息Post.
现在我们给博客的主页和用户页面增加分页功能。我们设定:主页和用户页面每页最多显示十篇文章。这里我们要用到 mongodb 的 skip 和 limit 操作,具体可查阅《mongodb权威指南》。打开 post.js ,把 Post.getAll 函数修改如下://一次获取十篇文章Post.getTen = function(name, page, callback) { //打开数据库 mongodb.
一个完整的博客怎么能缺少留言功能呢,当然我们可以用第三方社会化评论插件,既然我们有了数据库,我们不妨把留言保存到自己的数据库里。我们设定:只有在文章页面才会显示留言板。打开 post.js ,修改 Post.prototype.save 中要存入的文档为:var post = { name: this.name, time: time, title:this.title, post: this.post, comments: []};
现在,我们来给博客添加编辑文章与删除文章的功能。我们设定:当一个用户在线时,只允许他在自己发表的文章页进行编辑或删除,编辑时,只能编辑文章内容,不能编辑文章标题。打开 style.css ,添加如下样式:.edit{margin:3px;padding:2px 5px;border-radius:3px;background-color:#f3f3f3;color:#333;font-size:13px;}.edit:hover{text-decoration:none;
现在,我们来给博客添加用户页面和文章页面。所谓用户页面就是当点击某个用户名链接时,跳转到:域名/u/用户名 ,并列出该用户的所有文章。同理,文章页面就是当点击某篇文章标题时,跳转到:域名/u/用户名/时间/文章名 ,进入到该文章的页面(也许还有该文章的评论等)。在开始之前我们需要做一个工作,打开 post.js ,将 Post.get 修改为 Post.getAll ,同时将 index.
一个完整的博客怎么能缺少图片呢?现在,我们来给博客添加文件上传功能,这样我们就可以使用 markdown 来链接图片了。我们使用express的第三方中间件 multer 实现文件上传功能。打开 package.json,在 dependencies 中添加:"multer": “0.1.6"并 npm install 安装模块。然后修改 app.js,添加:var multer = require('multer');app.use(multer({ dest: '.
现在我们来给博客添加支持 markdown 发表文章的功能。假如你不还熟悉 markdown,请转到:http://wowubuntu.com/markdown/打开 package.json ,添加一行代码:"markdown": “0.5.0"使用 npm install 安装 markdown 模块。打开 post.js,在 mongodb = require('./db') 后添加一行代码:markdown = require('markdown').markdown;在 Post.
学习环境Node.js : 0.10.32Express : 4.10.2MongoDB : 2.6.1快速开始安装 Expressexpress 是 Node.js 上最流行的 Web 开发框架,正如他的名字一样,使用它我们可以快速的开发一个 Web 应用。我们用 express 来搭建我们的博客,打开命令行,输入:$ npm install -g express-generator安装 express 命令行工具,使用它我们可以初始化一个 express 项目。
express 是 Node.js 上最流行的 Web 开发框架,正如他的名字一样,使用它我们可以快速的开发一个 Web 应用。书中演示代码基于以下版本:Node.js : 0.10.32Express : 4.10.2MongoDB : 2.6.1
初级的爬虫我们利用 urllib 和 urllib2 库以及正则表达式就可以完成了,不过还有更加强大的工具,爬虫框架 Scrapy,这安装过程也是煞费苦心哪,在此整理如下。Windows 平台我的系统是 Win7,首先,你要有 Python,我用的是2.7.7版本,Python3 相仿,只是一些源文件不同。官网文档:http://doc.scrapy.org/en/latest/intro/install.html,最权威哒,下面是我的亲身体验过程。
经过多次尝试,模拟登录淘宝终于成功了,实在是不容易,淘宝的登录加密和验证太复杂了,煞费苦心,在此写出来和大家一起分享,希望大家支持。
福利啊福利,本次为大家带来的项目是抓取淘宝 MM 照片并保存起来,大家有没有很激动呢?本篇目标抓取淘宝 MM 的姓名,头像,年龄抓取每一个MM的资料简介以及写真图片把每一个MM的写真图片按照文件夹保存到本地熟悉文件保存的过程URL 的格式在这里我们用到的URL是 http://mm.taobao.com/json/request_top_list.htm?
大家好,本次为大家带来的项目是计算大学本学期绩点。首先说明的是,博主来自山东大学,有属于个人的学生成绩管理系统,需要学号密码才可以登录,不过可能广大读者没有这个学号密码,不能实际进行操作,所以最主要的还是获取它的原理。最主要的是了解cookie的相关操作。
大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子。与上一篇不同的是,这次我们需要用到文件的相关操作。本篇目标对百度贴吧的任意帖子进行抓取指定是否只抓取楼主发帖内容将抓取到的内容分析并保存到文件URL 格式的确定首先,我们先观察一下百度贴吧的任意一个帖子。比如:http://tieba.baidu.com/p/3138733512?
大家好,前面入门已经说了那么多基础知识了,下面我们做几个实战项目来挑战一下吧。那么这次为大家带来,Python 爬取糗事百科的小段子的例子。首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把,这次我们尝试一下用爬虫把他们抓取下来。
上一节我们介绍了正则表达式,它的内容其实还是蛮多的,如果一个正则匹配稍有差池,那可能程序就处在永久的循环之中,而且有的小伙伴们也对写正则表达式的写法用得不熟练,没关系,我们还有一个更强大的工具,叫 Beautiful Soup,有了它我们可以很方便地提取出 HTML 或 XML标签中的内容,实在是方便,这一节就让我们一起来感受一下 Beautiful Soup 的强大吧。
在前面我们已经搞定了怎样获取页面的内容,不过还差一步,这么多杂乱的代码夹杂文字我们怎样把它提取出来整理呢?下面就开始介绍一个十分强大的工具,正则表达式!了解正则表达式正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符、及这些特定字符的组合,组成一个“规则字符串”,这个“规则字符串”用来表达对字符串的一种过滤逻辑。
大家好哈,上一节我们研究了一下爬虫的异常处理问题,那么接下来我们一起来看一下 Cookie 的使用。为什么要使用 Cookie 呢?Cookie,指某些网站为了辨别用户身份、进行 session 跟踪而储存在用户本地终端上的数据(通常经过加密)比如说有些网站需要登录后才能访问某个页面,在登录之前,你想抓取某个页面内容是不允许的。
大家好,本节在这里主要说的是 URLError 还有 HTTPError,以及对它们的一些处理。3 URLError首先解释下 URLError 可能产生的原因:网络无连接,即本机无法上网连接不到特定的服务器服务器不存在 在代码中,我们需要用 try-except 语句来包围并捕获相应的异常。下面是一个例子,先感受下它的风骚import urllib2requset = urllib2.Request('http://www.xxxxx.
设置 Headers有些网站不会同意程序直接用上面的方式进行访问,如果识别有问题,那么站点根本不会响应,所以为了完全模拟浏览器的工作,我们需要设置一些 Headers 的属性。
关注时代Java