苏宁易购电商代运营分析

刚刚看了苏宁易购2017年的年报,年交易额2000多亿,线上交易额1200多亿,自营的悠900多亿,第三方的是300亿。从这个数据上面看,苏宁易购的第三方店铺市场就高达300亿,也就是说,至少有一大部分年交易额千万级的店铺。并且,苏宁易购自营的很多订单,都是来自于天猫,也就是说,苏宁易购官网的第三方店铺,占据了相当大的一部分交易额。

300亿,作为一个做过B2B2C平台的从业者来说,相当可观的成交额了,能养活一大批公司,并且可以让部分的公司富裕起来,这不是一句玩笑话。苏宁易购将京东作为第一竞争对手,曾经我在参加凡客联盟大会的时候,陈年曾经说过,苏宁是电商行业的一匹黑马,当然,最大的黑马是12306,这个暂且不提。从长期来看,苏宁易购与京东将会在B2C上面,向京东逐渐靠近。

说这么说,如果你有好的产品,想切入苏宁易购平台,那就找我吧,帮你运营,看懂苏宁的年报,你就看得到机会。

Tel与微信同号:18215660330。

一个电商代运营项目怎么才能成功?

作为一名多年的电子商务运营从业者,不喜欢说天花乱坠的话,吃过猪肉,见过猪跑,从以下几个方面,就可以判断一个电商运营项目,成功率能有多大

首先,电商代运营项目要成功,很重要的是产品,产品起了较大的作用,因为,绝大多数的电商项目,并没有电商平台最一手的资源可以用,并且,电商平台也会倾向于主推产品有优势的,这样,才是双赢。我们刚刚做了一个项目,这个项目不具体说,该客户可以拿到某家国企的一手产品资源,整个淘宝上面只有两家在销售这个产品,我们三天就给他做了十万的销量,这个销量,还是出乎了我们的预料的,所以,要成功,产品是较为重要的一个环节。当然,我们做代运营,也希望多接一些有产品优势的,效果超出预料我们做起来也很刺激。

其次,电商代运营项目要成功,资源很重要,没有地方推,不花钱推,产品优势不大的话,很难做起来,或者说需要很长时间做起来,对于我们来说,效率很重要,我们需要给客户尽快做出效果。在一些类目的频道上,我们也有自己的资源,可以帮助客户推广。

第三,电商代运营项目要成功,要靠运营。策划,选款,引流,非常重要,重要到什么程度呢?我昨天跟同事聊运营,我做运营,就做两件事,一个是选款,二就是找资源。曾经有一次,京东有一款X系列的笔记本,在一个多小时内卖出了一千多台,当时我立马决定也推这款,砸价格,最终收到的效果非常好。运营没有秘籍,就是经验。

以上三点,就是判断电商项目成功率的条件,不是所有的项目都会成功,就像我们打造爆款,并不是每一次都能创造超高的销量,至少,我们做的成功率高,知道怎么去做。

为什么要做电商代运营

今天聊一聊为什么要做电商代运营

我见过的成都想做电商代运营的老板不少,通常都有一个共同的特点,就是在实业上面都有一定的沉淀,想要开拓电子商务这块市场,但并没有明显的发现规划和线路,并且一时半会儿找不到合适的有经验的团队。

所以,代运营这个行业由此而生。

一个由有经验的运营、美工、客服组成的团队,来服务于传统企业,迅速的拓展电子商务市场,只需要做好线下发货,线上全部交给运营公司来做,这就是电商全托管,也叫天猫全托管代运营,淘宝全托管代运营,京东全托管代运营。

成都SEO网站优化注意事项

成都SEO网站优化注意事项
分割线——————————————-分割线

切记!切记!切记!

1)网站优化期间千万不能更改网站标题、网站描述、网站关键字;容易导致快照异常,关键词排名不稳定。

2)关键词排名20名内的可用高倍率优化,排名20名后的低倍率优化

3)一定要保证网站能正常打开、空间稳定是优化的前提;

4)优化的关键词对应页面内容一定符合关键词相关性(如果不符合即便优化上去也会很快掉下来)

5)切忌不要将多个域名绑定到同一个网站,更不要克隆多个网站使用重复的内容,克隆是最忌讳的。搜索引擎容易判断这种行为为作弊行为

6)切记不可和网站流量软件一起使用,容易出问题(流量软件本身使用的是虚拟IP或代理IP等,并非真实IP)

7)切记不要购买外链、友链,目前百度已经可判断是否购买,详情查看“lvluo算法”

8)高质量外链、高质量友链交换是关键词排名出现的基础

以上8点,是SEO最基础,需要注意的细节

为什么要做电子商务?

为什么要做电子商务?

当你打开科技版新闻的时候,里面一半以上的新闻,不是阿里就是京东,不是淘宝就是奶茶。如果不做电子商务,将会无商可务。

Python搜索引擎安装教程

运行环境
开始之前你需要安装

•PHP 5.3.7 +
•MySQL
•Python 2.7 ~
•xunsearch 搜索引擎
获取源码
ssh 方式:

git clone git@github.com:k1995/BaiduyunSpider.git
https 方式:

git clone https://github.com/k1995/BaiduyunSpider
或手动下载

https://github.com/k1995/BaiduyunSpider/archive/master.zip
下载完毕后,项目的目录结构大致是这样的

— indexer/  #索引
— spider/   #爬虫
— sql/
— web/      #网站
— application/
— config/ # 配置相关
— config.php
— database.php # 数据库配置


— static/ # 存放静态资源,css|js|font
— system/
— index.php

开始部署
创建数据库
创建名为pan的数据库,编码设为utf-8。然后导入sql,完成表的创建。

网站部署
支持nginx,apache 服务器。

apache 需要开启 mod_rewrite 。

nginx  配置如下

location /
{
index index.php;
try_files $uri $uri/ /index.php/$uri;
}

location ~ [^/]\.php(/|$)
{
fastcgi_pass  127.0.0.1:9000;
fastcgi_index index.php;
include fastcgi.conf;
include pathinfo.conf;
}
配置文件修改
config.php 文件修改网站标题,描述等信息

database.php 修改数据库账号,密码等信息

网站是基于CodeIgniter 框架开发的,如安装,部署,或二次开发有问题,请参考官网文档
启动爬虫
进入 spider/目录,修改spider.py 中数据库信息。

如果你是第一次部署,需运行下面命令,完成做种

python spider.py –seed-user
上面其实就是抓取百度云热门分享用户的相关信息,然后从他们开始入手爬取数据

然后运行

python spider.py
此时爬虫已经开始工作了

安装xunsearch
目前使用xunsearch作为搜索引擎,后面会更换为elasticsearch。

安装过程请参考(不需要安装,PHP SDK,我已经整合到web里了)

http://xunsearch.com/doc/php/guide/start.installation

索引数据
上面我们完成了爬虫的数据抓取,网站的搭建,但还不能搜索,下面开始最后一步,索引的建立。

进入 indexer/目录,在indexer.php中将$prefix,替换为你web的根路径

require ‘$prefix/application/helpers/xs/lib/XS.php’;
并修改数据库账号密码

然后运行

./indexer.php

 

继续阅读“Python搜索引擎安装教程”

Inode与Block重要知识总结核心讲解

1.查看/dev/sda1下磁盘分区的block大小:

2.查看单个inode及block大小:

3.有关inode的知识:

Inode 用户的属性信息:

①首页的目录索引就相当于Inode;

②每一页就是一个Block;

③整本书就是一个磁盘或分区。

“df -i查看挂载的磁盘,inode情况”

有关inode小结:学会阶段性的知识,做小结是学好linux运维的好习惯:

(1)磁盘分区格式化为ext4文件系统后会生成一定数量的inode和block;

(2)inode是索引节点,作用是存放文件的属性信息以及作为文件的索引,指向文件的实体->Block;

(3)ext3/ext4文件系统的Block存放的是文件的实际内容;

(4)inode是一块存储空间,Centos6非启动分区inode默认大小字节为256字节,Centos5为128字节;

(5)inode是一串数字,不同文件对应的inode(一串数字)在文件系统中是唯一的;

(6)如果一个文件很大,可能占多个block,如果一个文件很小,至少占一个,并且剩余空间浪费了;

(7)inode相同的文件,互为硬链接的文件;

(8)一个文件被创建后至少要占用一个inode和一个block;

(9)如果文件很小,也至少要占用一个block并且剩余空间不能被使用;

(10)inode大小和总量查看:

dumpe2fs /dev/sda2|egrep -i “block size|Inode Size“

dumpe2fs /dev/sda3|egrep -i “block count|Inode count”

(11)查看inode总量与使用量命令:df -i:

4.有关Block的知识:

(1)磁盘Blck读取数据是按block为单位读取的;

(2)一个文件可能占用多个block,每读取一个block就会消耗一次磁盘IO;

(3)如果要提升磁盘的性能的话,那么就要尽可能一次性地读取数据数量足够多;

(4)一个block只能存放一个文件的内容,无论内容多么的小。如果block的大小为4k,那么存放1K的文件,剩余3K就浪费了;

(5)block并非越大越好,Block太大对于小文件的存放就会浪费磁盘空间;

例如:1000K的文件,Block为4K,占用250个Block;

Block为1K,占用1000个Block。

消耗磁盘IO分别为:1000次与250次,试问谁的效率更高?

(6)大文件(大于16K)一般设置Block大一点;

小文件(小于16K)一般设置Block小一点。

(7)Blcok太大例如4K,文件都是0.1K的,大量浪费磁盘空间

(8)Block太小例如1K,文件都是1000K,消耗磁盘IO

(9)Block设置也是磁盘化分区的时候:

mkfs.ext4 -b 2048 -1 2056 /dev/sdb

(10)文件较大时Block设置大一些会提升磁盘效率;

(11)/ext3/ext4 一般设置为4K。

5.企业面试题

①一个100M(100000K)文件的磁盘分区,分别写入1K文件与写入1M文件,分别可以写多少个?

解答思想:

a.Inode是存放文件属性信息的,默认大小128byte(C58),256byte(C64);

b.Block是存放文件内容的,默认的大小1K(boot(引导区))或4K非系统分区;

c.一个文件至少要占一个Inode和一个block;

d.默认分区常规情况下,inode数量足够而block数量消耗的会更快。

正确解答:

1.默认分区常规情况下,对大文件来讲,inode是足够的,而block数量会消耗得更快,block为4K的情况下,1M的文件不会有磁盘浪费的情况,所以文件数量大概为100/1=100个;

2.对于小文件0.1K,inode会消耗得更快,默认分区的时候,block的数量是大于inode的数量的,每个文件会占用一个inode与一个block,所以最终文件的数量:inode会先消耗完,文件总量是inode的数量。

②如果向磁盘写入数据,提示:No space left on device,通过df -h查看磁盘空间,发现没满,为什么?

a.可能是inode耗尽了;

b.df -i查看是否耗尽了inode数量;

c.企业工作中临时邮件队列 /var/spool/clientmquene目录只有安装了sendmail服务才会有,是sendmail邮件的临时队列。Centos5.8默认就会安装sendmail,Centos6.6默认没有sendmail。

inode及相关概念 inode大小的最佳设置

一.inode size 定义
inode table是data area的索引表.
Inode分内存中的inode和文件系统中的inode,我们这说的是文件系统中的inode。
1.linux FS 可以简单分成 inode table与data area两部份。inode table上有许多的inode, 每个inode分别记录一个档案的属性与这个档案分布在哪些datablock上(也就是我们说的指针)。
inode两个功能:记录档案属性和指针
2.inode table中红色区域即inode size,是128Byte,在liunx系统上通过命令我们可以看到,系统就是这么定义的。
Inode size是指分配给一个inode来记录文档属性的磁盘块的大小。
dumpe2fs -h /dev/hda6 | grep node
Inode size:               128
3.data ares中紫色的区域block size:这就是我们一般概念上的磁盘块。这块区域是我们用来存放我们的数据的地方。
4.还有一个逻辑上的概念:是指FS中每分配2048 byte给data area, 就分配一个inode。但是一个inode就并不是一定就用掉2048 byte, 也不是说files allocation的最小单位是2048 byte, 它仅仅只是代表filesystem中inode table/data area分配空间的比例是128/2048 也就是1/16。
mkfs.ext3 -i 2048 这个-i参数就是我们所说的逻辑概念,它的大小决定inode count的大小,redhat5默认-i最小为可设置为1024.
5.网上很多介绍关于inode的文章,把inode size的定义搞错了,他们把-i参数这个值或block size解读为inode size 所以很多文章令人费解。

6.inode参数是可以通过mkfs.ext3命令改变的:
mkfs.ext3 -i 2048 -b 8192 -f 1024 /dev/sdb2
-i 2048更改inode每2KB创建一个
-b 8192设置block size的大小为8kB
-f 1024设置fragments的大小为1KB
mkfs.ext3 –N 2939495  /dev/sdb2
–N 2939495更改inode count。
二.更改一个分区inode参数的完整操作过程:
 
1.卸载硬盘分区:
[root@localhost ~]# umount /dev/hda7
2.调整inode参数
[root@localhost ~]# mkfs.ext3 -i 1024 -b 8192 /dev/hda7
mke2fs 1.39 (29-May-2006)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
2048256 inodes, 512064 blocks
25603 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=525250560
63 block groups
8240 blocks per group, 8240 fragments per group
32512 inodes per group
Superblock backups stored on blocks:
        8240, 24720, 41200, 57680, 74160, 206000, 222480, 403760
Writing inode tables: done
Creating journal (8192 blocks): done
Writing superblocks and filesystem accounting information: done
This filesystem will be automatically checked every 30 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.
3.修改/etc/fstab
修改前
[root@localhost ~]# vi /etc/fstab
LABEL=/            /                      ext3    defaults             1 1
LABEL=/boot        /boot                   ext3    defaults             1 2
devpts             /dev/pts             devpts  gid=5,mode=620         0 0
tmpfs              /dev/shm                tmpfs   defaults            0 0
LABEL=/opt         /opt                    ext3    defaults            1 2
proc               /proc                    proc    defaults            0 0
sysfs               /sys                     sysfs   defaults             0 0
LABEL=/usr         /usr                      ext3    defaults           1 2
LABEL=/var         /var                      ext3    defaults            1 2
LABEL=SWAP-hda8   swap                     swap    defaults            0 0
~
修改后:
[root@localhost ~]# vi /etc/fstab
LABEL=/            /                      ext3    defaults             1 1
LABEL=/boot        /boot                   ext3    defaults             1 2
devpts             /dev/pts             devpts  gid=5,mode=620         0 0
tmpfs              /dev/shm                tmpfs   defaults            0 0
/dev/hda7         /opt                       ext3    defaults            1 2
proc               /proc                    proc    defaults            0 0
sysfs               /sys                     sysfs   defaults             0 0
LABEL=/usr         /usr                      ext3    defaults           1 2
LABEL=/var         /var                      ext3    defaults            1 2
LABEL=SWAP-hda8   swap                     swap    defaults            0 0
4.挂载分区
mount -a
5.完成后
参数-i 最小值是1024,这个值的大小决定inode count的大小,对应关系:
i=2048          Inode count:1025024
i=1024          Inode count:2048256
inode size的值在这是没有变化的,这也可以证明我上面定义的inode size。
让我们更加清晰的这几个定义之间的关系。
Inode size
Block size
Inode conut
[root@localhost ~]# dumpe2fs -h /dev/hda7
dumpe2fs 1.39 (29-May-2006)
Filesystem volume name:   <none>
Last mounted on:          <not available>
Filesystem UUID:          440696ad-80e7-4810-8648-a9efda177ea9
Filesystem magic number:  0xEF53
Filesystem revision #:    1 (dynamic)
Filesystem features:      has_journal resize_inode dir_index filetype needs_recovery sparse_super
Default mount options:    (none)
Filesystem state:         clean
Errors behavior:          Continue
Filesystem OS type:       Linux
Inode count:              2048256
Block count:              1024128
Reserved block count:     51206
Free blocks:              873767
Free inodes:              2048245
First block:              0
Block size:               2048
Fragment size:            2048
Reserved GDT blocks:      512
Blocks per group:         8176
Fragments per group:      8176
Inodes per group:         16256
Inode blocks per group:   1016
Filesystem created:       Fri Jul 11 18:10:33 2008
Last mount time:          Fri Jul 11 18:11:02 2008
Last write time:          Fri Jul 11 18:11:02 2008
Mount count:              1
Maximum mount count:      34
Last checked:             Fri Jul 11 18:10:33 2008
Check interval:           15552000 (6 months)
Next check after:         Wed Jan  7 18:10:33 2009
Reserved blocks uid:      0 (user root)
Reserved blocks gid:      0 (group root)
First inode:              11
Inode size:               128
Journal inode:            8
Default directory hash:   tea
Directory Hash Seed:      ad1b7c40-6978-49e9-82f6-2331c5cac122
Journal backup:           inode blocks
Journal size:             32M
注释:由于时间关系:
关于mkfs.ext3 -i 2048 -b 8192 -f 1024 /dev/sdb2
中这个-i参数的定义,我是根据对应关系推断,给了它只是个逻辑概念的定义。
欢迎大虾们有更有力的论据来解释一下,或推翻我的观点。
三.读取一个树状目录下的文件/etc/crontab 的流程
<!–[if !supportLists]–>1.      操作系统根据根目录( / )的相关资料可取得 /etc 这个目录所在的 inode ,并前往读取 /etc 这个目录的所有相关属性;<!–[endif]–>
<!–[if !supportLists]–>2.      根据 /etc 的 inode 的资料,可以取得 /etc 这个目录底下所有文件的关连数据是放置在哪一个 Block当中,并前往该 block 读取文件的关连性容;<!–[endif]–>
<!–[if !supportLists]–>3.      由上个步骤的 Block 当中,可以知道 crontab 这个文件的 inode 所在地,并前往该 inode ;<!–[endif]–>
<!–[if !supportLists]–>4.      由上个步骤的 inode 当中,可以取得 crontab 这个文件的所有属性,并且可前往由 inode 所指向的Block 区域,顺利的取得 crontab 的文件内容<!–[endif]–>
<!–[if !vml]–>
<!–[endif]–>
四.硬链接
Hard Link 只是在某个目录下新增一个该档案的关连数据而已!
1.举个例子来说,我的 /home/vbird/crontab 为一个 hard link 的档案,他连结到 /etc/crontab 这个档案,也就是说,其实/home/vbird/crontab 与 /etc/crontab 是同一个档案,只是有两个目录( /etc 与 /home/vbird )记录了 crontab 这个档案的关连数据罢了!也就是说,我由 /etc 的 Block 所记录的关连数据可知道 crontab 的 inode 放置在 A 处,而由 /home/vbird 这个目录下的关连数据,contab 同样也指到 A 处的 inode !所以, crontab 这个档案的 inode 与 block 都没有改变,有的只是有两个目录记录了关连数据.
2.使用 hard link 设定连结文件时,磁盘的空间与 inode 的数目都不会改变!由上面的说明来看,我们可以知道, hard link只是在某个目录下的 block 多写入一个关连数据,所以当然不会用掉 inode 与磁盘空间。
3.当我们修改其中一个文件的内容时,互为硬链接的文件的内容也会跟着变化。如果我们删除互为硬链接关系的某个文件时,其它的文件并不受影响.
4.由于 hard link 是在同一个 partition 上面进行数据关连的建立,所以 hard link 是有限制的:
a. 不能跨 Filesystem.
b. 不能 link 目录。
五.软链接
1.软链接也叫符号链接,他和硬链接有所不同,软链接文件只是其源文件的一个标记。当我们删除了源文件后,链接文件不能独立存在,虽然仍保留文件名,
但我们却不能查看软链接文件的内容了.
2.Symbolic Link 与 Windows 的快捷方式可以给他划上等号,由 Symbolic link 所建立的档案为一个独立的新的档案,所以会占用掉 inode 与 block
3.所以可用使用软链接解决某个分区inode conut不足的问题(软链接到另一个inode count足够多的分区)

inode size 倒底要多大才比较好?有人说如果小档案多,则以 1024 byte 较好。

这样的思考原则好像不是很谨慎。多少才叫『多』呢?我想我们需要一点定量的分析才对。

首先我们来『观察』一下 inode size 大小对我们 filesystem (以下 filesystem 均简称 fs) 及系统的相对性影响:
inode size 越小,inode table 越肥,可用空间越小。
inode size 越小,link 就越长,越会拖慢速度。
inode size 越小,空间利用率就越高。

此外,因为 x86 的 pagesize=4K 的特性,在做 mmap() 及 swap 这类的 virtual memory 动作时,如果 inode size 为 4K 的倍数,将较有效率。

所以,看来 inode size <4K 除了空间利用率较高以外,其馀全都是缺点。
而就一般实际经验来讲,空间利用率的提高,并不足以弥补因 inode table 的肥大而浪费掉的空间……所以一般而言 4K 是一个不错的经验值。

上面最後一点,我们提到了『空间利用率的提高,并不足以弥补因 inode table 的肥大而浪费掉的空间』一个事实;它的确是一个事实,除非您的 fs 是专供 BBS 这种系统而使用。以下是一些参考数据:

表一: inode size 和 inode table 大小关系 inode size(byte) inode table 在该 fs 上所占掉的百分比
1024 12.57% (约 1/8)
2048 6.31% (约 1/4)
4096 3.19%
8192 1.63%
16384 0.84%
32768 0.45%
所以以一个 1GB 的 partition 来造 fs 为例,不同的 inode size 将会立刻 先使用掉的容量 (拿去存 inode table 了) 是:

表二: inode size 与 inode table 大小 (在 1GB fs 中) inode size(byte) inode table 大小
1024 128.7MB
2048 64.6MB
4096 32.6MB
馀类推
试想,一个 1GB 的 fs 就只为了 inode size=1024 而就先用掉了 128MB 的空间, 除非将来我们的小档案真的很多很多,不然是补不回来的。

再来我们举例比较一下 inode size=1024 与 inode size=2048 的 fs:

以一个大小不到 1k 的档存在 inode size=1024 的 fs 中,是比在 inode size=2048 的 fs 中省下了 1k 的空间;但在 1GB 的 fs □, 要有 (128.7-64.6) * 1024 = 65614 个这样多的小档案,才算是『赚到了』; 呵呵…..你的 fs □凑得出这麽多小於 1k 的档吗?

类推 512MB 的 fs □,就要有 32820 个小於 1k 的档才算『赚到了』。

小於 1k 的档,除非你是开 bbs 的,不然在同一个 file system 上 想凑出 10000 个都很难;

我想,不再举个更实际的例子,恐怕还是有人不信。 以下是我以前对某个 1GB fs 中的 file size 统计:

表三: 本人某个旧 1GB fs 中的 file size 统计: 档案大小的□围 该大小□围内的档案个数
不到1K的 6538
1-2K 2053
2-4K 1565
4-8K 1064
8-16K 1011
16-32K 595
32K以上 1112
OK,看起来很明显地,不满 1k 大小的档案个数,已经占了快一半了; 所以直觉上会认为 inode size=1024 比较好?错了……

以下是以 inode size 来看 (fs 为 1GB 大小) 相对浪费空间的大小:

表四: 档案空间相对浪费大小与 inode size 对应表: inode size(byte) 档案空间相对浪费大小加上 inode table 大小
1024 131766KB (即 inode table 大小)
2048 72743KB (inode table size + 1K*6538)
4096 57208KB (inode table size + 3K*6538 + 2K*2053)
8192 81410KB (inode table size + 7K*6538 + 6K*2053…..)
16384 162959KB (馀请类推)
32768 354549KB
所以反而以 inode size=4k 最佳。

上面那些『空间相对浪费大小』计算上有点复杂, 不另说明. (呵呵, 搞不好我的算法是错的……所以不敢公布算法)

以同样的分析来看我的 bbs 的情况, inode size=1024 是最佳的, 因为小於 1k 的档案竟然多达四万个以上.

/usr 分析出来是以 inode size=2048 最佳。

但请注意, 以上只是空间利用率的分析, 不是速度上的分析…

linux删除文件夹命令

使用rm -rf 目录名字 命令即可

-r 就是向下递归,不管有多少级目录,一并删除
-f 就是直接强行删除,不作任何提示的意思

eg

删除文件夹实例:rm -rf /var/log/httpd/access
将会删除/var/log/httpd/access目录以及其下所有文件、文件夹

删除文件使用实例:rm -f /var/log/httpd/access.log
将会强制删除/var/log/httpd/access.log这个文件

如何查看linux系统的所有用户的定时任务

linux 系统则是由 cron (crond) 这个系统服务来控制的。Linux 系统上面原本就有非常多的计划性工作,因此这个系统服务是默认启动的。另 外, 由于使用者自己也可以设置计划任务,所以, Linux 系统也提供了使用者控制计划任务的命令 :crontab 命令。

一、crond简介

crond 是linux下用来周期性的执行某种任务或等待处理某些事件的一个守护进程,与windows下的计划任务类似,当安装完成操作系统后,默认会安装此服务 工具,并且会自动启动crond进程,crond进程每分钟会定期检查是否有要执行的任务,如果有要执行的任务,则自动执行该任务。

Linux下的任务调度分为两类,系统任务调度和用户任务调度。

系统任务调度:系统周期性所要执行的工作,比如写缓存数据到硬盘、日志清理等。在/etc目录下有一个crontab文件,这个就是系统任务调度的配置文件。

/etc/crontab文件包括下面几行:

cat /etc/crontab

SHELL=/bin/bash

PATH=/sbin:/bin:/usr/sbin:/usr/bin

MAILTO=HOME=/

# run-parts

51 * * * * root run-parts /etc/cron.hourly

24 7 * * * root run-parts /etc/cron.daily

22 4 * * 0 root run-parts /etc/cron.weekly

42 4 1 * * root run-parts /etc/cron.monthly
前 四行是用来配置crond任务运行的环境变量,第一行SHELL变量指定了系统要使用哪个shell,这里是bash,第二行PATH变量指定了系统执行 命令的路径,第三行MAILTO变量指定了crond的任务执行信息将通过电子邮件发送给root用户,如果MAILTO变量的值为空,则表示不发送任务 执行信息给用户,第四行的HOME变量指定了在执行命令或者脚本时使用的主目录。第六至九行表示的含义将在下个小节详细讲述。这里不在多说。

用户任务调度:用户定期要执行的工作,比如用户数据备份、定时邮件提醒等。用户可以使用 crontab 工具来定制自己的计划任务。所有用户定义的crontab 文件都被保存在 /var/spool/cron目录中。其文件名与用户名一致。

使用者权限文件:

文件:

/etc/cron.deny

说明:

该文件中所列用户不允许使用crontab命令

文件:

/etc/cron.allow

说明:

该文件中所列用户允许使用crontab命令

文件:

/var/spool/cron/

说明:

所有用户crontab文件存放的目录,以用户名命名

crontab文件的含义:

用户所建立的crontab文件中,每一行都代表一项任务,每行的每个字段代表一项设置,它的格式共分为六个字段,前五段是时间设定段,第六段是要执行的命令段,格式如下:

minute hour day month week command

其中:

minute: 表示分钟,可以是从0到59之间的任何整数。

hour:表示小时,可以是从0到23之间的任何整数。

day:表示日期,可以是从1到31之间的任何整数。

month:表示月份,可以是从1到12之间的任何整数。

week:表示星期几,可以是从0到7之间的任何整数,这里的0或7代表星期日。

command:要执行的命令,可以是系统命令,也可以是自己编写的脚本文件。

在以上各个字段中,还可以使用以下特殊字符:

星号(*):代表所有可能的值,例如month字段如果是星号,则表示在满足其它字段的制约条件后每月都执行该命令操作。

逗号(,):可以用逗号隔开的值指定一个列表范围,例如,“1,2,5,7,8,9”

中杠(-):可以用整数之间的中杠表示一个整数范围,例如“2-6”表示“2,3,4,5,6”

正斜线(/):可以用正斜线指定时间的间隔频率,例如“0-23/2”表示每两小时执行一次。同时正斜线可以和星号一起使用,例如*/10,如果用在minute字段,表示每十分钟执行一次。

二、crond服务

安装crontab:

yum install crontabs

服务操作说明:

/sbin/service crond start //启动服务

/sbin/service crond stop //关闭服务

/sbin/service crond restart //重启服务

/sbin/service crond reload //重新载入配置

/sbin/service crond status //启动服务
查看crontab服务是否已设置为开机启动,执行命令:

ntsysv

加入开机自动启动:

chkconfig –level 35 crond on

三、crontab命令详解

1.命令格式:

crontab [-u user] file

crontab [-u user] [ -e | -l | -r ]

2.命令功能:

通过crontab 命令,我们可以在固定的间隔时间执行指定的系统指令或 shell script脚本。时间间隔的单位可以是分钟、小时、日、月、周及以上的任意组合。这个命令非常设合周期性的日志分析或数据备份等工作。

3.命令参数:

-u user:用来设定某个用户的crontab服务,例如,“-u ixdba”表示设定ixdba用户的crontab服务,此参数一般有root用户来运行。

file:file是命令文件的名字,表示将file做为crontab的任务列表文件并载入crontab。如果在命令行中没有指定这个文件,crontab命令将接受标准输入(键盘)上键入的命令,并将它们载入crontab。

-e:编辑某个用户的crontab文件内容。如果不指定用户,则表示编辑当前用户的crontab文件。

-l:显示某个用户的crontab文件内容,如果不指定用户,则表示显示当前用户的crontab文件内容。

-r:从/var/spool/cron目录中删除某个用户的crontab文件,如果不指定用户,则默认删除当前用户的crontab文件。

-i:在删除用户的crontab文件时给确认提示。

4.常用方法:

1). 创建一个新的crontab文件

在 考虑向cron进程提交一个crontab文件之前,首先要做的一件事情就是设置环境变量EDITOR。cron进程根据它来确定使用哪个编辑器编辑 crontab文件。9 9 %的UNIX和LINUX用户都使用vi,如果你也是这样,那么你就编辑$ HOME目录下的. profile文件,在其 中加入这样一行:

EDITOR=vi; export EDITOR

然后保存并退出。不妨创建一个名为<user> cron的文件,其中<user>是用户名,例如, davecron。在该文件中加入如下的内容。

# (put your own initials here)echo the date to the console every

# 15minutes between 6pm and 6am

0,15,30,45 18-06 * * * /bin/echo ‘date’ > /dev/console

保存并退出。确信前面5个域用空格分隔。

在 上面的例子中,系统将每隔1 5分钟向控制台输出一次当前时间。如果系统崩溃或挂起,从最后所显示的时间就可以一眼看出系统是什么时间停止工作的。在有些 系统中,用tty1来表示控制台,可以根据实际情况对上面的例子进行相应的修改。为了提交你刚刚创建的crontab文件,可以把这个新创建的文件作为 cron命令的参数:

$ crontab davecron

现在该文件已经提交给cron进程,它将每隔1 5分钟运行一次。

同时,新创建文件的一个副本已经被放在/var/spool/cron目录中,文件名就是用户名(即dave)。

2). 列出crontab文件

为了列出crontab文件,可以用:

$ crontab -l

0,15,30,45,18-06 * * * /bin/echo `date` > dev/tty1

你将会看到和上面类似的内容。可以使用这种方法在$ H O M E目录中对crontab文件做一备份:

$ crontab -l > $HOME/mycron

这样,一旦不小心误删了crontab文件,可以用上一节所讲述的方法迅速恢复。

3). 编辑crontab文件

如果希望添加、删除或编辑crontab文件中的条目,而E D I TO R环境变量又设置为v i,那么就可以用v i来编辑crontab文件,相应的命令为:

$ crontab -e

可以像使用v i编辑其他任何文件那样修改crontab文件并退出。如果修改了某些条目或添加了新的条目,那么在保存该文件时, c r o n会对其进行必要的完整性检查。如果其中的某个域出现了超出允许范围的值,它会提示你。

我们在编辑crontab文件时,没准会加入新的条目。例如,加入下面的一条:

# DT:delete core files,at 3.30am on 1,7,14,21,26,26 days of each month

30 3 1,7,14,21,26 * * /bin/find -name “core’ -exec rm {} \;

现在保存并退出。最好在crontab文件的每一个条目之上加入一条注释,这样就可以知道它的功能、运行时间,更为重要的是,知道这是哪位用户的作业。

现在让我们使用前面讲过的crontab -l命令列出它的全部信息:

$ crontab -l

# (crondave installed on Tue May 4 13:07:43 1999)

# DT:ech the date to the console every 30 minites

0,15,30,45 18-06 * * * /bin/echo `date` > /dev/tty1

# DT:delete core files,at 3.30am on 1,7,14,21,26,26 days of each month

30 3 1,7,14,21,26 * * /bin/find -name “core’ -exec rm {} \;

4). 删除crontab文件

要删除crontab文件,可以用:

$ crontab -r

5). 恢复丢失的crontab文件

如果不小心误删了crontab文件,假设你在自己的$ H O M E目录下还有一个备份,那么可以将其拷贝到/var/spool/cron/<username>,其中<username>是用户名。如果由于权限问题无法完成拷贝,可以用:

$ crontab <filename>

其中,<filename>是你在$ H O M E目录中副本的文件名。

我建议你在自己的$ H O M E目录中保存一个该文件的副本。我就有过类似的经历,有数次误删了crontab文件(因为r键紧挨在e键的右边)。这就是为什么有些系统文档建议不要直接编辑crontab文件,而是编辑该文件的一个副本,然后重新提交新的文件。

有些crontab的变体有些怪异,所以在使用crontab命令时要格外小心。如果遗漏了任何选项,crontab可能会打开一个空文件,或者看起来像是个空文件。这时敲delete键退出,不要按<Ctrl-D>,否则你将丢失crontab文件。

5.使用实例

实例1:每1分钟执行一次command
命令:
* * * * * command

实例2:每小时的第3和第15分钟执行
命令:
3,15 * * * * command

实例3:在上午8点到11点的第3和第15分钟执行
命令:
3,15 8-11 * * * command

实例4:每隔两天的上午8点到11点的第3和第15分钟执行
命令:
3,15 8-11 */2 * * command

实例5:每个星期一的上午8点到11点的第3和第15分钟执行
命令:
3,15 8-11 * * 1 command

实例6:每晚的21:30重启smb
命令:
30 21 * * * /etc/init.d/smb restart
实例7:每月1、10、22日的4 : 45重启smb
命令:
45 4 1,10,22 * * /etc/init.d/smb restart
实例8:每周六、周日的1 : 10重启smb
命令:
10 1 * * 6,0 /etc/init.d/smb restart
实例9:每天18 : 00至23 : 00之间每隔30分钟重启smb
命令:
0,30 18-23 * * * /etc/init.d/smb restart
实例10:每星期六的晚上11 : 00 pm重启smb
命令:
0 23 * * 6 /etc/init.d/smb restart
实例11:每一小时重启smb
命令:
* */1 * * * /etc/init.d/smb restart
实例12:晚上11点到早上7点之间,每隔一小时重启smb
命令:
* 23-7/1 * * * /etc/init.d/smb restart

实例13:每月的4号与每周一到周三的11点重启smb
命令:
0 11 4 * mon-wed /etc/init.d/smb restart

实例14:一月一号的4点重启smb
命令:
0 4 1 jan * /etc/init.d/smb restart
实例15:每小时执行/etc/cron.hourly目录内的脚本
命令:
01 * * * * root run-parts /etc/cron.hourly
说明:
run-parts这个参数了,如果去掉这个参数的话,后面就可以写要运行的某个脚本名,而不是目录名了
四、使用注意事项

注意环境变量问题
有时我们创建了一个crontab,但是这个任务却无法自动执行,而手动执行这个任务却没有问题,这种情况一般是由于在crontab文件中没有配置环境变量引起的。

在 crontab文件中定义多个调度任务时,需要特别注意的一个问题就是环境变量的设置,因为我们手动执行某个任务时,是在当前shell环境下进行的,程 序当然能找到环境变量,而系统自动执行任务调度时,是不会加载任何环境变量的,因此,就需要在crontab文件中指定任务运行所需的所有环境变量,这 样,系统执行任务调度时就没有问题了。

不要假定cron知道所需要的特殊环境,它其实并不知道。所以你要保证在shelll脚本中提供所有必要的路径和环境变量,除了一些自动设置的全局变量。所以注意如下3点:

1)脚本中涉及文件路径时写全局路径;

2)脚本执行要用到java或其他环境变量时,通过source命令引入环境变量,如:

cat start_cbp.sh

#!/bin/sh

source /etc/profile

export RUN_CONF=/home/d139/conf/platform/cbp/cbp_jboss.conf

/usr/local/jboss-4.0.5/bin/run.sh -c mev &

3)当手动执行脚本OK,但是crontab死活不执行时。这时必须大胆怀疑是环境变量惹的祸,并可以尝试在crontab中直接引入环境变量解决问题。如:

0 * * * * . /etc/profile;/bin/sh /var/www/java/audit_no_count/bin/restart_audit.sh

注意清理系统用户的邮件日志
每条任务调度执行完毕,系统都会将任务输出信息通过电子邮件的形式发送给当前系统用户,这样日积月累,日志信息会非常大,可能会影响系统的正常运行,因此,将每条任务进行重定向处理非常重要。

例如,可以在crontab文件中设置如下形式,忽略日志输出:

0 */3 * * * /usr/local/apache2/apachectl restart >/dev/null 2>&1

“/dev/null 2>&1”表示先将标准输出重定向到/dev/null,然后将标准错误重定向到标准输出,由于标准输出已经重定向到了/dev/null,因此标准错误也会重定向到/dev/null,这样日志输出问题就解决了。

系统级任务调度与用户级任务调度
系 统级任务调度主要完成系统的一些维护操作,用户级任务调度主要完成用户自定义的一些任务,可以将用户级任务调度放到系统级任务调度来完成(不建议这么 做),但是反过来却不行,root用户的任务调度操作可以通过“crontab –uroot –e”来设置,也可以将调度任务直接写入/etc /crontab文件,需要注意的是,如果要定义一个定时重启系统的任务,就必须将任务放到/etc/crontab文件,即使在root用户下创建一个 定时重启系统的任务也是无效的。

其他注意事项
新创建的cron job,不会马上执行,至少要过2分钟才执行。如果重启cron则马上执行。

当crontab突然失效时,可以尝试/etc/init.d/crond restart解决问题。或者查看日志看某个job有没有执行/报错tail -f /var/log/cron。

千万别乱运行crontab -r。它从Crontab目录(/var/spool/cron)中删除用户的Crontab文件。删除了该用户的所有crontab都没了。

在crontab中%是有特殊含义的,表示换行的意思。如果要用的话必须进行转义\%,如经常用的date ‘+%Y%m%d’在crontab里是不会执行的,应该换成date ‘+\%Y\%m\%d’。