欢迎来到千学网!
您现在的位置:首页 > 实用文 > 其他范文

多服务器的日志合并统计服务器教程

时间:2023-02-10 08:35:28 其他范文 收藏本文 下载本文

以下是小编整理的多服务器的日志合并统计服务器教程,本文共7篇,欢迎阅读与收藏。

多服务器的日志合并统计服务器教程

篇1:多服务器的日志合并统计服务器教程

服务器|统计

比较简便不影响服务的方法是:先复制,后清空

cp /path/to/apache/log/access_log /path/to/apache/log/access_log_yesterday

echo >/path/to/apache/log/access_log

严肃的分析员会这样做发现一个问题:

但cp不可能严格保证严格的0点截断,加入复制过程用了6秒,截断的access_log_yesterday日志中会出现复制过程到00:00:06期间的日志。对于单个日志统计这些每天多出来几百行日志是没有问题的。但对于多个日志在跨月的1天会有一个合并的排序问题:

[31/Mar/:59:59:59 +0800]

[31/Mar/2002:23:59:59 +0800]

[01/Apr/2002:00:00:00 +0800]

[01/Apr/2002:00:00:00 +0800]

要知道[01/Apr/2002:00:00:00 这个字段是不可以进行“跨天排序”的。因为日期中使用了dd/mm/yyyy,月份还是英文名,如果按照字母排序,很有可能是这样的结果:排序导致了日志的错误

[01/Apr/2002:00:00:00 +0800]

[01/Apr/2002:00:00:00 +0800]

[01/Apr/2002:00:00:00 +0800]

[01/Apr/2002:00:00:00 +0800]

[01/Apr/2002:00:00:00 +0800]

[01/Apr/2002:00:00:00 +0800]

[01/Apr/2002:00:00:00 +0800]

[31/Mar/2002:59:59:59 +0800]

[31/Mar/2002:59:59:59 +0800]

[31/Mar/2002:23:59:59 +0800]

[31/Mar/2002:59:59:59 +0800]

[31/Mar/2002:23:59:59 +0800]

这些跨天过程中的非正常数据对于webalizer等分析工具来说简直就好像是吃了一个臭虫一样,运行的结果是:它可能会把前一个月所有的数据都丢失!因此这样的数据会有很多风险出现在处理上月最后一天的数据的过程中,

问题的解决有几个思路:

1) 事后处理

所以一个事后的处理的方法是:用grep命令在每月第1天将日志跨月的日志去掉,比如:

grep -v “01/Apr” access_log_04_01 >access_log_new

修改SORT后的日志:所有跨天的数据去掉。也许对日志的事后处理是一个途径,虽然sort命令中有对日期排序的特殊选项 -M(注意是:大写M),可以让指定字段按照英文月份排序而非字母顺序,但对于apache日志来说,用SORT命令切分出月份字段很麻烦。(我尝试过用 “/”做分割符,并且使用“月份” “年:时间”这两个字段排序)。虽然用一些PERL的脚本肯定可以实现,但最终我还是放弃了。这不符合系统管理员的设计原则:通用性。 并且你需要一直问自己:有没有更简单的方法呢?还有就是将日志格式改成用TIMESTAMP(象SQUID的日志就没有这个问题,它的日志本身就是使用TIMESTAMP做时间戳的),但我无法保证所有的日志工具都能识别你在日期这个字段使用了特别的格式。

2) 优化数据源

最好的办法还是优化数据源。将数据源保证按天轮循,同一天的日志中的数据都在同一天内。这样以后你无论使用什么工具(商业的,免费的)来分析日志,都不会因为日志复杂的预处理机制受到影响。

首先可能会想到的是控制截取日志的时间:比如严格从0点开始截取日志,但在子夜前1分钟还是后一分钟开始截取是没有区别的,你仍然无法控制一个日志中有跨2天记录的问题,而且你也无法预测日志归档过程使用的时间。

因此必须要好好考虑一下使用日志轮循工具的问题,这些日志轮循工具要符合:

1) 不中断WEB服务:不能停apache=>移动日志=>重启apache;

2) 保证同一天日志能够按天轮循:每天一个日志00:00:00-23:59:59;

3) 不受apache重启的影响:如果apache每次重启都会生成一个新的日志是不符合要求的;

4) 安装配置简单。

首先考虑了apache/bin目录下自带的一个轮循工具:rotatelogs 这个工具基本是用来按时间或按大小控制日志的,无法控制何时截断和如何按天归档。

然后考虑logrotate后台服务:logrotate是一个专门对各种系统日志(syslogd,mail)进行轮循的后台服务,比如SYSTEM LOG,但其配置比较复杂,放弃,实际上它也是对相应服务进程发出一个-HUP重启命令来实现日志的截断归档的。

篇2:多服务器的日志合并统计

作者:snail

内容摘要:你完全不必耐心地看完下面的所有内容,因为结论无非以下2点:

1 用 cronolog 干净,安全地轮循apache“日”志

2 用 sort -m 合并排序多个日志

根据个人的使用经历:

1 先介绍apache日志的合并方法;

2 然后根据由此引出的问题说明日志轮循的必要性和解决方法,介绍如何通过cronolog对apache日志进行轮循;

中间有很多在设计日志合并过程中一些相关工具的使用技巧和一些尝试的失败经历……

我相信解决以上问题的路径不止这一条途径,以下方案肯定不是最简便或者说成本最低的,希望能和大家有更多的交流,

{0} 多服务器日志合并统计的必要性:

越来越多大型的WEB服务使用DNS轮循来实现负载均衡:使用多个同样角色的服务器做前台的WEB服务,这大大方便了服务的分布规划和扩展性,但多个服务器的分布使得日志的分析统计也变得有些麻烦。如果使用webalizer等日志分析工具对每台机器分别做日志统计: 1 会对数据的汇总带来很多麻烦,比如:统计的总访问量需要将SERVER1 SERVER2...上指定月份的数字相加。 2 会大大影响统计结果中唯一访客数unique visits,唯一站点数unique sites的等指标的统计,因为这几个指标并非几台机器的代数相加。

统一日志统计所带来的好处是显而易见的,但如何把所有机器的统计合并到一个统计结果里呢?

首先也许会想:多个服务器能不能将日志记录到同一个远程文件里呢?我们不考虑使用远程文件系统记录日志的问题,因为带来的麻烦远比你获得的方便多的多……

因此,要统计的多个服务器的日志还是:分别记录=>并通过一定方式定期同步到后台=>合并=>后用日志分析工具来进行分析。

首先,要说明为什么要合并日志:因为webalizer没有将同一天的多个日志合并的功能

先后运行

webalizer log1

webalizer log2

webalizer log3

这样最后的结果是:只有log3的结果。

能不能将log1<

因为一个日志的分析工具不是将日志一次全部读取后进行分析,而且流式的读取日志并按一定时间间隔,保存阶段性的统计结果。因此时间跨度过大(比如2条日志间隔超过5分钟),一些日志统计工具的算法就会将前面的结果“忘掉”。因此, log1<

{1} 日志合并问题

多个服务的合并统计就是要把日志按时间排序后合并成一个文件

典型的多个日志文件的时间字段是这样的:

log1 log2 log3

00:15:00 00:14:00 00:11:00

00:16:00 00:15:00 00:12:00

00:17:00 00:18:00 00:13:00

00:18:00 00:19:00 00:14:00

14:18:00 11:19:00 10:14:00

15:18:00 17:19:00 11:14:00

23:18:00 23:19:00 23:14:00

日志合并必须是按时间将多个日志的交叉合并。合并后的日志应该是:

00:15:00 来自log1

00:15:00 来自log2

00:16:00 来自log1

00:17:00 来自log3

00:18:00 来自log2

00:19:00 来自log1

....

如何合并多个日志文件?

下面以标准的clf格式日志(apache)为例:

apche的日志格式是这样的:

%h %l %u %t “%r” %>s %b

具体的例子:

111.222.111.222 - - [03/Apr/2002:10:30:17 +0800]

“GET / HTTP/1.1” 200 419

最简单的想法是将日志一一读出来,然后按日志中的时间字段排序

cat log1 log2 log3 |sort -k 4 -t “ ”

注释:

-t “ ”: 日志字段分割符号是空格

-k 4: 按第4个字段排序,也就是:

[03/Apr/2002:10:30:17 +0800] 这个字段

-o log_all: 输出到log_all这个文件中

但这样的效率比较低,要知道。如果一个服务已经需要使用负载均衡,其服务的单机日志条数往往都超过了千万级,大小在几百M,这样要同时对多个几百M的日志进行排序,机器的负载可想而之……

其实有一个优化的途径,要知道:即使单个日志本身已经是一个“已经按照时间排好序“的文件了,而sort对于这种文件的排序合并提供了一个优化合并算法:使用 -m merge合并选项,

因此:合并这样格式的3个日志文件log1 log2 log3并输出到log_all中比较好方法是:

sort -m -t “ ” -k 4 -o log_all log1 log2 log3

注释:

-m: 使用 merge优化算法

注意:合并后的日志输出最好压缩以后再发给webalizer处理

有的系统能处理2G的文件,有的不能。有的程序能处理大于2G的文件,有的不能。尽量避免大于2G的文件,除非确认所有参与处理的程序和操作系统都能处理这样的文件。所以输出后的文件如果大于2G,最好将日志gzip后再发给webalizer处理:大于2G的文件分析过程中文件系统出错的可能性比较大,并且gzip后也能大大降低分析期间的I/O操作。

日志的按时间排序合并就是这样实现的。

{2} 日志的轮循机制:

让我们关心一下数据源问题:webalizer其实是一个按月统计的工具,支持增量统计:因此对于大型的服务,我可以按天将apache的日志合并后送给webalizer统计。WEB日志是如何按天(比如每天子夜00:00:00)截断呢?

如果你每天使用crontab:每天0点准时将日志备份成accesserials_log_yesterday

mv /path/to/apache/log/accesserials_log

/path/to/apache/log/accesserials_log_yesterday

的话:你还需要:马上运行一下:apache restart 否则:apache会因为的日志文件句柄丢失不知道将日志记录到哪里去了。这样归档每天子夜重启apache服务会受到影响。

比较简便不影响服务的方法是:先复制,后清空

cp /path/to/apache/log/accesserials_log /path/to/apache/log/accesserials_log_yesterday

echo >/path/to/apache/log/accesserials_log

严肃的分析员会这样做发现一个问题:

但cp不可能严格保证严格的0点截断。加入复制过程用了6秒,截断的accesserials_log_yesterday日志中会出现复制过程到00:00:06期间的日志。对于单个日志统计这些每天多出来几百行日志是没有问题的。但对于多个日志在跨月的1天会有一个合并的排序问题:

[31/Mar/2002:59:59:59 +0800]

[31/Mar/2002:23:59:59 +0800]

[01/Apr/2002:00:00:00 +0800]

[01/Apr/2002:00:00:00 +0800]

要知道[01/Apr/2002:00:00:00 这个字段是不可以进行“跨天排序”的。因为日期中使用了dd/mm/yyyy,月份还是英文名,如果按照字母排序,很有可能是这样的结果:排序导致了日志的错误

[01/Apr/2002:00:00:00 +0800]

[01/Apr/2002:00:00:00 +0800]

[01/Apr/2002:00:00:00 +0800]

[01/Apr/2002:00:00:00 +0800]

[01/Apr/2002:00:00:00 +0800]

[01/Apr/2002:00:00:00 +0800]

[01/Apr/2002:00:00:00 +0800]

[31/Mar/2002:59:59:59 +0800]

[31/Mar/2002:59:59:59 +0800]

[31/Mar/2002:23:59:59 +0800]

[31/Mar/2002:59:59:59 +0800]

[31/Mar/2002:23:59:59 +0800]

这些跨天过程中的非正常数据对于webalizer等分析工具来说简直就好像是吃了一个臭虫一样,运行的结果是:它可能会把前一个月所有的数据都丢失!因此这样的数据会有很多风险出现在处理上月最后一天的数据的过程中。

问题的解决有几个思路:

1 事后处理:

所以一个事后的处理的方法是:用grep命令在每月第1天将日志跨月的日志去掉,比如:

grep -v “01/Apr” accesserials_log_04_01 >accesserials_log_new

修改SORT后的日志:所有跨天的数据去掉,

也许对日志的事后处理是一个途径,虽然sort命令中有对日期排序的特殊选项 -M(注意是:大写M),可以让指定字段按照英文月份排序而非字母顺序,但对于apache日志来说,用SORT命令切分出月份字段很麻烦。(我尝试过用 “/”做分割符,并且使用“月份” “年:时间”这两个字段排序)。虽然用一些PERL的脚本肯定可以实现,但最终我还是放弃了。这不符合系统管理员的设计原则:通用性。 并且你需要一直问自己:有没有更简单的方法呢?还有就是将日志格式改成用TIMESTAMP(象SQUID的日志就没有这个问题,它的日志本身就是使用TIMESTAMP做时间时间戳的),但我无法保证所有的日志工具都能识别你在日期这个字段使用了特别的格式。

2 优化数据源:

最好的办法还是优化数据源。将数据源保证按天轮循,同一天的日志中的数据都在同一天内。这样以后你无论使用什么工具(商业的,免费的)来分析日志,都不会因为日志复杂的预处理机制受到影响。

首先可能会想到的是控制截取日志的时间:比如严格从0点开始截取日志,但在子夜前1分钟还是后一分钟开始截取是没有区别的,你仍然无法控制一个日志中有跨2天记录的问题,而且你也无法预测日志归档过程使用的时间。

因此必须要好好考虑一下使用日志轮循工具的问题,这些日志轮循工具要符合:

1 不中断WEB服务:不能停apache=>移动日志=>重启apache

2 保证同一天日志能够按天轮循:每天一个日志00:00:00-23:59:59

3 不受apache重启的影响:如果apache每次重启都会生成一个新的日志是不符合要求的

4 安装配置简单

首先考虑了apache/bin目录下自带的一个轮循工具:rotatelogs 这个工具基本是用来按时间或按大小控制日志的,无法控制何时截断和如何按天归档。

然后考虑logrotate后台服务:logrotate是一个专门对各种系统日志(syslogd,mail)进行轮循的后台服务,比如SYSTEM LOG,但其配置比较复杂,放弃,实际上它也是对相应服务进程发出一个-HUP重启命令来实现日志的截断归档的。

在apache的FAQ中,推荐了经过近2年发展已经比较成熟的一个工具cronolog:安装很简单:

configure=>make=>make install

他的一个配置的例子会让你了解它有多么适合日志按天轮循:对httpd.conf做一个很小的修改就能实现:

TransferLog “|/usr/sbin/cronolog /web/logs/%Y/%m/%d/access.log”

ErrorLog “|/usr/sbin/cronolog /web/logs/%Y/%m/%d/errors.log”

然后:日志将写入

/web/logs/2002/12/31/access.log

/web/logs/2002/12/31/errors.log

午夜过后:日志将写入

/web/logs//01/01/access.log

/web/logs/2003/01/01/errors.log

而2003 2003/01 和 2003/01/01 如果不存在的话,将自动创建

所以,只要你不在0点调整系统时间之类的话,日志应该是完全按天存放的(00:00:00-23:59:59),后面日志分析中:[31/Mar/2002:15:44:59这个字段就和日期无关了,只和时间有关。

测试:考虑到系统硬盘容量,决定按星期轮循日志

apache配置中加入:

#%w weekday

TransferLog “|/usr/sbin/cronolog /path/to/apache/logs/%w/accesserials_log”

重启apache后,除了原来的CustomLog /path/to/apche/logs/accesserials_log继续增长外,系统log目录下新建立了 3/目录(测试是在周3),过了一会儿,我忽然发现2个日志的增长速度居然不一样!

分别tail了2个日志才发现:

我设置CustomLog使用的是combined格式,就是包含(扩展信息的),而TransferLog使用的是缺省日志格式,看了apache的手册才知道,TransferLog是用配置文件中离它自己最近的一个格式作为日志格式的。我的httpd.conf里写的是:

LogFormat ..... combined

LogFormat ... common

...

CustomLog ... combined

TransferLog ...

所以TrasferLog日志用的是缺省格式,手册里说要让TRANSFER日志使用指定的格式需要:

LogFormat “%h %l %u %t ”%r“ %>s %b ”%{Referer}i“ ”%{User-Agent}i“”

TransferLog “|/usr/local/sbin/cronolog /path/to/apache/logs/%w/accesserials_log”

重启,OK,日志格式一样了。

这样的设置结果其实是同时在logs目录下分别记录2个日志accesserials_log和%w/accesserials_log,能不能只记录%w/下的日志那?

查apache手册,更简单的方法:直接让CustomLog输出到cronolog归档日志,并且还能指定格式。

CustomLog “|/usr/local/sbin/cronolog

/path/to/apache/logs/%w/accesserials_log” combined

最后是一个日志同步的问题。

任务:每天凌晨找到前1天的日志,另存一个文件准备发送到服务器上。

比如我要保留前1周的日志:每天复制前1天的日志到指定目录,等待日志服务器来抓取:

/bin/cp /path/to/logs/`date -v-1d +%w`/accesserials_log

/path/to/sync/logs/accesserials_yesterday

在FREEBSD上使用以下命令

date -v-1d +%w

注释:

-v-1d: 前1天,而在LINUX上这个选项应该是date -d yesterday

+%w: weekday,由于使用的都是标准时间函数库,所有工具中的WEEKDAY定义都是一样的 0-6 =>周日-周六

注意:写到CRONTAB里的时候“%”前面需要加一个“”转义:每天0点5分进行一次日志归档

5 0 * * * /bin/cp /path/to/logs/`date -v-1d +%w`/accesserials_log

/path/to/for_sync/logs/accesserials_yesterday

首次开始cronolog日志统计是周3,一周以后日志又将轮循回3/accesserials_log

但这次日志是追加到3/accesserials_log还是重新创建一个文件呢?>>accesserials_log or >accesserials_log?

我测试的结果是日志将被追加:

[01/Apr/2002:23:59:59 +0800]

[01/Apr/2002:23:59:59 +0800]

[08/Apr/2002:00:00:00 +0800]

[08/Apr/2002:00:00:00 +0800]

肯定是不希望每次日志还带着上周的数据的并重复统计一次的(虽然对结果没影响),而且这样%w/下的日志不是也越来越多了吗?

解决方法1 把每天的cp改成mv

解决方法2 每天复制完成后:删除6天以前的accesserials_log日志

find /path/to/apache/logs -name accesserials_log -mtime +6 -exec rm -f {};

多保留几天的日志还是有必要的:万一日志分析服务器坏了一天呢?

总结:

1 用 cronolog 干净,安全地轮循日志

2 用 sort -m 排序合并多个日志

参考资料:

日志分析统计工具:

directory.google.com/Top/Computers/Software/

Internet/Site_Management/Log_Analysis/

Apche的日志设置:

httpd.apache.org/docs/mod/mod_log_config.html

apache的日志轮循:

httpd.apache.org/docs/misc/FAQ.html#rotate

cronolog:www.cronolog.org

篇3:服务器完整日志管理

日志文件时刻为你记录着你的系统的运行情况,当 光临时,也不能逃脱日志的法眼。所以 往往在攻击时修改日志文件,来隐藏踪迹。因此我们要限制对/var/log文件的访问,禁止一般权限的用户去查看日志文件。

另外,我们还可以安装一个icmp/tcp日志管理程序,如iplogger,来观察那些可疑的多次的连接尝试(加icmp flood3或一些类似的情况),

还要小心一些来自不明主机的登录。

完整的日志管理要包括网络数据的正确性、有效性、合法性。对日志文件的分析还可以预防入侵。例如、某一个用户几小时内的20次的注册失败记录,很可能是入侵者正在尝试该用户的口令。

篇4:Excel服务器教程(1)

第一章引言

1.1什么是Excel服务器?

Excel服务器是一套程序,它能够以Excel和ESweb为客户界面,将Excel文件和数据保存到MSSQLServer中,自动生成Excel表单/报表,用工作流传递Excel表单/报表,自动生成Web系统,不但能够在局域网中应用,还能在互联网上应用。还能集成外部数据源,构成一个统一的数据系统。

Excel服务器最大的特点是会用Excel,普通非IT专业人员就能自己实现基于Web和工作流的管理信息系统。能够象用Excel一样方便、简单、任意修改,适应企业的发展变化。不再需要软件工程师来为自己维护管理信息系统。

同时,Excel服务器也是一种能够把MSExcel变成网络系统的工具。

1.2Excel服务器2005(企业版)的特色

1.表间公式使得您能够任意引用权限范围内的企(事)业单位内的业务数据。一个Excel模版可以定义多个表间公式。表间公式可以大大提高您的工作效率,减少人为错误,降低您的劳动强度。

2.工作流可以使Excel文件按照管理流程和权限角色进行流动,特别是,在Excel文件传递过程中可以随时使用表间公式,获得所需要的数据,因此,工作流充分和数据处理相结合是Excel服务器2005的一大特点。

3.ESWeb系统可以使用户通过互联网进行填报、修改、应用表间公式、图表、工作流、交叉表、查询数据和引用外部数据源。通过设计Excel服务器模版,就可自动实现Web化的管理信息系统。

4.Excel服务器2005(企业版)中,公用数据和信息(例如,组织机构、人员、角色、系统日志、备份与恢复等)统一管理;数据类型、数据规范、用户词典、自动编号规则可以根据权限进行分散管理,业务表单、台帐和报表由用户根据权限设计、管理。大大增强了系统的适应性和可用性。

5.外部数据源可以使用户非常方便地将已有的ERP/SCM/CRM/OA等管理信息系统的数据集成进入Excel服务器,实现数据集成。

6.回写公式可以使系统按条件自动改变已有单据上的信息,完全实现“前单驱动后单,后单核销前单”的功能。

7.Excel服务器2005嵌入在MSExcel中,会用Excel,就很容易掌握Excel服务器,培训成本和维护成本大大降低。

8.采用MSSQLServer2000作为系统数据库,企业的Excel文件和业务数据具有安全保障,

9.适用于局域网和广域网。

10.支持群集(Cluster)系统,双机热备,充分保证安全性。

11.支持交叉表。

1.3使用Excel服务器需要什么软硬件环境?

一、硬件环境

1.局域网

最简单的局域网,可以采用一个集线器把几台计算机联起来。也可以是由不同的网段组成的大型网络。

2.互联网接入

有企业在国外或外地,需要通过互联网来管理,还需要接入互联网。宽带、DDN专线接入均可。

3.服务器

服务器是用户存储Excel文件和数据,以及系统信息。普通的PC机就可以。如果条件允许,可以采用专用的PC服务器。服务器即可以放在企业内,也可以进行主机托管。

推荐的服务器配置:

CPU:P42.8GHZ内存:512MB以上,硬盘80GB以上。服务器最容易出故障的地方是风扇,需要经常检查。

4.客户机

也就是通常人们使用的计算机。

建议:

CPU:P31GHZ内存256MB,硬盘40GB.硬件的配置可以随自己的情况变动,配置高一点,则运行速度快一点,配置低一点,则运行速度慢一点。

二、软件配置

1.Excel服务器2005企业版

企业版比标准版多出一个ESweb系统,能够在互联网上使用。因此,需要一个能够建立网站的环境。

服务器软件系统要求:

(1).操作系统:Windows2000/XP/WindowsServer

需要配置IIS.

对于Windows2000,在安装完IIS后,还需要安装Microsoft.NetFramwork.

具体参见帮助文档。

(2).数据库:MSSQLServer2000/MSDE2000

其中,MSDE2000是MSSQLServer2000的桌面产品,主要限制数据库最大容量不超过2GB.

(3)MSExcel2000//2003

(4)IE需要5.5以上。

2.Excel服务器2005标准版

标准版没有ESweb系统,因此,服务器的操作系统要求低,可以是Win98/Me/2000/XP/2003.

MSOffice:MSExcel2000/2002/2003

数据库:MSSQLServer2000/MSDE2000

1.4适合什么企业和个人使用?

1.希望能够随时能够改变企业管理信息系统的企业和个人。

2.买不到现成管理信息系统产品的企业和个人。

3.不愿花太多钱建立管理信息系统的企业和个人。

4.想把企业各种信息系统相互联系起来的企业和个人。

5.缺乏IT人员的企业。

6.会用Excel的人员。

篇5:Windows Server 2003服务器教程

server|window

4月,Windows Server 2003发布;对活动目录、组策略操作和管理、磁盘管理等面向服务器的功能作了较大改进,对.net技术的完善支持进一步扩展了服务器的应用范围,

Windows Server 2003有四个版本:Windows Server 2003 Web服务器版本(Web Edition)、Windows Server 2003标准版(Standard Edition)、Windows Server 2003企业版(Enterprise Edition)以及Windows Server 2003数据中心版(Datacenter Edition),

Web Edition主要是为网页服务器(web hosting)设计的,而Datacenter是一个为极高端系统使用的。标准和企业版本则介于两者中间。

Windows Server 2003是目前微软最新的服务器操作系统。

一开始,该产品叫作“Windows .NET Server”,改成“Windows .NET Server 2003”,后最终被改成“Windows Server 2003”,于203月28日发布,并在同年四月底上市。

Windows Server 2003有多种版本,每种都适合不同的商业需求:

Windows Server 2003 Web版

Windows Server 2003 标准版

Windows Server 2003 企业版

Windows Server 2003 数据中心版

篇6:从零开始配置服务器服务器教程

从零开始配置服务器

(一)硬件准备

一台HP ProLiant DL160 G5服务器(硬盘拓展到480G)

一台个人电脑(windows操作系统)

一个Lenovo 4G 闪存(fat32格式)

(二)制作引导U盘

网络上有许多制作Linux引导U盘的文章,但真正能用的少之又少,期间尝试多个办法,均以失败告终,下面将直接阐述最可行,也是最简单的方法。

下载U盘boot工具,共三个文件,已经打包,下载地址:www.filesavr.com/u-boot

解压syslinux-3.73.tar.gz文件,ctrl+r输入cmd打开命令提示符,然后使用cd命令进入syslinux-3.73目录下的win32文件夹

syslinux.exe -m -a x: x为U盘盘符

命令完成后就已经在U盘中建立了一个可引导文件,当然,这是隐藏的。

在u盘中建立此文件syslinux.cfg(用记事本或写字板编辑,注意,先在控制面板-文件夹选项中选择显示后缀名) ,并在里面加入

default vmlinuz

append initrd=initrd.gz

再将u-boot包中的vmlinuz,initrd.gz转移到U盘中。

最后从cdimage.debian.org/debian-cd/5.0.3/i386/iso-cd/下载debian-503-i386-CD-1.iso 镜像并转移到U盘里。

至此,U盘引导盘制作完成。

(三)安装debian

将U盘插入,启动服务器,bios默认从U盘启动,因此在这里我无需设置。

进入字符安装界面,根据提示操作,到检测磁盘的那一步拔掉U盘,待分区完成后再插上,回头按Erc重新选择挂载ISO镜像,安装基本系统,选择软件包(这里只选择桌面环境以及标准系统,装桌面环境是为了配置方便),安装grub,安装debian完成,拔掉U盘重启服务器。

在我重启完成后,经过一个蓝色选择debian模式的界面,直接提示找不到root错误-root (hd1,0)。

不用慌张,接着按Erc退回debian模式选择界面,按c,这是修复grub的界面,移到root (hd1,0)上,按e编辑root,改成

root (hd0,0)

回车,最后按b启动,启动正常。

进入系统,登陆,附件,终端

su 输入root密码后就可以行使root权限

vim /boot/grub/menu.lst

拉到最下面,找到前面没有“#”前缀的

root (hd0,1)

改为

root (hd0,0)

至此安装debian完成,

(四)配置源

安装好之后,发现apt-get install任何软件都失败,查看源配置文件,问题在于只有一个基础源,并没有任何软件源。直接google:debian 源。根据自己网络先随便选择一个,然后再终端输入

apt-get install apt-spy

如果源没有问题,安装完成后即可使用apt-spy。

cp /etc/apt/sources.list /etc/apt/sources.list.bak 备份源

apt-spy -d lenny -a Asia 搜索亚洲境内最快源

扫描生成/etc/apt/sources.list.d/apt-spy.list文件,这个其实就可以作为sources.list文件用了。

cp /etc/apt/sources.list.d/apt-spy.list /etc/apt/sources.list 覆盖掉原有的sources.list文件

(五)快速搭建环境

终端输入:

apt-get install lighttpd php5-cgi php5-mysql mysql-server php5-gd phpmyadmin

之后按照我这篇文章的方法配置lighttpd,地址:youling.wordpress.com.cn/debian-lighttpd-php-mysql.html

vsftpd按照这里的资料根据自己的需求配置,地址:wiki.ubuntu.org.cn/Vsftpd服务安装设置

如果需要外网访问phpmyadmin,输入如下命令建立软连接:

ln -s /usr/share/phpmyadmin/ /var/www/ root权限模式下才行

最后是ssh安装配置。

apt-get install openssh-server

配置SSH

vim /etc/ssh/sshd_config

这里有相关资料,按自己需求配置,地址:www.diybl.com/course/6_system/linux/Linuxjs/0903/173704.html

至此,服务器配置完成。

(六)测试工作

使用ftp软件上传一个探针到web根目录。

访问127.0.0.1查看最终结果。

zend或者其他php加速器可以自己安装,很简单,这里就不再累述。

提示:如果修改某一服务的配置文件,使用 /etc/init.d/服务名 resart即可完成重启,比如:

/etc/init.d/ssh resart

篇7:WinRouteDHCP服务器设置服务器教程

服务器

由于该软件在局域网中用的比较多,为了能方便地给局域网中的每一台计算机分配IP地址,WinRoute 4.1版本提供了DHCP(动态IP地址分配)功能,通过该功能用户可以自动配置局域网上的每台计算机上的网络相关参数,

它的具体设置方法如下:

首先从菜单栏中选择“SETTINGS”菜单项,并单击其下拉菜单中的“DHCP SERVER”命令,程序将会弹出一个对话框。在弹出的对话框中首先应该选中“DHCP SERVER ENABLED”,接着用鼠标选中“DEFAULT OPTION”(默认选项)后按住“EDIT”按钮,程序将打开一个标题为“CHANGE DEFAULT OPTIONS”(修改缺省选项)的对话框,该对话框共提供了四个复选项,如果选中“DNS SERVER”表示起用域名转换功能,同时用户可以在右边的“SPECIFY”文本栏中输入因特网服务商提供的DNS服务器地址,

另外用户还必须选中“LEASE TIME”这一项来指定IP地址的释放时间,一般改成12小时就足够了。对缺省选项设置修改后,单击“OK”按钮返回图7所示的界面,在该界面中请用户单击“ADVANCED”(高级)按钮,在弹出的窗口中选中第一个复选项,表示为客户机在启动时使用动态IP表,这样客户机重新启动的时候就不会占用几个IP地址,第二个复选项表示客户机将自动从远程服务器上获得动态的IP地址。

接着用户可以单击图中界面中的“NEW SCOPE”按钮,在弹出的对话框中设置一个DHCP服务器上的动态IP地址分配范围,用户可以在“FROM”文本栏中填入一个起始地址,在“TO”文本栏后填入结束地址,在“MASK”文本栏中输入掩码的IP地址,通常为255.255.255.0,设置后单击“OK”按钮就完成了DHCP有关的参数设置工作。

SMTP服务扩展服务器教程

win服务器安全设置教程

FreeBSD 升级系统服务器教程

路由器配置攻略服务器教程

从Win98升级到Win2k服务器教程

选择合适自己的服务器服务器教程

如何用iptables实现NAT服务器教程

FTP非交互方式文件传输服务器教程

服务器采购合同

服务器购销合同范本

《多服务器的日志合并统计服务器教程(推荐7篇).doc》
将本文的Word文档下载到电脑,方便收藏和打印
推荐度:
点击下载文档

文档为doc格式

点击下载本文文档