一台普通的P4 3.0 和一台DELL服务器的3.0 内存都是2G,整体性能上的主要区别有以下几点:
1、服务器是按24小时长时间运行机制设计的,稳定性更好,当然价格更贵。
2、关于数据总线,服务器考虑得速度更快一些,一般采用SCIS或SAS。
3、服务器具有RAID功能,支持盘阵。
如果你对做服务器的机器要求不高,一般的PC就可以胜任;反过来,如果拿服务器当PC用,就感觉不搭调了。
具体来说,你要知道服务器与普通PC的区别,这要从硬件和软件两方面来看。
根据应用的不同两者的差别很大,打个比方,PC就相当于什么都会的门诊医生,但是医术不是那么精湛,而服务器就应该是某个方面的专家了,处理能力越出众,它“专”的就越厉害。
一、从硬件上看:
1.CPU
服务器CPU的指令一般是采用的RISC(精简指令集)。根据研究,在大多数的应用中,CPU仅仅使用了很少的几种命令,于是研究人员就根据这种情况设计了该指令集,运用集中的各种命令组合来实现各种需求。这种设计的好处就是针对性更强,可以根据不同的需求进行专门的优化,处理效更高。相对应的则是 CISC(复杂指令集),他的特点就是尽量把各种常用的功能集成到一块,例如我们常常听到的MMX,SSE,SSE+,3D!NOW!等等都是这种类型的。
另外,服务器的CPU设计一般都要考虑它的多路功能,就是多个CPU一起工作,而PC则一般只一颗CPU。
2.内存
内存在服务器上的原则也上越快越大越好,不过它对纠错和稳定提出了更高的要求,比如ECC(“错误检查和纠正“好象没人这么叫的)。我们现在使用的PC上很少有人能够用到1G的内存(玩游戏的不算),而在服务器上,这G级的内存有时也会显着捉襟见肘,记得去年国家发布银河最新超级计算机时,他的内存更是达到了1个 T;相比内存的速度,人们在应用的时候更优先考虑内存的稳定和纠错能力,只有在保证了这两条,才能再考虑别的东西。
3.硬盘
硬盘性能无论是在PC上还是服务器上,性能的提升一直很缓慢,个人认为,依靠机械的发展,硬盘的发展是不可能出现质的飞跃。由于使用服务器的一般都是企业单位,里面都是保存了大量珍贵数据,这对硬盘就提出了安全稳定的要求,硬盘上出现的相关技术也基本上围绕这两个要求转。比如:数据冗余备份,热插拔等。另外,服务器硬盘必须能做到24*7不间断工作的要求。
4.主板
这个我了解的比较少,很少看到服务器有主板的说法,不过我觉得应该提提服务器的总线设计——多路,就是多个CPU如何能够协调工作。有兴趣建议你看看操作系统方面的书,看老外写的,很好!
5.显卡
除了图形和3D设计,服务器上的显卡基本上就是你只要能接上显示器能显示就行!
二、接下来说说软件,软件就主要指操作系统,比如我们熟悉的NT,2000 SERVER,2003 SERVER,LINUX,SOLRAIS和UNIX等等,都是专门针对服务器设计的,比如:负载均衡,多路CPU的支持