DDR3鹦鹉每次生几个宝宝读几个数据

DDR3必读内容介绍DDR3_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
DDR3必读内容介绍DDR3
上传于||文档简介
&&D​D​R必​读​内​容​介​绍​D​D​R,​非​常​ ​不​错​的​文​档​,​推​荐​。
阅读已结束,如果下载本文需要使用1下载券
想免费下载本文?
定制HR最喜欢的简历
下载文档到电脑,查找使用更方便
还剩8页未读,继续阅读
定制HR最喜欢的简历
你可能喜欢FPGA读取DDR3 16位数据 32位数据有什么不同 时序不一样吗 求解答 谢谢!_百度知道严格的说DDR应该叫DDRSDRAM,人们习惯称为DDR,部分初学者也常看到DDRSDRAM,就认为是SDRAM。DDRSDRAM是DoubleDataRateSDRAM的缩写,是双倍速率同步动态随机存储器的意思。DDR内存是在SDRAM内存基础上发展而来的,仍然沿用SDRAM生产体系,因此对于内存厂商而言,只需对制造普通SDRAM的设备稍加改进,即可实现DDR内存的生产,可有效的降低成本。SDRAM在一个时钟周期内只传输一次数据,它是在时钟的上升期进行数据传输;而DDR内存则是一个时钟周期内传输两次次数据,它能够在时钟的上升期和下降期各传输一次数据,因此称为双倍速率同步动态随机存储器。DDR内存可以在与SDRAM相同的总线频率下达到更高的数据传输率。与SDRAM相比:DDR运用了更先进的同步电路,使指定地址、数据的输送和输出主要步骤既独立执行,又保持与CPU完全同步;DDR使用了DLL(DelayLockedLoop,延时锁定回路提供一个数据滤波信号)技术,当数据有效时,存储控制器可使用这个数据滤波信号来精确定位数据,每16次输出一次,并重新同步来自不同存储器模块的数据。DDR本质上不需要提高时钟频率就能加倍提高SDRAM的速度,它允许在时钟脉冲的上升沿和下降沿读出数据,因而其速度是标准SDRA的两倍。DDR2的定义:DDR2(DoubleDataRate2)SDRAM是由JEDEC(电子设备工程联合委员会)进行开发的新生代内存技术标准,它与上一代DDR内存技术标准最大的不同就是,虽然同是采用了在时钟的上升/下降延同时进行数据传输的基本方式,但DDR2内存却拥有两倍于上一代DDR内存预读取能力(即:4bit数据读预取)。换句话说,DDR2内存每个时钟能够以4倍外部总线的速度读/写数据,并且能够以内部控制总线4倍的速度运行。DDR3比DDR2拥有更高频率的优势。目前DDR2尚未完全取代DDR内存,在目前的整机环境下,DDR2基本能够满足各类型计算机的应用需求,那么最新一代的DDR3相比DDR2具有哪些优势,使得包括Intel和AMD以及A-DATA在内的众多国际顶级厂商都致力于DDR3的开发与应用呢?由于DDR2的数据传输频率发展到800MHz时,其内核工作频率已经达到了200MHz,因此,再向上提升较为困难,这就需要采用新的技术来保证速度的可持续发展性。另外,也是由于速度提高的缘故,内存的地址/命令与控制总线需要有全新的拓朴结构,而且业界也要求内存要具有更低的能耗,所以,DDR3要满足的需求就是:1.更高的外部数据传输率2.更先进的地址/命令与控制总线的拓朴架构3.在保证性能的同时将能耗进一步降低为了满足上述要求,DDR3在DDR2的基础上采用了以下新型设计:1.8bit预取设计,而DDR2为4bit预取,这样DRAM内核的频率只有接口频率的1/8,DDR3-800的核心工作频率只有100MHz。2.采用点对点的拓朴架构,以减轻地址/命令与控制总线的负担。3.采用100nm以下的生产工艺,将工作电压从1.8V降至1.5V,增加异步重置(Reset)与ZQ校准功能。DDR3与DDR2几个主要的不同之处:突发长度(BurstLength,BL)由于DDR3的预取为8bit,所以突发传输周期(BurstLength,BL)也固定为8,而对于DDR2和早期的DDR架构系统,BL=4也是常用的,DDR3为此增加了一个4bitBurstChop(突发突变)模式,即由一个BL=4的读取操作加上一个BL=4的写入操作来合成一个BL=8的数据突发传输,届时可通过A12地址线来控制这一突发模式。而且需要指出的是,任何突发中断操作都将在DDR3内存中予以禁止,且不予支持,取而代之的是更灵活的突发传输控制(如4bit顺序突发)。寻址时序(Timing)就像DDR2从DDR转变而来后延迟周期数增加一样,DDR3的CL周期也将比DDR2有所提高。DDR2的CL范围一般在2~5之间,而DDR3则在5~11之间,且附加延迟(AL)的设计也有所变化。DDR2时AL的范围是0~4,而DDR3时AL有三种选项,分别是0、CL-1和CL-2。另外,DDR3还新增加了一个时序参数——写入延迟(CWD),这一参数将根据具体的工作频率而定。DDR3新增的重置(Reset)功能重置是DDR3新增的一项重要功能,并为此专门准备了一个引脚。DRAM业界很早以前就要求增加这一功能,如今终于在DDR3上实现了。这一引脚将使DDR3的初始化处理变得简单。当Reset命令有效时,DDR3内存将停止所有操作,并切换至最少量活动状态,以节约电力。在Reset期间,DDR3内存将关闭内在的大部分功能,所有数据接收与发送器都将关闭,所有内部的程序装置将复位,DLL(延迟锁相环路)与时钟电路将停止工作,而且不理睬数据总线上的任何动静。这样一来,将使DDR3达到最节省电力的目的。DDR3新增ZQ校准功能ZQ也是一个新增的脚,在这个引脚上接有一个240欧姆的低公差参考电阻。这个引脚通过一个命令集,通过片上校准引擎(On-DieCalibrationEngine,ODCE)来自动校验数据输出驱动器导通电阻与ODT的终结电阻值。当系统发出这一指令后,将用相应的时钟周期(在加电与初始化之后用512个时钟周期,在退出自刷新操作后用256个时钟周期、在其它情况下用64个时钟周期)对导通电阻和ODT电阻进行重新校准。参考电压分成两个在DDR3系统中,对于内存系统工作非常重要的参考电压信号VREF将分为两个信号,即为命令与地址信号服务的VREFCA和为数据总线服务的VREFDQ,这将有效地提高系统数据总线的信噪等级。点对点连接(Point-to-Point,P2P)这是为了提高系统性能而进行的重要改动,也是DDR3与DDR2的一个关键区别。在DDR3系统中,一个内存控制器只与一个内存信道打交道,而且这个内存信道只能有一个插槽,因此,内存控制器与DDR3内存模块之间是点对点(P2P)的关系(单物理Bank的模块),或者是点对双点(Point-to-two-Point,P22P)的关系(双物理Bank的模块),从而大大地减轻了地址/命令/控制与数据总线的负载。而在内存模块方面,与DDR2的类别相类似,也有标准DIMM(台式PC)、SO-DIMM/Micro-DIMM(笔记本计算机)、FB-DIMM2(服务器)之分,其中第二代FB-DIMM将采用规格更高的AMB2(高级内存缓冲器)。面向64位构架的DDR3显然在频率和速度上拥有更多的优势,此外,由于DDR3所采用的根据温度自动自刷新、局部自刷新等其它一些功能,在功耗方面DDR3也要出色得多,因此,它可能首先受到移动设备的欢迎,就像最先迎接DDR2内存的不是台式机而是服务器一样。在CPU外频提升最迅速的PC台式机领域,DDR3未来也是一片光明。目前Intel预计在明年第二季所推出的新芯片-熊湖(BearLake),其将支持DDR3规格,而AMD也预计同时在K9平台上支持DDR2及DDR3两种规格。GDDR3是专门为显卡制定的DDR3内存,G就是graphics的简写呵呵,都是晚上找来的资料,希望对你有帮助。
相关问题略懂社热议相关搜索
问问青春版,什么都略懂一点这么说吧,世界上有几大必须被抛弃的陋习:&br&1.清理内存&br&&br&从windows优化大师时代,PC机上各种清理内存的东东就大行其道了。在当年也许还有那么丁点意义,因为平均内存只有128M,且95、98的内存管理机制确实有问题。但是,清理之后的首先感觉到系统反而没有那么流畅了。原因后来想明白了,除了回收一些系统没有及时回收的内存空间,丫还把系统缓存给清空了,。这样看起来可用的内存是多了,但是因为缓存被处理掉了,机器的反应反而变慢。&br&&br&XP后时代,内存整理更加没什么意义了。&br&&br&在手机android平台上,及时释放一些后台应用占用的内存,应该还是有意义的吧。我几个平台的机子都用过。ios和wp平台,关后台应用效果不明显。&br&&br&2.手机,各种有屏幕的东西贴膜&br&&br&大家都说,不贴就花了呀!其实花了就花了吧,手机是用的,不是当祖宗供着的。在这个快速消费的年头,一个手机还想保存完好当传家宝不成吗?市面上那些个劣质膜往上一贴,轻轻松松就让好几年屏幕上的进步化为乌有了。透光率也低了,颜色也有偏差了,体验大大下降。&br&3.电脑前放仙人掌。&br&&br&这个不说了吧。
这么说吧,世界上有几大必须被抛弃的陋习: 1.清理内存 从windows优化大师时代,PC机上各种清理内存的东东就大行其道了。在当年也许还有那么丁点意义,因为平均内存只有128M,且95、98的内存管理机制确实有问题。但是,清理之后的首先感觉到系统反而没有那…
简单回答:没用。&br&&br&技术回答:内存页面分配的相关技术。&br&&br&科普回答:&br&内存以页为单位进行管理。内存页可以保存在内存中,也可以保存在本地的页面文件中。&br&所谓的内存清理,就是一个程序不停申请内存,从而不停的触发操作系统的内存重分配策略。直到用完系统可用的内存后再宣布释放内存,就把这些内存变成了空的状态。&br&在这个情况下,内存页的影响分以下几种:&br&1 当前程序正在使用的内存页:不动。&br&2 当前程序暂时并没有使用的内存页:写入硬盘的页面文件,并释放。如果当前程序要使用,就只能从页面文件再读回来。&br&3 IO的读缓存:删除。&br&4 IO的写缓存:写入完成后删除。 &br&&br&在Windows正常管理的情况下,对于前面的几种情况:&br&1 当前程序正在使用的内存页:不动。&br&2 当前程序暂时并没有使用的内存页:当有程序需要内存的时候,且3、4无法满足时,写入页面文件并标记为可以使用。但如果一直没有被使用。而当前程序又需要的时候,就可以直接再分配给这个程序。由于数据没有被清除,就不必再读一次硬盘。&br&3 IO的读缓存:不常用后,删除。&br&4 IO的写缓存:写入完成后删除。 &br&&br&所以结果是,只有两种情况下有效:&br&1 好看。&br&2 做好准备,为了用最快的速度迎接下一次大内存分配。比如你打算玩一个大型游戏,而想尽可能的加快载入时间,可以先做一次内存整理的动作。但实际上考虑到内存整理本身的时间,其实总时间就需要更多。&br&&br&但是,就算你不人工触发内存整理的动作,当程序需要内存而当前没有可用内存的时候,操作系统自己就会按需触发内存重新分配的上述动作。&br&&br&而由于放弃了读缓存,并强制写入暂时没有使用的内存页到硬盘,还在之后可能需要再从硬盘读回来,因此如果在内存整理后没有用完所有新释放的内存,这些额外的工作就毫无意义,只会拖慢速度。
简单回答:没用。 技术回答:内存页面分配的相关技术。 科普回答: 内存以页为单位进行管理。内存页可以保存在内存中,也可以保存在本地的页面文件中。 所谓的内存清理,就是一个程序不停申请内存,从而不停的触发操作系统的内存重分配策略。直到用完系统可…
Linux和Windows的分区在原理上没有区别,只是在格式上有区别。&br&&br&分区的作用是把一个物理存储设备分割成多个不同的逻辑存储设备,对于Windows来说,表现的结果就是不同的盘符,对于Linux来说,就是不同的挂载点。分区不是一个操作系统的概念(&a href=&///?target=https%3A//en.wikipedia.org/wiki/Disk_partitioning& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Disk partitioning&i class=&icon-external&&&/i&&/a&)。&br&&br&分区是通过在分区表中写入特定的数据来告诉操作系统这个设备被分割成几个逻辑存储区域。分区表有公共的格式(&a href=&///?target=https%3A//en.wikipedia.org/wiki/Partition_table& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Partition table&i class=&icon-external&&&/i&&/a&),只要在分区表中写入正确的数据,就可以对设备分区。&br&&br&至于分区内部的格式,这个由各个操作系统自己决定,NTFS/ext/FAT这些都指的是分区内部的数据结构,这个与分区表无关。&br&&br&分区表格式,分为MBR格式和GPT格式两种,MBR格式就是利用MBR记录后边的64个字节,来描述磁盘的分区情况。因为MBR分区表里只能保存4个分区记录,所以才有了主分区只有4个的限制。而逻辑分区则是把多个分区放到一个扩展分区里,把一个扩展分区拆分成更多的分区,让一个磁盘能划分成超过4个的磁盘分区。&br&&br&因为MBR分区表只有64个字节,能记录的数据非常有限,所以已经逐步被GPT格式取代,GPT分区表能保存更多的信息。&br&&br&具体分区表的格式可以参见:&br&&a href=&///?target=http%3A///subview/.htm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&mbr(主引导记录(Master Boot Record))&i class=&icon-external&&&/i&&/a&&br&&a href=&///?target=http%3A///item/GPT/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&GPT(计算机技术)&i class=&icon-external&&&/i&&/a&
Linux和Windows的分区在原理上没有区别,只是在格式上有区别。 分区的作用是把一个物理存储设备分割成多个不同的逻辑存储设备,对于Windows来说,表现的结果就是不同的盘符,对于Linux来说,就是不同的挂载点。分区不是一个操作系统的概念(…
不大。&br&用USB连接的话,瓶颈在于USB的传输速度。&br&放在机器里面,除非用软件测试,不然一般感觉不出来有多大差距。还不如关掉360的影响大。
不大。 用USB连接的话,瓶颈在于USB的传输速度。 放在机器里面,除非用软件测试,不然一般感觉不出来有多大差距。还不如关掉360的影响大。
写成这样&br&&br&&div class=&highlight&&&pre&&code class=&language-cpp&&&span class=&cp&&#define _CRTDBG_MAP_ALLOC&/span&
&span class=&cp&&#include &stdlib.h&&/span&
&span class=&cp&&#include &crtdbg.h&&/span&
&span class=&cp&&#define VCZH_CHECK_MEMORY_LEAKS_NEW new(_NORMAL_BLOCK, __FILE__, __LINE__)&/span&
&span class=&cp&&#define new VCZH_CHECK_MEMORY_LEAKS_NEW&/span&
&/code&&/pre&&/div&&br&然后你就知道是哪里new出来的了。
写成这样 #define _CRTDBG_MAP_ALLOC
#include &stdlib.h&
#include &crtdbg.h&
#define VCZH_CHECK_MEMORY_LEAKS_NEW new(_NORMAL_BLOCK, __FILE__, __LINE__)
#define new VCZH_CHECK_MEMORY_LEAKS_NEW 然后你就知道是哪里new出来的了。
内存叫作内存,并不是因为在机箱内部,这样解释不了为什么硬盘也放在机箱内部但是还是外存。总不能是因为硬盘刚诞生的时候是放在机箱外面的吧?还有溢出跟易失也根本没有关系。&br&&br&&img src=&/88d8ee35403baa972cf1e_b.jpg& data-rawwidth=&581& data-rawheight=&421& class=&origin_image zh-lightbox-thumb& width=&581& data-original=&/88d8ee35403baa972cf1e_r.jpg&&&br&内存之所以是内,还跟冯诺依曼结构有一些关系。冯诺依曼把计算机的组成描述为控制器、运算器、存储器、输入设备和输出设备五个部分,这五个部分和现代计算机中的部件虽然不是一一对应,但是也是有对应关系的。CPU相当于控制器和运算器,内存则是存储器。&br&&br&冯诺依曼结构中的控制器和运算器能够直接对存储器进行读写的,内存和寄存器符合这个特性,CPU也有相应指令直接读写寄存器和内存。而包括硬盘在内的各种磁盘、闪存,则是通过IO指令进行读写操作,也就是在CPU看来,这些设备只是一个和键盘、鼠标、网卡类似的输入输出设备。&br&&br&存储器这个名称看起来是用来存储的元件都可以叫作这个名字,但是在这个架构下并不是所有用来存储的元件都叫作存储器。硬盘、光盘这些CPU不能直接找到并读写的存储设备,被CPU当作外设,因为具有存储功能,我们叫作外部存储器,而这个“存储器”和冯诺依曼架构的存储器并不等同。&br&&br&所以内存和外存并不是以在机箱内部或者外部来区分,而是看CPU是如何读写这些设备的。另外cache是CPU的一个元件,但是对于CPU来说是透明的,所以我觉得不适合讨论在里面如何对应,也不去区分内外。
内存叫作内存,并不是因为在机箱内部,这样解释不了为什么硬盘也放在机箱内部但是还是外存。总不能是因为硬盘刚诞生的时候是放在机箱外面的吧?还有溢出跟易失也根本没有关系。 内存之所以是内,还跟冯诺依曼结构有一些关系。冯诺依曼把计算机的组成描述为…
总体来说ramdisk的应用场景不多,大部分Windows用户不需要。&br&&br&Windows大部分文件操作都是经过cache的,direct io很少。同样是利用物理内存,Windows认为大部分时候统一管理cache要比让用户自己维护一个cache策略要好(可以把ramdisk看成一种特殊的cache策略)。这里的大部分情况是指普通用户的电脑环境,即是一个非常复杂的环境,用户很难正确分析出哪些文件更需要cache,有可能你做ramdisk的那些内存交给Windows去cache其他文件对系统整体性能反而更好。&br&&br&而对于特殊场景,比如专用服务器,服务器软件可以自己申请物理内存来管理cache策略,比如SQL Server就是这么做的。这个要比ramdisk更generic更直接。
总体来说ramdisk的应用场景不多,大部分Windows用户不需要。 Windows大部分文件操作都是经过cache的,direct io很少。同样是利用物理内存,Windows认为大部分时候统一管理cache要比让用户自己维护一个cache策略要好(可以把ramdisk看成一种特殊的cache策略…
&p&神秘的内存管理策略&/p&&br&&p&Windows的内存管理机制一直为Unix和类Unix系统爱好者所诟病,一部分人觉得Windows将大量内存空闲的同时将每一个应用程序的内存都按活动概率从低到高依次压到硬盘中的缓冲区去,造成了内存资源的浪费,另一部分人则认为Windows在运行一些程序后并不完全释放其占用的内存,是一种内存管理无能的表现。&/p&&p&仔细研究Microsoft给出的关于内存管理机制的说明发现上述被大多数Unix和类Unix系统爱好者大肆批判的表现其实是Microsoft精心研究和设计过的。通过Microsoft Research的研究和测试发现,由于应用程序的生命周期的不同,内存空间的占用时间长短差异很大,当操作系统持续运行一段时间后,由于各个应用程序的空间在其生命周期结束后会被自动释放,导致整个内存不连续且间断空间大小不一,内存中的空间分布就像一块蓬松的蛋糕一样断断续续(这种情况也可以被称为内存碎片化),当应用程序所需要的内存资源较大(通常是在内存中已经找不到一块连续的区域能够存放下整个应用程序内存空间)的时候,应用程序的内存空间在物理上的分布并不连续,而操作系统提供的应用程序内存视图又必须连续,因此,操作系统需要花费大量的开销用以为应用程序内存寻址提供底层支持,这个开销导致的性能损失要远高于内存与硬盘数据交换造成的损失。依据Microsoft Research的长期实验结果,无论是计算机的内存空间大小,当内存占用量超过50%时,这种严重碎片化和性能直线下降的概率变得十分的高。&/p&&p&为了减少这种性能损失极高的操作出现的概率,Microsoft决定从根本上改变内存的管理机制,使得内存的使用量尽量远离这个性能急速下降的临界点,解决的方法即在不影响或不显著影响性能的前提下,尽可能少的使用物理内存空间。在WinNT操作系统中,内存被以页的形式管理,一个内存页为一个基本管理单元,每一个内存页的大小为4K,每一个应用程序的内存空间由很多个内存页组成,WinNT系统内核会监视内存页的存取操作,自动将内存中使用概率低的内存页写入硬盘上的页面文件(pagefile)里,当CPU访问这些被写入虚拟内存的内存页时,CPU会返回一个名为“硬错误”的信息,此时,操作系统会将相应的内存页从页面文件中读入内存,此即Windows下的虚拟内存机制(Linux下有与之类似的Swap机制,不过Swap机制主要的用途是解决内存不足,而不是降低碎片化,与Windows相反,Linux有时反而会尝试将整个内存占满),另外,依据MSDN资料显示,当用户关闭了虚拟内存机制的时候,WinNT内核会使用临时文件来完成这个操作,这样带来的好处是,这些文件在使用后会被系统及时清理,相较于pagefile更为安全,坏处即为由于内存页的数据以小体积临时文件的形式存在于硬盘之上,受制于硬盘机械结构和文件碎片化,性能会有所下降。&/p&&br&&blockquote&因为站在Windows阵营,得罪了身为果粉的知乎管理员,这SB管理员经常删除我的评论。哎。&/blockquote&&br&&p&至于广受诟病的内存有时不会自动释放,这又涉及到另外的问题。在操作系统为应用程序分配和释放内存时,操作系统需要执行一系列复杂的操作后才能将内存空间交予应用程序。在WinNT的内存管理机制中,Microsoft使用了二级控制的方式,操作系统会预先分配掉很大数量的内存,这部分内存在外部设备和应用程序看来与未分配的内存没有区别,但是实际上,这些空间已经被系统内核分配并予以保留,当新的应用程序或者已有的应用程序向操作系统申请空间时,这些空间会被优先分配,分配的过程也只不过是在与分配的维护列表中将这部分标记为不可用,并且将这部分内存加入应用程序的内存视图即可。&/p&&p&在WinNT系统中,有一些内存在应用程序生命周期结束时是不会被自动释放的,这部分内存里面存放的不是普通的应用程序数据,而是dll(Dynamic Link Library)文件。dll文件是应用程序库文件,文件内部包含若干函数,这些函数可以被主程序使用。dll与Static Library的区别在于,后者是在编译时被编译进程序之中,这样得到的程序可以单独运行,但是会导致程序体积膨胀、速度下降;而dll文件可以在不增大程序体积、不降低程序性能的前提下为程序提供完整的功能支持,但是动态链接的程序必须依赖dll文件才能运行。为了最大限度的提高应用程序性能,Microsoft针对被注册为shared object&component的dll文件使用的内存管理策略不同于其他程序,这些dll一旦被加载,通常来讲不会被操作系统在其宿主程序生命周期结束后释放,而是会继续被保留一段时间,如果在未来一段时间内没有任何程序调用此文件,操作系统才会将其释放。&/p&&p&时常关注自己的计算机的内存占用的人可能会发现,Windows操作系统的内存占用似乎会随着物理内存总容量的增大而增大,这种现象除了由于WinNT系统刻意控制物理内存使用率尽可能的在某个数值之下以外还涉及到WinNT一个很重要的机制,缓存机制。在整个计算机系统之中,每一个部件之间的速度是不一样的,而计算机系统的性能表现又和每一个部件的速度相关。对于目前绝大多数的计算机系统而言(准确的说,是除了在某实验室中的那一台计算机以外的所有计算机)的性能瓶颈是整套系统的唯一机械结构,温彻斯特硬盘(现在逐渐开始流行的固态硬盘虽然速度较之温彻斯特硬盘比要快不少,但是依然是整套系统的性能瓶颈。)。Microsoft为了尽可能的减小由于硬盘的固有属性导致的不可避免的较低的极限速度,设计了缓冲机制,即当应用程序需要大量读取数据时,操作系统会在内存中开辟一块内存用于预读文件,这样,在应用程序实际需要读文件的时候,操作系统实际将数据从内存中传递,以加快应用程序性能,对于写入操作,操作系统会在内存中开辟一块内存用于保存文件映像,在程序关闭文件时才会将文件写入硬盘。Windows基于这样的操作为应用程序提供了更好的性能支持,同时,不可避免的会带来一些风险,比如突然断电,就有可能造成本来在应用程序看来已经被保存的数据实际上丢失了。同时,由于有大量的业余人员在Windows平台下开发应用程序,这些人对于操作系统的理解并不十分深入,也不会想到要去查阅MSDN或TechNet资料,因此,大量的应用程序开发人员会忽视Windows的缓冲机制,导致自己设计的程序只能适应直接的硬盘读写操作,这样的程序在缓冲机制的作用下反而会出现性能严重降低的情况。&/p&&p&由于Windows内存管理机制的复杂性,Windows的内存占用在用户看来就呈现出了诡异的忽高忽低或者是出现长时间占用不退出的情况,这种情况就催生了一种软件的诞生,即Windows内存清理软件。尽管这些软件的发布者宣称可以清理无用的内存占用,但是,这些软件实际上均为欺骗不明真相的群众。这些软件的实现原理是通过向系统申请超大内存空间,强制系统清空I/O缓存、释放保留的dll、释放系统保留空间、并且大多数内存页压入pagefile。如前所述,这样的后果只会将操作系统性能大幅度降低。&/p&
神秘的内存管理策略 Windows的内存管理机制一直为Unix和类Unix系统爱好者所诟病,一部分人觉得Windows将大量内存空闲的同时将每一个应用程序的内存都按活动概率从低到高依次压到硬盘中的缓冲区去,造成了内存资源的浪费,另一部分人则认为Windows在运行一些…
缩了固态硬盘呗,连续读写飚得老高,4K缩得跟shit一样。&br&毕竟很多人一看PCIE就觉得很厉害,毕竟大多数人也只看看&b&没啥卵用的&/b&连续读写。&br&&a href=&///?target=http%3A//www.notebookcheck.net/Apple-MacBook-Pro-Retina-15-Mid-2015-Review..html& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&notebookcheck.net/Apple&/span&&span class=&invisible&&-MacBook-Pro-Retina-15-Mid-2015-Review..html&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&br&&a href=&///?target=http%3A//www.notebookcheck.net/Apple-MacBook-Air-13-2015-Notebook-Review..html& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&notebookcheck.net/Apple&/span&&span class=&invisible&&-MacBook-Air-13-2015-Notebook-Review..html&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&br&&a href=&///?target=http%3A//www.notebookcheck.net/Apple-MacBook-12-Early--GHz-Review..html& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&notebookcheck.net/Apple&/span&&span class=&invisible&&-MacBook-12-Early--GHz-Review..html&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&br&题主没说是哪款,但其实三款的4K都挺渣的,连SATA接口的性价比级固态硬盘在4K这一项都能直接虐。&br&&img src=&/32ba0eea8b0ef3b4be53ca98ae367f62_b.jpg& data-rawwidth=&500& data-rawheight=&463& class=&origin_image zh-lightbox-thumb& width=&500& data-original=&/32ba0eea8b0ef3b4be53ca98ae367f62_r.jpg&&&br&——————————————————————————————&br&嘛,下面那位居然屏蔽我了,连事实都不敢面对实在是残念&br&&b&QD3是啥你不认识吗?&/b&&a data-hash=&e64eaf809e2d1a34d234aace96eeeb11& href=&///people/e64eaf809e2d1a34d234aace96eeeb11& class=&member_mention& data-tip=&p$b$e64eaf809e2d1a34d234aace96eeeb11& data-hovercard=&p$b$e64eaf809e2d1a34d234aace96eeeb11&&@xuyang huai&/a&&br&拿个跑单一队列长度的成绩出来,你这地洗得不合格啊。
缩了固态硬盘呗,连续读写飚得老高,4K缩得跟shit一样。 毕竟很多人一看PCIE就觉得很厉害,毕竟大多数人也只看看没啥卵用的连续读写。
题主没说是哪款,但其实三款的4K都挺渣的,连SATA接…
所谓「单比特错误」或曰「比特反转」(bit flipping) 其实不算罕见,但导致系统崩溃的毕竟是极少数。因为日常用的大部分数据是诸如视频、音乐、图片这样的媒体文件,可执行文件的比例相对小得多;就算发生比特反转,按照概率也更容易发生在总量大的媒体文件上。&br&&br&在数据的存储和传输过程中由于各种各样的原因都有可能导致比特反转,所以要通过一些技术手段降低这种风险。比如在网络传输过程中常用 CRC [1] 校验的办法来发现错误。在单个计算机内部,出现比特错误的主要部件是内存和磁盘。因此多数服务器上使用的是带 ECC [2] 纠错机制的内存条 [3]【价钱比普通内存条贵不少】。磁盘在存储数据时也需要附带存储一些冗余信息用于纠错。此外在文件系统层面也可以通过一些手段修正错误,比如 ZFS [4] 采用了哈希树的方式来避免磁盘自身的纠错机制无法发现的漏网之鱼。&br&&br&另外,如果你下载过一些 Linux 发行镜像,会发现通常会附带一个 MD5 或者 SHA1 的哈希码,主要是用于验证文件是否被恶意篡改过,但也可以用来检验下载和存储过程中是否因为硬件问题导致了比特反转。&br&&br&最后,据我所知在航空航天这样的对可靠性要求非常高的场合中会使用特殊的硬件来避免高强度宇宙射线导致的比特反转,并且核心系统都是有好几套完全相同的副本同时运行输出结果进行比较后才能采用的,因此发生灾难性错误导致飞机、飞船坠毁的概率几乎可以忽略不计。&br&&br&&br&[1]: &a href=&///?target=http%3A//en.wikipedia.org/wiki/Cyclic_redundancy_check& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&en.wikipedia.org/wiki/C&/span&&span class=&invisible&&yclic_redundancy_check&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&br&[2]: &a href=&///?target=http%3A//en.wikipedia.org/wiki/Error-correcting_code& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&en.wikipedia.org/wiki/E&/span&&span class=&invisible&&rror-correcting_code&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&br&[3]: &a href=&///?target=http%3A//en.wikipedia.org/wiki/ECC_memory& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&en.wikipedia.org/wiki/E&/span&&span class=&invisible&&CC_memory&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&br&[4]: &a href=&///?target=http%3A//en.wikipedia.org/wiki/ZFS& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&en.wikipedia.org/wiki/Z&/span&&span class=&invisible&&FS&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&br&[5]: &a href=&///?target=http%3A//en.wikipedia.org/wiki/Hash_tree& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&en.wikipedia.org/wiki/H&/span&&span class=&invisible&&ash_tree&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&
所谓「单比特错误」或曰「比特反转」(bit flipping) 其实不算罕见,但导致系统崩溃的毕竟是极少数。因为日常用的大部分数据是诸如视频、音乐、图片这样的媒体文件,可执行文件的比例相对小得多;就算发生比特反转,按照概率也更容易发生在总量大的媒体文件…
号:&br&昨天刚看到忆阻器在神经网络方面的文章是:&br&&a href=&///?target=http%3A///science/2015/05/neural-network-chip-built-using-memristors/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Neural network chip built using memristors&i class=&icon-external&&&/i&&/a&&br&然后跟下了,顺便再知乎上搜索了想关问题,发现题主是在2014.12月份提问哒,所以,题主应该指的是这篇文章:&a href=&///?target=http%3A///p/217694.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&The Machine:惠普要重新发明计算机&i class=&icon-external&&&/i&&/a&&br&&br&一切没有前言直接进入正题的行为都是耍牛虻,先来看下忆阻器的历史。(反正我就当做一个资料收集帖来写了怎么滴)&br&忆阻器是一种新近诞生的,继电阻、电感及电容之后第四种基础电路元件。简单说,忆阻器是一种能够记忆流经其电荷的元件。&br&###############################################&br&该元件从概念产生发展到物理实物诞生,大致经历了以下两个阶段:&br&&i&&b&1.概念的提出与理论探索阶段&/b&&/i&&br&在上世纪六十年代,及等学者开始关注半导体的电阻开关特性,并发现这种特性存在于硅的氧化物中。&br&1971年,忆阻器理论的奠基人,美国加州大学&u&蔡绍棠教授&/u&发表论文并提出忆阻器的概念.&br&1986年,一种基于状态转换材料的两端可配置电阻开关阵列开始被关注。&br&1990年,S.Thakoor、A.Moopenn、T.Daud以及等学者发现了一种钨的氧化物阻性材料,这种材料可以依据电子学特性改变阻值,&b&但无法明确与蔡绍棠的忆阻器之间的联系。&/b&&br&随后,IBM实验室的研究小组在而《Reproducible switching effect in thin oxide films for memory applications》一文中,描述了氧化物薄膜材料的可重复电阻开关效应。&b&文中提到的开关具有与忆阻器类似的滞回特性,但仍没有与忆阻器建立直接的联系。&/b&&br&2005年,研究者发现了一种基于金属氧化物的可逆两端电阻开关材料。同年,发现一种电阻开关记忆单元,该单元形成于一层有机物与一层金属氧化物的复合结构中,伏安特性与忆阻器类似。&br&PS:第一个阶段各路大牛都在努力讯在这种Missing Memristor 但是都木有找到符合蔡绍棠预测的忆阻器。&br&&b&&i&2.忆阻器物理是按及初步应用阶段&/i&&/b&&br&2008年,惠普实验室的研究团队发现了一种纳米双端电阻开关水平条阵列。同年,该实验室在上发表文章《,并宣布发现忆阻器,经实验验证这种纳米双端电阻其开关特性符合蔡绍棠在理论上预测的忆阻器。&br&PS:也就是说惠普在忆阻器的研制道路上已经走了很漫长的一段道路了。&br&###############################################&br&&br&接下来来看下忆阻器能做些什么:&br&1.无需启动&br&忆阻器是一种无源器件,因为其消耗能量而不产生能量,不产生功率增益。独特的记忆特性使其能够以非易失方式记忆流经电荷的总量。据预测,忆阻器的记忆功能可应用于集成电路。&b&基于忆阻器的计算机无需费时耗能的启动过程,也不同于使用传统的计算机,后者一旦切断电源就无法保存信息。&/b&&br&2.记忆联想&br&忆阻器的潜在应用价值在于计算机系统的创建,&b&通过忆阻器创建的计算机系统可以拥有类似人类的记忆联想模式。这可以用来改进模糊识别技术,或建立更加复杂的生物识别系统,进而可以更有效的限制对信息的越权访问。&/b&&br&&br&&br&&b&###################################################&/b&&br&&b&来点更刺激的:&/b&&br&人类大脑中每个神经元通过突触与至少一万多个其他神经元相连,研究人员无法凭借基于晶体管的电路实现这样的连接,但忆阻器有望成为构建神经网络物理模型的关键因素。当提及已知的人名时,一个人会立即联想到其面部特征等多个特点,这是因为人类拥有所谓的联想记忆力,即对于一个相同的事实或情况有相关的多种不同记忆。联想记忆是人类最基本的能力,也是仅人类才具备的能力。&em&&b&虽然神经网络领域的发展已有多年历史,但一个核心的要素,即相邻神经元之间的神经突触难以用电路学器件构建。&/b&&/em&Yuriy V.Pershin及Massimiliano Di Ventra 等学者研究了基于忆阻器的神经突触的构建,并初步在三个神经元之间置入两个该神经突触构成的简单网络中实现了神经网络的建模。&br&&br&#######################################################&br&&br&好了,说了这么多历史和未来。来看下惠普最新力作:The Machine&br&根据惠普的仿真测试,按照这种办法设计出来的The Machine,其能力是常规计算机的6倍,能耗却只有后者的1.25%,体积则只有10%左右。The Machine的首席架构师Kirk Bresniker说,The Machine原型机将会在2016年面世。&b&这种机器的目标首先是取代现有的服务器&/b&,不过Bresniker说这种设计有朝一日也可以部署到更小一点的设备上。&br&其实也就是说:&b&提出了一种新型的架构,降低了能耗,体积,提高了能力。像POI中提出的人工智能各种记忆联想能力压根没有提出。&/b&&br&&br&&br&&b&哦,然后漏看了一点:&/b&&br&这种激进的设计思路与传统计算机体系有着很大的区别,显然软件设计思路也要进行调整。因此Bresniker希望研究人员和程序员事先能熟悉这种机器的工作机制,同时从开发者针对新OS的软件开发试验中找出哪种类型的软件会从中受益最大。&b&他的团队打算在&/b&&a href=&///?target=http%3A///news/533066/hp-will-release-a-revolutionary-new-operating-system-in-2015/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&2015年6月时完成专门针对The Machine的操作系统&i class=&icon-external&&&/i&&/a&&b&,这个OS的名字叫做Linux++。不过Linux++只是过渡,最终会被全新设计的操作系统Carbon代替。&/b&仿真The Machine硬件设计的各种软件工具也会陆续发布,以便程序员可以针对该操作系统测试自己的代码。&br&&br&这样的话就一切正常了,惠普发布这个消息只是在告诉我们,泥门不是说人工智能(记忆联想)搞不出来是因为传统的冯若依曼结构是串行的嘛,&b&现在我们已经制作出来了并行结构并且天然就有记忆联想能力的计算机平台&/b&,你们快点来把AI弄出来吧,再弄不出来就无话可说了吧。&br&所以说,惠普发布的忆阻器计算机的前景确实是非常广阔,但是用来取代当前的计算机目前看来还不靠谱,它的唯一机会,或许就是用来进行一些神经网络算法的测试和其他方面的应用。但是不可否认,如果有一天利用该计算机特性能够强化计算机的学习能力,那么,取代普通的计算机平台将指日可待!&br&&br&参考资料:&br&&a href=&///?target=http%3A//www./research/systems-research/themachine/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&The Machine: A new kind of computer&i class=&icon-external&&&/i&&/a&&br&田晓波. 忆阻器电路特性与应用研究_田晓波[D].
国防科学技术大学, 2009.&br&&a href=&///?target=http%3A///htmlnews/355.shtm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&忆阻器竞赛:中国“声音”鲜有耳闻&i class=&icon-external&&&/i&&/a&&br&&a href=&///?target=http%3A///p/217694.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&The Machine:惠普要重新发明计算机&i class=&icon-external&&&/i&&/a&&br&&a href=&///?target=http%3A//zh.wikipedia.org/wiki/%25E5%25BF%%2598%25BB%25E5%& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&憶阻器&i class=&icon-external&&&/i&&/a&
号: 昨天刚看到忆阻器在神经网络方面的文章是:
然后跟下了,顺便再知乎上搜索了想关问题,发现题主是在2014.12月份提问哒,所以,题主应该指的是这篇文章: 一切…
C#的内存管理机制就是【你别管】
C#的内存管理机制就是【你别管】
首先说明一点,&b&希捷也有自己的固态硬盘,只&/b&是由于一直不重视普通消费类市场,市场反应不是很好。&b&也有很高端的sas固态硬盘,比如,&/b&200G企业级ssd的价格8000左右,&b&更高端的有800G sas12Gb/s型号ST800FM0053售价在一万多近两万,只是不面向普通消费者&/b&,有兴趣大家可以百度。&br&不了解的不要瞎评论。我在上边这位朋友的答案下边评论两句,还真的就屏蔽了我的评论,不让我回复了,这点度量,呵呵,我现在还真不是什么希捷员工。&br&&br&其他答案有点扯,首先希捷西数不是不研发,隔行如隔山啊。做固态硬盘本身很容易,台湾小厂都可以,主要就是买那几家的颗粒,东芝三星镁光等这么几家。但要是自己研发颗粒就完蛋了。决定固态性能的很大一部分原因是主控,同样的颗粒不一样的主控,性能甚至可以差十倍,优秀厂商比如英特尔就是牛在这里。&br&前年的三星闪存市场占有率达38%,东芝28%、美光14%、海力士12%、英特尔8%。&br&&p& 1、三星闪存大部分应用于存储卡,其最先进的21nm闪存仅在自家840系列固态硬盘使用。&br&2、东芝的大部分闪存产能供应给闪迪,其余闪存分配给苹果、浦科特、金士顿、影驰、威刚等SSD厂家。其中浦科特M5P固态硬盘是它的代表作。同时,目前东芝颗粒应该属于最前端19nm技术的主要供应商。 &br&&/p&&p&
3、镁光的绝大部分闪存供应给苹果,仅少部分应用于OEM和自家SSD。目前已很少将闪存供应其他SSD厂家。其中&a href=&///?target=http%3A//.cn/solid_state_drive/ocz/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&OCZ&i class=&icon-external&&&/i&&/a& Vector是美光闪存的最强代表作。&/p&&p&
4、海力士和英特尔闪存份额不小,却属于小众产品。海力士闪存主要供应苹果和部分&a href=&///?target=http%3A//.cn/subcate_54.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&闪存卡&i class=&icon-external&&&/i&&/a&厂商,少部分供应SSD厂商,比如海盗船。英特尔闪存则主要应用自家固态硬盘、部分美系厂商(诸如OCZ)、大订单SSD厂家。&/p&顺便提醒一点,从这些数据我们也能看出做SSD固态并不是一定要自己去生产颗粒,比如威刚,比如苹果。而且有好的颗粒未必就有好的SSD。一款好的的ssd需要好的颗粒外加优秀的主控,主控相当于是ssd大脑,你只要能做出好的主控配上好的颗粒就Ok。但是你有好的颗粒却做不出好主控,跟优秀的ssd也不沾边。比如浦科特用东芝的颗粒,但是东芝自己的ssd却未必有浦科特好。&br&&br&说完这个再说说西数跟希捷的优势,他们作为目前世界上最大的两个机械硬盘制造商,在大容量机械硬盘的优势是世界领先的。硬盘的应用有非常非常多的场合,不只是在家用或者某些简单需要追求开机速度,简单要求读写越快越好的地方。固态在寿命方面有天然的劣势,在价格方面也是贵的要死,而机械不一样,先不说机械硬盘有着几十年的技术积累,在现在的很多存储应用环境下,存储主要追求的是稳定性和大容量和性价比,因为硬盘有价数据无价,而且在这个信息爆炸式增长的时代,固态的容量和稳定性或者性价比根本无法满足需求。&br&还有这个世界上能用到存储的很多地方,大多数的使用环境对速度的要求是没那么高的,比如中央电视台只是需要存储大容量的视频,简单的说就是仓库盘,这时候还需要都上ssd吗?所以大容量的机械硬盘目前来看依然有非常大的需求,除非ssd的价格和容量比能达到起码接近机械硬盘的水平,不然的话根本不可能完全取代机械硬盘。还有一点就是对于机械硬盘坏了,可能在有坏道或者有其他噪音之类的时候就可以提醒你及时备份数据,哪怕毫无征兆的坏掉,你多花点钱可以恢复数据,而SSD的天然劣势,大家记住,一般ssd只要有故障,很可能就是跟一个坏sd卡一样的结果,那就是直接不认盘,数据全没了,而且,很重要的一点,数据几乎没办法恢复,所以再提醒一遍硬盘有价数据无价,目前如果在用ssd的各位朋友们,在享受ssd带来的速度时候,重要数据一定记得备份、备份、备份、备份,这是唯一的保证数据安全的方法。&br&还有针对机械硬盘读写速度慢的情况,希捷也有一系列的混合硬盘系列,就是X系列。比如ST ,ST600MX0004.利用了固态的启动速度和机械的大容量存储。再有就是可以通过组raid来提升存储的容量和读写速度,组raid之后基本可以满足速度容量价格数据安全的一系列要求。&br&所以,机械硬盘目前看来依然会长期存在。目前4T 希捷单碟1T硬盘价格在1000左右,这是最近涨价后的,1T ssd呢?而6Tb企业级单价2500左右。6T 企业级固态??呵呵呵呵。&br&所以最后,针对固态硬盘,西数希捷并不是没有推出,而且他们有目前看来依然坚持机械硬盘的理由。
首先说明一点,希捷也有自己的固态硬盘,只是由于一直不重视普通消费类市场,市场反应不是很好。也有很高端的sas固态硬盘,比如,200G企业级ssd的价格8000左右,更高端的有800G sas12Gb/s型号ST800FM0053售价在一万多近两万,只是不面向普通消费者,有兴趣…
让量子力学帮你解决烦恼:&img src=&///equation?tex=%5Crm+2%5C%2CAl%2BFe_2O_3+%5Crightarrow+Al_2O_3%2B2%5C%2CFe& alt=&\rm 2\,Al+Fe_2O_3 \rightarrow Al_2O_3+2\,Fe& eeimg=&1&&
让量子力学帮你解决烦恼:\rm 2\,Al+Fe_2O_3 \rightarrow Al_2O_3+2\,Fe
谢邀。&br&&br&确实是内存越大,占用的内存越多,这里指总数而不是指比例。以下讨论仅限于Windows环境。&br&&br&比如同样的系统,你装1GB内存,开机以后不开任何东西看到的内存使用总量,再装2GB内存,开机以后不开任何东西,看到的内存使用总量肯定是2GB的比1GB的要多。&br&&br&原因有:&br&&br&1、管理内存本身需要占用内存,更术语一点是因为页表也要占内存。内存中通常以4KB字节为单位划分内存页,内存页是操作系统最小的内存管理单元。操作系统需要管理内存页,那么就需要给所有内存页建立索引来描述其状态,所以当内存总数增多的时候,内存页的索引项必然也增多,因为索引也是在内存里的,所以使用的内存必然要多一些,这是其一,但这不是大头。&br&&br&2、操作系统的很多驱动会根据内存规模动态的决定要使用多大内存,以FAT文件系统驱动为例,它会根据当前操作系统的内存总数决定延迟关闭的文件总数,内存小的时候,延迟关闭的文件总数是16个,内存多的时候是256个。微软提供了一个API是MmQuerySystemSize专门用于查询系统内存规模。多数驱动程序都会根据这个API返回值来动态增长缓存规模,所以内存越大,被占用的内存越多,这是正常的。&br&&br&需要说明的是,这是一种好事,因为缓存多,速度通常更快。
谢邀。 确实是内存越大,占用的内存越多,这里指总数而不是指比例。以下讨论仅限于Windows环境。 比如同样的系统,你装1GB内存,开机以后不开任何东西看到的内存使用总量,再装2GB内存,开机以后不开任何东西,看到的内存使用总量肯定是2GB的比1GB的要多。 …
买块SSD,所有担忧都成为过去。
买块SSD,所有担忧都成为过去。
我写过一个。就是申请一块超大内存,循环读写几百次,然后释放。这样整块内存都会被调入物理内存,保证物理内存够空。&br&&br&然而完全没意义。
我写过一个。就是申请一块超大内存,循环读写几百次,然后释放。这样整块内存都会被调入物理内存,保证物理内存够空。 然而完全没意义。
首先,GDDR5并不是DDR3的频率加强版,GDDR5的特性更接近于DDR4并非DDR3。&br&&img src=&/f5643dbedf9d031b12e56_b.jpg& data-rawwidth=&632& data-rawheight=&2240& class=&origin_image zh-lightbox-thumb& width=&632& data-original=&/f5643dbedf9d031b12e56_r.jpg&&如图所示,GDDR5和DDR4都是采用了类似的Bank Group技术,而DDR3与GDDR5的类似之处只是预读取都为8n(其实DDR4的数据预读也是8n)&br&第一个问题:其实最早用在显卡上的DDR颗粒与用在内存上的DDR颗粒仍然是一样的。后来由于GPU特殊的需要,显存颗粒与内存颗粒开始分道扬镳,这其中包括了几方面的因素:&br&&p&&strong&1. GPU需要比CPU更高的带宽。&/strong&GPU不像CPU那样有大容量二三级缓存,GPU与显存之间的数据交换远比CPU频繁,而且大多都是突发性的数据流,因此GPU比CPU更加渴望得到更高的显存带宽支持。位宽×频率=带宽,因此提高带宽的方法就是增加位宽和提高频率,但GPU对于位宽和频率的需求还有其它的因素。&/p&&p&&strong&2.显卡需要高位宽的显存&/strong&。显卡PCB空间是有限的,在有限的空间内如何合理的安排显存颗粒,无论高中低端显卡都面临这个问题。从布线、成本、性能等多种角度来看,显存都需要达到更高的位宽。 最早的显存是单颗16bit的芯片,后来升级到32bit,将来甚至还会有更高的规格出现。而内存则没有那么多要求,多年来内存条都是64bit,所以单颗内存颗粒没必要设计成高位宽,只要提高容量就行了,所以位宽一直维持在4/8bit。&/p&&p&&strong&3.显卡能让显存达到更高的频率。&/strong&显存颗粒与GPU配套使用时,一般都经过专门的设计和优化,而不像内存那样有太多顾忌。GPU的显存控制器比CPU或北桥内存控制器性能优异,而且显卡PCB可以随意的进行优化,因此显存一般都能达到更高的频率。而内存受到内存PCB、主板走线、北桥CPU得诸多因素的限制很难冲击高频率。由此算来,显存与内存“分家”既是意料之外,又是情理之中的事情了。为了更好地满足显卡GPU的特殊要求,一些厂商(如三星等)推出了专门为图形系统设计的高速DDR显存,称为“Graphics Double Data Rate DRAM”,也就是我们现在常见的GDDR。&/p&&p&所以GDDR5的带宽远大于DDR3 DDR4等是理所应当的。其实GDDR5在提高了带宽的同时也带来了延迟(时序)的大幅度增加,但因GPU的大规模并行结构,对延迟的容忍度较高,所以造成的性能损失非常小。而CPU是对延迟(时序)高度敏感的,在极限超频中可以看到对时序的稍微变化便会引起非常大的带宽损失。所以说其实GDDR对应GPU,DDR对应CPU是互相合适的,一个适合在对延迟容忍度高带宽吞吐量大的环境,一个适合对延迟容忍度第带宽吞吐量要求不高的环境。&/p&&br&第二个问题:HBM(High-Bandwidth Memory)从名字便可得知是高带宽的内存,而其的使用环境是用于显存。其实Jedec在当初制定DDR4就已经考虑到了以后的堆叠内存情况,并将其称为3DS(3-Dimensional Stack)&img src=&/20fbae78cff8d47cc4b34_b.png& data-rawwidth=&751& data-rawheight=&539& class=&origin_image zh-lightbox-thumb& width=&751& data-original=&/20fbae78cff8d47cc4b34_r.png&&3DS和HBM同样使用TSV硅穿孔技术。可以理解为是不同技术衍生出的的不同种称呼吧。&br&&img src=&/08f72ecfdd44aeae044c12e6_b.png& data-rawwidth=&738& data-rawheight=&489& class=&origin_image zh-lightbox-thumb& width=&738& data-original=&/08f72ecfdd44aeae044c12e6_r.png&&根据JEDEC的说明,在使用了3DS堆叠封装技术后,单条内存的容量最大可以达到目前产品的8倍之多。举例来说,目前常见的大容量内存单条容量为8GB(单颗芯片512MB,共16颗),未来DDR4最大可以达到64GB,甚至128GB,彻底解决了点对点总线容量不足的问题。另外,即使堆叠层数没有那么多,DDR4内存在4层堆叠的情况下也至少可以达到单条32GB,双通道64GB,基本可以满足未来三、五年左右的内存容量需求了。&br&GDDR5X与GDDR5的区别是将数据预读从8n提升到了16n,从而使带宽翻倍,但是只是当前GDDR5的缓兵之计,不是Jedec的官方标准,只因为目前HBM成本更高,良品率并不是特别满意技术也不是完全成熟,所以才有这么个过渡产品,未来的趋势依然会是HBM。&br&第三个问题:为什么分开用的原因已经在第一个问题回答了,PS4使用的HSA技术的评价还请参考这个问题下的回答&a href=&/question/& class=&internal&&大家怎样看AMD所提出的HSA处理器体系构架? - NVIDIA (英伟达)&/a&,个人认为主机环境较为封闭,更易推行小标准特定优化吧。
首先,GDDR5并不是DDR3的频率加强版,GDDR5的特性更接近于DDR4并非DDR3。 如图所示,GDDR5和DDR4都是采用了类似的Bank Group技术,而DDR3与GDDR5的类似之处只是预读取都为8n(其实DDR4的数据预读也是8n) 第一个问题:其实最早用在显卡上的DDR颗粒与用在内…
首先澄清一点:首先,如果笔记本和机箱的主板电容使用足够好,电流输送稳定;其次,如果笔记本和机箱的电源模块够稳定、质量够好;直接插拔正在连接的USB外接硬盘是很难烧主板的。我就是个经常这样插拔的主儿,但我的主板和电源从来没有烧过。&br&&br&直接拔除通过 USB 连接的移动硬盘,通常来说,并不会对硬盘盘片本身造成多大的损害。最有可能造成的伤害首先是硬盘电路板因为突然断电而烧电容,或者发生其他的通/断电故障,其次才是磁头磨损,最后才是盘片受损。&br&&br&通常满足问题字面内容的情况分两种:&br&&br&1.移动硬盘当中的盘片处于正在读写状态,拔掉USB线,移动硬盘本身没有受到外力作用,数据传输和供电立刻中断,那么处于读写状态的硬盘会立刻停转,磁头回到不通电时的位置。这个状态下,磁头不可能划伤盘片,因为就算磁头离盘片再近,也是要有突然性、极强的外力作用才有可能打伤盘片的。磁头可能会因为突然断电而加速磨损,也有可能在盘片的磁道上记录的数据出现问题,导致产生过多碎片,但物理坏道则不一定会出现。&br&&br&2.移动硬盘当中的盘片处于等待读写状态,拔掉USB线,移动硬盘本身没有受到外力作用,那么处于等待读写状态的硬盘会立刻停转,磁头保持在不通电时的位置。现在的硬盘技术已经发展到了很先进的程度,长时间等待读写状态下,磁头没有收到指令,不会一直悬空在盘片上方,而是会回到初始位置。&br&&br&而且不要单纯地想象为磁头接到读写命令时,会猛地移到某个位置进行读写操作,硬盘上记录数据本来就是分散的,磁头的读写必然是先移到离停泊区距离最短的外圈,然后再慢慢向内圈寻找数据。如果连这一点都解决不了,那硬盘厂商就不用混了。&br&&br&所以,&strong&通电状态下只有剧烈地以外力撞击硬盘(包括移动硬盘)才会致盘片和磁头损坏。&/strong&至于突然拔掉USB线到底能对硬盘造成多大的伤害,还是那句话,受害的首先是硬盘电路板。盘片坏道和磁头磨损这些,其实都是极小概率事件。
首先澄清一点:首先,如果笔记本和机箱的主板电容使用足够好,电流输送稳定;其次,如果笔记本和机箱的电源模块够稳定、质量够好;直接插拔正在连接的USB外接硬盘是很难烧主板的。我就是个经常这样插拔的主儿,但我的主板和电源从来没有烧过。 直接拔除通过…
同样尺寸大小的卡做小容量是为了让你买得起
同样尺寸大小的卡做小容量是为了让你买得起
已有帐号?
无法登录?
社交帐号登录

我要回帖

更多关于 ddr3 fifo数据 的文章

 

随机推荐