缓存和线程解决多线程的并发问题题

EHCache&施用,性能,并发问题
在开发高并发量,高性能的网站应用系统时,缓存Cache起到了非常重要的作用。本文主要介绍EHCache的使用,以及使用EHCache的实践经验。
使用过多种基于Java的开源Cache组件,其中包括OSCache、JBossCache、EHCache。OSCache功能强大,使用灵活,可
用于对象缓存、Filter缓存以及在JSP中直接使用cache标签。笔者在最近的使用过程中发现,在并发量较高时,OSCache会出现线程阻塞和数
据错误,通过分析源代码发现是其内部实现的缺陷。JBossCache最大的优点是支持基于对象属性的集群同步,不过JBossCache的配置使用都较
复杂,在并发量较高的情况下,对象属性数据在集群中同步也会加大系统的开销。以上两种Cache本文仅作简单介绍,不做深入探讨。
EHCache是来自sourceforge(http://ehcache.sourceforge.net/ )
的开源项目,也是纯Java实现的简单、快速的Cache组件。EHCache支持内存和磁盘的缓存,支持LRU、LFU和FIFO多种淘汰算法,支持分
布式的Cache,可以作为Hibernate的缓存插件。同时它也能提供基于Filter的Cache,该Filter可以缓存响应的内容并采用
Gzip压缩提高响应速度。
一、EHCache API的基本用法
首先介绍CacheManager类。它主要负责读取配置文件,默认读取CLASSPATH下的ehcache.xml,根据配置文件创建并管理Cache对象。
// 使用默认配置文件创建CacheManager
CacheManager manager = CacheManager.create();
// 通过manager可以生成指定名称的Cache对象
Cache cache = cache = manager.getCache("demoCache");
// 使用manager移除指定名称的Cache对象
manager.removeCache("demoCache");
可以通过调用manager.removalAll()来移除所有的Cache。通过调用manager的shutdown()方法可以关闭CacheManager。
有了Cache对象之后就可以进行一些基本的Cache操作,例如:
//往cache中添加元素
Element element = new Element("key", "value");
cache.put(element);
//从cache中取回元素
Element element = cache.get("key");
element.getValue();
//从Cache中移除一个元素
cache.remove("key");
可以直接使用上面的API进行数据对象的缓存,这里需要注意的是对于缓存的对象都是必须可序列化的。在下面的篇幅中笔者还会介绍EHCache和Spring、Hibernate的整合使用。
二、配置文件
配置文件ehcache.xml中命名为demoCache的缓存配置:
maxElementsInMemory="10000"
eternal="false"
overflowToDisk="true"
timeToIdleSeconds="300"
timeToLiveSeconds="600"
memoryStoreEvictionPolicy="LFU" /&
各配置参数的含义:
maxElementsInMemory:缓存中允许创建的最大对象数
eternal:缓存中对象是否为永久的,如果是,超时设置将被忽略,对象从不过期。
timeToIdleSeconds:缓存数据的钝化时间,也就是在一个元素消亡之前,两次访问时间的最大时间间隔值,这只能在元素不是永久驻留时有效,如果该值是
0 就意味着元素可以停顿无穷长的时间。
timeToLiveSeconds:缓存数据的生存时间,也就是一个元素从构建到消亡的最大时间间隔值,这只能在元素不是永久驻留时有效,如果该值是0就意味着元素可以停顿无穷长的时间。
overflowToDisk:内存不足时,是否启用磁盘缓存。
memoryStoreEvictionPolicy:缓存满了之后的淘汰算法。LRU和FIFO算法这里就不做介绍。LFU算法直接淘汰使用比较少的对象,在内存保留的都是一些经常访问的对象。对于大部分网站项目,该算法比较适用。
如果应用需要配置多个不同命名并采用不同参数的Cache,可以相应修改配置文件,增加需要的Cache配置即可。
三、利用Spring APO整合EHCache
首先,在CLASSPATH下面放置ehcache.xml配置文件。在Spring的配置文件中先添加如下cacheManager配置:
class="org.springframework.cache.ehcache.EhCacheManagerFactoryBean"&
配置demoCache:
接下来,写一个实现org.aopalliance.intercept.MethodInterceptor接口的拦截器类。有了拦截器就可以有选择性的
配置想要缓存的 bean 方法。如果被调用的方法配置为可缓存,拦截器将为该方法生成 cache key
并检查该方法返回的结果是否已缓存。如果已缓存,就返回缓存的结果,否则再次执行被拦截的方法,并缓存结果供下次调用。具体代码如下:
public class MethodCacheInterceptor implements
MethodInterceptor,
InitializingBean {
public void setCache(Cache cache) {
this.cache =
public void afterPropertiesSet() throws Exception {
Assert.notNull(cache,
"A cache is required. Use setCache(Cache) to provide one.");
public Object invoke(MethodInvocation invocation) throws Throwable
String targetName =
invocation.getThis().getClass().getName();
String methodName = invocation.getMethod().getName();
Object[] arguments = invocation.getArguments();
String cacheKey = getCacheKey(targetName, methodName,
arguments);
Element element =
synchronized (this){
element = cache.get(cacheKey);
if (element == null) {
//调用实际的方法
result = invocation.proceed();
element = new Element(cacheKey, (Serializable) result);
cache.put(element);
return element.getValue();
private String getCacheKey(String targetName, String
methodName,
Object[] arguments) {
StringBuffer sb = new StringBuffer();
sb.append(targetName).append(".").append(methodName);
if ((arguments != null) && (arguments.length != 0)) {
for (int i = 0; i & arguments. i++) {
sb.append(".").append(arguments[i]);
return sb.toString();
synchronized
(this)这段代码实现了同步功能。为什么一定要同步?Cache对象本身的get和put操作是同步的。如果我们缓存的数据来自数据库查询,在没有这
段同步代码时,当key不存在或者key对应的对象已经过期时,在多线程并发访问的情况下,许多线程都会重新执行该方法,由于对数据库进行重新查询代价是
比较昂贵的,而在瞬间大量的并发查询,会对数据库服务器造成非常大的压力。所以这里的同步代码是很重要的。
接下来,继续完成拦截器和Bean的配置:
.*myMethod
class="com.xiebing.ehcache.spring.MyServiceBean"&
methodCachePointCut
中myServiceBean是实现了业务逻辑的Bean,里面的方法myMethod()的返回结果需要被缓存。这样每次对myServiceBean
的myMethod()方法进行调用,都会首先从缓存中查找,其次才会查询数据库。使用AOP的方式极大地提高了系统的灵活性,通过修改配置文件就可以实
现对方法结果的缓存,所有的对Cache的操作都封装在了拦截器的实现中。
四、CachingFilter功能
使用Spring的AOP进行整合,可以灵活的对方法的的返回结果对象进行缓存。CachingFilter功能可以对HTTP响应的内容进行缓存。这种方式缓存数据的粒度比较粗,例如缓存整张页面。它的优点是使用简单、效率高,缺点是不够灵活,可重用程度不高。
使用SimplePageCachingFilter类实现Filter缓存。该类继承自CachingFilter,有默认产生cache
key的calculateKey()方法,该方法使用HTTP请求的URI和查询条件来组成key。也可以自己实现一个Filter,同样继承
CachingFilter类,然后覆写calculateKey()方法,生成自定义的key。
在笔者参与的项目中很多页面都使用AJAX,为
保证JS请求的数据不被浏览器缓存,每次请求都会带有一个随机数参数i。如果使用SimplePageCachingFilter,那么每次生成的key
都不一样,缓存就没有意义了。这种情况下,我们就会覆写calculateKey()方法。
要使用SimplePageCachingFilter,首先在配置文件ehcache.xml中,增加下面的配置:
overflowToDisk="false" timeToIdleSeconds="300"
timeToLiveSeconds="600"
memoryStoreEvictionPolicy="LFU" /&
其中name属性必须为SimplePageCachingFilter,修改web.xml文件,增加一个Filter的配置:
SimplePageCachingFilter
net.sf.ehcache.constructs.web.filter.SimplePageCachingFilter
SimplePageCachingFilter
下面我们写一个简单的test.jsp文件进行测试,缓存后的页面每次刷新,在600秒内显示的时间都不会发生变化的。代码如下:
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。Java高并发,主要的解决方法就是锁,原子量。如果是web的话,就是缓存(类似hashmap,减少与数据库的交流) - u的专栏 - CSDN博客
Java高并发,主要的解决方法就是锁,原子量。如果是web的话,就是缓存(类似hashmap,减少与数据库的交流)
个数据。因为这个数据是还没有提交的数据,那么另外一个事务读到的这个数据是脏数据(Dirty Data),依据脏数据所做的操作可能是不正确的。
&  不可重复读
  不可重复读是指在一个事务内,多次读同一数据。在这个事务还没有结束时,另外一个事务也访问该同一数据。那么,在第一个事务中的两次读数据之间,由于第二个事务的修改,那么第一个事务两次读到的数据可能是不一样的。这样就发生了在一个事务内两次读到的数据是不一样的,因此称为是不可重复读
&2、如何处理并发和同步
& & & &&今天讲的如何处理并发和同同步问题主要是通过锁机制。
& & & &我们需要明白,锁机制有两个层面。
& & & &一种是代码层次上的,如java中的同步锁,典型的就是同步关键字synchronized,这里我不在做过多的讲解,
& & & &感兴趣的可以参考:
& & & &另外一种是数据库层次上的,比较典型的就是悲观锁和乐观锁。这里我们重点讲解的就是悲观锁(传统的物理锁)和乐观锁。
& & & &悲观锁(Pessimistic Locking):&&& & &
& & & &悲观锁,正如其名,它指的是对数据被外界(包括本系统当前的其他事务,以及来自&外部系统的事务处理)修改持保守态度,因此,
& & & &在整个数据处理过程中,将数据处于锁定状态。
& & & &悲观锁的实现,往往依靠数据库提供的锁机制(也只有数据库层提供的锁机制才能&真正保证数据访问的排他性,否则,即使在本系统
& & & &中实现了加锁机制,也无法保证外部系&统不会修改数据)。&
& & & &一个典型的倚赖数据库的悲观锁调用:&
& & & &select * from account where name=”Erica” for update
& & & &这条 sql 语句锁定了 account 表中所有符合检索条件( name=”Erica” )的记录。
& & & &本次事务提交之前(事务提交时会释放事务过程中的锁),外界无法修改这些记录。&
& & & &Hibernate 的悲观锁,也是基于数据库的锁机制实现。&
& & & &下面的代码实现了对查询记录的加锁:
& & & &String hqlStr =&from TUser as user where user.name='Erica'&;
& & & & Query query = session.createQuery(hqlStr);
& &&& & query.setLockMode(&user&,LockMode.UPGRADE); // 加锁
& &&& &List userList = query.list();// 执行查询,获取数据
& & & &query.setLockMode&对查询语句中,特定别名所对应的记录进行加锁(我们为&TUser 类指定了一个别名 “user” ),这里也就是对
& & & 返回的所有 user 记录进行加锁。&
& & & 观察运行期 Hibernate 生成的 SQL 语句:&
& & & select tuser0_.id as id, tuser0_.name as name, tuser0_.group_id
& & & as group_id, tuser0_.user_type as user_type, tuser0_.sex as sex
& & & from t_user tuser0_ where (tuser0_.name='Erica' ) for update
& & &这里 Hibernate 通过使用数据库的 for update 子句实现了悲观锁机制。&
& & & Hibernate 的加锁模式有:&
& & & ? LockMode.NONE : 无锁机制。&
& & & ? LockMode.WRITE : Hibernate 在 Insert 和 Update 记录的时候会自动获取
& & & ? LockMode.READ : Hibernate 在读取记录的时候会自动获取。&
& & & 以上这三种锁机制一般由 Hibernate 内部使用,如 Hibernate 为了保证 Update
& & & 过程中对象不会被外界修改,会在 save 方法实现中自动为目标对象加上 WRITE 锁。&
& & & ? LockMode.UPGRADE :利用数据库的 for update 子句加锁。&
& & & ? LockMode. UPGRADE_NOWAIT : Oracle 的特定实现,利用 Oracle 的 for
& & & update nowait 子句实现加锁。&
& & & 上面这两种锁机制是我们在应用层较为常用的,加锁一般通过以下方法实现:&
& & & Criteria.setLockMode
& & & Query.setLockMode
& & & Session.lock
& & & 注意,只有在查询开始之前(也就是 Hiberate 生成 SQL 之前)设定加锁,才会&
& & & 真正通过数据库的锁机制进行加锁处理,否则,数据已经通过不包含 for update
& & & 子句的 Select SQL 加载进来,所谓数据库加锁也就无从谈起。
& & & 为了更好的理解select... for update的锁表的过程,本人将要以mysql为例,进行相应的讲解
& & & 1、要测试锁定的状况,可以利用MySQL的Command Mode ,开二个视窗来做测试。
& & & & & 表的基本结构如下:
& & & & &&
& & & & &&&表中内容如下:
& & & & & &
& & & & & 开启两个测试窗口,在其中一个窗口执行select * from ta for update0
& & & & & 然后在另外一个窗口执行update操作如下图:
& & & & &&
& & & & & 等到一个窗口commit后的图片如下:
& & & & &&
& & & & & &到这里,悲观锁机制你应该了解一些了吧~
& & & & & &需要注意的是for update要放到mysql的事务中,即begin和commit中,否者不起作用。
& & & & & &至于是锁住整个表还是锁住选中的行,请参考:
& & & & & &
&&&&&&&&&& &至于hibernate中的悲观锁使用起来比较简单,这里就不写demo了~感兴趣的自己查一下就ok了~
& & & & & &
&&&&&&&& &乐观锁(Optimistic Locking):&&&&&&&&
&&&&&&&& 相对悲观锁而言,乐观锁机制采取了更加宽松的加锁机制。悲观锁大多数情况下依&靠数据库的锁机制实现,以保证操作最大程度的独占性。但随之
而来的就是数据库&性能的大量开销,特别是对长事务而言,这样的开销往往无法承受。&如一个金融系统,当某个操作员读取用户的数据,并在读出的用户数
据的基础上进&行修改时(如更改用户帐户余额),如果采用悲观锁机制,也就意味着整个操作过&程中(从操作员读出数据、开始修改直至提交修改结果的全
过程,甚至还包括操作&员中途去煮咖啡的时间),数据库记录始终处于加锁状态,可以想见,如果面对几&百上千个并发,这样的情况将导致怎样的后果。&乐
观锁机制在一定程度上解决了这个问题。
&&&&&&&& 乐观锁,大多是基于数据版本&& Version )记录机制实现。何谓数据版本?即为数据增加一个版本标识,在基于数据库表的版本解决方案中,一般是通
过为数据库表增加一个 “version” 字段来&实现。&读取出数据时,将此版本号一同读出,之后更新时,对此版本号加一。此时,将提&交数据的版本数据与数据
库表对应记录的当前版本信息进行比对,如果提交的数据&版本号大于数据库表当前版本号,则予以更新,否则认为是过期数据。对于上面修改用户帐户信息
的例子而言,假设数据库中帐户信息表中有一个&version 字段,当前值为 1 ;而当前帐户余额字段( balance )为 $100 。操作员 A 此时将其读出
( version=1 ),并从其帐户余额中扣除 $50( $100-$50 )。&2 在操作员 A 操作的过程中,操作员 B 也读入此用户信息( version=1 ),并&从其帐
户余额中扣除 $20 ( $100-$20 )。&3 操作员 A 完成了修改工作,将数据版本号加一( version=2 ),连同帐户扣&除后余额( balance=$50 ),提交
至数据库更新,此时由于提交数据版本大&于数据库记录当前版本,数据被更新,数据库记录 version 更新为 2 。&4 操作员 B 完成了操作,也将版本号加一
( version=2 )试图向数据库提交数&据( balance=$80 ),但此时比对数据库记录版本时发现,操作员 B 提交的&数据版本号为 2 ,数据库记录当前版
本也为 2 ,不满足 “ 提交版本必须大于记&录当前版本才能执行更新 “ 的乐观锁策略,因此,操作员 B 的提交被驳回。&这样,就避免了操作员 B 用基于
version=1 的旧数据修改的结果覆盖操作&员 A 的操作结果的可能。&从上面的例子可以看出,乐观锁机制避免了长事务中的数据库加锁开销(操作员 A
和操作员 B 操作过程中,都没有对数据库数据加锁),大大提升了大并发量下的系&统整体性能表现。&需要注意的是,乐观锁机制往往基于系统中的数据存储
逻辑,因此也具备一定的局&限性,如在上例中,由于乐观锁机制是在我们的系统中实现,来自外部系统的用户&余额更新操作不受我们系统的控制,因此可能
会造成脏数据被更新到数据库中。在&系统设计阶段,我们应该充分考虑到这些情况出现的可能性,并进行相应调整(如&将乐观锁策略在数据库存储过程中实
现,对外只开放基于此存储过程的数据更新途&径,而不是将数据库表直接对外公开)。&Hibernate 在其数据访问引擎中内置了乐观锁实现。如果不用考虑外
部系统对数&据库的更新操作,利用 Hibernate 提供的透明化乐观锁实现,将大大提升我们的&生产力。
User.hbm.xml
&?xml version=&1.0&?&
&!DOCTYPE hibernate-mapping PUBLIC
&-//Hibernate/Hibernate Mapping DTD 3.0//EN&
&http://hibernate.sourceforge.net/hibernate-mapping-3.0.dtd&&
&hibernate-mapping package=&com.xiaohao.test&&
&class name=&User&
table=&user& optimistic-lock=&version& &
&id name=&id&&
&generator class=&native& /&
&!--version标签必须跟在id标签后面--&
&version column=&version& name=&version&
&property name=&userName&/&
&property name=&password&/&
&/hibernate-mapping&
注意 version 节点必须出现在 ID 节点之后。&
这里我们声明了一个 version 属性,用于存放用户的版本信息,保存在 User 表的version中&
optimistic-lock 属性有如下可选取值:&
通过版本机制实现乐观锁&
通过检查发生变动过的属性实现乐观锁&
通过检查所有属性实现乐观锁&
其中通过 version 实现的乐观锁机制是 Hibernate 官方推荐的乐观锁实现,同时也&
是 Hibernate 中,目前唯一在数据对象脱离 Session 发生修改的情况下依然有效的锁机&
制。因此,一般情况下,我们都选择 version 方式作为 Hibernate 乐观锁实现机制。
2 . 配置文件hibernate.cfg.xml和UserTest测试类
&& hibernate.cfg.xml
&!DOCTYPE hibernate-configuration PUBLIC
&-//Hibernate/Hibernate Configuration DTD 3.0//EN&
&http://hibernate.sourceforge.net/hibernate-configuration-3.0.dtd&&
&hibernate-configuration&
&session-factory&
&!-- 指定数据库方言 如果使用jbpm的话,数据库方言只能是InnoDB--&
&property name=&dialect&&org.hibernate.dialect.MySQL5InnoDBDialect&/property&
&!-- 根据需要自动创建数据表 --&
&property name=&hbm2ddl.auto&&update&/property&
&!-- 显示Hibernate持久化操作所生成的SQL --&
&property name=&show_sql&&true&/property&
&!-- 将SQL脚本进行格式化后再输出 --&
&property name=&format_sql&&false&/property&
&property name=&current_session_context_class&&thread&/property&
&!-- 导入映射配置 --&
&property name=&connection.url&&jdbc:mysql:///user&/property&
&property name=&connection.username&&root&/property&
&property name=&connection.password&&123456&/property&
&property name=&connection.driver_class&&com.mysql.jdbc.Driver&/property&
&mapping resource=&com/xiaohao/test/User.hbm.xml& /&
&/session-factory&
&/hibernate-configuration&
UserTest.java
package com.xiaohao.
import org.hibernate.S
import org.hibernate.SessionF
import org.hibernate.T
import org.hibernate.cfg.C
public class UserTest {
public static void main(String[] args) {
Configuration conf=new Configuration().configure();
SessionFactory sf=conf.buildSessionFactory();
Session session=sf.getCurrentSession();
Transaction tx=session.beginTransaction();
User user=new User(&小浩&,&英雄&);
session.save(user);
session.createSQLQuery(&insert into user(userName,password) value('张英雄16','123')&)
.executeUpdate();
User user=(User) session.get(User.class, 1);
user.setUserName(&221&);
session.save(user);
System.out.println(&恭喜您,用户的数据插入成功了哦~~&);
tx.commit();
每次对 TUser 进行更新的时候,我们可以发现,数据库中的 version 都在递增。
下面我们将要通过乐观锁来实现一下并发和同步的测试用例:
这里需要使用两个测试类,分别运行在不同的虚拟机上面,以此来模拟多个用户同时操作一张表,同时其中一个测试类需要模拟长事务
UserTest.java
package com.xiaohao.
import org.hibernate.S
import org.hibernate.SessionF
import org.hibernate.T
import org.hibernate.cfg.C
public class UserTest {
public static void main(String[] args) {
Configuration conf=new Configuration().configure();
SessionFactory sf=conf.buildSessionFactory();
Session session=sf.openSession();
Session session2=sf.openSession();
User user=(User) session.createQuery(& from User user where user=5&).uniqueResult();
User user2=(User) session.createQuery(& from User user where user=5&).uniqueResult();
System.out.println(user.getVersion());
System.out.println(user2.getVersion());
Transaction tx=session.beginTransaction();
user.setUserName(&101&);
tx.commit();
System.out.println(user.getVersion());
System.out.println(user2.getVersion());
System.out.println(user.getVersion()==user2.getVersion());
Transaction tx2=session2.beginTransaction();
user2.setUserName(&4468&);
UserTest2.java
package com.xiaohao.
import org.hibernate.S
import org.hibernate.SessionF
import org.hibernate.T
import org.hibernate.cfg.C
public class UserTest2 {
public static void main(String[] args) throws InterruptedException {
Configuration conf=new Configuration().configure();
SessionFactory sf=conf.buildSessionFactory();
Session session=sf.openSession();
Session session2=sf.openSession();
User user=(User) session.createQuery(& from User user where user=5&).uniqueResult();
Thread.sleep(10000);
User user2=(User) session.createQuery(& from User user where user=5&).uniqueResult();
System.out.println(user.getVersion());
System.out.println(user2.getVersion());
Transaction tx=session.beginTransaction();
user.setUserName(&100&);
tx.commit();
System.out.println(user.getVersion());
System.out.println(user2.getVersion());
System.out.println(user.getVersion()==user2.getVersion());
Transaction tx2=session2.beginTransaction();
user2.setUserName(&4468&);
操作流程及简单讲解: 首先启动UserTest2.java测试类,在执行到Thread.sleep(10000);这条语句的时候,当前线程会进入睡眠状态。在10秒钟之内
&&&&&&&&&&&&&&&&&&&&&&&&&&& 启动UserTest这个类,在到达10秒的时候,我们将会在UserTest.java中抛出下面的异常:
Exception in thread &main& org.hibernate.StaleObjectStateException: Row was updated or deleted by another transaction (or unsaved-value mapping was incorrect): [com.xiaohao.test.User#5]
at org.hibernate.persister.entity.AbstractEntityPersister.check(AbstractEntityPersister.java:1932)
at org.hibernate.persister.entity.AbstractEntityPersister.update(AbstractEntityPersister.java:2576)
at org.hibernate.persister.entity.AbstractEntityPersister.updateOrInsert(AbstractEntityPersister.java:2476)
at org.hibernate.persister.entity.AbstractEntityPersister.update(AbstractEntityPersister.java:2803)
at org.hibernate.action.EntityUpdateAction.execute(EntityUpdateAction.java:113)
at org.hibernate.engine.ActionQueue.execute(ActionQueue.java:273)
at org.hibernate.engine.ActionQueue.executeActions(ActionQueue.java:265)
at org.hibernate.engine.ActionQueue.executeActions(ActionQueue.java:185)
at org.hibernate.event.def.AbstractFlushingEventListener.performExecutions(AbstractFlushingEventListener.java:321)
at org.hibernate.event.def.DefaultFlushEventListener.onFlush(DefaultFlushEventListener.java:51)
at org.hibernate.impl.SessionImpl.flush(SessionImpl.java:1216)
at org.hibernate.impl.SessionImpl.managedFlush(SessionImpl.java:383)
at org.hibernate.mit(JDBCTransaction.java:133)
at com.xiaohao.test.UserTest2.main(UserTest2.java:21)
&UserTest2代码将在 tx.commit() 处抛出 StaleObjectStateException 异&常,并指出版本检查失败,当前事务正在试图提交一个过期数据。通过捕捉这个异常,我&们就可以在乐观锁校验失败时进行相应处理
&3、常见并发同步案例分析
&&& 案例一:订票系统案例,某航班只有一张机票,假定有1w个人打开你的网站来订票,问你如何解决并发问题(可扩展到任何高并发网站要考虑
&&&&&&&&&&&&&& 的并发读写问题)
&&& 问题,1w个人来访问,票没出去前要保证大家都能看到有票,不可能一个人在看到票的时候别人就不能看了。到底谁能抢到,那得看这个人的“运气”(网
&&&&&&&&&&&& 络快慢等)
其次考虑的问题,并发,1w个人同时点击购买,到底谁能成交?总共只有一张票。
首先我们容易想到和并发相关的几个方案 :
锁同步同步更多指的是应用程序的层面,多个线程进来,只能一个一个的访问,java中指的是syncrinized关键字。锁也有2个层面,一个是java中谈到的对
象锁,用于线程同步;另外一个层面是数据库的锁;如果是分布式的系统,显然只能利用数据库端的锁来实现。
假定我们采用了同步机制或者数据库物理锁机制,如何保证1w个人还能同时看到有票,显然会牺牲性能,在高并发网站中是不可取的。使用hibernate后我们
提出了另外一个概念:乐观锁、悲观锁(即传统的物理锁);
采用乐观锁即可解决此问题。乐观锁意思是不锁定表的情况下,利用业务的控制来解决并发问题,这样即保证数据的并发可读性又保证保存数据的排他性,保
证性能的同时解决了并发带来的脏数据问题。
hibernate中如何实现乐观锁:
前提:在现有表当中增加一个冗余字段,version版本号, long类型
1)只有当前版本号》=数据库表版本号,才能提交
2)提交成功后,版本号version ++
实现很简单:在ormapping增加一属性optimistic-lock=&version&即可,以下是样例片段
&hibernate-mapping&
&class name=&com.insigma.stock.ABC&&optimistic-lock=&version&&table=&T_Stock& schema=&STOCK&&
案例二、股票交易系统、银行系统,大数据量你是如何考虑的
首先,股票交易系统的行情表,每几秒钟就有一个行情记录产生,一天下来就有(假定行情3秒一个) 股票数量×20×60*6 条记录,一月下来这个表记录数
量多大? oracle中一张表的记录数超过100w后 查询性能就很差了,如何保证系统性能?
再比如,中国移动有上亿的用户量,表如何设计?把所有用于存在于一个表么?
所以,大数量的系统,必须考虑表拆分-(表名字不一样,但是结构完全一样),通用的几种方式:(视情况而定)
1)按业务分,比如 手机号的表,我们可以考虑 130开头的作为一个表,131开头的另外一张表 以此类推
2)利用oracle的表拆分机制做分表
3)如果是交易系统,我们可以考虑按时间轴拆分,当日数据一个表,历史数据弄到其它表。这里历史数据的报表和查询不会影响当日交易。
当然,表拆分后我们的应用得做相应的适配。单纯的or-mapping也许就得改动了。比如部分业务得通过存储过程等
此外,我们还得考虑缓存
这里的缓存,指的不仅仅是hibernate,hibernate本身提供了一级二级缓存。这里的缓存独立于应用,依然是内存的读取,假如我们能减少数据库频繁的访
问,那对系统肯定大大有利的。比如一个电子商务系统的商品搜索,如果某个关键字的商品经常被搜,那就可以考虑这部分商品列表存放到缓存(内存中
去),这样不用每次访问数据库,性能大大增加。
简单的缓存大家可以理解为自己做一个hashmap,把常访问的数据做一个key,value是第一次从数据库搜索出来的值,下次访问就可以从map里读取,而不
读数据库;专业些的目前有独立的缓存框架比如memcached 等,可独立部署成一个缓存服务器。
4、常见的提高高并发下访问的效率的手段
&&&&& 首先要了解高并发的的瓶颈在哪里?
&&&& 1、可能是服务器网络带宽不够
&&&& 2.可能web线程连接数不够
&&&&&3.可能数据库连接查询上不去。
&&&& 根据不同的情况,解决思路也不同。
像第一种情况可以增加网络带宽,DNS域名解析分发多台服务器。
负载均衡,前置代理服务器nginx、apache等等
数据库查询优化,读写分离,分表等等
&& 最后复制一些在高并发下面需要常常需要处理的内容:
尽量使用缓存,包括用户缓存,信息缓存等,多花点内存来做缓存,可以大量减少与数据库的交互,提高性能。
用jprofiler等工具找出性能瓶颈,减少额外的开销。
优化数据库查询语句,减少直接使用hibernate等工具的直接生成语句(仅耗时较长的查询做优化)。
优化数据库结构,多做索引,提高查询效率。
统计的功能尽量做缓存,或按每天一统计或定时统计相关报表,避免需要时进行统计的功能。
能使用静态页面的地方尽量使用,减少容器的解析(尽量将动态内容生成静态html来显示)。
解决以上问题后,使用服务器集群来解决单台的瓶颈问题。
java高并发,如何解决,什么方式解决
之前我将高并发的解决方法误认为是线程或者是队列可以解决,因为高并发的时候是有很多用户在访问,导致出现系统数据不正确、丢失数据现象,所以想到 的是用队列解决,其实队列解决的方式也可以处理,比如我们在竞拍商品、转发评论微博或者是秒杀商品等,同一时间访问量特别大,队列在此起到特别的作用,将
所有请求放入队列,以毫秒计时单位,有序的进行,从而不会出现数据丢失系统数据不正确的情况。
今天我经过查资料,高并发的解决方法有俩种:
一种是使用缓存、另一种是使用生成静态页面;还有就是从最基础的地方优化我们写代码减少不必要的资源浪费:(
1.不要频繁的new对象,对于在整个应用中只需要存在一个实例的类使用单例模式.对于String的连接操作,使用StringBuffer或者StringBuilder.对于utility类型的类通过静态方法来访问。
2. 避免使用错误的方式,如Exception可以控制方法推出,但是Exception要保留stacktrace消耗性能,除非必要不要使用 instanceof做条件判断,尽量使用比的条件判断方式.使用JAVA中效率高的类,比如ArrayList比Vector性能好。)
首先缓存技术我一直没有使用过,我觉得应该是在用户请求时将数据保存在缓存中,下次请求时会检测缓存中是否有数据存在,防止多次请求服务器,导致服务器性能降低,严重导致服务器崩溃,这只是我自己的理解,详细的资料还是需要在网上收集;
使用生成静态页面我想大家应该不模式,我们见过很多网站当在请求的时候页面的后最已经变了,如”该页面其实是一个服务器请求地址,在转换成htm后,访问速度将提升,因为静态页面不带有服务器组件;在这里我就多多介绍一下:
一、什么是页面静态化:
简 单的说,我们如果访问一个链接 ,服务器对应的模块会处理这个请求,转到对应的jsp界面,最后生成我们想要看到的数据。这其中的缺点是显而易见的:因为每次请求服务器都会进行处理,如 果有太多的高并发请求,那么就会加重应用服务器的压力,弄不好就把服务器 搞down 掉了。那么如何去避免呢?如果我们把对 test.do 请求后的结果保存成一个 html 文件,然后每次用户都去访问 ,这样应用服务器的压力不就减少了?
那么静态页面从哪里来呢?总不能让我们每个页面都手动处理吧?这里就牵涉到我们要讲解的内容了,静态页面生成方案… 我们需要的是自动的生成静态页面,当用户访问 ,会自动生成 test.html ,然后显示给用户。
二、下面我们在简单介绍一下要想掌握页面静态化方案应该掌握的知识点:
1、&基础- URL Rewrite
什么是 URL Rewrite 呢 ? URL 重写。用一个简单的例子来说明问题:输入网址 ,但是实际上访问的却是 /test.action,那我们就可以说 URL 被重写了。这项技术应用广泛,有许多开源的工具可以实现这个功能。
2、&基础- Servlet web.xml
如果你还不知道 web.xml 中一个请求和一个 servlet 是如何匹配到一起的,那么请搜索一下 servlet 的文档。这可不是乱说呀,有很多人就认为 /xyz/*.do 这样的匹配方式能有效。
如果你还不知道怎么编写一个 servlet ,那么请搜索一下如何编写 servlet.这可不是说笑呀,在各种集成工具漫天飞舞的今天,很多人都不会去从零编写一个 servlet了。
三、基本的方案介绍
其中,对于 URL Rewriter的部分,可以使用收费或者开源的工具来实现,如果 url不是特别的复杂,可以考虑在 servlet 中实现,那么就是下面这个样子:
总 结:其实我们在开发中都很少考虑这种问题,直接都是先将功能实现,当一个程序员在干到1到2年,就会感觉光实现功能不是最主要的,安全性能、质量等等才是 一个开发人员最该关心的。今天我所说的是高并发。
我的解决思路是:
1、采用分布式应用设计
2、分布式缓存数据库
3、代码优化
Java高并发的例子:
?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6
具体情况是这样:&通过java和数据库,自己实现序列自动增长。
实现代码大致如下:
&id_table表结构,&主要字段:
varchar2(16);
number(16,0);
varchar2(4);
public synchronized String nextStringValue(String id){
SqlSession sqlSess = SqlSessionUtil.getSqlSession();
sqlSess.update(&update id_table set id_val = id_val + 1 where id_name=&+id);
Map map = sqlSess.getOne(&select id_name, id_prefix, id_val from id_table where id_name=&+ id);
BigDecimal val = (BigDecimal) map.get(&id_val&);
//id_val是具体数字,rePack主要是统一返回固定长度的字符串;如:Y0000001, F0000001, T0000001等
String idValue = rePack(val, map);
return idV
//公共方法
public class IdHelpTool{
public static String getNextStringValue(String idName){
return getXX().nextStringValue(idName);
具体使用者,都是通过类似这种方式:IdHelpTool.getNextStringValue(&PAY_LOG&);来调用。
&&&&&&(1)&当出现并发时,&有时会获取重复的ID;
&&&&&&(2)&由于服务器做了相关一些设置,有时调用这个方法,好像还会导致超时。
&&&&&&&&&为了解决问题(1),&考虑过在方法getNextStringValue上,也加上synchronized&,&同步关键字过多,会不会更导致超时?
跪求大侠提供个解决问题的大概思路!!!
?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6?9?7?7?6
解决思路一:
1、推荐&/adyliu/idcenter
2、可以通过第三方redis来实现。
解决思路一:
1、出现重复ID,是因为脏读了,并发的时候不加&synchronized&&比如会出现问题
2、但是加了&synchronized&&,性能急剧下降了,本身&java&就是多线程的,你把它单线程使用,不是明智的选择,同时,如果分布式部署的时候,加了&synchronized&&也无法控制并发
3、调用这个方法,出现超时的情况,说明你的并发已经超过了数据库所能处理的极限,数据库无限等待导致超时
基于上面的分析,建议采用线程池的方案,支付宝的单号就是用的线程池的方案进行的。
数据库&update&不是一次加1,而是一次加几百甚至上千,然后取到的这&1000个序号,放在线程池里慢慢分配即可,能应付任意大的并发,同时保证数据库没任何压力。
我的热门文章

我要回帖

更多关于 多线程的并发问题 的文章

 

随机推荐