1.需求
商家把需要上下架的商品设置一个上下架时间,后台服务端需要按时将该商品上下架。
2.现状
目前服务端:1台数据库服务器+2台无状态web服务器,通过web服务器读写数据库,可能存在冲突。
3.技术
考虑 quartz+spring+mysql
4.方案
1)给每一个商品设置一个qurartz cron表达式,问题在于:每一个商品都要给它new一个quartz实例,容易产生内存消耗。
CronTrigger trigger = new CronTrigger(jobName, TRIGGER_GROUP_NAME);
trigger.setCronExpression(updownTime);// 触发器时间设定
2)设置quartz定时器,每秒遍历数据库(可以考虑时延减轻负担),每秒遍历DB,可以配置里面写死,比如通过spring配置:
<beans>
<!-- 要调用的工作类 -->
<bean id="quartzJob" class="com.kay.quartz.QuartzJob"></bean>
<!-- 定义调用对象和调用对象的方法 -->
<bean id="jobtask"
class="org.springframework.scheduling.quartz.MethodInvokingJobDetailFactoryBean">
<!-- 调用的类 -->
<property name="targetObject">
<ref bean="quartzJob"/>
</property>
<!-- 调用类中的方法 -->
<property name="targetMethod">
<value>work</value>
</property>
</bean>
<!-- 定义触发时间 -->
<bean id="doTime" class="org.springframework.scheduling.quartz.CronTriggerBean">
<property name="jobDetail">
<ref bean="jobtask"/>
</property>
<!-- cron表达式 ,每秒执行-->
<property name="cronExpression">
<value>0/1 * * * * ?</value>
</property>
</bean>
<!-- 总管理类 如果将lazy-init='false'那么容器启动就会执行调度程序 -->
<bean id="startQuertz" lazy-init="false" autowire="no" class="org.springframework.scheduling.quartz.SchedulerFactoryBean">
<property name="triggers">
<list>
<ref bean="doTime"/>
</list>
</property>
</bean>
</beans>
如果不用spring配置quartz的话,还可以通过quartz.properties进行配置。
#============================================================================
# Configure Datasources
#============================================================================
org.quartz.dataSource.NAME.driver = 数据库驱动(requried)
org.quartz.dataSource.NAME.URL = 连接数据库的url (requried)
org.quartz.dataSource.NAME.user = 连接的数据库的用户名(not requried)
org.quartz.dataSource.NAME.password =连接的数据库的密码(not requried)
org.quartz.dataSource.NAME.maxConnections = 连接池中最大连接数(not requried)
org.quartz.dataSource.NAME.validationQuery = sql查询语句(not requried)
#============================================================================
#*********************************
#============================================================================
问题在于:数据库过大时,扫描时间可能会增加。