SpringBoot整合ElasticJob实现分布式任务调度
suiw9 2024-10-30 05:44 24 浏览 0 评论
介绍
ElasticJob 是面向互联网生态和海量任务的分布式调度解决方案,由两个相互独立的子项目 ElasticJob-Lite 和 ElasticJob-Cloud 组成。它通过弹性调度、资源管控、以及作业治理的功能,打造一个适用于互联网场景的分布式调度解决方案,并通过开放的架构设计,提供多元化的作业生态。它的各个产品使用统一的作业 API,开发者仅需一次开发,即可随意部署
ElasticJob 已于 2020 年 5 月 28 日成为 Apache ShardingSphere 的子项目
中文官网文档:https://shardingsphere.apache.org/elasticjob/current/cn/overview/
工作原理图
ElasticJob-Lite: 定位为轻量级无中心化解决方案,使用 jar 的形式提供分布式任务的协调服务
ElasticJob-Cloud: 采用自研 Mesos Framework 的解决方案,额外提供资源治理、应用分发以及进程隔离等功能
ElasticJob-LiteElasticJob-Cloud无中心化是否资源分配不支持支持作业模式常驻常驻+瞬时部署依赖ZooKeeperZooKeeper + Mesos
正文
注意:
本次演示,是用org.apache.shardingsphere.elasticjob的依赖
查看网上大多还是用com.dangdang
前者实现了自动装配
需要提前安装zookeepr:docker run --name zook3.6.0 -p 2181:2181 -d zookeeper:3.6.0
演示案例未持久化入库,实际使用中,可以将任务更新到数据库
ElasticJob 目前提供 Simple、Dataflow 这两种基于 class 的作业类型,并提供 Script、HTTP 这两种基于 type 的作业类型,用户可通过实现 SPI 接口自行扩展作业类型
普通静态任务
1.引入依赖
<dependency>
<groupId>org.apache.shardingsphere.elasticjob</groupId>
<artifactId>elasticjob-lite-spring-boot-starter</artifactId>
<version>3.0.1</version>
</dependency>
<dependency>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
<version>1.18.6</version>
</dependency>
2.application.yml增加定时任务信息
注意:标红的配置,尽量调大一些,不然可能会出现连接EK异常
elasticjob:
regCenter:
#ZK地址
serverLists: 192.168.5.128:2181
#ZK的命名空间
namespace: elasticjob-lite-springboot
#连接超时时间,单位:毫秒
connection-timeout-milliseconds: 500000
#会话超时时间,单位:毫秒
session-timeout-milliseconds: 500000
#等待重试的间隔时间的初始值,单位:毫秒
base-sleep-time-milliseconds: 500000
#等待重试的间隔时间的最大值,单位:毫秒
max-sleep-time-milliseconds: 500000
#静态任务配置
jobs:
#任务名称,唯一
simpleJob:
#作业是否禁止启动,可用于部署作业时,先禁止启动,部署结束后统一启动
disabled: true
#作业实现类
elasticJobClass: com.test.job.SimpleJobDemo
#cron表达式,用于控制作业触发时间
cron: 0/5 * * * * ?
#作业分片总数
shardingTotalCount: 1
#分片序列号和参数用等号分隔,多个键值对用逗号分隔;分片序列号从0开始,不可大于或等于作业分片总数
shardingItemParameters: 0=Beijing
#作业自定义参数,可通过传递该参数为作业调度的业务方法传参,用于实现带参数的作业
jobParameter: "{0:'Beijing'}"
#本地配置是否可覆盖注册中心配置,如果可覆盖,每次启动作业都以本地配置为准
overwrite: true
dataflowJob:
disabled: true
elasticJobClass: com.test.job.DataflowJobDemo
cron: 0/5 * * * * ?
shardingTotalCount: 2
shardingItemParameters: 0=Beijing,1=Shanghai,2=Guangzhou
overwrite: true
scriptJob:
disabled: true
elasticJobType: SCRIPT
cron: 0/10 * * * * ?
shardingTotalCount: 2
props:
script.command.line: "echo SCRIPT Job: "
overwrite: true
3.编写SimpleJobDemo和DataflowJobDemo定时任务
SimpleJobDemo:
@Slf4j
@Component
public class SimpleJobDemo implements SimpleJob {
public void execute(ShardingContext shardingContext) {
Gson gson = new Gson();
Map<String,String> map = gson.fromJson(shardingContext.getJobParameter(), Map.class);
switch (shardingContext.getShardingItem()) {
case 0:
log.info("分片1:执行任务");
System.out.printf("当前任务名称{%s},当前参数{%s},当前任务参数{%s}",shardingContext.getJobName(),
shardingContext.getShardingParameter(),map.get(shardingContext.getShardingItem()+""));
System.out.println();
log.info("分片1:任务结束");
break;
case 1:
log.info("分片2:执行任务");
System.out.printf("当前任务名称{%s},当前参数{%s},当前任务参数{%s}",shardingContext.getJobName(),
shardingContext.getShardingParameter(),map.get(shardingContext.getShardingItem()+""));
System.out.println();
log.info("分片2:任务结束");
break;
}
}
}
DataflowJobDemo:
@Slf4j
@Component
public class DataflowJobDemo implements DataflowJob<Demo> {
@Override
public List<Demo> fetchData(final ShardingContext shardingContext) {
log.info("Item: {} | Time: {} | Thread: {} | {},detail:{}",
shardingContext.getShardingItem(), new SimpleDateFormat("HH:mm:ss").format(new Date()), Thread.currentThread().getId(), "DATAFLOW FETCH", shardingContext);
//模拟查询数据库
List<Demo> list = new ArrayList<>();
Demo demo = new Demo();
demo.setName("一安未来").setAddr("北京");
list.add(demo);
return list;
}
@Override
public void processData(final ShardingContext shardingContext, final List<Demo> data) {
log.info("Item: {} | Time: {} | Thread: {} | {},detail:{} | data:{}",
shardingContext.getShardingItem(), new SimpleDateFormat("HH:mm:ss").format(new Date()), Thread.currentThread().getId(), "DATAFLOW PROCESS", shardingContext,data);
}
}
4.启动验证
2022-09-07 15:09:35.093 INFO 20952 --- [pleJob_Worker-1] com.test.job.SimpleJobDemo : 分片1:执行任务
当前任务名称{simpleJob},当前参数{Beijing},当前任务参数{Beijing}
2022-09-07 15:09:35.096 INFO 20952 --- [pleJob_Worker-1] com.test.job.SimpleJobDemo : 分片1:任务结束
2022-09-07 15:09:35.100 INFO 20952 --- [b-dataflowJob-1] com.test.job.DataflowJobDemo : Item: 0 | Time: 15:09:35 | Thread: 103 | DATAFLOW FETCH,detail:ShardingContext(jobName=dataflowJob, taskId=dataflowJob@-@0,1@-@READY@-@192.168.5.1@-@20952, shardingTotalCount=2, jobParameter=, shardingItem=0, shardingParameter=Beijing)
2022-09-07 15:09:35.100 INFO 20952 --- [b-dataflowJob-2] com.test.job.DataflowJobDemo : Item: 1 | Time: 15:09:35 | Thread: 104 | DATAFLOW FETCH,detail:ShardingContext(jobName=dataflowJob, taskId=dataflowJob@-@0,1@-@READY@-@192.168.5.1@-@20952, shardingTotalCount=2, jobParameter=, shardingItem=1, shardingParameter=Shanghai)
2022-09-07 15:09:35.101 INFO 20952 --- [b-dataflowJob-2] com.test.job.DataflowJobDemo : Item: 1 | Time: 15:09:35 | Thread: 104 | DATAFLOW PROCESS,detail:ShardingContext(jobName=dataflowJob, taskId=dataflowJob@-@0,1@-@READY@-@192.168.5.1@-@20952, shardingTotalCount=2, jobParameter=, shardingItem=1, shardingParameter=Shanghai) | data:[Demo(name=一安未来, addr=北京)]
2022-09-07 15:09:35.101 INFO 20952 --- [b-dataflowJob-1] com.test.job.DataflowJobDemo : Item: 0 | Time: 15:09:35 | Thread: 103 | DATAFLOW PROCESS,detail:ShardingContext(jobName=dataflowJob, taskId=dataflowJob@-@0,1@-@READY@-@192.168.5.1@-@20952, shardingTotalCount=2, jobParameter=, shardingItem=0, shardingParameter=Beijing) | data:[Demo(name=一安未来, addr=北京)]
2022-09-07 15:09:40.018 INFO 20952 --- [pleJob_Worker-1] com.test.job.SimpleJobDemo : 分片1:执行任务
当前任务名称{simpleJob},当前参数{Beijing},当前任务参数{Beijing}
2022-09-07 15:09:40.018 INFO 20952 --- [pleJob_Worker-1] com.test.job.SimpleJobDemo : 分片1:任务结束
2022-09-07 15:09:40.020 INFO 20952 --- [b-dataflowJob-3] com.test.job.DataflowJobDemo : Item: 0 | Time: 15:09:40 | Thread: 105 | DATAFLOW FETCH,detail:ShardingContext(jobName=dataflowJob, taskId=dataflowJob@-@0,1@-@READY@-@192.168.5.1@-@20952, shardingTotalCount=2, jobParameter=, shardingItem=0, shardingParameter=Beijing)
2022-09-07 15:09:40.020 INFO 20952 --- [b-dataflowJob-3] com.test.job.DataflowJobDemo : Item: 0 | Time: 15:09:40 | Thread: 105 | DATAFLOW PROCESS,detail:ShardingContext(jobName=dataflowJob, taskId=dataflowJob@-@0,1@-@READY@-@192.168.5.1@-@20952, shardingTotalCount=2, jobParameter=, shardingItem=0, shardingParameter=Beijing) | data:[Demo(name=一安未来, addr=北京)]
2022-09-07 15:09:40.020 INFO 20952 --- [b-dataflowJob-4] com.test.job.DataflowJobDemo : Item: 1 | Time: 15:09:40 | Thread: 106 | DATAFLOW FETCH,detail:ShardingContext(jobName=dataflowJob, taskId=dataflowJob@-@0,1@-@READY@-@192.168.5.1@-@20952, shardingTotalCount=2, jobParameter=, shardingItem=1, shardingParameter=Shanghai)
2022-09-07 15:09:40.021 INFO 20952 --- [b-dataflowJob-4] com.test.job.DataflowJobDemo : Item: 1 | Time: 15:09:40 | Thread: 106 | DATAFLOW PROCESS,detail:ShardingContext(jobName=dataflowJob, taskId=dataflowJob@-@0,1@-@READY@-@192.168.5.1@-@20952, shardingTotalCount=2, jobParameter=, shardingItem=1, shardingParameter=Shanghai) | data:[Demo(name=一安未来, addr=北京)]
SCRIPT Job: {jobName:scriptJob,taskId:scriptJob@-@0,1@-@READY@-@192.168.5.1@-@20952,shardingTotalCount:2,jobParameter:,shardingItem:0}
SCRIPT Job: {jobName:scriptJob,taskId:scriptJob@-@0,1@-@READY@-@192.168.5.1@-@20952,shardingTotalCount:2,jobParameter:,shardingItem:1}
5.启动多个程序端口验证
这里修改了simpleJob任务为两个分片,其他任务暂时停止了,修改disabled: true即可停止任务
simpleJob:
#作业是否禁止启动,可用于部署作业时,先禁止启动,部署结束后统一启动
disabled: false
#作业实现类
elasticJobClass: com.test.job.SimpleJobDemo
#cron表达式,用于控制作业触发时间
cron: 0/5 * * * * ?
#作业分片总数
shardingTotalCount: 2
#分片序列号和参数用等号分隔,多个键值对用逗号分隔;分片序列号从0开始,不可大于或等于作业分片总数
shardingItemParameters: 0=Beijing,1=Shanghai
#作业自定义参数,可通过传递该参数为作业调度的业务方法传参,用于实现带参数的作业
jobParameter: "{0:'Beijing',1:'Shanghai'}"
#本地配置是否可覆盖注册中心配置,如果可覆盖,每次启动作业都以本地配置为准
overwrite: true
启动8082端口,可以看到分片1,2信息:
2022-09-07 15:18:20.015 INFO 2164 --- [job-simpleJob-7] com.test.job.SimpleJobDemo : 分片1:执行任务
当前任务名称{simpleJob},当前参数{Beijing},当前任务参数{Beijing}
2022-09-07 15:18:20.015 INFO 2164 --- [job-simpleJob-8] com.test.job.SimpleJobDemo : 分片2:执行任务
2022-09-07 15:18:20.015 INFO 2164 --- [job-simpleJob-7] com.test.job.SimpleJobDemo : 分片1:任务结束
当前任务名称{simpleJob},当前参数{Shanghai},当前任务参数{null}
2022-09-07 15:18:20.015 INFO 2164 --- [job-simpleJob-8] com.test.job.SimpleJobDemo : 分片2:任务结束
再启动8083端口,可以看到分片1信息:
2022-09-07 15:19:15.024 INFO 32764 --- [pleJob_Worker-1] com.test.job.SimpleJobDemo : 分片1:执行任务
当前任务名称{simpleJob},当前参数{Beijing},当前任务参数{Beijing}
2022-09-07 15:19:15.024 INFO 32764 --- [pleJob_Worker-1] com.test.job.SimpleJobDemo : 分片1:任务结束
2022-09-07 15:19:20.021 INFO 32764 --- [pleJob_Worker-1] com.test.job.SimpleJobDemo : 分片1:执行任务
当前任务名称{simpleJob},当前参数{Beijing},当前任务参数{Beijing}
2022-09-07 15:19:20.021 INFO 32764 --- [pleJob_Worker-1] com.test.job.SimpleJobDemo : 分片1:任务结束
这个时候再看8082端口日志,只剩下分片2信息:
2022-09-07 15:19:20.020 INFO 2164 --- [pleJob_Worker-1] com.test.job.SimpleJobDemo : 分片2:执行任务
当前任务名称{simpleJob},当前参数{Shanghai},当前任务参数{null}
2022-09-07 15:19:20.021 INFO 2164 --- [pleJob_Worker-1] com.test.job.SimpleJobDemo : 分片2:任务结束
2022-09-07 15:19:25.010 INFO 2164 --- [pleJob_Worker-1] com.test.job.SimpleJobDemo : 分片2:执行任务
当前任务名称{simpleJob},当前参数{Shanghai},当前任务参数{null}
2022-09-07 15:19:25.011 INFO 2164 --- [pleJob_Worker-1] com.test.job.SimpleJobDemo : 分片2:任务结束
2022-09-07 15:19:30.016 INFO 2164 --- [pleJob_Worker-1] com.test.job.SimpleJobDemo : 分片2:执行任务
当前任务名称{simpleJob},当前参数{Shanghai},当前任务参数{null}
2022-09-07 15:19:30.016 INFO 2164 --- [pleJob_Worker-1] com.test.job.SimpleJobDemo : 分片2:任务结束
停止8083端口,再查看8082端口,又恢复分片1,2信息:
当前任务名称{simpleJob},当前参数{Shanghai},当前任务参数{null}
2022-09-07 15:21:15.012 INFO 2164 --- [job-simpleJob-6] com.test.job.SimpleJobDemo : 分片2:任务结束
2022-09-07 15:21:15.011 INFO 2164 --- [job-simpleJob-5] com.test.job.SimpleJobDemo : 分片1:执行任务
当前任务名称{simpleJob},当前参数{Beijing},当前任务参数{Beijing}
2022-09-07 15:21:15.012 INFO 2164 --- [job-simpleJob-5] com.test.job.SimpleJobDemo : 分片1:任务结束
2022-09-07 15:21:20.012 INFO 2164 --- [job-simpleJob-7] com.test.job.SimpleJobDemo : 分片1:执行任务
当前任务名称{simpleJob},当前参数{Beijing},当前任务参数{Beijing}
2022-09-07 15:21:20.012 INFO 2164 --- [job-simpleJob-8] com.test.job.SimpleJobDemo : 分片2:执行任务
当前任务名称{simpleJob},当前参数{Shanghai},当前任务参数{null}
2022-09-07 15:21:20.013 INFO 2164 --- [job-simpleJob-8] com.test.job.SimpleJobDemo : 分片2:任务结束
2022-09-07 15:21:20.013 INFO 2164 --- [job-simpleJob-7] com.test.job.SimpleJobDemo : 分片1:任务结束
动态定时任务
上面实现了静态任务的编写,但实际开发中经常会遇到动态任务,即动态创建,修改,暂停定时任务
1.编写动态任务类
@Component
public class DynamicTask {
@Autowired
private ZookeeperRegistryCenter zookeeperRegistryCenter;
/***
* 动态创建定时任务
* @param jobName:定时任务名称
* @param cron:表达式
* @param shardingTotalCount:分片数量
* @param instance:定时任务实例
* @param shardingItemParameters:分片参数
* @param parameters:参数
*/
public void create(String jobName, String cron, int shardingTotalCount, SimpleJob instance, String shardingItemParameters,String parameters){
JobConfiguration coreConfig = JobConfiguration.newBuilder(jobName, shardingTotalCount).cron(cron)
.shardingItemParameters(shardingItemParameters).jobParameter(parameters).overwrite(true).build();
new ScheduleJobBootstrap(zookeeperRegistryCenter, instance, coreConfig).schedule();
}
/**
* 更新定时任务
* @param jobName
* @param cron
*/public void updateJob(String jobName, String cron) {
JobRegistry.getInstance().getJobScheduleController(jobName).rescheduleJob(cron,"");
}
/**
* 停止定时任务
* @param jobName
*/
public void shutdownJob(String jobName){
JobRegistry.getInstance().getJobScheduleController(jobName).shutdown();
}
}
2.发送请求类
@RestController
public class TestJobController {
@Autowired
private DynamicTask dynamicTaskAdd;
@GetMapping("/create")
public void create(){
String cron = "0/5 * * * * ?";
dynamicTaskAdd.create("job001", cron, 1, new SimpleJobDemo(),"0=test","{0:'Beijing'}");
}
@GetMapping("/update")
public void update(){
String cron = "0/10 * * * * ?";
dynamicTaskAdd.updateJob("job001",cron);
}
@GetMapping("/stop")
public void stop(){
dynamicTaskAdd.shutdownJob("job001");
}
}
3.依次请求create--update--stop,注意观察间隔时间
2022-09-07 15:36:55.019 INFO 7320 --- [job001_Worker-1] com.test.job.SimpleJobDemo : 分片1:执行任务
当前任务名称{job001},当前参数{test},当前任务参数{Beijing}
2022-09-07 15:36:55.020 INFO 7320 --- [job001_Worker-1] com.test.job.SimpleJobDemo : 分片1:任务结束
2022-09-07 15:37:00.037 INFO 7320 --- [job001_Worker-1] com.test.job.SimpleJobDemo : 分片1:执行任务
当前任务名称{job001},当前参数{test},当前任务参数{Beijing}
2022-09-07 15:37:00.037 INFO 7320 --- [job001_Worker-1] com.test.job.SimpleJobDemo : 分片1:任务结束
2022-09-07 15:37:05.070 INFO 7320 --- [job001_Worker-1] com.test.job.SimpleJobDemo : 分片1:执行任务
当前任务名称{job001},当前参数{test},当前任务参数{Beijing}
2022-09-07 15:37:05.072 INFO 7320 --- [job001_Worker-1] com.test.job.SimpleJobDemo : 分片1:任务结束
2022-09-07 15:37:20.019 INFO 7320 --- [job001_Worker-1] com.test.job.SimpleJobDemo : 分片1:执行任务
当前任务名称{job001},当前参数{test},当前任务参数{Beijing}
2022-09-07 15:37:20.021 INFO 7320 --- [job001_Worker-1] com.test.job.SimpleJobDemo : 分片1:任务结束
2022-09-07 15:37:30.013 INFO 7320 --- [job001_Worker-1] com.test.job.SimpleJobDemo : 分片1:执行任务
当前任务名称{job001},当前参数{test},当前任务参数{Beijing}
2022-09-07 15:37:30.013 INFO 7320 --- [job001_Worker-1] com.test.job.SimpleJobDemo : 分片1:任务结束
2022-09-07 15:37:39.085 INFO 7320 --- [nio-8083-exec-5] org.quartz.core.QuartzScheduler : Scheduler job001_$_NON_CLUSTERED shutting down.
2022-09-07 15:37:39.085 INFO 7320 --- [nio-8083-exec-5] org.quartz.core.QuartzScheduler : Scheduler job001_$_NON_CLUSTERED paused.
2022-09-07 15:37:39.093 INFO 7320 --- [nio-8083-exec-5] org.quartz.core.QuartzScheduler : Scheduler job001_$_NON_CLUSTERED shutdown complete.
图形化界面
elastic-job支持图形化界面,进入后首先添加自己的ZK地址和命名空间,然后可在界面查看任务
- 如果你使用的是org.apache.shardingsphere.elasticjob版本,下载elasticjob-ui一定要跟自己的依赖版本一致,不然会出现各种异常,启动默认端口8088,用户名密码root/root
官网下载地址:https://dlcdn.apache.org/shardingsphere
- 如果你使用的是com.dangdang,你需要下载elastic-job-lite-console,启动默认端口8899,用户名密码root
目前下载都是从github上直接拉取
顺便介绍一下如何使用com.dangdang
1.引入依赖
<dependency>
<groupId>com.dangdang</groupId>
<artifactId>elastic-job-lite-core</artifactId>
<version>2.1.5</version>
</dependency>
<dependency>
<groupId>com.dangdang</groupId>
<artifactId>elastic-job-lite-spring</artifactId>
<version>2.1.5</version>
</dependency>
2.编写注册中心类
@Configuration
public class ElasticRegCenterConfig {
@Value("${elasticjob.zk.serverLists}")
private String serverList;
@Value("${elasticjob.zk.namespace}")
private String namespace;
@Bean(initMethod = "init")
public ZookeeperRegistryCenter regCenter() {
ZookeeperConfiguration zookeeperConfiguration = new ZookeeperConfiguration(serverList, namespace);
zookeeperConfiguration.setMaxRetries(3); //设置重试次数,可设置其他属性
zookeeperConfiguration.setSessionTimeoutMilliseconds(500000); //设置会话超时时间,尽量大一点,否则项目无法正常启动
return new ZookeeperRegistryCenter(zookeeperConfiguration);
}
}
3.编写定时任务配置类
@Configuration
public class ElasticJobConfig {
@Autowired
private ZookeeperRegistryCenter regCenter;
@Autowired
SimpleJobDemo simpleJob;
@Value("${elasticjob.job.cron}")
private String cron;
@Value("${elasticjob.job.shardingTotalCount}")
private int shardingTotalCount;
@Value("${elasticjob.job.shardingItemParameters}")
private String shardingItemParameters;
@Value("${elasticjob.job.jobParameter:}")
private String jobParameter;
//加入bean注解就可以拿到MyJob
//静态任务默认初始化
@Bean(initMethod = "init")
public SpringJobScheduler initJobConfiguration() {
return new SpringJobScheduler(simpleJob, regCenter, createJobConfiguration(simpleJob.getClass(),cron,shardingTotalCount,shardingItemParameters));
}
/**
*
* @param clazz 任务的字节码
* @param cron 表达式
* @param shrdingCount 分片个数
* @param shardingParamter 分片参数
* @return
*/
private LiteJobConfiguration createJobConfiguration(Class<? extends ElasticJob> clazz, String cron, int shrdingCount, String shardingParamter) {
JobCoreConfiguration.Builder builder = JobCoreConfiguration.newBuilder(clazz.getSimpleName(), cron, shrdingCount);
if (StringUtils.isEmpty(shardingParamter)) {
builder.shardingItemParameters(shardingParamter);
}
//创建作业配置
SimpleJobConfiguration simpleJobConfiguration = new SimpleJobConfiguration(builder.build(), clazz.getCanonicalName());
//覆盖zookeeper
return LiteJobConfiguration.newBuilder(simpleJobConfiguration).overwrite(true).build();
}
/***
* 动态创建定时任务
* @param jobName:定时任务名称
* @param cron:表达式
* @param shardingTotalCount:分片数量
* @param instance:定时任务实例
* @param parameters:参数
* @param description:作业描述
*/
public void addJob(String jobName, String cron, int shardingTotalCount, SimpleJob instance, String parameters, String description){
LiteJobConfiguration.Builder builder = LiteJobConfiguration.newBuilder(new SimpleJobConfiguration(
JobCoreConfiguration.newBuilder(
jobName,
cron,
shardingTotalCount
).jobParameter(parameters).description(description).build(),
instance.getClass().getName()
)).overwrite(true);
LiteJobConfiguration liteJobConfiguration = builder.build();
new SpringJobScheduler(instance,regCenter,liteJobConfiguration).init();
}
/**
* 更新定时任务
* @param jobName
* @param cron
*/public void updateJob(String jobName, String cron) {
JobRegistry.getInstance().getJobScheduleController(jobName).rescheduleJob(cron,"");
}
/**
* 停止定时任务
* @param jobName
*/
public void shutdownJob(String jobName){
JobRegistry.getInstance().getJobScheduleController(jobName).shutdown();
}
}
4.编写SimpleJobDemo和DataflowJobDemo定时任务(参照apache以上即可)
补充说明
ElasticJob支持错误处理策略:
- 记录日志策略
- 抛出异常策略
- 忽略异常策略
- 邮件通知策略
<dependency>
<groupId>org.apache.shardingsphere.elasticjob</groupId>
<artifactId>elasticjob-error-handler-email</artifactId>
<version>${latest.release.version}</version>
</dependency>
- 企业微信通知策略
<dependency>
<groupId>org.apache.shardingsphere.elasticjob</groupId>
<artifactId>elasticjob-error-handler-wechat</artifactId>
<version>${latest.release.version}</version>
</dependency>
- 钉钉通知策略
<dependency>
<groupId>org.apache.shardingsphere.elasticjob</groupId>
<artifactId>elasticjob-error-handler-dingtalk</artifactId>
<version>${latest.release.version}</version>
</dependency>
相关推荐
- 看完这一篇数据仓库干货,终于搞懂什么是hive了
-
一、Hive定义Hive最早来源于FaceBook,因为FaceBook网站每天产生海量的结构化日志数据,为了对这些数据进行管理,并且因为机器学习的需求,产生了Hive这们技术,并继续发展成为一个成...
- 真正让你明白Hive参数调优系列1:控制map个数与性能调优参数
-
本系列几章系统地介绍了开发中Hive常见的用户配置属性(有时称为参数,变量或选项),并说明了哪些版本引入了哪些属性,常见有哪些属性的使用,哪些属性可以进行Hive调优,以及如何使用的问题。以及日常Hi...
- HIVE SQL基础语法(hive sql是什么)
-
引言与关系型数据库的SQL略有不同,但支持了绝大多数的语句如DDL、DML以及常见的聚合函数、连接查询、条件查询。HIVE不适合用于联机事务处理,也不提供实时查询功能。它最适合应用在基于大量不可变数据...
- [干货]Hive与Spark sql整合并测试效率
-
在目前的大数据架构中hive是用来做离线数据分析的,而在Spark1.4版本中spark加入了sparksql,我们知道spark的优势是速度快,那么到底sparksql会比hive...
- Hive 常用的函数(hive 数学函数)
-
一、Hive函数概述及分类标准概述Hive内建了不少函数,用于满足用户不同使用需求,提高SQL编写效率:...
- 数仓/数开面试题真题总结(二)(数仓面试时应该讲些什么)
-
二.Hive...
- Tomcat处理HTTP请求流程解析(tomcat 处理请求过程)
-
1、一个简单的HTTP服务器在Web应用中,浏览器请求一个URL,服务器就把生成的HTML网页发送给浏览器,而浏览器和服务器之间的传输协议是HTTP,那么接下来我们看下如何用Java来实现一个简单...
- Python 高级编程之网络编程 Socket(六)
-
一、概述Python网络编程是指使用Python语言编写的网络应用程序。这种编程涉及到网络通信、套接字编程、协议解析等多种方面的知识。...
- [904]ScalersTalk成长会Python小组第20周学习笔记
-
Scalers点评:在2015年,ScalersTalk成长会Python小组完成了《Python核心编程》第1轮的学习。到2016年,我们开始第二轮的学习,并且将重点放在章节的习题上。Python小...
- 「web开发」几款http请求测试工具
-
curl命令CURL(CommandLineUniformResourceLocator),是一个利用URL语法,在命令行终端下使用的网络请求工具,支持HTTP、HTTPS、FTP等协议...
- Mac 基于HTTP方式访问下载共享文件,配置共享服务器
-
方法一:使用Python的SimpleHTTPServer进行局域网文件共享Mac自带Python,所以不需要安装其他软件,一条命令即可...
- 使用curl进行http高并发访问(php curl 大量并发获得结果)
-
本文主要介绍curl异步接口的使用方式,以及获取高性能的一些思路和实践。同时假设读者已经熟悉并且使用过同步接口。1.curl接口基本介绍curl一共有三种接口:EasyInterface...
- Django 中的 HttpResponse理解和用法-基础篇1
-
思路是方向,代码是时间,知识需积累,经验需摸索。希望对大家有用,有错误还望指出。...
你 发表评论:
欢迎- 一周热门
-
-
Linux:Ubuntu22.04上安装python3.11,简单易上手
-
宝马阿布达比分公司推出独特M4升级套件,整套升级约在20万
-
MATLAB中图片保存的五种方法(一)(matlab中保存图片命令)
-
别再傻傻搞不清楚Workstation Player和Workstation Pro的区别了
-
如何提取、修改、强刷A卡bios a卡刷bios工具
-
Linux上使用tinyproxy快速搭建HTTP/HTTPS代理器
-
Element Plus 的 Dialog 组件实现点击遮罩层不关闭对话框
-
日本组合“岚”将于2020年12月31日停止团体活动
-
SpringCloud OpenFeign 使用 okhttp 发送 HTTP 请求与 HTTP/2 探索
-
MacOS + AList + 访达,让各种云盘挂载到本地(建议收藏)
-
- 最近发表
- 标签列表
-
- dialog.js (57)
- importnew (44)
- windows93网页版 (44)
- yii2框架的优缺点 (45)
- tinyeditor (45)
- qt5.5 (60)
- windowsserver2016镜像下载 (52)
- okhttputils (51)
- android-gif-drawable (53)
- 时间轴插件 (56)
- docker systemd (65)
- slider.js (47)
- android webview缓存 (46)
- pagination.js (59)
- loadjs (62)
- openssl1.0.2 (48)
- velocity模板引擎 (48)
- pcre library (47)
- zabbix微信报警脚本 (63)
- jnetpcap (49)
- pdfrenderer (43)
- fastutil (48)
- uinavigationcontroller (53)
- bitbucket.org (44)
- python websocket-client (47)