Spring Boot 2.x 编写 RESTful API (六) 事务

用Spring Boot编写RESTful API 学习笔记 Transactional 判定顺序 propagation isolation 脏读 不可重复读 幻读 不可重复读是指记录不同 (update),幻读是数据条数不同 (insert, delete) 几种隔离的比较 isolation vs. lock 两个不同的东西,隔离不是靠锁实现的,是靠对数据的监控实现的 锁:表加好锁了,除非出现死锁等特殊状况,事务是不会被数据库主动回滚的 隔离:如果发现数据不符合相应的事务隔离级别,当前事
分类: 其他 发布时间: 04-08 23:34 阅读次数: 0

Apache common mail使用

1:jar包 2:设置你自己的授权码,去你发件邮箱,设置授权码,不会的百度。 3: 代码 多种模式发送邮件,举个例子如下。 public static void main(String[] args) throws Exception{ // Create the email message HtmlEmail email = new HtmlEmail(); email.setHostName("smtp.163.com"); email.setAuthen
分类: 其他 发布时间: 04-08 23:34 阅读次数: 0

Netty--ChannelPipeline

1:是ChannelHandler的集合 2:是一种拦截器过滤器模式的高级实现 3:给用户所有的控制权来控制一个event在handler中是如何被handle的,并且清楚的告诉你在pipeline中各个handler是如何相互影响的。 4:一个pipeline是在一个channel被建立的同时自动被建立的,且是这个channel唯一的。 5:数据流向 在ChannelHandlerContext上下文中定义的inboundHandler或者outBoundHandler的顺序,处理器,要么是
分类: 其他 发布时间: 04-08 23:34 阅读次数: 0

Android签名机制及绕过

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/re_psyche/article/details/88087298 前言 了解APK签名机制,可以让我们更加高效的解决关于APK签名绕过问题,假期我曾经碰到过这类题目,所以了解了一下这方面的知识。 一、APK签名原理 apk发布者需要使用android 密钥生成工具创建的keystore对APK进行签名,此时会在APK根目录中生成META-INF文件,其中包括了MANIFEST.MF,CERT.
分类: 其他 发布时间: 04-08 23:33 阅读次数: 0

日志写入hdfs过程中

生产中,我们日志 从 flume -》 kafka -》hdfs 按天滚动,如果写入hdfs过程出现问题,程序终止,非正常退出。 因为我们是用流向hdfs里面写的,非正常退出,流未关闭,没有字节大小。如果重启过快, 再打开流会出问题(前一个流未关闭) 解决问题: 1、生产中产生的本地日志,也是按天的,可以先把出错的文件删掉,在第二天,手动导一下;
分类: 其他 发布时间: 04-08 23:32 阅读次数: 0

日志项目在线分析每个城市的点击数

日志项目在线分析每个城市的点击数 从kafka里面消费,由SparkStreaming来处理,存到hbase里面 问题: table.incrementColumnValue 这里用了这个方法 可以指定列的值 自增 如果对于这种问题,我也想用put来做呢 1、使用updateStateByKey ,然后put到hbase,相同的列,版本保存最新的, 但是局限性,它每次会把历史所有的都会输出,5000个城市只有2个有变更,全要重新导入,浪费资源 2、使用mapWithState 只会把更新的输出
分类: 其他 发布时间: 04-08 23:32 阅读次数: 0

优雅关闭ssc

当Spark工作在Client模式下时,由于Driver在作业提交机器上运行,Driver进程是可以看到的,可以用kill(不是kill -9)杀死Driver进程,此时,如果设置了优雅停止,就会调用钩子函数进行优雅地停止。 当Spark工作在Cluster模式下时,Driver运行在集群的那一台机器上我们是无法确定的(YARN模式下由ResourceManager决定),因此无法用kill取杀死Driver进程。当工作在YARN模式下时,可以使用yarn application kill a
分类: 其他 发布时间: 04-08 23:31 阅读次数: 0

关于sparkstream代码更改,造成从ck里面启动不了了

当Spark Streaming的代码修改后启动时(directStream的高级api,信息保存在ck中),反序列化Checkpoint目录中的数据失败,所以Kafka offset会丢失,此时不知道从哪里消费Kafka的数据,所以我们要将Kafka offset保存到ZooKeeper中一份,当Spark Streaming优雅停止后,删除Checkpoint目录然后从ZooKeeper中读取Kafka offset再启动SparkSteaming。 在低级api获取ssc对象的代码中,先
分类: 其他 发布时间: 04-08 23:31 阅读次数: 0

SparkStreaming的ck

一个 Streaming Application 往往需要7*24不间断的跑,所以需要有抵御意外的能力(比如机器或者系统挂掉,JVM crash等)。为了让这成为可能,Spark Streaming需要 Checkpoint 足够多信息至一个具有容错设计的存储系统才能让Driver 从失败中恢复。Spark Streaming 会 Checkpoint 两种类型的数据。 Metadata(元数据) Checkpointing - 保存定义了 Streaming 计算逻辑至类似 HDFS 的支持
分类: 其他 发布时间: 04-08 23:31 阅读次数: 0

hive sql练习

字段说明: ** 用户名,月份,访问次数 数据内容如下 A,2015-01,5 A,2015-01,15 B,2015-01,5 A,2015-01,8 B,2015-01,25 A,2015-01,5 A,2015-02,4 A,2015-02,6 B,2015-02,10 B,2015-02,5 A,2015-03,16 A,2015-03,22 B,2015-03,23 B,2015-03,10 B,2015-03,1 现要求出:每个用户截止到每月为止的最大单月访问次数和累计到该月的
分类: 其他 发布时间: 04-08 23:31 阅读次数: 0

项目服务器

tomcat分日志服务器 和业务服务器,我们项目用的这套,放在日志服务器可以。 我们这套项目,有专门生产日志的服务器,(业务服务器向日志服务器发送请求,日志服务器来生产),我们用flume来监控。 如果想直接在业务服务器里面,在web项目里面Controller里面直接写到kafka,那不行,服务器压力大,可以选择落盘
分类: 其他 发布时间: 04-08 23:30 阅读次数: 0

关于flume的filechannel的一些配置与理解

checkpointDir ~/.flume/file-channel/checkpoint The directory where checkpoint file will be stored 检查点的目录 useDualCheckpoints false Backup the checkpoint. If this is set to true, backupCheckpointDir must be set 使用对checkpoint进行备份 backupCheckpointDir –
分类: 其他 发布时间: 04-08 23:30 阅读次数: 0

关于flume的拦截器

项目中我们需要对一个数据源读取到的数据,我们希望能够进到不同的channel,那么我们需要source的selectors和interceptors。 选择器默认使用的是replcation ,是复制模式,进入每个channel的数据都一样,这里我们选用 multiplexing 此项目拦截器我们使用了2个,一个ETL来过滤不合法数据,一个用来给数据添加头信息,头信息是一个k-v键值对,selectors根据不同的v来决定取哪一个channel 建议在拦截器里面不要做过复杂的操作 #logT
分类: 其他 发布时间: 04-08 23:29 阅读次数: 0

memorychannel的配置文件说明

The events are stored in an in-memory queue with configurable max size. It’s ideal for flows that need higher throughput and are prepared to lose the staged data in the event of a agent failures. Required properties are in bold. Property Name Defau
分类: 其他 发布时间: 04-08 23:29 阅读次数: 0

关于通过ssh后台脚本启动几台主机的flume

脚本1 #!/bin/bash case $1 in "start"){ for i in hadoop101 hadoop102 do echo "---------正在启动 $i 的flume---------------" ssh $i "nohup /opt/module/flume/bin/flume-ng agent -f /opt/module/flume/conf/file-flume-kafka.conf -n a1 -Dflume.root.lo
分类: 其他 发布时间: 04-08 23:29 阅读次数: 0

数仓项目kafka-hdfs

## 组件 a1.sources=r1 r2 a1.channels=c1 c2 a1.sinks=k1 k2 ## source1 a1.sources.r1.type = org.apache.flume.source.kafka.KafkaSource a1.sources.r1.batchSize = 5000 a1.sources.r1.batchDurationMillis = 2000 a1.sources.r1.kafka.bootstrap.servers = hadoop
分类: 其他 发布时间: 04-08 23:29 阅读次数: 0

几种kafka多线程消费方式

kafka API https://kafka.apache.org/0100/javadoc/index.html?org/apache/kafka/clients/consumer/KafkaConsumer.html 知乎关于多线程的回答https://www.zhihu.com/question/57483708/answer/153185829 1、高级新api消费者,一个线程一个消费者。 import com.atguigu.datacosumer.util.PropertyUt
分类: 其他 发布时间: 04-08 23:28 阅读次数: 0

稀疏数组

-----原棋盘------ 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 2 0 0 0 0 0 0 0 0 0 0 0 4 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
分类: 其他 发布时间: 04-08 23:28 阅读次数: 0

Netty源码实战(十一) - 设计模式的应用

版权声明:欢迎加入 Java 技术交流群214821336 https://blog.csdn.net/qq_33589510/article/details/87879359 1 单例模式 1.1 Netty 实例 1.1.1 ReadTimeoutException 可以看出,构造器私有,防止随意创建 static保证延迟加载 1.1.2 MqttEncoder 2 策略模式 3 装饰者模式 Netty 实践 4 观察者模式 4.1 常规操作 4.2 Netty 的实践 在调用 write
分类: 其他 发布时间: 04-08 23:27 阅读次数: 0

文件服务器解决方案探索

版权声明:欢迎加入 Java 技术交流群214821336 https://blog.csdn.net/qq_33589510/article/details/87921584 1 定义 文件服务器(file servers)是一种器件,它的功能就是向服务器提供文件。 它加强了存储器的功能,简化了网络数据的管理。 它一则改善了系统的性能,提高了数据的可用性,二则减少了管理的复杂程度,降低了运营费用。 2 简介 在C/S模式下,文件服务器(file server)是一台对中央存储和数据文件管理负
分类: 其他 发布时间: 04-08 23:27 阅读次数: 0