武汉试管婴儿机构做试管供卵选性别包成功靠谱吗?

武汉薇電█ 188★2335★0811 ████试管选性别███供卵试管婴儿代孕███选性别生男孩 ████试管包出生████代孕男孩████代孕包出生███代孕选性别██试管婴儿███代孕生男孩█████
  1. 针对一个高并发的应用,你是否会选择打印访问日志?
  2. 针对分布式的应用,你是否会选择将所有日志打印到日志中心?
解决方案:
  1. 如果如果你选择为了性能,不打印日志,那无可厚非。但是你得考虑清楚,出问题的时候是否能够做到快速排查?
  2. 你觉得日志分布在各台机器上很方便,那不用日志中心也行!
  如果,你还是会选择打印大量的访问日志,如果你还是会选择打印日志到日志中心,那么本文对你有用!
  如果自己实现一个日志中心,不说很难吧,也还是要费很大力气的,比如性能,比如容量大小!
  所以,本文选择阿里云的 loghub 作为日志中心,收集所有日志!
loghub 常规操作:
  在提出本文主题之前,咱们要看看loghub自己的方式,以及存在的问题!
  在官方接入文档里,就建议咱们使用 logProducer 接入。
  其实 logProducer 已经做了太多的优化,比如当日志包数据达到一定数量,才统一进行发送,异步发送等等!
  至于为什么还会存在本篇文章,则是由于这些优化还不够,比如 这些日志发送仍然会影响业务性能,仍然会受到内存限制,仍然会抢占大量cpu。。。
  好吧,接入方式:
  1. 引入maven依赖:
<dependency>
<groupId>com.aliyun.openservices</groupId>
<artifactId>aliyun-log-logback-appender</artifactId>
<version>0.1.13</version>
</dependency>
  2. logback中添加appender:
<appender name="LOGHUB-APPENDER" class="appender:com.aliyun.openservices.log.logback.LoghubAppender">
<endpoint>${loghub.endpoint}</endpoint>
<accessKeyId>${loghub.accessKeyId}</accessKeyId>
<accessKey>${loghub.accessKey}</accessKey>
<projectName>${loghub.projectName}</projectName>
<logstore>test-logstore</logstore>
<topic>${loghub.topic}</topic>
<packageTimeoutInMS>1500</packageTimeoutInMS>
<logsCountPerPackage>4096</logsCountPerPackage>
<!-- 4718592=4M, 3145728=3M, 2097152=2M -->
<logsBytesPerPackage>3145728</logsBytesPerPackage>
<!-- 17179869184=2G(溢出丢弃) , 104857600=12.5M, 2147483647=2G, 536870912=512M-->
<memPoolSizeInByte>536870912</memPoolSizeInByte>
<retryTimes>1</retryTimes>
<maxIOThreadSizeInPool>6</maxIOThreadSizeInPool>
<filter class="ch.qos.logback.classic.filter.ThresholdFilter">
<level>INFO</level>
</filter>
</appender>
<root level="${logging.level}">
<appender-ref ref="STDOUT"/>
<appender-ref ref="LOGHUB-APPENDER" />
</root>
  3. 在代码中进行日志打印:
private static Logger logger = LoggerFac

猜你喜欢

转载自www.cnblogs.com/rewq/p/10988343.html