Java编程基础二

①SpringMVC是如何工作的。

Tomcat 是一个servlet容器。我们在没有使用spring-mvc之前,就是使用servlet+jsp来开发web应用。由于Tomcat是一个web容器,每一个发送给Tomcat服务器的HTTP请求自然会被一个Java Servlet处理。所以,SpringMvc 必定有一个servlet,SpringWeb应用的入口必定是一个Servlet。springmvc的servlet入口是:DispatcherServlet。

②SpringBoot是如何工作的。

Spring Boot最核心的组合注解@SpringBootApplication。

除了对应用开放的@ComponentScan注解(实现对开发者自定义的应用包扫描)外,其最核心的注解就是@EnableAutoConfiguration,该注解表示开启自动配置功能,而在具体的实现上则是通过导入@Import(EnableAutoConfigurationImportSelector.class)类的实例,在逻辑上实现了对所依赖的核心jar下META-INF/spring.factories文件的扫描,该文件则声明了有哪些自动配置需要被Spring容器加载,从而Spring Boot应用程序就能自动加载Spring核心容器配置,以及其他依赖的项目组件配置,从而最终完成应用的自动初始化,通过这种方法就向开发者屏蔽了启动加载的过程。

③SpringMVC和SpringBoot有什么不同。

以前web应用要使用到tomat服务器启动,而springboot内置服务器容器,通过@SpringBootApplication中注解类中main函数启动即可。

④什么是反射。

  JAVA反射机制是在运行状态中,对于任意一个类,都能够知道这个类的所有属性和方法,对于任意一个对象,都能够调用它的任意一个方法和属性,这种动态获取的信息以及动态调用对象的方法的功能称为java语言的反射机制。

Class类
这个类用于操纵(反向解析)一个类的属性,方法,构造器等。

Person: name,age,address(Class只要知道你这个Person类,那么它便可知道你所有的属性,不止属性,甚至方法上的注解等等,都会知道。)

import java.lang.reflect.Constructor;
import java.lang.reflect.Field;
import java.lang.reflect.Method;
import java.util.Arrays;
 
public class Test01 {
    public static void main(String[] args) throws ClassNotFoundException {
        String a = "java.lang.String";
//        String a = "java.lang.HashMap";
 
        // 根据一类的全名字符串来获得一个类的类对象
        Class<?> clazz = Class.forName(a);
        // 获得传递过来的类的所有方法
        Method[] methods = clazz.getDeclaredMethods();
//        String s = Arrays.toString(methods);
        for (Method m: methods) {
            System.out.println(m);
        }
        System.out.println("------------------------------------------");
        // 获得类的所有属性
        Field[] declaredFields = clazz.getDeclaredFields();
        for(Field d : declaredFields) {
            System.out.println(d);
        }
        System.out.println("-------------------------------------");
        // 获得类的所有构造器
        Constructor<?>[] constructors = clazz.getDeclaredConstructors();
        for (Constructor c : constructors) {
            System.out.println(c);
        }
    }
}

⑤JVM内存模型。

  1. 堆内存
  2. 方法区
  3. 栈内存

⑥线程的有哪些状态,是如何改变的。

new、runnable、blocked、waiting、timed_waiting、terminated

new 新建线程

runnable运行线程

blocked 阻塞

waiting 等待

timed_waiting 有固定的时间的等待,如Thread.sleep(2000);

terminated终止,死亡

都是通过runnable转进转出的。

⑦线程池有哪几种,能举出其中比较重要的参数,并说明它们的作用。

实现线程池,有四种策略:

1.newCachedThreadPool可缓存线程池

jdk 1.6源码:

public static ExecutorService newCachedThreadPool() {

        return new ThreadPoolExecutor(0, Integer.MAX_VALUE,

                                      60L, TimeUnit. SECONDS,

                                      new SynchronousQueue<Runnable>());

    }

2 newFixedThreadPool定长线程池

jdk 1.6源码:

    public static ExecutorService newFixedThreadPool(int nThreads) {

        return new ThreadPoolExecutor(nThreads, nThreads,

                                      0L, TimeUnit. MILLISECONDS,

                                      new LinkedBlockingQueue<Runnable>());

    }

3 newSingleThreadExecutor单线程化线程池

jdk 1.6源码:

 public static ExecutorService newSingleThreadExecutor() {

        return new FinalizableDelegatedExecutorService

            ( new ThreadPoolExecutor(1, 1,

                                    0L, TimeUnit. MILLISECONDS,

                                    new LinkedBlockingQueue<Runnable>()));

    }

4 newScheduledThreadPool周期性线程池

jdk 1.6源码:

      

   public static ScheduledExecutorService newScheduledThreadPool (int corePoolSize) {

        return new ScheduledThreadPoolExecutor(corePoolSize);

    }

    public ScheduledThreadPoolExecutor( int corePoolSize) {

        super(corePoolSize, Integer.MAX_VALUE, 0, TimeUnit.NANOSECONDS,

              new DelayedWorkQueue());

    }

参数有:

corePoolSize:
默认线程数量(核心线程数量),在创建线程池之后,线程池里没有任何线程,等到有任务进来时才创建线程去执行任务(懒加载)。当线程池中的线程数达到corePoolSize的值后,就会把到达的任务放到缓存队列里;

maximumPoolSize:
最大线程数量,表明线程中最多能创建的线程数量。当核心线程+非核心线程达到这个数值后,后续任务将会根据RejectedExecutionHandler处理器来进行饱和策略处理;

keepAliveTime:
非核心线程闲置时的存活时间,超过该时长,非核心线程就会被回收;

TimeUnit:
keepAliveTime时长对应的单位(天、小时、分钟、秒、毫秒、微妙、纳秒);

BlockingQueue:
阻塞队列,存储等待执行的任务;

ThreadFactory:
线程工厂,用来创建线程;

RejectedExecutionHandler:
队列已满,而且任务量大于最大线程数量的异常处理策略。
 

⑧请举出常用的设计模式并说明,如何实现单例。

⑨解释下三项范式。

一范式就是属性不可分割。属性是什么?就是表中的字段。
不可分割的意思就按字面理解就是最小单位,不能再分成更小单位了。
这个字段只能是一个值,不能被拆分成多个字段,否则的话,它就是可分割的,就不符合一范式。
不过能不能分割并没有绝对的答案,看需求,也就是看你的设计目标而定。
举例:
学生信息组成学生信息表,有姓名、年龄、性别、学号等信息组成。
姓名不可拆分吧?所以可以作为该表的一个字段。
但我要说这个表要在国外使用呢?人家姓和名要分开,都有特别的意义,所以姓名字段是可拆分的,分为姓字段和名字段。
简单来说,一范式是关系数据库的基础,但字段是否真的不可拆分,根据你的设计目标而定。


二范式就是要有主键,要求其他字段都依赖于主键。
为什么要有主键?没有主键就没有唯一性,没有唯一性在集合中就定位不到这行记录,所以要主键。
其他字段为什么要依赖于主键?因为不依赖于主键,就找不到他们。更重要的是,其他字段组成的这行记录和主键表示的是同一个东西,而主键是唯一的,它们只需要依赖于主键,也就成了唯一的。
如果有同学不理解依赖这个词,可以勉强用“相关”这个词代替,也就是说其他字段必须和它们的主键相关。因为不相关的东西不应该放在一行记录里。
举例:
学生信息组成学生表,姓名可以做主键么?
不能!因为同名的话,就不唯一了,所以需要学号这样的唯一编码才行。
那么其他字段依赖于主键是什么意思?
就是“张三”同学的年龄和性别等字段,不能存储别人的年龄性别,必须是他自己的,因为张三的学号信息就决定了,这行记录归张三所有,不能给无关人员使用。


三范式就是要消除传递依赖,方便理解,可以看做是“消除冗余”。
消除冗余应该比较好理解一些,就是各种信息只在一个地方存储,不出现在多张表中。
比如说大学分了很多系(中文系、英语系、计算机系……),这个系别管理表信息有以下字段组成:
系编号,系主任,系简介,系架构。
那么再回到学生信息表,张三同学的年龄、性别、学号都有了,我能不能把他的系编号,系主任、系简介也一起存着?
如果你问三范式,当然不行,因为三范式不同意。
因为系编号,系主任、系简介已经存在系别管理表中,你再存入学生信息表,就是冗余了。
三范式中说的传递依赖,就出现了。
这个时候学生信息表中,系主任信息是不是依赖于系编号了?而这个表的主键可是学号啊!
所以按照三范式,处理这个问题的时候,学生表就只能增加一个系编号字段。
这样既能根据系编号找到系别信息,又避免了冗余存储的问题。
 

⑩如何得知sql运行的瓶颈在哪。

1、软优化

1)查询语句优化

首先我们可以用EXPLAIN或DESCRIBE(简写:DESC)命令分析一条查询语句的执行信息。

例:

DESC SELECT * FROM `user`

其中会显示索引和查询数据读取数据条数等信息。

2)优化子查询

在MySQL中,尽量使用JOIN来代替子查询。因为子查询需要嵌套查询,嵌套查询时会建立一张临时表,临时表的建立和删除都会有较大的系统开销,而连接查询不会创建临时表,因此效率比嵌套子查询高。

3)使用索引

索引是提高数据库查询速度最重要的方法之一,使用索引的三大注意事项包括:

LIKE关键字匹配'%'开头的字符串,不会使用索引;
OR关键字的两个字段必须都是用了索引,该查询才会使用索引;
使用多列索引必须满足最左匹配。

4)分解表

对于字段较多的表,如果某些字段使用频率较低,此时应当将其分离出来从而形成新的表。

5)中间表

对于将大量连接查询的表可以创建中间表,从而减少在查询时造成的连接耗时。

6)增加冗余字段

类似于创建中间表,增加冗余也是为了减少连接查询。

7)分析表、检查表、优化表

分析表主要是分析表中关键字的分布;检查表主要是检查表中是否存在错误;优化表主要是消除删除或更新造成的表空间浪费。

分析表: 使用 ANALYZE 关键字,如ANALYZE TABLE user

Op: 表示执行的操作;
Msg_type: 信息类型,有status、info、note、warning、error;
Msg_text: 显示信息。

检查表: 使用 CHECK关键字,如CHECK TABLE user [option]。 option 只对MyISAM有效。共五个参数值:

QUICK: 不扫描行,不检查错误的连接;
FAST: 只检查没有正确关闭的表;
CHANGED: 只检查上次检查后被更改的表和没被正确关闭的表;
MEDIUM: 扫描行,以验证被删除的连接是有效的,也可以计算各行关键字校验和;
EXTENDED: 最全面的的检查,对每行关键字全面查找。
优化表: 使用OPTIMIZE关键字,如OPTIMIZE [LOCAL|NO_WRITE_TO_BINLOG] TABLE user;

LOCAL|NO_WRITE_TO_BINLOG都是表示不写入日志,优化表只对VARCHAR、BLOB和TEXT有效,通过OPTIMIZE TABLE语句可以消除文件碎片,在执行过程中会加上只读锁。

2、硬优化

1)硬件三件套

配置多核心和频率高的cpu,多核心可以执行多个线程;
配置大内存,提高内存,即可提高缓存区容量,因此能减少磁盘I/O时间,从而提高响应速度;
配置高速磁盘或合理分布磁盘:高速磁盘提高I/O,分布磁盘能提高并行操作的能力。

2)优化数据库参数

优化数据库参数可以提高资源利用率,从而提高MySQL服务器性能。MySQL服务的配置参数都在my.cnf或my.ini,下面列出性能影响较大的几个参数:

key_buffer_size: 索引缓冲区大小;
table_cache: 能同时打开表的个数;
query_cache_size和query_cache_type: 前者是查询缓冲区大小,后者是前面参数的开关,0表示不使用缓冲区,1表示使用缓冲区,但可以在查询中使用SQL_NO_CACHE表示不要使用缓冲区,2表示在查询中明确指出使用缓冲区才用缓冲区,即SQL_CACHE;
sort_buffer_size: 排序缓冲区。

3)分库分表

因为数据库压力过大,首先一个问题就是高峰期系统性能可能会降低,因为数据库负载过高对性能会有影响。

另外一个,压力过大把你的数据库给搞挂了怎么办?

所以此时你必须得对系统做分库分表+读写分离,也就是把一个库拆分为多个库,部署在多个数据库服务上,这时作为主库承载写入请求。然后每个主库都挂载至少一个从库,由从库来承载读请求。

4)缓存集群

如果用户量越来越大,此时你可以不停的加机器,比如说系统层面不停加机器,就可以承载更高的并发请求。

然后数据库层面如果写入并发越来越高,就扩容加数据库服务器,通过分库分表是可以支持扩容机器的,如果数据库层面的读并发越来越高,就扩容加更多的从库。

但是这里有一个很大的问题:

数据库其实本身不是用来承载高并发请求的,所以通常来说,数据库单机每秒承载的并发就在几千的数量级,而且数据库使用的机器都是比较高配置,比较昂贵的机器,成本很高。

如果你就是简单的不停的加机器,其实是不对的。

所以在高并发架构里通常都有缓存这个环节,缓存系统的设计就是为了承载高并发而生。单机承载的并发量都在每秒几万,甚至每秒数十万,对高并发的承载能力比数据库系统要高出一到两个数量级。

你完全可以根据系统的业务特性,对那种写少读多的请求,引入缓存集群。

具体来说,就是在写数据库的时候同时写一份数据到缓存集群里,然后用缓存集群来承载大部分的读请求。这样的话,通过缓存集群,就可以用更少的机器资源承载更高的并发。

 

MySQL慢SQL优化-如何分析性能瓶颈

优化慢SQL首先得知道瓶颈在哪,本文主要介绍慢SQL性能瓶颈分析。本文就以前段时间参加的一个SQL优化活动为例。
mysql命令行或者一些可视化工具在sql执行时间的精度比较低,尤其是命令行只显示到10ms,所以需要打开mysql的执行时间监听:

set profiling = 1;

然后使用

show profiles;

命令就可查看sql的执行时间。

例如:

mysql> show profiles;
+----------+------------+------------------------------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------------------------+
| Query_ID | Duration   | Query
                                                                                                                                           |
+----------+------------+------------------------------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------------------------+
|        1 | 0.18553425 | select a.seller_id,a.seller_name,b.user_name,c.state   from  a,b,c
where  a.seller_name=b.seller_name  and    b.user_id=c.user_id   and  c.user_id=17  and
a.gmt_create BETWEEN DATE_ADD(NOW(), INTERVAL - 600 MINUTE) AND  DATE_ADD(NOW(), INTERVAL 600 MINUTE)  order  by  a.gmt_create |
+----------+------------+------------------------------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------------------------+
1 row in set, 1 warning (0.00 sec)

在命令行中执行完sql后,使用 show profiles; 语句就可显示上面的执行历史信息,找到对应的,可以看到我刚测试的执行了0.18553425s这个精度就相当高。
接下来我们使用explain语句分析这条语句在所牵连的表中一共遍历了多少纪录

mysql> explain
    -> select a.seller_id,a.seller_name,b.user_name,c.state   from  a,b,c
    -> where  a.seller_name=b.seller_name  and    b.user_id=c.user_id   and  c.user_id=17  and
    -> a.gmt_create BETWEEN DATE_ADD(NOW(), INTERVAL - 600 MINUTE) AND  DATE_ADD(NOW(), INTERVAL 600 MINUTE)  order  by  a.gmt_create
    -> ;
+----+-------------+-------+------------+------+---------------+------+---------+------+--------+----------+----------------------------------------------------+
| id | select_type | table | partitions | type | possible_keys | key  | key_len | ref  | rows   | filtered | Extra                                              |
+----+-------------+-------+------------+------+---------------+------+---------+------+--------+----------+----------------------------------------------------+
|  1 | SIMPLE      | a     | NULL       | ALL  | NULL          | NULL | NULL    | NULL |  16108 |    11.11 | Using where; Using temporary; Using filesort       |
|  1 | SIMPLE      | b     | NULL       | ALL  | NULL          | NULL | NULL    | NULL |  16592 |    10.00 | Using where; Using join buffer (Block Nested Loop) |
|  1 | SIMPLE      | c     | NULL       | ALL  | NULL          | NULL | NULL    | NULL | 359382 |     1.00 | Using where; Using join buffer (Block Nested Loop) |
+----+-------------+-------+------------+------+---------------+------+---------+------+--------+----------+----------------------------------------------------+
3 rows in set, 1 warning (0.00 sec)

这里有一个介绍的对这个结果各个列介绍比较好的网页explain结果介绍

从上面的分析中发现每个表的数据遍历了很多(其实是全部),可以添加索引进行优化,同时可以看到a表extra有using temorary就是使用临时表,这是需要优化的。

PS
关于join的优化
在没有分库分表的时候,join在建立合适的索引后还是可用的。
关于join的原理 嵌套循环算法,通过join链接的字段一般要建立索义。

看过嵌套循环算法后,其实A left B和B left A在算法复杂度上没有区别,所以还是根据业务选择即可。
同时,嵌套循环的数据并不一定是全表数据,如果where中约束其中一个表,假设是B,这时在循环遍历B表是遍历where约束的数据量,所以并不是全量对比。

⑪java8的新特性是什么。

2.4 重复注解

自从Java 5中引入注解以来,这个特性开始变得非常流行,并在各个框架和项目中被广泛使用。不过,注解有一个很大的限制是:在同一个地方不能多次使用同一个注解。Java 8打破了这个限制,引入了重复注解的概念,允许在同一个地方多次使用同一个注解。

在Java 8中使用@Repeatable注解定义重复注解,实际上,这并不是语言层面的改进,而是编译器做的一个trick,底层的技术仍然相同。可以利用下面的代码说明:

package com.javacodegeeks.java8.repeatable.annotations;

import java.lang.annotation.ElementType;
import java.lang.annotation.Repeatable;
import java.lang.annotation.Retention;
import java.lang.annotation.RetentionPolicy;
import java.lang.annotation.Target;

public class RepeatingAnnotations {
    @Target( ElementType.TYPE )
    @Retention( RetentionPolicy.RUNTIME )
    public @interface Filters {
        Filter[] value();
    }

    @Target( ElementType.TYPE )
    @Retention( RetentionPolicy.RUNTIME )
    @Repeatable( Filters.class )
    public @interface Filter {
        String value();
    };

    @Filter( "filter1" )
    @Filter( "filter2" )
    public interface Filterable {        
    }

    public static void main(String[] args) {
        for( Filter filter: Filterable.class.getAnnotationsByType( Filter.class ) ) {
            System.out.println( filter.value() );
        }
    }
}

正如我们所见,这里的Filter类使用@Repeatable(Filters.class)注解修饰,而Filters是存放Filter注解的容器,编译器尽量对开发者屏蔽这些细节。这样,Filterable接口可以用两个Filter注解注释(这里并没有提到任何关于Filters的信息)。

另外,反射API提供了一个新的方法:getAnnotationsByType(),可以返回某个类型的重复注解,例如Filterable.class.getAnnoation(Filters.class)将返回两个Filter实例,输出到控制台的内容如下所示:

filter1
filter2

如果你希望了解更多内容,可以参考官方文档

为什么使用Lambda表达式?

Lambda 是一个匿名函数,我们可以把Lambda表达式理解为是一段可以传递的代码。可以写出更简洁、高效的代码。

发布了122 篇原创文章 · 获赞 1 · 访问量 3554

猜你喜欢

转载自blog.csdn.net/lbh19630726/article/details/103862461