Java开发体系梳理
2023-03-29 16:50:01 0 举报
AI智能生成
后端所用技术总结,面试,开发经验总结. 欢迎大家评论补充.
作者其他创作
大纲/内容
this():调用本类的构造方法
super() 调用父类的构造方法
当调用子类时,先调用父类构造器,在调用子类构造器
子类继承父类的public和protected属性,不继承private属性(方法同理)
注意
在新类中可以直接使用被继承的属性和方法,也可以在新类中对已有的属性和方法进行重写
继承
封装使我们能够隐藏对象的内部状态,仅对外提供公共的访问方式
List<Integer> integers = new ArrayList<>();
父类引用指向子类对象
多态
封装 继承 多态
面向对象的特征
被private修饰的属性和方法,不能被其他类访问,子类不能继承也不能访问。只能在所在类内部访问。
private
缺省变量或者方法前没有访问修饰符时,可以被所在类访问,可以被同一包内的其他类访问或者继承。但是不能被其他包访问
default/缺省
被protected修饰的方法和属性,在同一包内可被访问和继承。不同包内,子类可继承,非子类不能访问
protected
因为java程序是通过jvm虚拟机调用的,所以main()函数要是想被调用,必须是public
main方法为何是public
方法和属性前有public修饰,可以被任意包内的类访问。 另外,类要想被其他包导入,必须声明为public。被public修饰的类,类名必须与文件名相同
public
访问修饰符
这个变量属于类的,类所有的实例都共享静态变量,可以直接通过类名来访问它;静态变量在内存中只存在一份。
静态变量(类变量)
在静态方法中不能访问非静态成员方法和非静态成员变量
静态方法内不能访问非静态方法
可以在没有创建任何对象的前提下,仅仅通过类本身来调用static方法。这实际上正是static方法的主要用途被static关键字修饰的方法或者变量不需要依赖于对象来进行访问,只要类被加载了,就可以通过类名去进行访问。static可以用来修饰类的成员方法、类的成员变量,另外可以编写font color=\"#ff0000\
可以直接通过 类.静态方法 调用,不需要this和对象
静态方法
执行顺序
用来修饰方法和变量
static
用来修饰类、方法和变量,final 修饰的类不能够被继承,修饰的方法不能被继承类重新定义(可以重载,不可以重写),修饰的变量为常量,是不可修改的
final
用来创建抽象类和抽象方法
abstract
同一时刻,只有一个线程可以执行某段程序代码
原子性
一个线程对变量的写操作对其他线程后续的读操作可见
Volatile只能保证可见性,无法保证原子性,Synchronized可以原子性和可见性
synchronized 和 volatile
非访问修饰符
修饰符
数据类型
https://pdai.tech/md/java/basic/java-basic-lan-basic.html#clone
创建并返回此对象的一个副本
clone()
在重写 equals() 方法时应当总是覆盖 hashCode() 方法,保证等价的两个对象hash散列值也相等。
等价的两个对象散列值一定相同,但是散列值相同的两个对象不一定等价。
用来判断两个对象是否等价
equals(Object obj)
使用场景
返回散列值
hashCode()
finalize()的用途比如当一个对象代表了打开了一个文件,在对象被回收前,程序应该要关闭该文件,可以通过finalize函数来发现未关闭文件的对象,并对其进行处理。
当垃圾回收器确定不存在对该对象的更多引用时,由对象的垃圾回收器调用此方法
finalize()
返回一个对象的运行时类。
getClass()
唤醒在此对象监视器上等待的单个线程
notify()
唤醒在此对象监视器上等待的所有线程
notifyAll()
返回该对象的字符串表示
toString()
导致当前的线程等待,直到其他线程调用此对象的 notify() 方法或 notifyAll() 方法
导致当前的线程等待,直到其他线程调用此对象的 notify() 方法或 notifyAll() 方法,或者超过指定的时间量
wait(long timeout)
导致当前的线程等待,直到其他线程调用此对象的 notify() 方法或 notifyAll() 方法,或者其他某个线程中断当前线程,或者已超过某个实际时间量。
wait()
Object类
由于反射涉及动态解析的类型,因此无法执行某些jvm优化。反射操作的性能要比非反射操作的性能要差,应该在性能敏感的应用且频繁调用的代码段中避免
在加载的过程 中,虚拟机会把类的字节码转换成运行时数据结构,并保存在方法区,在内存中会生成一个代表这个类数据结构的 java.lang.Class 对象,后续访问这个类的数据结构就可以通过这个 Class 对象来访问
Class classobj1 = Class . forName (\"com.fanshe.student\") ;
子主题
1、Class.forName(全限定路径)
Class classobj2 = Student.class;
2、类名.class
Student stu = new StudentO ; Class classobj3 = stu. getClassO;
3、对象.getClass()
创建方式
通过反射机制,可以在运行时访问 Java 对象的属性,方法,构造方法等
Aspect Oriented Programming
应用场景:开发通用框架、动态代理(AOP)、注解、可扩展性功能
反射调用方法时可以忽略权限检查,因此可能会破坏封装性而导致安全问题
破坏封装性
性能开销
缺点
面试题:如何在Java程序运行时不停机动态加载一个函数进来?
动态加载类
1、创建前提不同:newInstance创建类是这个类必须已经加载过且已经连接,new创建类是则不需要这个类加载过
2、创建对象的方式不同:newInstance是使用类的加载机制,new则是直接创建一个类
3、创建对象类型不同:newInstance: 弱类型(GC回收对象的限制条件很低,容易被回收)、低效率、只能调用无参构造)new 强类型(GC不会自动回收,只有所有的指向对象的引用被移除是才会被回收,若对象生命周期已经结束,但引用没有被移除,经常会出现内存溢出)
newInstance()和new()的区别
//正常的调用 Apple apple = new Apple(); apple.setPrice(5); System.out.println(\"Apple Price:\" + apple.getPrice()); //使用反射调用 Class clz = Class.forName(\"com.dcx.api.Apple\"); Method setPriceMethod = clz.getMethod(\"setPrice\
invoke()
getDeclaredMethod():获取包括私有属性在内的所有属性
具体例子
小于1000个对象的时候时间开销不大,但是内存占用上会占用很多临时空间
反射调用过程中会产生大量的临时对象,这些对象会占用内存,可能会导致频繁 gc,从而影响性能。反射调用方法时会从方法数组中遍历查找,并且会检查可见性等操作会耗时。反射在达到一定次数时,会动态编写字节码并加载到内存中,这个字节码没有经过编译器优化,也不能享受JIT优化。反射一般会涉及自动装箱/拆箱和类型转换,都会带来一定的资源开销
总结
反射的开销比直接new大很多吗?
反射
public boolean createNewFile() throws IOException创建文件:当且仅当不存在具有此抽象路径名指定的名称的文件时,原子地创建由此抽象路径名指定的一个新的空文件。
public boolean mkdir() 创建目录:创建此抽象路径名指定的目录
public boolean delete() 删除此抽象路径名表示的文件或目录
public String getName()返回由此抽象路径名表示的文件或目录的名称
public String getParent() / getParentFile() 返回此抽象路径名的父路径名的路径名字符串 / 抽象路径名,如果此路径名没有指定父目录,则返回 null
public boolean exists()测试此抽象路径名表示的文件或目录是否存在
public long length()返回由此抽象路径名表示的文件的长度
public String toString() 返回此抽象路径名的路径名字符串
public boolean equals(Object obj)测试此抽象路径名与给定对象是否相等
NIO Files直接读取文件
NIO
File类
泛型使用过程中,操作的数据类型被指定为一个参数
泛型类
泛型接口
泛型方法
泛型
标识符由数字(0~9)和字母(A~Z 和 a~z)、美元符号($)、下划线(_)以及 Unicode 字符集中符号大于 0xC0 的所有符号组合构成(各符号之间没有空格)。标识符的第一个符号为字母、下划线和美元符号,后面可以是任何字母、数字、美元符号或下划线。另外,Java 区分大小写,因此 myvar 和 MyVar 是两个不同的标识符。提示:标识符命名时,切记不能以数字开头,也不能使用任何 Java 关键字作为标识符,而且不能赋予标识符任何标准的方法名
标识符
不能被继承、不能被重写Override、可以被重载
继承(extends)的含义其实是“扩展”,子类完全没必要扩展父类的构造函数,因为反正每次调子类的时候都会“自动运行”它父类的构造函数,如果真的需要子类构造函数特殊的形式,子类直接修改或重载自己的构造函数就好了
1、必须调用:在子类继承父类的时候,子类必须调用父类的构造函数; 在父类有默认构造函数,子类实例化时自动调用,在父类没有默认构造函数,即无形参构造函数,子类构造函数必须通过super调用父类的构造函数;2、只能调用:在java的继承当中子类是不可以继承父类的构造函数,只能调用父类的构造函数
构造器
元注解可以对自定义注解进行注解(JDK 1.5中提供元注解)
描述注解的使用范围,即:被修饰的注解可以用在什么地方(packages、type、类成员等)
@Target
描述注解保留的时间范围,即:被描述的注解在它所修饰的类中可以被保留到何时(源文件、编译器、运行期)
使用测试 结果:在字节码文件中CLASS注解使用RuntimeInvisibleAnnotations RUNTIME注解使用RuntimeVisibleAnnotations去记录了注解信息
@Retention
描述在使用 javadoc 工具为类生成帮助文档时是否要保留其注解信息
@Documented
使被它修饰的注解具有继承性(如果某个类使用了被@Inherited修饰的注解,则其子类将自动具有该注解)ps:子类被其他注解修饰也是可以继承父类的注解的
@Inherited
被这个元注解修饰的注解可以同时作用一个对象多次,但是每次作用注解又可以代表不同的含义
@Repeatable(JDK1.8加入)
元注解
自定义注解
注解
重写:抽象类中的抽象方法必须实现,非抽象方法不用,接口必须实现所有方法
成员变量:抽象类可以是各种类型,接口只能是public static final类型
方法:抽象类有方法实现细节,接口只有public abstract方法
静态方法/代码块:抽象类有,接口不能有
继承/实现:只能继承一个抽象类,但可以实现多个接口
区别
抽象类的设计目的,是代码复用。当不同的类具有某些相同的行为(记为行为集合A),且其中一部分行为的实现方式一致时(A的非空真子集,记为B),可以让这些类都派生于一个抽象类。在这个抽象类中实现了B,避免让所有的子类来实现B,这就达到了代码复用的目的。而A减B的部分,留给各个子类自己实现。正是因为A-B在这里没有实现,所以抽象类不允许实例化出来(否则当调用到A-B时,无法执行)
接口的设计目的,是对类的行为进行约束(更准确的说是一种“有”约束,因为接口不能规定类不可以有什么行为),也就是提供一种机制,可以强制要求不同的类具有相同的行为。它只约束了行为的有无,但不对如何实现行为进行限制。对“接口为何是约束”的理解,我觉得配合泛型食用效果更佳。
接口和抽象类
对功能的描述
接口
接口和继承
解析
懒汉式的实例是在第一次使用时创建的,相应的静态工厂办法会先判断有没有实例,没有实例在进行创建。
但懒汉是线程不安全的,如果有两个线程,同一时刻拿到单例对象,要去静态工厂办法访问,由于工厂办法没有锁,那么很有可能这两个线程最终会拿到两个实例
懒汉式(线程不安全)
在线程访问单例对象之前就已经创建好了。再加上,由于一个类在整个生命周期中只会被加载一次,因此该单例类只会创建一个实例。
也就是说,线程每次都只能也必定只可以拿到这个唯一的对象。即饿汉式单例天生就是线程安全的
饿汉式(线程安全)
第一次检查是确保之前是一个空对象,而非空对象就不需要同步了,空对象的线程然后进入同步代码块,如果不加第二次空对象检查,两个线程同时获取同步代码块,一个线程进入同步代码块,另一个线程就会等待,而这两个线程就会创建两个实例化对象,所以需要在线程进入同步代码块后再次进行空对象检查,才能确保只创建一个实例化对象
双重校验锁(线程安全)
单例模式
赋值测试
克隆测试
在克隆过程中就分为浅拷贝克隆对象和深拷贝克隆对象(都需要实现Cloneable接口)对于基本类型都是值传递
浅拷贝:对基本数据类型进行值传递,对引用数据类型进行引用传递般的拷贝(指向同一个地址,改变其中一个的引用数据类型,两个的都会改变)
深拷贝:对基本数据类型进行值传递,对引用数据类型,创建一个新的对象,并复制其内容(互相之间不会影响)
区别:对引用数据类型是否需要创建一个新的对象
cloneable其实就是一个标记接口,只有实现这个接口后,然后在类中重写Object中的clone方法,然后通过类调用clone方法才能克隆成功,如果不实现这个接口,则会抛出CloneNotSupportedException(克隆不被支持)异常
Object内的clone()是个空方法,靠native标记来判断类是否实现了cloneable接口
Cloneable接口
详解
方法中定义的基本数据类型局部变量的具体内容是存储在栈中但基本类型成员变量却是随类一起储存在堆里
基本数据类型
类(对象)、接口 、数组
引用数据类型变量的具体内容都是存放在堆中的,地址存放在栈中
引用数据类型
扩展
深拷贝&浅拷贝
克隆clone()
Lambada表达式
重写就是当子类继承自父类的相同方法,输入数据一样,但要做出有别于父类的响应时,你就要覆盖父类方法
重写发生在运行期,是子类对父类的允许访问的方法的实现过程进行重新编写
重写(Override)
重载就是同样的一个方法能够根据传入参数的不同,做出不同的处理
发生在同一个类中(或者父类和子类之间),方法名必须相同,参数个数or类型必须不同、个数、顺序,方法返回值和访问修饰符可以不同
重载(Overload)
重载Overload&重写Override
编译期&运行期区别
通过javac编译器进行编译,从Java源码 ---> Java 字节码通过 javac xxx.java 即可以编译该源码,javac编译器位于jdk --> bin -->javac
语法&词法分析
在词法分析之后我们需要把数据存起来,以供后续流程使用,编译器会以key-value的形式存储数据,以符号地址为key符号信息为value,具体形式没做限制可以是树状符号表或者有序符号表等。在语义分析(第三步)中,根据符号表所登记的内容 语义检查和产生中间代码,在目标代码生成阶段,当对符号表进行地址分配时,该符号表是检查的依据
填充符号表
1、解析和填充符号表
注解与普通的Java代码一样在运行期间发挥作用。可以把它看做是一组编译器的插件,在这些插件里面,可以读取、修改、添加抽象语法树中的任意元素。如果这些插件在处理注解期间对语法树进行了修改,编译器将回到解析及填充符号表的过程重新处理,直到所有插入式注解处理器都没有再对语法树进行修改为止。换句话说当我们处理注解时如果修改了语法树的话会重新执行分析以及符号填充过程,把注解也填充进来,直到处理完所有注解
2、注解处理器
语法分析以及处理注解之后,编译器获得了程序代码的抽象语法树,语法树能表示一个结构正确的源程序的抽象,但无法保证源程序是符合逻辑的。即可能出现语法树上的内容单个来说是合法的但是结合到上下文语义则未必是合法的,例如:
3、语义分析
Java 中最常用的语法糖主要有泛型、变长参数、条件编译、自动拆装箱、内部类等。虚拟机并不支持这些语法,它们在编译阶段就被还原回了简单的基础语法结构,这个过程称为解语法糖。换句话说,不论是否使用Java的语法糖,最终到jvm哪里的时候都是一样的基础语法结构,jvm不支持语法糖,所以需要编译阶段解语法糖,语法糖的初衷是用来提升开发效率(方便开发者开发),而不是代码性能。
4、解语法糖
字节码生成阶段主要工作就是将前面各个步骤所生成的信息(语法树、符号表)转化成字节码写到磁盘中字节码生成是Javac编译过程的最后一个阶段,在Javac源码里面由com.sun.tools.javac. jvm.Gen类来完成。
5、字节码生成
javac(编译期)具体操作
1、编译
跳转JVM部分
2、加载并执行
运行期&编译期
抛出的异常是可恢复的,同时也期望API的调用者捕获异常进行恢复处理受检异常会强迫API的使用者截获异常(try-catch)并恢复处理,或者进行声明继续抛出
ClassNotFoundException 未找到类
IOException 输入输出异常
SQLException 连接异常
IllegalClassFormatException
......
受检异常
不可恢复的情景,继续执行下去有害无益,未受检的异常都应该继承RuntimeException非受检异常可以不捕获的,只通过throws抛出异常,交给别的代码或者JAVA虚拟机来完成
IllegalArgumentException 非法参数:非 null 的参数值不正确
IllegalStateException 非法状态:对于方法调用而言,对象状态不合适
NullPointException 空指针:参数值为null(空指针)
IndexOutOfBoundsException 下标越界:下标参数值越界
ConcurrentModificationException 并发修改:在禁止并发修改的场景下,对象的并发修改
UnsupportedOperationException 不支持的操作:对象不支持用户请求的方法
非受检异常(又称运行时异常、错误)
Error和Exception都是Throwable的子类
Error:比Exception更严重,不易通过后续代码处理和修复,不应该被代码catch到的错误
Exception:指严重程度较轻的程序问题,相较于Error更容易被后续代码处理和修复的,有些需要通过try catch代码处理(受检异常),有些不建议通过try catch代码处理(非受检异常)
throwable和exception继承关系
异常(Exception)
serialVersionUID有什么用,不写会怎么样1、如果一个实现了Serializable的类没有serialVersionUID属性,IDE通常会报warning2、serialVersionUID 表示可序列化类的版本,在反序列化对象时,用来确认序列化与反序列化该对象所使用的类的版本是否兼容。如果类的版本不一致,那么反序列化将不能正常进行,抛出InvalidClassException3、如果一个可序列化的类没有包含serialVersionUID,运行时会根据这个类的特征自动计算出一个serialVersionUID。那么,为什么不能用默认的这个实现呢,似乎更省事?因为不同的编译器实现会导致同一个类的源代码文件,被计算出不同的serialVersionUID.
前端json数据反序列化为java对象让java来处理
web场景
处理后的java对象序列化为二进制数据存储到hbaes
大数据场景
IO流和序列化
Stream流
现实世界的延申:事务归类,三大特性,以对象为中心,消息为驱动
如何理解“面向对象”
String 类中使用 final 关键字修饰字符数组来保存字符串,private final char value[],所以String 对象是不可变的,如果修改也是新建一个如果经常修改字符串,则不要使用string,因为string不可变,每次修改会创建新对象
StringBuffer 与 StringBuilder 都继承自 AbstractStringBuilder 类,在 AbstractStringBuilder 中也是使用字符数组保存字符串char[]value 但是没有用 final 关键字修饰,所以这两种对象都是可变的
StringBuffer是字符串变量,它的对象是可以扩充和修改的。StringBuilder是一个可变的字符序列
string不可变,builder和buffer可变(string有final修饰,其他两个没有)
可变性
String不可变,线程安全;但是String的修改会生成一个新对象,性能最低
StringBuffer和StringBuilder都是对本身修改,相同情况下使用 StringBuilder 相比起使用 StringBuffer 仅能获得 10%~15% 左右的性能提升,但却要冒多线程不安全的风险。
StringBuffer 对方法加了同步锁,线程安全StringBuilder 没对方法加同步锁,线程不安全
String和StringBuffer线程安全,StringBuilder线程不安全性能上:StringBuilder>StringBuffer>String
线程安全性和性能
给一个已有字符串\"abcd\"第二次赋值成\"abcedl\",不是在原内存地址上修改数据,而是重新指向一个新对象,新地址。
什么是不可变性
string的主要成员字段value是个char[ ]数组,而且是用private final修饰的,再加上string自身的final,为的就是安全性
为什么不可变
因为要保证string的不可变性
当String支持不可变性的时候,它们的值很好确定,不管调用哪个方法,都互不影响
安全
在并发场景下,多个线程同时读一个资源,是不会引发竟态条件的。只有对资源做写操作才有危险。不可变对象不能被写,所以线程安全。
不可变性支持线程安全
例如:字符串 one 和 two 都用字面量 \"something\" 赋值。它们其实都指向同一个内存地址。
在大量使用字符串的情况下,这样可以节省内存空间,提高效率。但之所以能实现这个特性,String的不可变性是最基本的一个必要条件。要是内存里字符串内容能改来改去,这么做就完全没有意义了
不可变性支持字符串常量池
永久代移除后没有放在元空间内,而是移至堆中即1.7在方法区,1.8在堆
储存位置
储存对象
JVM为了提高性能和减少内存开销,在实例化字符串常量的时候进行了一些优化为字符串开辟一个字符串常量池,类似于缓存区创建字符串常量时,首先检查字符串常量池是否存在该字符串存在该字符串,返回引用实例,不存在,实例化该字符串并放入池中
字符串常量池
元空间
运行时常量池
扩展:java三种常量池
不可变有什么好处?
为什么String 设计为final?
3个
String str = new String(\"123\")创建了多少个对象
字符串常量池:\"A\
String str1 = new String(\"A\"+\"B\") ; 会创建多少个对象?
总结:不会,String内部判空则返回字符串\"null\",拼接返回\"nullabc\"
print函数对对象的null做了处理,如果初始化为null则会返回一个字符串\"null\"拼接会返回\"nullabc\"
拼接原理:编译器对字符串相加会进行优化,首先实例化一个StringBuilder,然后把相加的字符串按顺序append,最后调用toString返回一个String对象。(拼接字符串编译器会自动调用StringBuilder.append方法)
String s = null ,为什么打印null对象不会报异常?s被初始化为null后,拼接一个字符串'abc'会打印什么?
总结:一个只创建了引用,一个已经开辟了内存空间
String s=null;只是定义了一个句柄,也就是说你有了个引用,但是这个引用未指向任何内存空间
String s=\"\";这个引用已经指向了一块是空字符串的内存空间,是一个实际的东东了,所以你可以对它操作,而不用担心什么了
String s=\"\"和String s = null有什么区别
总结:一个在字符串池,一个在堆
执行语句String str=\"abc\"时:先查看字符串池中是否存在字符串\"abc\
执行语句String str = new String(\"abc\");时。还是先查看字符串常量池是否存在\"abc\"不存在—>常量池创建\"abc\"—>复制一份放在堆里并把地址返回给str存在—>复制一份放在堆里并把地址返回给str。ps:这种效率低于直接使用字符串池的方式
String str1=\"java\";//指向字符串池String str2=\"blog\
特殊情况
String str=\"abc\" 与 String str = new String(\"abc\")的区别
各类String创建对象汇总
说说String&StringBuffer&StringBuilder区别
错误理解一:值传递和引用传递,区分的条件是传递的内容,如果是个值,就是值传递。如果是个引用,就是引用传递
错误理解二:Java是引用传递
错误理解三:传递的参数如果是普通类型,那就是值传递,如果是对象,那就是引用传递
错误概念
实际参数是调用有参方法的时候真正传递的内容,而形式参数是用于接收实参内容的参数当我们调用一个有参函数的时候,会把实际参数传递给形式参数。但是,在程序语言中,这个传递过程中传递的两种情况,即值传递和引用传递
值传递(pass by value):是指在调用函数时将实际参数复制一份传递到函数中,这样在函数中如果对参数进行修改,将不会影响到实际参数
引用传递(pass by reference):是指在调用函数时将实际参数的地址直接传递到函数中,那么在函数中对参数所进行的修改,将影响到实际参数。
本质区别:(引用)操作的是一块内存 还是 新开辟了一块内存(值)有时候可能说java是值传递,但是对string的另一个操作还是改变string的值 是因为开辟了一个新的内存
什么是值/引用传递
Java为什么是值传递
由于Integer变量实际上是对一个Integer对象的引用,所以两个通过new生成的Integer变量永远是不相等的(因为new生成的是两个对象,其内存地址不同)
两个new的Integer(False)
对于两个非new生成的Integer对象,进行比较时,如果两个变量的值在区间-128到127之间,则比较结果为true,如果两个变量的值不在此区间,则比较结果为false(因为当值不在-128和127间时,非new生成Integer变量时,java API中最终会按照new Integer(i)生成)
两个非new的Integer(True/False)
非new生成的Integer变量和new Integer()生成的变量比较时,结果为false,(因为 ①当变量值在-128~127之间时,非new生成的Integer变量指向的是java常量池中的对象,而new Integer()生成的变量指向堆中新建的对象,两者在内存中的地址不同;②当变量值在-128~127之间时,非new生成Integer变量时,java API中最终会按照new Integer(i)进行处理,最终两个Interger的地址同样是不相同的)
非new的Integer和new的Integer(False)
Integer变量和int变量比较时,只要两个变量的值是向等的,则结果为true(因为包装类Integer和基本数据类型int比较时,java会自动拆箱为int,然后进行比较,实际上就变为两个int变量的比较)
new的Integer和基本类型int(True)
==比较基本数据类型时比较的是字面量,比较引用数据类型时比较的是在内存中的地址
Object的equals默认是比较对象的内存地址值,但String一般会重写equals,使其变为比较字面量ps:equals在比较基本类型的时候会自动装箱成
不同对象的equals具体举例
==和equals的区别
length——数组的属性;
String str = \"HelloWorld\";System.out.println(\"这个字符串的长度为:\" + str.length());
private final char value[];public int length() { return value.length; }
length()——String的方法;不过最后返回的还是值的length
List<String> list = new ArrayList<String>(); list.add(\"a\"); list.add(\"b\"); list.add(\"c\"); System.out.println(\"这个list的长度为:\" + list.size());
public int size() { return a.length;}
size()——集合的方法;最后返回的其实也是length
length、length()、size()的区别
“如果两个对象相同,那么他们的hashcode应该相等”
重写equals是为了修改equals功能为 只比较字面值 ,如果不重写hashcode方法,那么在hashset中会出现equals调用结果相同,但hashcode不同导致出现重复元素
如何重写hashcode?
首先要明白hashcode的作用是在集合里用来匹配位置查找对象
为什么重写 equals 时必须重写 hashCode 方法
hashcode和equals的区别
如何解决hashcode冲突
1、分析和填充符号表
java写一个Demo类执行main函数到打印hello world时都经历了哪些流程
创建对象的方式不一样,newInstance是使用类加载机制,new是创建一个新类因为软件的可伸缩、可扩展和可重用等软件设计思想,所以延申出两种创建方式
java的new和newInstance()创建对象的区别
这个需要结合 JVM 的相关知识,静态方法是属于类的,在类加载的时候就会分配内存,可以通过类名直接访问。而非静态成员属于实例对象,只有在对象实例化之后才存在,然后通过类的实例对象去访问。在类的非静态成员不存在的时候静态成员就已经存在了,此时调用在内存中还不存在的非静态成员,属于非法操作。
为什么在一个静态方法内调用一个非静态成员为什么是非法的?
“static” 关键字表明一个成员变量或者是成员方法可以在没有所属的类的实例变量情况下访问。Java中static方法不能被覆盖,因为方法覆盖是基于运行时动态绑定的,而static方法是编译时静态绑定的。static方法跟类的任何实例都不相关,所以概念上不适用
“static”关键字是什么意思?Java中是否可以覆盖(override)一个private或者是static的方法?
基本类型的数据都非常小,可以直接放在数组里,这跟 C 里面的数组是一样的;但引用类型的对象就不一样了,存在数组里的都只是引用,不是真正的对象数据。我们通过数组拿到的还是引用,真正的对象分散地存在堆里,并不是连续的
对于数组对象来说,必须初始化,也就是为该数组对象分配一块连续的内存空间,连续内存空间的长度就是数组对象的长度。对于数组变量来说,不需要进行初始化,只需让其指向一个有效的数组对象就可以。实际上,所有引用类型的变量,其变量本身不需要任何初始化,需要初始化的是它所引用的对象
不是,基本数据类型需要初始化,连续的空间,引用类型不需要初始化,指向在堆里的位置
Object数组在内存里是连续的吗
会根据指定的decode编码返回某字符串在该编码下的byte数组对于中文而言:gbk的byte数组长度为2,utf8的长度为3,iso88591的长度为1,unicode为4
getBytes()
热部署
1、使用 Arthas 的内存编译工具将新的 Java 代码编译为字节码(mc 路径/aaa.java);2、使用 Arthas 的 redefine 命令实现热更新
步骤
以下几种情况会热更新失败:增加类属性(类字段)增加或删除方法;替换正在运行的方法
注意点
使用阿里的arthas实现运行时加载新的类,实现热更新
热加载(热更新)
热部署和热加载(热更新)的区别
16字节,查看一下对象内存布局即可参考工具:Java Object Layout JOL
Object obj = new Object() 初始化出的 obj 对象,在内存中占用多少字节?
面试题
Java基础
java容器继承关系图
思路:默认容量、线程安全、put、负载因子,扩容阈值、转移机制、红黑树与链表转换阈值,JDK1.7与1.8的区别,为什么引入红黑树
无参、参为另一个Map、参为容量、参为容量+加载因子
四个构造方法
Java7 是先扩容后插入新值的
key -> hashCode -> 扰动 -> (n-1)&hash -> 存在则比较key是否相同 -> 相同就覆盖不同就拉链法
1.7
Java8 先插值再扩容
key -> hashCode -> 扰动 -> (n-1)&hash -> 存在则比较key是否相同 -> 相同就覆盖不同就添加到树/链表 -> 可能树化
1.8
HashMap集合中的key是不能重复的,若重复添加相同的key,则之后添加的key的值会覆盖之前key对应的值。
1、扩充table长度。
2、转移table中的entry,从旧table转移到新的table。
当键值对的数量>=设定的阀值(capacity * load factor(0.75))时,为保证HashMap的性能,会进行重散列(rehash)。
初始化->判断是空桶还是链表还是红黑树树->插入->判断是否大于阈值决定是否rehash
put
计算 key 的 hash 值,根据 hash 值找到对应数组下标: hash & (length-1)判断数组该位置处的元素是否刚好就是我们要找的,如果不是,走第三步判断该元素类型是否是 TreeNode,如果是,用红黑树的方法取数据,如果不是,走第四步遍历链表,直到找到相等(==或equals)的 key
containsKey判断key是否存在 ,返回Boolean值containsValue判断value是否存在 ,返回Boolean值
get
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4 :容量默认16
扩展:为什么负载因子为0.751、小于0.5,空着一半就扩容了,这在心理上很多人都会觉得不合理吧,空间肯定会很浪费。2、1的话,只能说有超级大的概率,会发生碰撞,这不符合我们的初衷0.75为一般而言刚好保证效率和空间的参数太高了可以减少空间开销,但是会增加查找复杂度。我们设置负载因子尽量减少rehash的操作,但是查找元素的也要有性能保证。
static final float DEFAULT_LOAD_FACTOR = 0.75f; :加载因子默认为0.75
每次扩容后,容量为原来的 2 倍,并进行数据迁移
当HashMap中元素数超过容量*加载因子时,HashMap会进行自动扩容
若扩容前容量为2的n次方,每个元素的索引由后n-1位决定,扩容后则由后n位决定,多了一位扩容时进行(n-1)&hash之后,若多的这一位为0则 新索引=原索引,为1则 新索引=原索引+原容量
1、扩容:创建一个新的Entry空数组,长度是原数组的2倍
为什么是length-1,因为length必定为2的幂次方,而length-1转换为2进制就必然是复数个1,对hashcode做&运算可以防止hashcode为空情况
2、ReHash:遍历原Entry数组,把所有的Entry重新Hash到新数组hash具体操作:新index = HashCode(Key) & (Length - 1)ps:%和/ 比 & 慢10倍左右,因此用(n-1)&hash
自动扩容步骤
threshold = capacity * loadFactor,当 Size>=threshold的时候就扩容loadFactor 太大导致查找元素效率低,太小导致数组的利用率低,存放的数据会很分散。loadFactor 的默认值为 0.75f 是官方给出的一个比较好的临界值
补充
扩容
为何引入红黑树: 为了解决在map中元素过多,hash冲突较大,而导致的读写效率降低的问题
所谓的开放定址法就是一旦发生了冲突,某种探测技术在散列表中形成一个探测序列。沿此序列逐个单元地查找,直到找到给定的关键字,或者碰到一个开放的地址为止,并存入
开放定址法
每个哈希表节点都有一个next指针,多个哈希表节点可以用next指针构成一个单向链表,被分配到同一个索引上的多个节点可以用这个单向 链表连接起来
拉链法
再哈希法又叫双哈希法,使用多个不同的Hash函数计算,当第一个发生冲突时,使用第二个,第三个哈希函数计算地址,直到无冲突。虽然不易发生聚集,但是增加了计算时间
再哈希法
将哈希表分为基本表和溢出表两部分,凡是和基本表发生冲突的元素,一律填入溢出表
建立公共溢出区
扩展:hash冲突
JDK7:new HashMap() 时,底层创建 size 为 16 的数组Entry[]数据的储存位置一般是通过 hash(key.hashCode())%len 获得,也就是元素的 key 的哈希值对数组长度取模得到。例如12%16=12;28%16=12;108%16=12;140%16=12。所以 12、28、108 以及 140 都存储在数组下标为 12
JDK8:首次调用 put() 时,底层创建 size 为 16 的数组Node[]。
创建
JDK7:数组+链表
JDK8:数组+链表+红黑树。当数组某个索引位置的元素以链表形式存在的数据个数 >8 且当前数组的长度 >64 时,该索引位置上的所有数据改为使用红黑树存储。当链表长度大于8时,由单链表转化为红黑树;而当链表长度小于6时,又由红黑树转化为单链表
JDK1.7中,HashMap采用位桶+链表实现,即使用链表处理冲突,同一hash值的链表都存储在一个链表里。但是当位于一个桶中的元素较多,即hash值相等的元素较多时,通过key值依次查找的效率较低。而JDK1.8中,HashMap采用位桶+链表+红黑树实现,当链表长度超过阈值(8)时,将链表转换为红黑树,后续的数据都插入红黑树里,这样大大减少了查找时间
为什么使用红黑树:提升效率
因为红黑树需要进行左旋,右旋操作, 而单链表不需要,如果元素小于8个,查询成本高,新增成本低如果元素大于8个,查询成本低,新增成本高
为什么不直接使用红黑树而是红黑树+链表:不同情况下成本不同
储存形式
底层
扩展:头插法
JDK7:头插法
扩展:尾插法
JDK8:尾插法
1.7hashmap因使用头插法,多线程扩容时会死循环,1.8改成尾插法
实际上hashmap还是线程不安全,还存在其他并发问题,例如源码中的put/get方法未加同步锁无法保证上一秒put的值,下一秒get的时候还是上一秒put的原值(可能在get前被别的线程又put了)
新节点插入顺序
JDK1.7和1.8的区别
1.7的头插法环化导致死循环、以及并发问题例如源码中的put/get方法未加同步锁无法保证上一秒put的值,下一秒get的时候还是上一秒put的原值(可能在get前被别的线程又put了)ps:1.8改成了尾插法
为什么线程不安全
线程不安全体现在会造成死循环、数据丢失、数据覆盖这些问题。其中死循环和数据丢失是在JDK1.7中出现的问题,在JDK1.8中已经得到解决然而1.8中仍会有数据覆盖这样的问题(put/get方法未加同步锁)
1、手动进行同步:使用Collections.synchronizedMap()方法包装
2、替换成Hashtable,Hashtable通过对整个表上锁实现线程安全,因此效率比较低
3、采用更好的ConcurrentHashMap,它使用分段锁来保证线程安全
通过前两种方式获得的线程安全的HashMap在读写数据的时候会对整个容器上锁,而ConcurrentHashMap并不需要对整个容器上锁,它只需要锁住要修改的部分就行了
如何实现一个线程安全的hashmap
线程安全问题
源码
1.判断key,判空或是根据key算出索引。2.根据索引获得索引位置所对应的键值对链表。3.遍历键值对链表,根据key找到对应的Entry键值对。4.拿到value。
分析:以上四步要保证HashMap的时间复杂度O(1),需要保证每一步都是O(1),现在看起来就第三步对链表的循环的时间复杂度影响最大,链表查找的时间复杂度为O(n),与链表长度有关。我们要保证那个链表长度为1,才可以说时间复杂度能满足O(1)。但这么说来只有那个hash算法尽量减少冲突,才能使链表长度尽可能短,理想状态为1。因此可以得出结论:HashMap的查找时间复杂度只有在最理想的情况下才会为O(1),而要保证这个理想状态不是我们开发者控制的
hashmap为什么为O(1)
hashmap(线程不安全)
segment数组,每个segment有一个hashEntry数组(volatile修饰),每个hashEntry都是一条链表采用锁分离技术:分段锁保证读写线程安全
每一个 Segment 类似于 HashMap 的结构,所以每一个 HashMap 的内部可以进行扩容。但是 Segment 的个数一旦初始化就不能改变,默认 Segment 的个数是 16 个,意思ConcurrentHashMap默认支持最多 16 个线程并发
储存结构
初始化 并发级别 concurrencyLevel 大小,无参默认16
初始化 容量大小=concurrencyLevel 之上最近的 2 的幂次方,无参默认16
记录 segmentMask,默认是 ssize - 1 = 16 -1 = 15
初始化 segments[0],默认大小为 2,负载因子 0.75,扩容阀值是 2*0.75=1.5,插入第二个值时才会进行扩容
初始化
计算要 put 的 key 的位置,获取指定位置的 Segment,如果指定位置的 Segment 为空,则初始化这个 Segment
检查segment是否为空
使用 Segment[0] 的容量和负载因子创建一个 HashEntry 数组
使用创建的 HashEntry 数组初始化这个 Segment
cas检查segment是否为空
初始化segment流程
不存在:大于阈值就扩容+头插法插入
不存在一样的key:大于阈值就扩容+头插法插入
存在就覆盖并返回旧值
存在:遍历链表找到一样的key然后覆盖
自旋tryLock()上锁(segment继承了reentrantLock) -> 计算index -> 找到hashEntry并遍历
先判断count是否等于0,然后遍历链表,最后判断如果value等于null,就说明发生重排序,就加锁再获取这个值,最后解锁。
segment永远是16个(初始化可以改),只能扩容hashEntry数组,扩容机制和hashmap相同:容量*2,新索引=原索引 或 新索引=原索引+原容量
扩容(rehash)
搜索、插入、删除操作较多的情况下,红黑树的效率是优于平衡二叉树的。
Node 数组 + 链表 / 红黑树
摒弃了分段锁的概念,去掉了HashEntry结构,启用 node + CAS + Synchronized 代替SegmentConcurrentHashMap 中 synchronized 只锁定当前链表或红黑二叉树的首节点,只要节点 hash 不冲突,就不会产生并发
自旋+cas。sizeCtl的值决定着当前的初始化状态
如果数组未初始化,则记录的是数组的初始容量如果数组已初始化,则记录的是数组的扩容阈值(初始容量*加载因子)
n(大于0)
代表数组未初始化,容量大小默认为16
0
数组正在进行初始化(调用put方法里的initTable())同时其他线程不能再初始化
-1
表示数组正在扩容,表示当前正有n-1个线程共同完成数组的扩容任务(有争议)
应该取-N对应的二进制的低16位数值为M,此时有M-1个线程进行扩容
当为-n时,n的高 16 位保存 length 生成的标识符,低 16 位保存并发扩容的线程数
-n(小于0,但不是-1)
sizeCtl
CAS+自旋,没有用到锁
初始化:不是new的时候,而是调用put()方法里的putVal()里的initTable()
DEFAULT_CAPACITY = 16; 容量大小默认为16
无参
tableSizeFor用于设置容量大小,为传入参数+传入参数右移1位+1后向上取整2的幂次位数例如32,则位32+16+1=49,然后向上取2的6次方:64
initialCapacity
1个参数
但是内部方法实际上会传入三个参数,第三个为concurrencyLevel,默认传入为1
loadFactor
2个参数
initialCapacity (int)
loadFactor (float)
concurrencyLevel (int)
3个参数
new的时候传入参数
key -> hashCode -> cas写入 -> 若hashcode=-1则为正在扩容 -> 失败就用synchronized写 -> 大于阈值转树
找位置 -> 若hashcode=-1则为正在扩容 -> 遍历链表/树
1.7:Segment + HashEntry(Segment内部结构,volatile修饰) + ReentrantLock(Unsafe)
1.8:移除Segment,使锁的粒度更小,Synchronized + CAS + Node数组(volatile) + Unsafe
整体结构
1.7:先定位Segment,再定位桶,put全程加锁,没有获取锁的线程提前找桶的位置,并最多自旋64次获取锁,超过则挂起。
1.8:由于移除了Segment,类似HashMap,可以直接定位到桶,拿到first节点后进行判断,1、为空则CAS插入;2、为-1则说明在扩容,则跟着一起扩容;3、else则加锁put(类似1.7)
put()
1、jdk7和8的区别
2.1、为什么要使用synchronized而不是如ReentranLock这样的可重入锁?
2、jdk8为什么用cas+synchronized代替分段锁?
segment主要是为了分段锁1.如果使用reentrantlock则每个节点都会继承AQS获取同步支持,增加内存开销。而jdk8中只有链表或树根需要同步支持。2.synchronized是JVM自带的,所以运行时JVM对synchronized有一定的调优
3、jdk8为什么舍弃segment的原因?
不一定。conhashmap仅保证提供的put/get原子性读写操作线程安全,当出现多个线程一起完成某个事务的时候,仍然有可能出现线程安全问题。但这属于事务隔离级别的问题而非线程安全的问题,所以需要使用syn对整段加锁或者用autoxx(原子类)
使用不代表对其的多个操作之间的状态一致,是没有其他线程在操作它的。如果需要确保需要手动加锁
诸如size、isEmpty和containsValue等聚合方法,在并发下可能会反映ConcurrentHashMap的中间状态。因此在并发情况下,这些方法的返回值只能用作参考,而不能用于流程控制。显然,利用size方法计算差异值,是一个流程控制
诸如putAll这样的聚合方法也不能确保原子性,在putAll的过程中去获取数据可能会获取到部分数据
conhashmap的限制
4、conhashmap一定线程安全吗(举例,多个线程对同一个变量做++操作)
Hashtable1、效率不高:这个结构虽然线程安全,但是效率不高,就是因为他的每个操作都使用了synchronized同步块2、并发低:多线程修改时,第一个线程会锁定整个Hashtable对象,那么其它线程访问就需要被阻塞
1.7 的concurrenthashmap1、效率高:每个方法都会加锁,put采用自旋锁不会使线程阻塞(操作状态切换会消耗性能),性能比hashtable好很多。2、volatile保证可见性:每个HashEntry[i]都是被volatile修饰,保证线程操作的可见性,不会脏读,即使其他线程修改了值,都会强制刷新到本地内存。3、并发度高:对单个segment[i]进行加锁,意思就是segment如果有16个,那么可以同时有16个线程修改而且还是线程安全的
5、和hashtable的区别
在 putVal 方法中,如果发现线程当前 hash 冲突了,也就是当前 hash 值对应的槽位有值了,且如果这个值是 -1 (MOVED)说明 Map 正在扩容。那么就调用helpTransfer()方法帮助 Map 进行扩容。以加快速度
判断node是否为空
根据node的length获取rs标识符
判断是否并发修改了,判断是否还在扩容
如果还在扩容,判断标识符是否变化,判断扩容是否结束,判断是否达到最大线程数,判断扩容转移下标是否在调整(扩容结束)
第一步:判断
判断后调用transfer()方法
简单版:给每个线程分配bucket区域,让其进行各自区域的扩容任务
复杂版:transfer流程,多线程扩容。太长了懒得看了,链接还有单线程版
第二步:协作扩容
具体步骤:
6、一个线程正在扩容concurrenthashmap,然后多个线程访问到,如何协作扩容
concurrenthashmap(线程安全)
基于动态数组实现,支持随机访问。
add(增加)、get(获得下表元素)、set(设置下标元素)、remove(删除下表元素)、Collections.sort(排序)
常用操作
都实现了list
ArrayList性能较高
ArrayList扩容时按照50%增加,Vector按照100%增加。
ArrayList常用、线程不安全,Vector古老、线程安全
与Vector
只能顺序访问,但是可以快速地在链表中间插入和删除元素。
剩下的就是数组和链表的区别,arraylist增删On,查询O1,LInkList反之
LinkedList提供了List接口没有提供的方法,方便数据的头尾操作
实现Deque(双端队列)的功能。
与LinkedList(双向链表)
对比
无参、参为容量、参为另一个Collection
构造方法
1.7中类似饿汉式初始化数组,1.8类似懒汉式延迟加载
无参构造时是个空数组,向其中加入第一个元素时,才扩容为10
老数组中的元素重新拷贝一份到新的数组中,每次数组容量的增长大约是其原容量的1.5倍。这种操作的代价是很高的
尽量避免数组容量的扩张。当我们可预知要保存的元素的多少时,要在构造ArrayList实例时,就指定其容量,
当我们要 add 进第 1 个元素到 ArrayList 时,elementData.length 为 0 (因为还是一个空的 list),因为执行了 ensureCapacityInternal() 方法 ,所以 minCapacity 此时为 10。此时,minCapacity - elementData.length > 0成立,所以会进入 grow(minCapacity) 方法。
当 add 第 2 个元素时,minCapacity 为 2,此时 e lementData.length(容量)在添加第一个元素后扩容成 10 了。此时,minCapacity - elementData.length > 0 不成立,所以不会进入 (执行)grow(minCapacity) 方法。
添加第 3、4···到第 10 个元素时,依然不会执行 grow 方法,数组容量都为 10。
直到添加第 11 个元素,minCapacity(为 11)比 elementData.length(为 10)要大。进入 grow 方法进行扩容
grow方法
实现了和ArrayLIst相同的接口,所以可以提供相同的方法:add、get、set...
适合于读多写少的场景,因为写会加锁导致很大性能开销
基础
元素 增删改 使用了Reentrantlock,先lock住才进行操作,操作完unlock而查询操作允许多个线程进入,不加锁
线程安全
遍历的时候首先会获得当前数组对象的一个拷贝,称为快照,然后遍历的操作会在该快照上进行遍历也是线程安全的,在遍历的时候对数组进行写入不会影响到遍历的结果
遍历
CopyOnWriteArrayList
线程安全版ArrayLIst
ArrayList
set的底层结构是hashmap,它add()里的Put()方法使用的是hashmap的put,所以是当key值相同时,覆盖旧值返回之前的对象值present!=null返回false用空间换取一些信息
HashSet使用哈希表实现的,元素是无序的。添加、删除操作时间复杂度都是O(1)
HashSet
按插入的顺序进行输出
LinkedHashSet是介于HashSet 和 TreeSet之间,内部是一个双向链表结构,所以它的插入是有序的,时间复杂度是O(1)
LinkedHashSet
我们在使用TreeSet时候,里面装的元素一定是有序的,否则就不应该选择TreeSet。
封装了TreeMap. TreeSet内部结构是一个树结构(红黑树),元素是有序的,添加、删除操作时间复杂度为O(log(n))
TreeSet
Set
JDK1.7中 使用一个Entry数组来存储数据,用key的hashcode取模来决定key会被放到数组里的位置,如果hashcode相同,或者hashcode取模后的结果相同,那么这些key会被定位到Entry数组的同一个格子里,这些key会形成一个链表; 在hash函数特别差的情况下,比如说所有key的hashcode都相同,这个链表可能会很长,那么put/get操作都可能需要遍历这个链表,也就是最差情况下时间复杂度为O(n)。 JDK1.8中 使用一个Node数组来存储数据,但是这个Node可能是链表结构,也可能是红黑树结构;如果插入的元素key的hashcode值相同,那么这些key也会被定位到Node数组的同一个格子里,如果不超过8个使用链表存储,超过8个,会调用treeifyBin函数,将链表转换为红黑树。那么即使所有key的hashcode完全相同,由于红黑树的特点,查找某个特定元素,也只需要O(logn)的开销。红黑树:每个节点不是红的就是黑的; 根节点是黑的; 叶节点都是黑色,叶子节点指的是为空的节点; 如果一个节点是红色的,那么子节点必须为黑色; 从一个节点到该节点的子孙节点的所有路径上包含相同数目的黑节点。
hashmap 1.7和1.8区别
使用segment+hashentry来实现。ConcurrentHashMap在初始化时,计算出segement数组的大小ssize和每个segment中HashEntry数组的大小cap,并初始化segement数组的第一个元素,其中ssize大小为2的幂次方,默认为16,cap大小也是2的幂次方,最小值为2。segement在实现上继承了ReetrantLock,这样就自带了锁的功能。put实现:当执行put方法插入数据的时候,先通过hash值在segment中找到对应的位置,然后如果相应位置的segment还未初始化,则通过CAS进行赋值,接着执行segment对象的put方法通过加锁机制插入数据。size实现:因为concurrenthashmap是可以并发插入数据的,所以准确计算元素时有一定的难度,所以是先采用不加锁的方式,连续计算元素的个数,最多计算3次,如果前后两次计算结果相同,那么说明元素个数是准确的;如果前后两次计算结果都不相同,则给每个segment加锁,再计算一次元素的个数。
放弃了segment的设计,取而代之的是Node+CAS+Synchronized来保证并发安全。只有在执行第一次put方法时,才会调用initTable()初始化Node数组。put实现:如果Node还未初始化,那么通过CAS插入相应的数据; 如果Node不为空,且当前该节点不处于移动状态,那么对该节点加synchronized锁,如果该节点hash不小于0,则遍历链表更新节点或者插入新节点; 如果该节点是TreeBin类型的节点,说明是红黑树结构,则通过putTreeVal方法往红黑树中插入节点; 如果binCount不为0,说明put操作对数据产生了影响,如果当前链表的个数达到8个,则通过treeifyBin方法转化为红黑树,如果oldVal不为空,说明是一次更新操作,没有对元素个数产生影响,则直接返回旧值; 如果插入的是一个新节点,则执行addCount()方法尝试更新元素个数baseCount;size实现:1.8中使用一个volatile类型的变量baseCount记录元素的个数,当插入新数据或则删除数据时,会通过addCount()方法更新baseCount。因为元素个数保存baseCount中,部分元素的变化个数保存在CounterCell数组中,通过累加baseCount和CounterCell数组中的数量,即可得到元素的总个数。PS.两者在1.8之前都是头插,1.8之后都是尾插。
concurrentHashmap 1.7和1.8区别
1.把元素添加到队列末尾;add() offer()2. 从队列头部取出元素。 poll()
Queue是一种经常使用的集合。Queue实际上是实现了一个先进先出(FIFO:它和List的区别在于,List可以在任意位置添加和删除元素,而Queue只有两个操作
addFirst(E e) / offerFirst(E e)
addLast(E e) / offerLast(E e)
添加
E removeLast() / E pollLast()
removeFirst() / E pollFirst()
删除
既可以添加到队尾,也可以添加到队首;既可以从队首获取,又可以从队尾获取。
Deque
元素大小的评判可以通过元素本身的自然顺序(natural ordering),也可以通过构造时传入的比较器Comparator
优先队列的作用是能保证每次取出的元素都是队列中权值最小的(Java的优先队列每次取最小元素,C++的优先队列每次取最大元素)。
PriorityQueue
BlockQueue阻塞队列最核心的功能是,能够可阻塞式的插入和删除队列元素。当前队列为空时,会阻塞消费数据的线程,直至队列非空时,通知被阻塞的线程;当队列满时,会阻塞插入数据的线程,直至队列未满时,通知插入数据的线程(生产者线程)。
队列默认大小为Integer.MAX_VALUE
LinkedBlockingQueue
固定长度的队列
ArrayBlockingQueue
ArrayBlockingQueue插入和删除数据,只采用了一个lock,而LinkedBlockingQueue则是在插入和删除分别采用了putLock和takeLock,这样可以降低线程由于线程无法获取到lock而进入WAITING状态的可能性,从而提高了线程并发执行的效率。
BlockQueue
Queue
Java容器
类加载底层调用流程(所有的类都由类加载器加载,加载的作用就是将 .class文件加载到内存(方法区))
字节码来源。一般的加载来源包括从本地路径下编译生成的.class文件或是从jar包中的.class文件,从远程网络,以及动态代理实时编译
类加载器。一般包括启动类加载器,扩展类加载器,应用类加载器,以及用户的自定义类加载器,可见下面详解
加载指的是把class字节码文件从各个来源通过类加载器装载入内存中
ps:数组类型不通过类加载器创建,它由JVM直接创建
Java字节码类文件(.class)是Java编译器编译Java源文件(.java)产生的“目标文件”。它是一种8位字节的二进制流文件, 各个数据项按顺序紧密的从前向后排列, 相邻的项之间没有间隙, 这样可以使得class文件非常紧凑, 体积轻巧, 可以被JVM快速的加载至内存, 并且占据较少的内存空间(方便于网络的传输)
扩展:class文件
加载:将class字节码文件存放到方法区,在堆中创建class对象
还有比如文件格式验证、元数据验证、符号引用验证
验证:字节码文件验证
静态变量=类变量实例变量=普通变量=非static变量
准备:为类的静态变量分配内存,并初始化为默认值(不是指定值) 而实例变量会随着new了个实例对象后,在堆内分配空间 特例:加了final static的会在这个阶段直接赋指定值
符号引用和直接引用的区别
解析:把类中的符号引用转换成直接引用
链接
初始化:对类的静态变量初始化为指定值,并执行静态代码块
类加载过程
(1)Bootstrap ClassLoader(启动类加载器):jvm内置,外部无法访问,负责加载<JAVA_HOME>\\lib目录,或-Xbootclasspath指定目录下的jar。特殊说明:JVM认为合理的jar文件名才会被加载,例如:rt.jar、tools.jar,文件名不符合的jar即使放在上述目录下也不会被加载。
(2)Extension ClassLoader(扩展类加载器):负责加载<JAVA_HOME>\\lib\\ext目录,或java.ext.dirs指定目录下的jar。特殊说明:Java9以后引入了模块化机制,此加载器被此机制取代。
(3)Application ClassLoader(应用程序类加载器):负责加载用户类路径(ClassPath)上的jar包
(4)User ClassLoader(用户自定义类加载器)
从虚拟机层面讲分为两大类型的类加载器,Bootstrap Classloader即启动类加载器(C++实现),它是虚拟机的一部分,其他类型类加载器(扩展、应用JAVA实现),在虚拟机外部,并全部继承ClassLoader类
JVM自带的三种类加载器:启动\\lib、扩展\\lib\\ext、应用
1、先检查类是否已经被加载过 2、若没有加载则调用父加载器的loadClass()方法进行加载 3、若父加载器为空则默认使用启动类加载器作为父加载器4、如果父类加载失败,抛出ClassNotFoundException异常后,再调用自己的findClass()方法进行加载
加载过程
如果一个类加载器收到了类加载的请求,它首先不会自己去尝试加载这个类,而是把这个请求委派给父类加载器去完成每一个层次的类加载器都是如此,因此所有的加载请求最终都应该传送到顶层的启动类加载器中,只有当父加载器反馈自己无法完成这个加载请求(它的搜索范围中没有找到所需的类)时,子加载器才会尝试自己去加载。
保证加载类的唯一性:当父加载器已经加载了该类时,就没有必要子加载器再加载一次
从最内层JVM自带类加载器开始加载,外层恶意同名类得不到加载从而无法使用
由于严格通过包来区分了访问域,外层恶意的类通过内置代码也无法获得权限访问到内层类,破坏代码就自然无法生效
保证系统的安全性:它防止恶意代码去干涉善意的代码,同时也是java沙箱安全机制的组件
沙箱安全机制:自己写的java.lang.String.class不会被加载,防止核心api库被篡改
扩展:Java安全模型的核心就是Java沙箱,沙箱是一个限制程序运行的环境。沙箱机制就是将 Java 代码限定在虚拟机(JVM)特定的运行范围中,并且严格限制代码对本地系统资源访问,通过这样的措施来保证对代码的有效隔离,防止对本地系统造成破坏。沙箱主要限制系统资源访问,那系统资源包括什么?——CPU、内存、文件系统、网络。不同级别的沙箱对这些资源访问的限制也可以不一样。所有的Java程序运行都可以指定沙箱,可以定制安全策略
扩展:java沙箱机制
作用
负责加载用户自定义路径下的jar包和类
userDefinedClassLoader自定义类加载器
继承ClassLoader类+重写ClassLoader类中的findClass()方法,无法被父加载器加载的类最终会通过这个方法被加载
不打破
继承ClassLoader类+重写loadClass方法,最后在主类里调用 自定义加载类名.loadClass方法或者使用上下文加载器
JDK1.2之后已不再提倡用户直接覆盖loadClass()方法,而是建议把自己的类加载逻辑实现到findClass()方法中。因为在loadClass()方法的逻辑里,如果父类加载器加载失败,则会调用自己的findClass()方法来完成加载。所以,如果你想定义一个自己的类加载器,并且要遵守双亲委派模型,那么可以继承ClassLoader,并且在findClass中实现你自己的加载逻辑即可
打破
自定义类加载器打破/不打破双亲委派机制
自定义类加载器有什么用?jvm自带的三个加载器只能加载指定路径下的类字节码自定义类加载器可以加载本机或网络上的某个类文件
打破双亲委派机制的场景?Tomcat。一个tomcat容器可能运行多个应用程序,每个应用需要同一种类库的不同版本,因此应用之间需要独立和隔离
双亲委派机制
实例
AppClassLoader的父类加载器输出为ExtClassLoaderExtClassLoader的父类加载器输出为nullnull并不代表ExtClassLoader没有父类加载器,而是 BootstrapClassLoaderps:这里的父子并不是继承关系,而是向上委托的关系
由于应用类加载器和扩展类加载器都继承了ClassLoader,而ClassLoader类中有parent变量,用于指示向上委托的方向,而不是通过下层继承上层实现
扩展类、应用类和自定义类加载器都是java.lang.ClassLoader的子类实例自定义类加载器直接继承java.lang.ClassLoader
类加载器的输出和继承
创建一个classloader,parent设置成null
Java 类加载器怎么实现将同一个对象加载两次?
类加载器
存储:对象,1.8后有字符串常量池,静态变量(静态变量在类加载时加载一次,在进程结束时销毁)
1、堆动态分配内存 引用数据类型大小不确定只能放堆里
为什么基本数据类型不放在堆里
堆
运行时常量池:一直在方法区,除了上述还包括字面量和符号引用
字符串常量池:1.7在方法区,1.8在堆
详解:1、https://www.jianshu.com/p/cf78e68e3a992、https://blog.csdn.net/qq_34039868/article/details/103957965待补充
class文件常量池主要存放两大常量:字面量和符号引用
字面量如:文本字符串、final常量值等
符号引用如:类和接口的全限定名、字段的名称和描述符、方法的名称和描述符
常量池
存储包括类定义,结构,字段,方法(数据及代码)以及常量在内的类相关数据
jdk7永久代
元空间代替了永久代,存储在本地内存(本地内存包含元空间和直接内存),存放已被虚拟机加载的类信息、常量,即时编译器编译后的代码
jdk8元空间
1.永久代的大小不好设置(类信息放在永久代的话,加载时不知道有多少个类),而且如果类加载过多很容易导致OOM2.永久代的回收效率低
永久代被代替的原因
因为永久代的回收效率很低,通常需要fullGC才进行回收,而fullGC是老年代触发majorCG后空间还不够或永久代快满才触发。放入堆中能够及时回收。
为什么jdk7之后字符串常量池要放入堆中呢?
Java官方的HotSpot 虚拟机中,Java8版本以后,是用元空间来实现的方法区;在Java8之前的版本,则是用永久代实现的方法区;也就是说,“元空间” 和 “方法区”,一个是HotSpot 的具体实现技术,一个是JVM规范的抽象定义;
方法区
存放基本数据类型和对象引用
Solt槽是局部变量表的最小单位每个变量槽可以存放32位长度的内存空间如果要放64位的数据就找两个槽
solt槽
局部变量表
用来存放操作数
操作数栈
每个栈帧都有一个指向运行时常量池该栈帧所属方法的引用。目的是当调用其它方法时,从运行时常量池找到对应的符号引用,并转成直接引用找到该方法。
动态链接
记录PC寄存器的值
当一个方法开始执行后,只有2种方式可以退出这个方法 : 方法返回指令 : 执行引擎遇到一个方法返回的字节码指令,这时候有可能会有返回值传递给上层的方法调用者,这种退出方式称为正常完成出口。 异常退出 : 在方法执行过程中遇到了异常,并且没有处理这个异常,就会导致方法退出。 无论采用任何退出方式,在方法退出之后,都需要返回到方法被调用的位置,程序才能继续执行,方法返回时可能需要在栈帧中保存一些信息。 一般来说,方法正常退出时,调用者的PC计数器的值可以作为返回地址,栈帧中会保存这个计数器值。 而方法异常退出时,返回地址是要通过异常处理器表来确定的,栈帧中一般不会保存这部分信息。
方法返回地址
锁记录
栈帧
虚拟机栈
简单来讲就是Java调用非Java代码接口为虚拟机使用的native方法服务,方法通常是使用C/C++编写,然后编译成.dll或者.so文件,再由JNI(Java Native Interface)调用执行。
本地方法栈
它的作用主要是通过程序计数器指针指向常量池的下一条偏移地址,执行引擎根据偏移地址获取机器指令,再交给CPU执行
程序计数器(唯一不会OOM的区域)
运行时数据区(java内存结构)
直接内存并不是jvm运行时数据区的一部分,也不是jvm规范中定义的内存区域。在JDK1.4 中新加入了NIO(New Input/Output)类,引入了一种基于通道(Channel)与缓冲区(Buffer)的I/O 方式它使用native 函数库直接分配堆外内存,然后通过一个存储在Java堆中的DirectByteBuffer 对象作为这块内存的引用进行操作。这样能在一些场景中显著提高性能,因为避免了在Java堆和Native堆中来回复制数据。本机直接内存的分配不会受到Java 堆大小的限制,受到本机总内存大小限制配置虚拟机参数时,不要忽略直接内存 防止出现OutOfMemoryError异常解决了NIO进行管道传输buffer时,发生full GC导致buffer位置发生改变。
直接内存创建和销毁更费性能,而IO读写的性能要优于普通的堆内存
和堆内存对比
显式调用System.gc()强制执行FullGC进行回收
每个DirectByteBuffer对象在初始化时,都会创建一个对应的Cleaner对象这个Cleaner对象会在合适的时候执行unsafe.freeMemory(address),从而回收这块堆外内存当directByteBuffer设为null后,指向它的虚引用cleaner就会进入pending队列,当发现队列里有cleaner对象,就会调用方法把堆外的buffer给清掉
直接内存是否会被GC?会
有很大的数据需要存储,它的生命周期很长
适合频繁的IO操作,例如网络并发场景
直接内存使用场景
加快了复制的速度。因为堆内在flush到远程时,会先复制到直接内存(堆外内存),然后在发送;而直接内存(堆外内存)相当于省略掉了这个工作
优点
直接内存难以控制,如果内存泄漏,那么很难排查,且不适合储存很复杂的对象
直接内存(堆外内存)
JMM规定里多线程之间的共享变量存储在主存中,每个线程单独拥有一个本地内存(逻辑概念),本地内存存储线程操作的共享变量副本JMM本身是一种抽象的概念,并不真实存在,它描述的是一组规则或规范,通过这组规范定义了程序中各个变量(包括实例字段,静态字段和构成数组对象的元素)的访问方式
JMM可以通过happens-before关系向程序员提供跨线程的内存可见性保证(如果A线程的写操作a与B线程的读操作b之间存在happens-before关系,尽管a操作和b操作在不同的线程中执行,但JMM向程序员保证a操作将对b操作可见)
前面的操作产生的结果必须对后面的操作可见,而不是前面的操作必须先于后面的操作执行比如按照 as-if-serial 语义,没有数据依赖的两条指令是可以进行重排序的。
在同一个线程中,书写在前面的操作happen-before后面的操作。
单线程的hb规则
强调的是解锁操作在多线程环境的可见性。一个线程进行了解锁操作,对于晚于该操作的加锁操作必须能够及时感应到锁的状态变化。解锁操作的结果对后面的加锁操作一定是可见的,无论两个是否在一个线程
同一个锁的unlock操作happen-before此锁的lock操作
监视器锁的hb规则
对一个volatile变量的写操作happen-before对此变量的任意操作(包括写操作)
volatile的hb规则
如果A操作 happen-before B操作,B操作happen-before C操作,那么A操作happen-before C操作
hb的传递性
同一个线程的start方法happen-before此线程的其它方法
线程启动hb规则
对线程interrupt方法的调用happen-before被中断线程的检测到中断发送的代码
线程中断hb规则
线程中的所有操作都happen-before线程的终止检测
线程终结hb原则
一个对象的初始化完成先于他的finalize方法调用
对象创建hb原则
举例
happen-before 原则,例如:在同一个线程中,书写在前面的操作happen-before后面的操作但是hb原则其实不能理解成在什么之前发生,它和时间先后没有任何关系。A hb B解释成“A生效对B可见” 更准确
happens-before原则
可能导致线程安全问题,如DCL问题(Double Check Lock,双重检查锁定)
重排序
《java并发编程实战》之java内存模型
8大happen-before原则超全面详解
jmm
java内存模型(JMM)
Java 对象在内存中的存储布局总体分为3块区域:对象头、实例数据和对齐填充,如果是数组对象则多个数组长度
对象自身的运行时数据(哈希码、GC 分代年龄、锁状态标志等等
markword
ps:并不是所有的虚拟机实现都必须在对象数据上保留类型指针,换句话说查找对象的元数据信息并不一定要经过对象本身
类指针:指向自己是哪个类的实例
数组长度(只有数组对象才有)
1、对象头
对象里的属性数据
2、实例数据
jvm要求对象大小为8字节整数倍,对象头大小为8字节的1~2倍,只有实例数据可能没对齐,所以要填充补齐
3、对齐填充
通过对象头内的类指针
面试题;jvm如何知道该对象属于哪个类
对象的内存布局
句柄 优势:reference 中存储的是稳定的句柄地址,在对象被移动时只会改变句柄中的实例数据指针,而 reference 本身不需要修改对象实例数据(堆):对象中各个实例字段的数据对象类型数据(方法区):对象的类型、父类、实现的接口、方法等静态区(也在方法区中)用来存放静态变量,静态块
直接指针 优势:速度快,它节省了一次指针定位的时间开销
对象的访问定位
第一步:类加载检查先检查要new的对象在class文件常量池(方法区里)里有没有符号引用,如果有就检查这个符号引用代表的类有没有被加载、解析或初始化过ps:class文件常量池主要存放两大常量:字面量和符号引用
①指针碰撞:前提要求是JAVA堆中的内存对象是绝对完整的,所有的内存都放在一边,空闲的放在另一边,中间放着一个指针作为分界点,分配时即把指针移动类大小即可②空闲列表:这时的堆内存是相互交错的,虚拟机维护了一个列表记录了堆中哪里还有足够大的空闲内存可以使用,然后分配一块类需要的内存大小。这两种方法和垃圾收集算法选取有关系,比如使用Serial\\Parnew等带Compact过程的系统采用①,CMS基于Mark-Sweep(标记清除)的使用②
分配内存空间时可能存在线程安全问题解决办法:①对内存分配采取同步处理,实际上是虚拟机采用CAS算法失败重试的方式保证更新操作的原子性②TLAB(本地线程缓冲),为每个线程在Java堆中预先分配一小块内存,每一个线程预先在 Eden 区分配一块内存,JVM 在给线程中的对象分配内存时,首先在 TLAB 分配,当对象大于 TLAB 中的剩余内存或 TLAB 的内存已用尽时,再采用上述的 CAS 进行内存分配
第二步:分配内存为对象在堆内存分配一块空间,该空间大小在类加载完成后确定分配空间根据堆是否规整有两种方法:1、指针碰撞 2、空闲列表
至此,从虚拟机视角来看,一个新的对象已经产生了。但是在Java程序视角来看,执行new操作后会接着执行如下步骤
new一个对象的完整过程
new对象的过程
如果字符串常量池有abc则在堆上创建1次对象(ps:字符串常量池则存在于方法区)
变式: String str1 = new String(\"A\"+\"B\")String str2 = new String(\"ABC\") + \"ABC\"
String s1 = new String(\"abc\");这句话创建了几个字符串对象?
对象
解释器:输入的代码 -> [ 解释器 解释执行 ] -> 执行结果
JIT编译器:输入的代码 -> [ 编译器 编译 ] -> 编译后的代码 -> [ 执行 ] -> 执行结果
JIT执行编译后的代码比解释器快,但如果代码只执行一次(如只被调用一次,例如类的构造器(class initializer或者没有循环的代码)则解释器比JIT编译器快
将代码一行行解析,启动直接运行,但速度慢,而且会有重复代码
解释器interpreter
在解析器在解析代码时,当虚拟机发现某些代码运行比较频繁时,(也就是热点代码)。JIT即时编译器就会把这些代码片段全部编译打包成可执行文件。开始执行时间会比较晚
回边计数器--也就是计算循环体执行的次数
方法调用计数器
检测热点代码
逃逸分析、 锁消除、 锁膨胀、 方法内联、 空值检查消除、 类型检测消除、 公共子表达式消除
优化代码
通过逃逸分析,Java Hotspot编译器能够分析出一个新的对象的引用的使用范围从而决定是否要将这个对象分配到堆上
通俗来讲当对象的指针被多个方法或线程引用,称为逃逸分析
JIT判断同步块里的锁对象如果只被一个线程调用,那么同步锁取消。
同步省略
JIT发现当一个对象不会被外界访问到,就会将对象分成若干个标量(标量就是最小不可分割的单位)比如基本数据类型
标量替换
由于JIT将对象进行标量替换后,对象变成基本类型,存储在栈帧里,变量随着方法运行完而释放,减少了垃圾回收器的压力。
栈上分配
开启逃逸分析:-XX:+DoEscapeAnalysis 关闭逃逸分析:-XX:- DoEscapeAnalysis从jdk1.7版本开始默认开启逃逸分析
逃逸分析
HotSpot集成了两个JIT compiler — C1及C2(或称为Client及Server,C++实现)目前主流的HotSpot虚拟机中默认是采用解释器与其中一个编译器直接配合的方式工作。程序使用哪个编译器,取决于虚拟机运行的模式。HotSpot虚拟机会根据自身版本与宿主机器的硬件性能自动选择运行模式,用户也可以使用“-client”或“-server”参数去强制指定虚拟机运行在Client模式或Server模式。
运行在客户端,编译速度快
C1(Client Complier)
运行在服务端,编译质量好
C2(Server Complier)
JIT的C1和C2
分类
JVM即时编译器
编译器JIT compiler
Minor GC触发条件:当Eden区满时,触发Minor GC并从from(to)区的数据移到to(from)区,年龄+1,当年龄=15就会晋升到老年代
老年代/方法区满
通过Minor GC后进入老年代的平均大小大于老年代的可用内存
显式调用System.gc时,系统建议执行Full GC,但是不必然执行
Full GC触发条件:
面试题:为什么s区要划分为from和to? 因为 避免碎片+使用标记复制算法如果只有Eden和from,Eden满,发生minorGC第一次minorGC之后,Eden为空,from有从Eden复制过来的存活对象第二次minorGC之后,Eden又会向from复制转移,但此时from也有死亡的和存活需要复制的对象,那么from无法使用标记复制(无处可去)如果有from和to区,那么Eden和from就可以复制到to,然后交换from和to,使to区永远为空。(to区满后转移到老年代)
MGC、YGC、OGC、FGC等差别
因为有的对象寿命长,有的对象寿命短。应该将寿命长的对象放在一个区,寿命短的对象放在一个区。不同的区采用不同的垃圾收集算法。寿命短的区清理频次高一点,寿命长的区清理频次低一点。提高效率
为什么要分年轻代和老年代
Eden:from:to = 8:1:1 -XX:survivorRatio新生代:老年代 = 1:2 -XX:Ratio
设置大对象的阈值,超过就算大对象:-XX:PretenureSizeThreshold
大对象直接进入老年代(超过s区50%的对象)
在minorGC中累计年龄的过程中,出现了空间累计和大于s区一半的对象,则当作大对象直接进入老年代准确来讲应该是:年龄从小到大的对象占据的空间的累加和,大于survivor区域的一半,然后把等于或大于该年龄的对象,放入到老年代
动态年龄判断
经过一次MinorGC就年龄+1,最大超过15就去老年代 设置年龄参数:-XX:MaxTenuringThreshold=15
年龄大于阈值,进入老年代
1.如果Eden区MinorGC后,s区也放不下,则通过 老年代分配担保机制 把新生代的对象提前转移到老年代中去2.大对象直接放入老年代,为了避免为大对象分配内存时由于 分配担保机制 带来的复制而降低效率。
Minor GC后,存活的对象空间大于survivor空间,直接进入老年代
什么样的对象会进入老年代?
引用计数法 无法解决循环依赖问题
可作为gc roots的对象:虚拟机栈(栈帧中的本地变量表)中引用的对象本地方法栈(Native 方法)中引用的对象方法区中类静态属性引用的对象方法区中常量引用的对象所有被同步锁持有的对象
可达性分析
想中断或者回收强引用对象,可以显式地将引用赋值为null,变为软引用,这样的话JVM就会在合适的时间,进行垃圾回收或者指向另一对象:obj= newObject();
强引用 一定不收即使OOM
使用较多,可以同时保证 垃圾回收速度 和 不OOM
可以和引用队列一起用
软引用 空间不够才收
弱引用和软引用的区别在于:弱引用的对象拥有更短的生命周期,只要垃圾回收器扫描到它,不管内存空间充足与否,都会回收它的内存
弱引用 扫描到就收
如果一个对象没有强引用和软引用,对于垃圾回收器而言便是可以被清除的,在清除之前,会调用其finalize方法,如果一个对象已经被调用过finalize方法但是还没有被释放,它就变成了一个虚可达对象(如果一个对象与GC Roots之间仅存在虚引用,则称这个对象为虚可达对象)
虚引用通常与引用队列结合使用一个对象将要被回收之前将虚引用放入队列,程序从队列中检测到这个对象将要回收之前可以做些事情
在于跟踪垃圾回收过程,在对象被收集器回收时收到一个系统通知。 当垃圾回收器准备回收一个对象时,如果发现它还有虚引用,就会在垃圾回收后,将这个虚引用加入引用队列,在其关联的虚引用出队前,不会彻底销毁该对象。 所以可以通过检查引用队列中是否有相应的虚引用来判断对象是否已经被回收
虚引用 不影响对象生命周期,随时被收
当引用的对象将要被JVM回收时,会将其加入到引用队列中。应用:通过引用队列可以了解JVM垃圾回收情况
引用队列
对象持有的四种引用
常量池中的常量若没被引用便属于废弃常量
废弃类:需同时满足 实例被回收+ClassLoader被回收+类没被引用
对象是否死亡
原地清除垃圾,会产生碎片
标记清除
空间一分为二。先把有用的复制到另一边,再清空这边
标记复制
标记整理耗时>=标记复制虽然整理与复制都涉及移动对象,但取决于具体算法,整理可能要 计算对象目标地址,修正指针,移动对象;复制则可以把这几件事情合为一体来做,所以可以快一些
直接靠一端放,即使出现覆盖
标记整理
新生代存活率低用标记复制,只有少量会复制
老年代存活率高且都是大对象没有足够空间对它担保,用标记清除或标记整理
分代收集
效率:复制算法>标记整理>标记清除内存整齐度:复制=标记整理>标记清除内存使用率:标记整理=标记清除>复制
所谓的引用计数法就是给每个对象一个引用计数器,每当有一个地方引用它时,计数器就会加1;当引用失效时,计数器的值就会减1;任何时刻计数器的值为0的对象就是不可能再被使用的。这个引用计数法时没有被Java所使用的,但是python有使用到它。而且最原始的引用计数法没有用到GC Roots
扩展:引用计数法(JAVA没有使用)
垃圾回收算法
年轻代 串行回收 标记复制 -XX:UseSerialGC (开启后会使用Serial + Serial Old的组合收集器)
serial
老年代 串行回收 标记整理
serial old
年轻代 并行回收 标记复制 -XX:UseParNewGC(开启后会使用ParNew + Serial Old的组合收集器)
parNew
年轻代 并行回收 标记复制 (对应的JVM参数 -XX:UseParallelGC 或 -XX:UseParallelOldGC (可互相激活))(开启后会使用Parallel + Parallel Old的组合收集器)
parallel Scavenge(jdk8默认)
老年代 并行回收 标记整理
parallel old
仅老年代 并发回收 标记清除 最短回收停顿时间
优点:由于最耗时的并发标记和并发清除是并发进行的,所以低停顿、低延迟缺点:1.CMS使用的是标记清除算法所以会有内存碎片。2.由于并发标记和清除是并发的,占用了部分线程,降低了吞吐量。(吞吐量 = 运行用户代码时间 /(运行用户代码时间+垃圾收集时间))3.无法清理浮动垃圾。浮动垃圾就是并发清除时,用户线程产生的垃圾。只能等下次GC回收
使用场景:它关注的是垃圾回收最短的停顿时间(低停顿),在老年代并不频繁GC的场景下,是比较适用的
CMS
适用于多处理器和大容量内存服务器的垃圾收集器,满足 GC停顿时间要求 和 高吞吐量
局部看是标记复制,整体看是标记整理
并发+并行回收 分代收集 可预测停顿
G1 收集器在后台维护了一个优先列表,每次根据允许的收集时间,优先选择回收价值最大的 Region(这也就是它的名字 Garbage-First 的由来) 这种使用 Region 划分内存空间以及有优先级的区域回收方式,保证了 G1 收集器在有限时间内可以尽可能高的收集效率(把内存化整为零)
为什么可以预测停顿时间
G1将新生代,老年代的物理空间划分取消了,取而代之的是G1算法将堆划分为若干个区域(Region),它仍然属于分代收集器。不过,这些区域的一部分包含新生代,新生代的垃圾收集依然采用暂停所有应用线程的方式,将存活对象拷贝到老年代或者Survivor空间。老年代也分成很多区域,G1收集器通过将对象从一个区域复制到另外一个区域,完成了清理工作。这就意味着,在正常的处理过程中,G1完成了堆的压缩(至少是部分堆的压缩),这样也就不会有cms内存碎片问题的存在了
Humongous区域:用于存储巨型对象(一个对象占用的空间超过了分区容量50%以上)如果一个H区装不下一个巨型对象,那么G1会寻找连续的H分区来存储。为了能找到连续的H区,有时候不得不启动Full GC
扩展:Region
如果短期的大对象放入老年代,会影响效率
为何设置H区?
扫描根和本地变量
根扫描
处理dirty card队列,更新Rset
更新Rset
检测年轻代指向老年代的对象
处理Rset
年轻代复制到survival/old区
复制对象
处理软引用、弱引用、虚引用
处理引用
youngGC
标记GCRoot直接可达的对象,此过程会触发一个youngGC,因为要跟新Rset引用
初始化标记stw
扫描初始化标记的存活区域对老年区的引用,并标记被引用的对象
根区域扫描
扫描标记在整个堆中存活的对象
并发标记
标记并发标记时新产生的对象,修改SATB缓存
最终标记stw
清理stw
使用写屏障,每次修改引用时都会将旧值写入long buffer。在最终标记时会修改快照
G1如何解决并发标记时对象的引用发生改变?如何解决存活的对象与快照不一样?
漏标情况
三色算法
三色标记算法
Rset
card table
全局并发标记
拷贝存活对象
mixedGC
回收流程
优点:1.G1是一个有整理内存过程的收集器,不会产生很多碎片2.stw可以控,G1在停顿时间上添加了预测机制,用户可以根据预期设置停顿时间3.region可以不连续,所以对内存负担小
优缺点
G1(JDK9默认)
jdk11新增,基于标记-复制算法,对算法做了重大改进,标记复制的三阶段:标记、转移和重定位阶段几乎都是并发,导致停顿小于10ms
标记阶段,即从GC Roots集合开始,标记活跃对象;
转移阶段,即把活跃对象复制到新的内存地址上;
重定位阶段,因为转移导致对象的地址发生了变化,在重定位阶段,所有指向对象旧地址的指针都要调整到对象新的地址上
扩展:标记复制三阶段
一种将信息存储在指针中的技术,判断对象是否被移动过,保证应用线程始终访问的都是对象的新地址ZGC实际仅使用64位地址空间的第0~41位,而第42~45位存储元数据(对象存活信息等),第47~63位固定为0
对象存活信息存储在42~45位中,这与传统的垃圾回收并将对象存活信息放在对象头中完全不同
染色指针
是一种JVM向应用代码插入一小段代码的技术。当应用线程从堆中读取对象引用时,就会执行这段代码。不过只有“从堆中读取对象引用”才会触发这段代码。这段代码的作用:在对象标记和转移过程中,用于确定对象的引用地址是否满足条件,并作出相应动作
读屏障
停顿时间不超过10ms;停顿时间不会随着堆的大小,或者活跃对象的大小而增加;支持8MB~4TB级别的堆(未来支持16TB)
设计目标
ZGC
区别一: 使用范围不一样 CMS收集器是老年代的收集器,可以配合新生代的Serial和ParNew收集器一起使用 G1收集器收集范围是老年代和新生代。不需要结合其他收集器使用
区别二: STW的时间CMS收集器以最小的停顿时间为目标的收集器。G1收集器可预测垃圾回收的停顿时间(建立可预测的停顿时间模型)
区别三: 垃圾碎片CMS收集器是使用“标记-清除”算法进行的垃圾回收,容易产生内存碎片G1收集器使用的是“标记-整理”算法,进行了空间整合,降低了内存空间碎片。
区别四: 垃圾回收的过程不一样CMS收集器 G1收集器1. 初始标记 1.初始标记2. 并发标记 2. 并发标记3. 重新标记 3. 最终标记4. 并发清楚 4. 筛选回收
cms和g1的区别
垃圾回收器
垃圾回收器GC
执行引擎
每次垃圾回收的时间越来越长,由之前的10ms延长到50ms左右,FullGC的时间也有之前的0.5s延长到4、5sFullGC的次数越来越多,最频繁时隔不到1分钟就进行一次FullGC年老代的内存越来越大并且每次FullGC后年老代没有内存被释放之后系统会无法响应新的请求,逐渐到达OutOfMemoryError的临界值,这个时候就需要分析JVM内存快照dump。
1.监控GC的状态2.生成堆的dump文件(top找java进程 jmap生成dump)3.分析dump文件4.分析结果,判断是否需要优化5.调整GC类型和内存分配6.不断分析和调整
为什么调优?除了为了解决已出现的问题,更重要的是为了减少full gc次数(即减少stw时间)
亿级流量,日活500万用户,付费转化率10%,日均50万单,大促的时候每秒1000多单,有3台订单系统集群,配置均为4核8G,每秒可处理300单一个订单中有几十个字段int为4字节,long为8字节,假设每个订单对象大小为1kb,每秒有300kb对象生成加上围绕订单还需要一些库存、优惠券、积分对象,再扩大20倍,加上订单查询、修改、退款,再扩大10倍即每秒产生300kb*200=60MB对象,这些对象在生成后1秒就会变成垃圾,因为订单对象后面不再需要按4核8G来算,一般是留4G给系统,4G给jvm,jvm其他部分1G,给堆3G,Eden:s0:s1=800M:100M:100M,老年代2G因此在大概14s后,Eden区已满(全是垃圾),发生MinorGC后,最后这次没生成完的订单不会在这次gc中被清除,因为还有外部引用着,且不能停留在s0区,因为这里没生成完的对象大小超过了100M的50%(对象动态年龄判断)于是被放入老年代,也就是说,每15s就有50+MB对象被送入老年代,且这些对象都会在1s后变为垃圾,老年代很快就满,FullGC次数猛增
解决方案:调高新生代内存,使得大多数订单对象都可以在新生代自生自灭,不进入老年代
调优案例1
单机几十万请求。Eden:s0:s1=32G:4G:4G,老年代24G,为了应对初始对象过多,将新生代调大。但是在这种情况下,MinorGC一次实际上比FullGC还慢,因为新生代太大需要很长时间标记
解决方案:使用G1收集器的-XX:MaxGCPauseMillis(目标最大暂停时间,默认200ms。每200ms就发生一次MinorGC,不会等到Eden区满),发生MinorGC时只回收Eden区较少的空间,比如一次只回收4G,解决一次stw时间过长的问题
调优案例2
某个高QPS的服务重启的时候load会非常高,CPU使用率过高,在一段时间后负载才降下来。启动后高负载的原因大致是由于启动,随着代码的执行,jvm的JIT编译器会将部分热点代码编译为目标机器代码,这时产生的编译线程会占用大量的cpu 导致系统负载高。JIT编译器需要代码执行一定的频率才会进行编译优化,系统刚启动的时候大部分的代码只是解释执行,解释执行的性能比编译执行的性能当然要差很多,所以系统的负载高,等到主要热点代码都是编译执行,系统负载就降下来。 那接下来如何对这个问题调优
解决方案:JIT分层编译模式
效果:线上环境一台机器加入分层编译参数-XX:+TieredCompilation之后,在大多数情况下启动之后负载都不会升高,有时候即使有会升高,也比默认的恢复快很多。
调优案例3
调优指令
live 只dump存活的对象,如果不加则会dump所有对象format=b 表示以二进制格式file=filepath 输出到某个文件中
jmap使用
除了程序计数器,都可能发生OOM
调大堆:-Xmx
1、代码中可能存在大对象分配
2、可能存在内存泄露,导致在多次GC之后,还是无法找到一块足够大的内存容纳当前对象
1、检查是否存在大对象的分配,最有可能的是大数组分配
2、通过jmap命令,把堆内存dump下来,使用mat工具分析一下,检查是否存在内存泄露的问题
3、如果没有找到明显的内存泄露,使用 -Xmx 加大堆内存
4、还有一点容易被忽略,检查是否有大量的自定义的 Finalizable 对象,也有可能是框架内部提供的,考虑其存在的必要性
解决方法:
堆满
1、在Java7之前,频繁的错误使用String.intern方法
2、生成了大量的代理类,导致方法区被撑爆,无法卸载
3、应用长时间运行,没有重启
永久代满
对象已经没有被应用程序使用,但是垃圾回收器没办法移除它们,因为还在被引用着。在Java中,内存泄漏就是存在一些被分配的对象,这些对象有下面两个特点,首先,这些对象是可达的,即在有向图中,存在通路可以与其相连;其次,这些对象是无用的,即程序以后不会再使用这些对象。如果对象满足这两个条件,这些对象就可以判定为Java中的内存泄漏,这些对象不会被GC所回收,然而它却占用内存(概括 可达但是无用的对象为内存泄漏)
什么是内存泄漏:
内存泄漏
使用 -XX:-UseGCOverheadLimit 禁用这个提示功能
GC 开销超过限制由于某种原因,垃圾收集器占用了过多的时间(默认为进程所有CPU时间的98%),每次运行时恢复的内存非常少(默认为堆的2%)这实际上意味着您的程序停止执行任何进度,并且一直忙于只运行垃圾收集
数组过大
1、登陆出问题的机器;
2、通过print JVM参数,找到dump文件路径;
3、scp到跳板机;
4、想办法上传到云盘、下载到本地;
1、先看泄露报表
2、查看类的视图,按对象个数倒序
3、定位到可能的业务对象,查看线程栈地址
4、看堆栈里的业务方法,然后去业务里定位对应的方法
5、通过MAT分析/或者快手的jifa工具
线上发生OOM的调查路径
发生OOM的情况
由于 Full GC 的成本要远远高于 Minor GC ,因此尽可能将对象分配在新生代,在JVM 调优中,可以为应用程序分配一个合理的新生代空间,以最大限度避免新对象直接进去老年代。注意:由于新生代垃圾回收的速度高于老年代回收,因此,将年轻对象预留在新生代有利于提高整体的 GC 效率
1、将新对象预留在新生代
大对象占用空间多,如果直接放入新生代中会导致新生代空间不足,这样将会把大量的较小的年轻代对象移入到老年代中如果有短命大对象,原本存放于老年代的永久对象会被短命大对象塞满,扰乱了分代内存回收的基本思路
解决方法:-XX:PretenureSizeThreshold 设置大对象直接进入老年代的阀值,当对象超过这个阀值时,将直接在老年代中分配。PS:-XX:PretenureSizeThreshold 只对串行收集器和新生代并行收集器有效,并行回收收集器不识别这个参数。
需要占用大量连续内存空间的java对象是大对象,比如很长的字符串和数组。1.需要占用大量非连续空间的java对象不能称为大对象2.一个对象有很多属性也不能成为大对象
扩展:大对象
2、大对象进入老年代
因为对象满15岁后将被移到老年代,可以通过XX:MaxTenuringThreshold:默认值是15,这个参数是指定进入老年代的最大年龄值,对象实际进入老年代的年龄是 JVM 在运行时根据内存使用情况动态计算的。如果希望对象尽可能长地留在新生代中,可以设置一个较大的阀值。
3、设置对象进入老年代的年龄
稳定的堆大小对垃圾回收是有利的,获得一个稳定堆大小的方法就是设置 -Xmx 和 -Xms 一样的值。不稳定的堆也不是木有用处,让堆大小在一个区间内震荡,在系统不需要使用大内存时压缩堆空间,使 GC 应对一个较小的堆,可以加快单次 GC 的速度。基于这种思想,JVM 提供了两个参数用于压缩和扩展堆空间
4、稳定与震荡的堆大小
5、吞吐量优先设置
使用大的内存分页可以增强 CPU 的内存寻址能力,从而提高系统的性能
6、使用大页案例
为了降低应用软件在垃圾回收时的停顿,首先考虑的使用关注系统停顿的 CMS 回收器,为了减少 Full GC 的次数,应尽可能将对象预留在新生代,新生代 Minor GC 的成本远远小于老年代的 Full GC
7、降低停顿案例
8、分层编译模式
jvm调优
面试题:JVM的调优方式有哪些
JVM调优
JVM
在一操作或多个操作中要么全部执行成功,否则全部失败
一个线程修改了数据,其它线程能知道
可见性
按代码的循序执行
指令重排:jvm为了程序的效率会将代码循序重排,单线程不影响结果,多线程有影响。避免使用Executors 工具类创建
有序性
并发的三大特性
公平锁/非公平锁
可重入锁:当线程持有锁的时候可以再次用此锁加锁(解锁次数也要相同),如果是不可重入锁则再次获取该锁会导致死锁
可重入锁/不可重入锁
独占锁/共享锁
互斥锁/读写锁
乐观锁/悲观锁
分段锁
偏向锁/轻量锁/重量锁
当一个线程在获取锁的时候,如果锁已经被其它线程获取,那么该线程将循环等待,然后不断的判断锁是否能够被成功获取,直到获取到锁才会退出循环
概念
CAS
实现
1、自旋锁不会使线程状态发生切换,一直处于用户态,即线程一直都是active的;不会使线程进入阻塞状态,减少了不必要的上下文切换,执行速度快
2、非自旋锁在获取不到锁的时候会进入阻塞状态,从而进入内核态,当获取到锁的时候需要从内核态恢复,需要线程上下文切换。 (线程被阻塞后便进入内核(Linux)调度状态,这个会导致系统在用户态与内核态之间来回切换,严重影响锁的性能)
1、如果某个线程持有锁的时间过长,就会导致其它等待获取锁的线程进入循环等待,消耗CPU。使用不当会造成CPU使用率极高
扩展:线程饥饿
2、上面Java实现的自旋锁不是公平的,即无法满足等待时间最长的线程优先获取锁。不公平的锁就会存在“线程饥饿”问题
自旋锁
15种锁
2021/6/14更新:敖丙的synchronized笔记
2021/11/30更新:synchronized笔记
synchronized是一种同步锁,用于修饰类、实例方法、静态方法和代码块,保证原子性、可见性、有序性和可重入性
同一线程在调用自己类中其他synchronized方法/块或调用父类的synchronized方法/块都不会阻碍该线程的执行,就是说同一线程对同一个对象锁是可重入的,而且同一个线程可以获取同一把锁多次,也就是可以多次重入
介绍
被修饰的方法称为同步方法,其作用的范围是整个方法,作用的对象是调用这个方法的对象
实例方法
解释:因为对静态对象加锁实际上对类(.class)加锁,类对象只有一个,可以理解为任何时候都只有一个空间,里面有N个房间,一把锁,因此房间(同步方法)之间一定是互斥的。ps:上述情况和用单例模式声明一个对象来调用非静态方法的情况是一样的,因为永远就只有这一个对象。所以访问同步方法之间一定是互斥的
用类直接在两个线程中调用两个不同的同步方法
因为是一个对象调用,理由同上
用一个类的静态对象在两个线程中调用静态方法或非静态方法
产生互斥的情况
因为虽然是一个对象调用,但是两个方法的锁类型不同,调用的静态方法实际上是类对象在调用,即这两个方法产生的并不是同一个对象锁,因此不会互斥,会并发执行
一个对象在两个线程中分别调用一个静态同步方法和一个非静态同步方法
不产生互斥的情况
其作用的范围是整个静态方法,作用的对象是这个类的所有对象(也称类锁)
其作用的范围是synchronized后面括号括起来的部分,作用主的对象是这个类的所有对象
类
被修饰的代码块称为同步语句块,其作用的范围是大括号{}括起来的代码,作用的对象是调用这个代码块的对象
代码块
加锁对象
synchronized有两种形式上锁:对 方法 和 代码块 上锁同步方法和同步代码块都是在进入同步代码之前先获取锁,拿到锁则计数器+1,执行完-1如果获取失败就阻塞式等待锁的释放。
对方法上锁:在方法的flags里面多了一个ACC_SYNCHRONIZED标志,这标志用来告诉JVM这是一个同步方法,在进入该方法之前先获取相应的监视器锁,锁的计数器加1,方法结束后计数器-1,如果获取失败就阻塞住,直到该锁被释放(监视器锁的信息在markword里面)
对代码块上锁:(字节码文件)会在同步块的前后分别形成monitorenter和monitorexit这个两个字节码指令。在执行monitorenter指令时,首先要尝试获取对象锁。如果这个对象没被锁定,或者当前线程已经拥有了那个对象锁,把锁的计算器加1,相应的,在执行monitorexit指令时会将锁计算器就减1,当计算器为0时,锁就被释放了。如果获取对象锁失败,那当前线程就要阻塞,直到对象锁被另一个线程释放为止
识别方式:字节码文件内
加锁原理
由于Java面向对象的思想,在JVM中需要大量存储对象,存储时为了实现一些额外的功能,需要在对象中添加一些标记字段用于增强对象功能,这些标记字段组成了对象头
Mark Word 存储对象的HashCode,分代年龄和锁标志位信息
Class Point 对象指向它的类元数据的指针,虚拟机通过这个指针来确定这个对象是哪个类的实例
EntryList
Owner 会指向持有 Monitor 对象的线程
WaitSet
Monitor
扩展:对象头
synchronized对java对象加锁实际上是对对象头里的markword操作,Mark Word里默认存储对象的HashCode,分代年龄和锁标记位,运行期间Mark Word里存储的数据和锁的状态会随着锁标志位的变化而变化主要涉及锁升级部分
暂时理解:markword记录的是锁的信息,字节码文件的ACC_SYNCHRONIZED或monitorenter是底层原理
底层实现(内存空间操作)即锁的信息维护在Java头对象里面
markword内 锁状态标记 001
无锁 001
减少同一线程获取锁的代价。在大多数情况下,锁不存在多线程竞争,总是由同一线程多次获得,那么此时就是偏向锁
偏向锁的目标是,减少无竞争且只有一个线程使用锁的情况下,使用轻量级锁产生的性能消耗。轻量级锁每次申请、释放锁都至少需要一次CAS,但偏向锁只有初始化时需要一次CAS
偏向锁 101
一个对象持有偏向锁时,又有另外线程来获取锁的时候,就会将101改为00,并且把hashcode记录在栈帧里的lock record中。对象头就记录着lock record的地址和状态。 当存在第二个线程申请同一个锁对象时,偏向锁就会立即升级为轻量级锁。注意这里的第二个线程只是申请锁,不存在两个线程同时竞争锁,可以是一前一后地交替执行同步块
轻量级锁 00
当该对象持有轻量级锁的时候,有另一线程thread-1来获取锁时,获取失败自旋几次后还失败的话就会进入锁膨胀,向系统申请一个monitor锁,对象头改为记录着monitor地址,状态从00改为10.(但此时还是thread-0线程获取着锁).所以升级后thread-1就会进入entryList阻塞。\t当thread-0解锁时就要用monitor的解锁方式了,就要根据monitor锁的地址找到monitor,然后将owner设为null,然后唤醒EntryList中阻塞的线程。 当同一时间有多个线程竞争锁时,锁就会被升级成重量级锁,此时其申请锁带来的开销也就变大。重量级锁一般使用场景会在追求吞吐量,同步块或者同步方法执行时间较长的场景
重量级锁 10
锁状态
无锁->偏向锁->轻量级锁->重量级锁(方向不可逆)
锁的膨胀方向
锁膨胀
这种优化得更彻底,在JIT编译时,对运行上下文进行扫描,去除不可能存在竞争的锁
锁消除
博客
锁粗化是虚拟机对另一种极端情况的优化处理,通过扩大锁的范围,避免反复加锁和释放锁。(例如while循环内执行100次append,没有锁粗化的就要进行100次加锁/解锁,如果加在while循环体外,则只加锁一次即可)
锁粗化
获取轻量级锁失败后,虚拟机为了避免线程真实地在操作系统层面挂起,还会进行一项称为自旋锁的优化手段。 自旋锁:许多情况下,共享数据的锁定状态持续时间较短,切换线程不值得,通过让线程执行循环等待锁的释放,不让出CPU。如果得到锁,就顺利进入临界区。如果还不能获得锁,那就会将线程在操作系统层面挂起,这就是自旋锁的优化方式。但是它也存在缺点:如果锁被其他线程长时间占用,一直不释放CPU,会带来许多的性能开销。 自适应自旋锁:这种相当于是对上面自旋锁优化方式的进一步优化,它的自旋的次数不再固定,其自旋的次数由前一次在同一个锁上的自旋时间及锁的拥有者的状态来决定,这就解决了自旋锁带来的缺点。
自旋锁不会使线程状态发生切换,一直处于用户态,即线程一直都是active的;不会使线程进入阻塞状态,减少了不必要的上下文切换,执行速度快 非自旋锁在获取不到锁的时候会进入阻塞状态,从而进入内核态,当获取到锁的时候需要从内核态恢复,需要线程上下文切换。 (线程被阻塞后便进入内核(Linux)调度状态,这个会导致系统在用户态与内核态之间来回切换,严重影响锁的性能)
自旋锁和自适应自旋锁
syn比较差,多线程条件下性能差异30%左右,但是使用起来synchronized简单,reen需要加锁解锁,容易埋下bug而且现在java对syn做了优化:Syn和Reen的区别1、自动释放锁(由编译器去保证加锁解锁) 和 手动2、非公平锁 和 公平/非公平都有3、功能后者更多(可以用condition唤醒部分线程,提供了很多方法查询锁信息
synchronized在资源竞争不是很激烈的情况下,偶尔会有同步的情形下是很合适的。原因在于,编译程序通常会尽可能的进行优化synchronize,另外可读性非常好
ReentrantLock提供了多样化的同步,比如有时间限制的同步,可以被Interrupt的同步(synchronized的同步是不能Interrupt的)等。在资源竞争不激烈的情形下,性能稍微比synchronized差点点。但是当同步非常激烈的时候,synchronized的性能一下子能下降好几十倍。而ReentrantLock确还能维持常态。
适用情况
synchronized和Reentrantlock差异
JVM对Synchronized的优化
Synchronized
如果锁计数器为0,则直接cas上锁
若锁是自己这个线程拿的,那么计数器+1,并执行setState方法
用cas抢占锁
return nonfairTryAcquire
tryAcquire
面试题:addWaiter()为什么要从尾部遍历?新节点pre指向tail,tail指向新节点,这里后继指向前驱的指针是由CAS操作保证线程安全的。而cas操作之后t.next=node之前,可能会有其他线程进来。所以出现了问题,从尾部向前遍历是一定能遍历到所有的节点
获取锁失败的线程如何安全的加入同步队列:addWaiter()
addWaiter
线程加入同步队列后会做什么:acquireQueued()
acquireQueued
acquire()三个最重要的方法
非公平模式加锁流程
调用unlock()方法,unlock方法调用了release()方法
release()方法调用tryrelease()方法释放锁,并调用unparkSuccessor(h)唤醒同步队列里阻塞的线程
unparkSuccessor(h)
非公平模式解锁流程
NonfairSync
hasQueuedPredecessors(公平比非公平只多了这一个方法)
如果是当前持有锁的线程 可重入
FairSync
ReentrantLock的state初始化为0,表示未锁定状态。A线程lock()时,会调用tryAcquire()独占该锁并将state+1。此后,其他线程再tryAcquire()时就会失败,直到A线程unlock()到state=0(即释放锁)为止,其它线程才有机会获取该锁。释放锁之前,A线程自己是可以重复获取此锁的(state会累加),这就是可重入的概念。但要注意,获取多少次就要释放多么次,这样才能保证state是能回到零态的
可重入性
公平锁类型与非公平锁类型
getState()
setState()
compareAndSetState()
state(volatile修饰的int类型)
负值表示结点处于有效等待状态,而正值表示结点已被取消。所以源码中很多地方用>0、<0来判断结点的状态是否正常
CANCELLED(1) 表示当前结点已取消调度。当timeout或被中断(响应中断的情况下),会触发变更为此状态,进入该状态后的结点将不会再变化
SIGNAL(-1) 表示后继结点在等待当前结点唤醒。后继结点入队时,会将前继结点的状态更新为SIGNAL
CONDITION(-2) 表示结点等待在Condition上,当其他线程调用了Condition的signal()方法后,CONDITION状态的结点将从等待队列转移到同步队列中,等待获取同步锁。
PROPAGATE(-3) 共享模式下,前继结点不仅会唤醒其后继结点,同时也可能会唤醒后继的后继结点。
0 新结点入队时的默认状态
结点状态waitStatus
CLH双向队列(多线程争用资源被阻塞时会进入此队列)
入队 出队
头结点设计
共享和独享的实现
自旋锁 unsafe类
原理
AtomicInteger
实际应用
cpu开销
AtomicReference
只能保证一个共享变量原子操作
CAS算法实现一个重要前提需要取出内存中某时刻的数据并在当下时刻比较并替换,那么在这个时间差类会导致数据的变化。一个线程 1 从内存位置 V 中取出 A ,这时候另一个线程 2 也从内存中取出 A ,并且线程 1 进行了一些操作将值变成了B,然后线程 2 又将 V 位置的数据变成 A ,这时候线程 1 进行 CAS 操作发现内存中仍然是 A,然后线程 1 操作成功。尽管线程 one 的 CAS 操作成功,但是不代表这个过程就是没有问题的
标志位 时间戳
解决:使用版本号如AtomicStampedReference类最后cas两个pair对象
ABA问题
存在的问题
参考文章
AQS详解
AbstractQueuedSynchronizer(AQS)
导航博客
Reentranlock
ReentrantReadWriteLock
ReentrantLock是Lock接口的实现类
ReentrantReadWriteLock是ReadWriteLock接口的实现类
1、接口不同
ReentrantLock:Lock接口的核心方法是lock(),unlock(),tryLock()。以及独有的Condition操作线程方法:await()、singal()、singalAll()
ReentrantReadWriteLock:ReadWriteLock接口的核心方法是readLock(),writeLock()。独有的操作锁的静态方法有:Sync、FairSync和NonfairSync、ReadLock和WriteLock
2、操作锁的方法不同
ReentrantLock性能中等,建议需要手动操作线程时使用
ReentrantReadWriteLock适用于读多写少的情况。性能较高
3、性能不同
ReentrantLock:核心类AbstractQueuedSynchronizer,通过构造一个基于阻塞的CLH队列容纳所有的阻塞线程,而对该队列的操作均通过Lock-Free(CAS)操作但对已经获得锁的线程而言,ReentrantLock实现了偏向锁的功能
4、原理不同
ReentrantReadWriteLock和ReentrantLock的区别
Lock
即java.util.concurrent
Executor
ExecutorService
ScheduledExecutorService
Future
CountDownLatch
CyclicBarrier
Semaphore
ThreadFactory
常用类
JUC
ThreadLocal意为线程变量,ThreadLocal中填充的变量属于当前线程,该变量对其他线程而言是隔离的。同时,ThreadLocal为变量在每个线程中都创建了一个副本,那么每个线程可以访问自己内部的副本变量。简单来说,threadlocal是一种空间换时间的做法,每个线程可以访问自己内部threadlocalmap对象的value,通过这种方法避免资源在多线程之间共享
简介
1、在进行对象跨层传递的时候,使用ThreadLocal可以避免多次传递,打破层次间的约束。2、线程间数据隔离3、进行事务操作,用于存储线程事务信息。4、数据库连接,Session会话管理。
继承结构
结构
code
待补充
Entry
ThreadLocalMap(关键静态内部类)
SuppliedThreadLocal(继承了ThreadLocal)
ThreadLocal什么使用弱引用
threadlocalmap使用的key是弱引用,value是强引用。所以,如果threadlocal没有被外部强引用的情况下,在垃圾回收的时候,key就会被清理掉,而value不会被清理。这样一来,threadlocalmap中就会出现key为null的entry。假设不做任何措施的话,value永远无法被gc回收,这个时候就可能产生内存泄漏。但是threadlocalmap实现中已经考虑了这种情况,在调用set(),get(),remove()方法的时候,会清理掉key为null的记录,使用完threadlocal方法后,最好手动调用remove方法
内存泄漏解析
ThreadLocal
新建
就绪
运行
阻塞
等待
超时等待
终止
线程状态
继承Thread类来创建并启动多线程1、先定义一个类继承Thread类并重写run()方法(run()方法是线程的执行体)2、创建Thread子类的实例,也就是创建了线程对象3、启动线程,即调用线程的start()方法
实现Runnable接口创建并启动线程1、定义Runnable接口的实现类并重写run()方法(run()方法是线程的执行体)2、创建Runnable实现类的实例,并用这个实例作为Thread的target来创建thread对象,这个thread对象才是真正的线程对象
使用Callable和Future创建线程1、创建Callable接口的实现类,并实现call()方法,然后创建该实现类的实例(从java8开始可以直接使用Lambda表达式创建Callable对象)2、使用FutureTask类来包装Callable对象,该FutureTask对象封装了Callable对象的call()方法的返回值3、使用FutureTask对象作为Thread对象的target创建并启动线程(因为FutureTask实现了Runnable接口)4、调用FutureTask对象的get()方法来获得子线程执行结束后的返回值
使用线程池例如用Executor框架
线程如果只是实现Runnable或实现Callable接口,还可以继承其他类如果继承Thread类则无法继承其他类(java单继承)Run/Call 多个线程可以共享一个target对象,非常适合多线程处理同一份资源的情形。但是编程稍微复杂,如果需要访问当前线程,必须调用Thread.currentThread()方法
Thread&Runnable&Callable区别
如何创建一个线程
如何创建一个线程?
Java 提供了两种类型的线程:守护线程 和 用户线程用户线程 是高优先级线程。JVM 会在终止之前等待任何用户线程完成其任务。守护线程 是低优先级线程。其唯一作用是为用户线程提供服务
java的守护线程和用户线程
Java的线程和OS线程区别
线程
方法一:工厂模式创建ExecutorService executor = Executors.newFixedThreadPool(10);
如何创建线程池
降低资源消耗:通过池化技术重复利用已创建的线程,降低线程创建和销毁造成的损耗。提高响应速度:任务到达时,无需等待线程创建即可立即执行。提高线程的可管理性:线程是稀缺资源,如果无限制创建,不仅会消耗系统资源,还会因为线程的不合理分布导致资源调度失衡,降低系统的稳定性。使用线程池可以进行统一的分配、调优和监控。提供更多更强大的功能:线程池具备可拓展性,允许开发人员向其中增加更多的功能。比如延时定时线程池ScheduledThreadPoolExecutor,就允许任务延期执行或定期执行。
Runnable 接口不会返回结果或抛出检查异常,Callable会
Runnable vs Callable
execute()方法用于提交不需要返回值的任务,所以无法判断任务是否被线程池执行成功与否
并且可以通过 Future 的 get()方法来获取返回值,get()方法会阻塞当前线程直到任务完成,而使用 get(long timeout,TimeUnit unit)方法则会阻塞当前线程一段时间后立即返回,这时候有可能任务没有执行完
submit()方法用于提交需要返回值的任务。线程池会返回一个 Future 类型的对象,通过这个 Future 对象可以判断任务是否执行成功
execute() vs submit()
shutdown() 关闭线程池,线程池的状态变为 SHUTDOWN。线程池不再接受新任务了,但是队列里的任务得执行完毕。
shutdownNow() 关闭线程池,线程的状态变为 STOP。线程池会终止当前正在运行的任务,并停止处理排队的任务并返回正在等待执行的 List。
shutdown() vs shutdownNow()
isTerminated 当调用 shutdown() 方法后,并且所有提交的任务完成后返回为 true
isShutDown 当调用 shutdown() 方法后返回为 true。
isTerminated() vs isShutdown()
关键字对比
Executor:线程池顶级接口
ExecutorService:线程池次级接口,对Executor做了一些扩展,新增了一些功能
ScheduledExecutorService:对ExecutorService做了一些扩展,新增了一些定时任务相关的功能
AbstractExecutorService:抽象类,运用模版方法设计模式,自己实现了一部分功能
ThreadPoolExecutor:普通线程池类,包含一些最基本的线程池操作相关的方法实现
ScheduledThreadPoolExecutor:定时任务线程池,用于实现定时任务相关功能
ForkJoinPool:Java7中新增线程池,基于工作窃取理论实现,运用于大任务拆小任务,任务无限多的场景
执行最快,核心线程数为0,最大线程数为Integer.MAX_VALUE,使用同步队列SynchronousQueue,队列中一旦有元素,就会调入非核心线程区执行如果执行100个任务,每个任务执行时间短,就会产生线程复用,提升速度,如果执行时间过长会在非核心线程区不断创建新线程
不推荐使用:cpu100%+OOM
newCachedThreadPool()
执行慢,核心线程数用户自定且固定,最大线程数也等于这个值,使用LinkedBlockQueue当核心线程数太少,则任务会一组一组的执行
不推荐使用:OOM
newFixedThreadPool()
执行最慢,FixedThreadPool的单一版本
newSingleThreadPool()
增加功能的线程池,可以用做定时任务,DelayQueue
不推荐使用:这个在实际项目中基本不会被用到,因为有其他方案选择比如quartz
newScheduleThreadPool()
四种类型
Executors:线程池工具类,定义了一些快速实现线程池的方法
线程池结构
runState(运行状态)
workCount(线程数量)
运行状态由内部维护,不由用户显性设置
能接受新提交的任务,也能处理阻塞队列里的任务
1、running
不能接受新提交的任务,但能处理阻塞队列里的人物
2、shutdonw
不能接受新提交的任务,也不能处理阻塞队列里的任务,还会中断正在执行任务的线程
3、stop
如果所有的任务都已终止了,workerCount (有效线程数) 为0,线程池进入该状态后会调用 terminated() 方法进入TERMINATED 状态
4、tidying
在terminated() 方法执行完后进入该状态,默认terminated()方法中什么也没有做
5、terminated
状态转换
线程池状态
线程池运行状态(生命周期)
线程池中会维护一个核心线程数量(线程池的基本大小),corePoolSize即为指定核心线程数量大小,核心线程会一直存活,即使没有任务需要执行,并且只有在工作队列满了的情况下才会创建超出这个数量的线程,除非设置了allowCoreThreadTimeOut,设置allowCoreThreadTimeout=true(默认false)时,核心线程会超时关闭。
1、corePoolSize 线程池核心线程大小
先判断是否超Corepoolsize,超了再判断工作队列满没满,满了最后判断maximumPoolSize超了没,超了就走拒绝策略
2、maximumPoolSize 线程池最大线程数量
一个线程如果处于空闲状态,并且当前的线程数量大于corePoolSize,那么在指定时间后,这个空闲线程会被销毁,这里的指定时间由keepAliveTime来设定
ps:如果keepAliveTime指定为0,则任务一执行完,大于 corePoolSize 数的空闲线程立马销毁
3、keepAliveTime 空闲线程存活时间
keepAliveTime的计量单位
4、unit 空闲线程存活时间单位
基于数组的有界阻塞队列,可以防止资源耗尽问题
基于链表的无界阻塞队列
LinkedBlockingQuene
不缓存任务的阻塞队列
SynchronousQuene
具有优先级的无界阻塞队列,优先级通过参数Comparator实现。
PriorityBlockingQueue
新任务被提交后,会先进入到此工作队列中,任务调度时再从队列中取出任务(生产者-消费者模型)
5、workQueue 工作队列
创建一个新线程时使用的工厂,可以用来设定线程名、是否为daemon线程(守护线程)等等
6、threadFactory 线程工厂
该策略下,直接丢弃任务,并抛出RejectedExecutionException异常(拒绝执行异常)
Abort Policy(默认)
任务被拒绝添加后,会调用当前线程池的所在的线程直接去执行被拒绝的任务的run()方法如果线程池已经shutdown,则直接抛弃任务缺点:可能导致主线程阻塞
CallerRuns Policy
该策略下,直接丢弃任务,什么都不做
Discard Policy
该策略下,抛弃进入队列最早的那个任务,然后尝试把这次拒绝的任务放入队列
DiscardOldest Policy
当工作队列中的任务已到达最大限制,并且线程池中的线程数量也达到最大限制,这时如果有新任务提交进来,则需要拒绝策略处理
7、handler 拒绝策略
如果此时线程数小于核心线程数,那么就会新起一个线程来执行当前的任务。
如果此时线程数大于核心线程数,那么就会将任务塞入阻塞队列中,等待被执行。
如果阻塞队列满了,并且此时线程数小于最大线程数,那么会创建新线程来执行当前任务。
如果阻塞队列满了,并且此时线程数大于最大线程数,那么会采取拒绝策略
即先判断核心,再判断队列,最后判断最大线程数
整体流程
ps:Run.get.avai..()返回的是可用的计算资源(线程数),而不是CPU物理核心数超线程的CPU来说,单个物理处理器相当于拥有两个逻辑处理器,能够同时执行两个线程。例如物理计算机有4个处理器核心,返回值则为4x2=8
1、获取CPU核心线程数CPU核数=Runtime.getRuntime().availableProcessors()
ps:IO密集型(某大厂实践经验) 核心线程数 = CPU核数 / (1-阻塞系数) 例如阻塞系数 0.8,CPU核数为4 则核心线程数为20
ps:io密集型 2* cpu核数只是经验值,实际要找出最优线程数就需要进行压测,不同环境不同机器表现也不同
ps:最大线程数一般是核心的2倍左右
2、分析线程池处理的程序类型是CPU密集型,还是IO密集型
1、核心线程数该怎么设置合适
回答线程池的处理流程即可 核心线程数->工作队列->最大线程数用比喻的方式:核心线程数类似工厂的正式工,当工厂人手不足的时候就会请临时工,但所有员工的数量不能超过最大线程数当任务完成后,临时工将辞退,正式工依然留下
2、核心线程数和最大线程数区别
3、线程池处理流程
main方法
5、手写线程池简易版
线程池本质上是维护了一个个worker对象,每个worker对象即为一个线程
是一个hashset容器,用于存所有存活的worker当一个worker线程执行完任务,即:completedTaskCount += w.completedTasks;的时候从workers移除这个worker:workers.remove(w);
workers
是一个boolean返回类型的方法,用于创建worker(备注源码)
调用场景
addWorker()
为什么继承AQS? 加锁
继承了AQS和实现了runnable接口
Worker源码
worker的线程本质也就是Worker.thread
Worker类
worker
ctl 是一个涵盖了两个概念的原子整数类,它将工作线程数和线程池状态结合在一起维护,低 29 位存放 workerCount,高 3 位存放 runState
ps:并发包中有很多实现都是一个字段存多个值的,比如读写锁(ReentrantReadWriteLock)的高 16 位存放读锁,低 16 位存放写锁,这种一个字段存放多个值可以更容易的维护多个值之间的一致性,也算是极简主义
ctl
线程池源码分析
聊拒绝策略
1、线程池创建线程需要获取mainlock这个全局锁,会影响并发效率,所以使用阻塞队列把第一步创建核心线程与第三步创建最大线程隔离开来,起一个缓冲的作用
2、引入阻塞队列,是为了在执行execute()方法时,尽可能的避免获取全局锁
为什么核心线程满了后,任务先加入到阻塞队列,而不是继续创建线程直到满足最大线程再进阻塞队列呢?
线程池会新起一个线程来执行这个新任务,不管老线程是否空闲
此时线程数小于核心线程数,并且线程都处于空闲状态,现提交一个任务,是新起一个线程还是给之前创建的线程?
销毁
超过keepAliveTime的线程会发生什么
阿里守则:线程池不允许使用Executors去创建,而是通过ThreadPoolExecutor的方式Executors只能指定的4种创建的线程池类型(即预设好的ThreadPoolExecutor),而ThreadPoolExecutor可以指定7种参数,更加灵活
1、主要问题是堆积的请求处理队列可能会耗费非常大的内存,甚至OOM例如:newFixedThreadPool和newSingleThreadExecutor:
2、主要问题是线程数最大数是Integer.MAX_VALUE,可能会创建数量非常多的线程,甚至OOM。例如:newCachedThreadPool和newScheduledThreadPool:
线程池什么时候会发生OOM?
Executors只能指定的4种创建的线程池类型(即预设好的ThreadPoolExecutor),而ThreadPoolExecutor可以指定7种参数,更加灵活
线程池为什么不推荐使用Executors去创建,而是通过ThreadPoolExecutor的方式
面试
线程池7个参数
监控内存泄露,跟踪垃圾回收,执行时内存、cpu分析,线程分析
Java VisualVM
可视化线程工具
getActiveCount() : 取得多少个线程正在执行的任务
getPoolSize() : 当前池中里面有多少个线程,包括正在执行任务的线程,也包括在休眠的线程
getCompletedTaskCount() :取得已经执行完成的任务数
getCorePoolSize() : 取的构造方法传入的corePoolSize参数值
getMaximumPoolSize() : 取的构造方法中MaximumPoolSize的参数值
getPoolSize() : 取的池中有多少个线程
getTaskCount() : 取得有多少个任务发送给了线程池,运行的+ 排队的
线程池执行类ThreadPoolExecutor
相关API(代码层面)
如何监控线程池状态
存放优先级:corePollSize -> queue -> maxPoolSize
执行优先级:corePollSize -> maxPoolSize -> queue
abortPolicy:抛出RejectedExecutionException
callerRunsPolicy:如果线程没关闭,让调用者执行此任务
DiscardPolicy:放弃本次任务
DiscardOldestPolicy:丢弃阻塞队列中最老的任务,并将新任务加入
放不下时:拒绝策略如果线程达到maximumPoolSize任有新任务,就会执行拒绝策略。
任务调度
1.快速响应用户请求(响应速度>吞吐量)比如说用户要查看一个商品的信息,那么我们需要将商品维度的一系列信息如商品的价格、优惠、库存、图片等等聚合起来,展示给用户从用户体验角度看,这个结果响应的越快越好,如果一个页面半天都刷不出,用户可能就放弃查看这个商品了这种场景最重要的就是获取最大的响应速度去满足用户,所以应该不让队列去缓冲并发任务,调高corePoolSize和maxPoolSize去尽可能创造多的线程快速执行任务PS:使用同步队列:SynchronousQueue而不是缓冲队列,如:有界阻塞队列ArrayBlockingQueue、无界阻塞队列:LinkedBlockingQueue
2.快速处理批量任务(吞吐量>响应速度)比如说统计某个报表,需要计算出全国各个门店中有哪些商品有某种属性,用于后续营销策略的分析这种场景需要执行大量的任务,我们也会希望任务执行的越快越好,但这类场景任务量巨大,并不需要瞬时的完成,而是关注如何使用有限的资源,尽可能在单位时间内处理更多的任务,也就是吞吐量优先的问题所以应该设置队列去缓冲并发任务,调整合适的corePoolSize去设置处理任务的线程数。在这里,设置的线程数过多可能还会引发线程上下文切换频繁的问题,也会降低处理任务的速度,降低吞吐量
如何判断?CPU 密集型简单理解就是利用 CPU 计算能力的任务比如你在内存中对大量数据进行排序但凡涉及到网络读取,文件读取这类都是 IO 密集型,这类任务的特点是 CPU 计算耗费时间相比于等待 IO 操作完成的时间来说很少,大部分时间都花在了等待 IO 操作完成上
CPU 密集型任务(N+1): 这种任务消耗的主要是 CPU 资源,可以将线程数设置为 N(CPU 核心数)+1,比 CPU 核心数多出来的一个线程是为了防止线程偶发的缺页中断,或者其它原因导致的任务暂停而带来的影响。一旦任务暂停,CPU 就会处于空闲状态,而在这种情况下多出来的一个线程就可以充分利用 CPU 的空闲时间。
I/O 密集型任务(2N): 这种任务应用起来,系统会用大部分的时间来处理 I/O 交互,而线程在处理 I/O 的时间段内不会占用 CPU 来处理,这时就可以将 CPU 交出给其它线程使用。因此在 I/O 密集型任务的应用中,我们可以多配置一些线程,具体的计算方法是 2N。
如何根据类型决定线程数大小?
CPU密集型任务还是IO密集型任务?
事故1:事故描述:2018年XX页面展示接口产生大量调用降级,数量级在几十到上百。事故原因:该服务接口内部逻辑使用线程池做并行计算,由于没有预估好调用的流量,导致最大核心数设置偏小,大量抛出RejectedExecutionException
事故2:事故描述:2018年XX业务提供的服务执行时间过长,作为上游服务整体超时,大量下游服务调用失败。事故原因:该服务处理请求内部逻辑使用线程池做资源隔离,由于队列设置过长,最大线程数设置失效,导致请求数量增加时,大量任务堆积在队列中,任务执行时间过长,最终导致下游服务的大量调用超时失败
美团故障场景
能否不用线程池?不行,因为目前其他技术在java领域不够成熟
有没有通用计算公式设置参数?没有,cpu密集型和io密集型执行结果差距较大
简化线程池配置:线程池构造参数有8个,但是最核心的是3个:corePoolSize、maximumPoolSize,workQueue
参数可动态修改
增加线程池监控
动态配置线程池参数?可以
故障后的解决方案
使用 ThreadPoolExecutor 的构造函数声明线程池
监测线程池运行状态。比如 SpringBoot 中的 Actuator 组件除此之外,还可以用ThreadPoolExecutor提供了获取线程池当前的线程数和活跃线程数、已经执行完成的任务数、正在排队中的任务数等等
事故3:假如我们线程池的核心线程数为 n,父任务数量为 n,父任务下面有两个子任务,其中一个已经执行完成,另外一个被放在了任务队列中。由于父任务把线程池核心线程资源用完,所以子任务因为无法获取到线程资源无法正常执行,一直被阻塞在队列中。父任务等待子任务执行完成,而子任务等待父任务释放线程池资源,这也就造成了 \"死锁\"。
建议不同类别的业务用不同的线程池
给线程池命名。默认情况下创建的线程名字类似 pool-1-thread-n 这样的,没有业务含义,不利于我们定位问题
正确配置线程池参数(最难)
线程池最佳实践
业务场景
线程池
1、轻量级同步机制,保证可见性,有序性,不保证原子性。每次使用被volatile修饰的变量都从主存里获取,2、禁止指令重排
在加了volatile的变量之后的高速缓存里的变量都失效,重新从主存里读取,并且之后的代码不会重排序到volatile前面
读屏障Load Barrier
加了volatile的变量之前的赋值操作都会同步到主存中同时对其他线程可见,并且之前的代码不会重排序到volatile后面
写屏障Store Barrier
volatile的内存屏障策略非常严格保守,非常悲观且毫无安全感的心态在每个volatile写操作前插入StoreStore屏障,在写操作后插入StoreLoad屏障;在每个volatile读操作前插入LoadLoad屏障,在读操作后插入LoadStore屏障
底层原理:内存屏障
因为volatile是轻量级机制,而原子操作是一整个操作完成或失败,若遇到阻塞就会等很久。
为什么没有原子性?
MESI分别代表缓存行数据所处的四种状态,通过对这四种状态的切换,来达到对缓存数据进行管理的目的
M 修改(Modify、E 独享、互斥(Exclusive)、S 共享(Shared)、I 无效(Invalid)
实际上就是在进行写的时候只有一个能写,告诉别的核中的缓存都是过期的需要从最新的里面读;在读的时候大家可以一起读
但是A核准备要写的时候,先要通知其他核,其他核会返回一个信息后才能修改,在等待消息过程中,写操作会一直阻塞,效率很低,因此引入了写缓存(Store Buffer)的无效化队列(Invalidate Queue)
缓存一致性协议(MESI)
LoadLoad屏障:对于这样的语句Load1; LoadLoad; Load2,在Load2及后续读取操作要读取的数据被访问前,保证Load1要读取的数据被读取完毕
StoreStore屏障:对于这样的语句Store1; StoreStore; Store2,在Store2及后续写入操作执行前,保证Store1的写入操作对其它处理器可见
LoadStore屏障:对于这样的语句Load1; LoadStore; Store2,在Store2及后续写入操作被刷出前,保证Load1要读取的数据被读取完毕
StoreLoad屏障:对于这样的语句Store1; StoreLoad; Load2,在Load2及后续所有读取操作执行前,保证Store1的写入对所有处理器可见。它的开销是四种屏障中最大的。在大多数处理器的实现中,这个屏障是个万能屏障,兼具其它三种内存屏障的功能
内存屏障
深度解析
intel指南中解释:lock前缀表示该操作就是一个原子操作。原子操作是指不会被线程调度机制打断的操作;这种操作一旦开始,就一直运行到结束,中间不会有任何 context switch (切换到另一个线程)。
汇编指令层面 volatile对应的语句加了lock前缀(内存屏障)
使用 LOCK 指令前缀时,它会使 CPU 宣告一个 LOCK# 信号,这样就能确保在多处理器系统或多线程竞争的环境下互斥地使用这个内存地址。当指令执行完毕,这个锁定动作也就会消失有点类似synchronized,但volatile更底层,开销更小
底层原理
volatile
1、线程的创建
首先通过对象.run()方法可以执行方法,但是不是使用的多线程的方式,就是一个在主线程执行的普通方法,要想实现多线程的方式,一定需要通过对象.start()方法。调用start()里面的start0()方法该线程并不一定会立马执行,只是将线程变成了可运行状态(NEW ---> RUNNABLE)。具体什么时候执行,取决于 CPU ,由 CPU 统一调度
为什么用start()方法而不用run()方法
Java的线程是不允许启动两次的,第二次调用必然会抛出IllegalThreadStateException,这是一种运行时异常,多次调用start被认为是编程错误。
两次start()
一个线程两次调用start()方法会出现什么情况?
start() 可以启动一个新线程,run()不能(执行run也只是主线程里的一个普通方法,按正常调用顺序来)
start()不能被重复调用,run()可以
start()中的run代码可以不执行完就继续执行下面的代码,即进行了线程切换。直接调用run方法必须等待其代码全部执行完才能继续执行下面的代码。
start() 实现了多线程,run()没有实现多线程。
start和run的区别
2、线程的启动
join:t.join()方法只会使主线程(或者说调用t.join()的线程)进入等待池并等待t线程执行完毕后才会被唤醒。并不影响同一时刻处在运行状态的其他线程
3、线程的方法
共享内存
消息传递
4、线程间通信
synchronized+wait/notify
cas
信号量
reentrantlock
5、线程间同步
6、线程返回值
ReentrantLock和Synchronized的区别和原理
sleep 方法是属于 Thread 类中的,sleep 过程中线程不会释放锁,只会阻塞线程,让出cpu给其他线程,但是他的监控状态依然保持着,当指定的时间到了又会自动恢复运行状态,可中断,sleep 给其他线程运行机会时不考虑线程的优先级,因此会给低优先级的线程以运行的机会
sleep
wait 方法是属于 Object 类中的,wait 过程中线程会释放对象锁,同时阻塞线程,只有当其他线程调用 notify 才能唤醒此线程。wait 使用时必须先获取对象锁,即必须在 synchronized 修饰的代码块中使用,那么相应的 notify 方法同样必须在 synchronized 修饰的代码块中使用,如果没有在synchronized 修饰的代码块中使用时运行时会抛出IllegalMonitorStateException的异常
No,只有作为“锁”的对象,线程在内部调用其wait(),notity()或notifyall()才能使线程(本线程)陷入阻塞,或者唤醒其他线程(同步代码块执行完毕后)
线程持有的任何对象.wait()都会使线程陷入阻塞吗?
wait——notify
和 sleep 一样都是 Thread 类的方法,都是暂停当前正在执行的线程对象,不会释放资源锁,和 sleep 不同的是 yield方法并不会让线程进入阻塞状态,而是让线程重回就绪状态,它只需要等待重新获取CPU执行时间,所以执行yield()的线程有可能在进入到可执行状态后马上又被执行。还有一点和 sleep 不同的是 yield 方法只能使同优先级或更高优先级的线程有执行的机会
yield
等待调用join方法的线程结束之后,程序再继续执行,一般用于等待异步线程执行完结果之后才能继续运行的场景。例如:主线程创建并启动了子线程,如果子线程中药进行大量耗时运算计算某个数据值,而主线程要取得这个数据值才能运行,这时就要用到 join 方法了
join
属于LockSupport类,比如AQS中实现线程挂起的方法就是使用了park(),park用于挂起当前线程,如果许可可用,会立马返回,并消费掉许可
park——unpark
1、实现不同
2、对待锁的方式不同
sleep&wait&park区别
wait()&sleep()&yield&join&park
并发的关键是你有处理多个任务的能力,不一定要同时。并行的关键是你有同时处理多个任务的能力
处理这多个请求的方式可以是并行的,这样就要求硬件需要有多个计算核心
也可以是只有一个计算资源,处理完一个请求再处理第二个 / 在不同请求间不停切换运行,意味着同时可以有许多线程存在,但每一时刻正在跑的线程只有一个
并发是一种机制,指在多个请求同时发起支持并发意思就是包容同时来到的多个请求,或说包容同时存在的多个线程
并行:并行是一种处理方式(或可以说是一种架构方式),支持并行即指“有多个计算核心,可以在同一时间同时处理多个任务 / 把一个任务分割成小块,在同一时间同时处理多个部分
并行:同时执行的意思,无需过度解读。判断程序是否处于并行的状态,就看同一时刻是否有超过一个“工作单位”在运行就好了。所以,单线程永远无法达到并行状态
并发&并行
注重的是结果,同步就是一直等待出结果才离开。异步:不用一直等待,异步方法会另外执行,直到完成才通知调用者
举例:所有的操作都做完,才返回给用户。这样用户在线等待的时间太长,给用户一种卡死了的感觉(就是系统迁移中,点击了迁移,界面就不动了,但是程序还在执行,卡死了的感觉)。这种情况下,用户不能关闭界面,如果关闭了,即迁移程序就中断了。
同步:同步是一种要求,即指“在支持并发的情况下,不同请求之间(线程之间)不能发生数据冲突或资源抢占冲突”同步方法调用一旦开始,调用者必须等到方法调用返回后,才能继续后续的行为
举例:将用户请求放入消息队列,并反馈给用户,系统迁移程序已经启动,你可以关闭浏览器了。然后程序再慢慢地去写入数据库去。这就是异步。但是用户没有卡死的感觉,会告诉你,你的请求系统已经响应了。你可以关闭界面了
异步:调用者无需等待第一个方法返回,就可以开始其他的任务异步方法调用更像一个消息传递,一旦开始,方法调用就会立即返回,调用者就可以继续后续的操作。而异步方法通常会在另外一个线程中,“真实”地执行着。整个过程,不会阻碍调用者的工作
同步&异步
高并发术语解释:qps、tps、pv...
并发&并行&同步&异步
CAS由于是在硬件层面保证的原子性,不会锁住当前线程
CAS在操作值的时候和检查值是否已经变化,没有变化的情况下才会进行更新。但是如果一个值原来是A,变成B,又变成A,那么CAS进行检查时会认为这个值没有变化,操作成功。
解决:版本号,在变量前面追加上版本号,每次变量更新的时候把版本号加一,那么A-B-A就变成1A-2B-3A
自旋CAS如果长时间不成功,他会给CPU带来非常大的执行开销。因此CAS不适合竞争十分频繁的场景
循环时间长开销大
当对一个共享变量执行操作时,我们可以使用循环CAS的方式来保证原子操作,但是对多个共享变量操作时,循环CAS就无法保证操作的原子性,这个时候就可以用锁
只能保证一个共性变量的原子操作
存在问题
Atomic包下的类可以保证多线程环境下,当某个线程在执行atomic的方法时,不会被其他线程打断,而别的线程就像自旋锁一样,一直等到该方法执行完成,才由JVM从等待队列中选择一个线程执行。Atomic类在软件层面上是非阻塞的,它的原子性其实是在硬件层面上借助相关的指令来保证的
Atomic包:如AtomicInteger
不用锁如何解决并发问题
多线程和并发
ioc容器通过DI方式(依赖注入)控制了外部资源获取(不只是对象包括文件等),由容器帮我们查找及注入依赖对象,对象只是被动的接受依赖对象
Bean之间的解耦
不关心bean的底层实现
对象交由容器管理后,默认是单例的,不会重复创建多个相同对象,避免了资源浪费问题
单例
换dao的时候只要更改配置类
为什么需要ioc
IOC(控制反转)
Target(目标)
Proxy(代理)
JoinPoint(连接点)
PointCut(切点)
Advice(增强)
Advisor(切面)
Weaving(织入)
Introdution(引入)
相关术语
Before Advice(前置增强)
After Advice(后置增强)
Around Advice(环绕增强)
Throws Advice(抛出增强)
Introdution Advice(引入增强)
增强类型
代理类除了是客户类和委托类的中介之外,我们还可以通过给代理类增加额外的功能来扩展委托类的功能,这样做我们只需要修改代理类而不需要再修改委托类,符合代码设计的开闭原则。代理类主要负责为委托类预处理消息、过滤消息、把消息转发给委托类,以及事后对返回结果的处理等。代理类本身并不真正实现服务,而是通过调用委托类的相关方法,来提供特定的服务。真正的业务功能还是由委托类来实现,但是可以在业务功能执行的前后加入一些公共的服务。例如我们想给项目加入缓存、日志这些功能,我们就可以使用代理类来完成,而没必要打开已经封装好的委托类。
增加功能
代理类不让客户类访问委托类(例如 商家不让顾客直接与厂家交易),其特征是代理类和委托类实现相同的接口
控制访问
作用:
<tx:annotation-driven transaction-manager=\"txManager\" proxy-target-class=\"true\"/>
基于注解(@Aspect)
<aop:config expose-proxy=\"true\" proxy-target-class=\"false\"></aop:config>默认false,true使用cglib代理模式,false或者省略使用JDK代理
基于xml配置(aop:config)
Spring+AspectJ
使用
获取和匹配增强器
静态代理类是手动实现的,创建一个java类,并和委托类实现同一个接口表示该类为代理类优点:可以做到在符合开闭原则的情况下对目标对象进行功能扩展。缺点:我们得为每一个服务都得创建代理类,工作量太大,不易管理。同时接口一旦发生改变,代理类也得相应修改。
静态代理
动态代理无需手动创建代理类,代理对象直接由代理生成工具动态生成(在程序运行期间由JVM根据反射等机制动态的生成源码,类似工厂模式
用户类通过调用java.lang.reflect.Proxy类下的newProxyInstance()方法来创建代理对象优点:因为有接口,所以使系统更加松耦合缺点:JDK动态代理必须要有接口
JDK动态代理
优点:因为代理类与目标类是继承关系,所以不需要有接口的存在缺点:因为没有使用接口,所以系统的耦合性比使用JDK的动态代理高
CGLIB动态代理
动态代理Code
动态代理
aop利用静态代理(AspectJ aop)和动态代理(JDK动态代理、CGLIB动态代理)实现。静态代理是在编译时增强代码,动态代理是在运行时增强代码。静态代理性能更高
jdk动态代理是基于invocationHandler接口和Proxy类实现,invocationHandler接口通过invoke方法反射调用目标类中的方法
aop
反向代理:隐藏服务端(例如10086,nginx反向代理负载均衡),架设在服务器端,通过缓冲经常被请求的页面来缓解服务器的工作量,将客户机请求转发给内部网络上的目标服务器;并将从服务器上得到的结果返回给Internet上请求连接的客户端,此时代理服务器与目标主机一起对外表现为一个服务器
虽然正向代理服务器和反向代理服务器所处的位置都是客户端和真实服务器之间,所做的事情也都是把客户端的请求转发给服务器,再把服务器的响应转发给客户端,但是二者之间还是有一定的差异的。
1、正向代理其实是客户端的代理,帮助客户端访问其无法访问的服务器资源。反向代理则是服务器的代理,帮助服务器做负载均衡,安全防护等。
2、正向代理一般是客户端架设的,比如在自己的机器上安装一个代理软件。而反向代理一般是服务器架设的,比如在自己的机器集群中部署一个反向代理服务器。
3、正向代理中,服务器不知道真正的客户端到底是谁,以为访问自己的就是真实的客户端。而在反向代理中,客户端不知道真正的服务器是谁,以为自己访问的就是真实的服务器。
4、正向代理和反向代理的作用和目的不同。正向代理主要是用来解决访问限制问题。而反向代理则是提供负载均衡、安全防护等作用。二者均能提高访问速度。
扩展:正向代理和反向代理
AOP
IOC是什么
IOC容器初始化过程
依赖注入的实现方法
依赖注入的相关注解
依赖注入的过程
Bean的生命周期
Bean的作用范围
使用Spring XML方式配置,该方式用于在纯Spring 应用中,适用于简单的小应用,当应用变得复杂,将会导致XMl配置文件膨胀 ,不利于对象管理。<bean id=\"xxxx\" class=\"xxxx.xxxx\"/>
XML
这种方式用在Spring Boot 应用中。@Configuration 标识这是一个Spring Boot 配置类,其将会扫描该类中是否存在@Bean 注解的方法,比如如下代码,将会创建User对象并放入容器中。@ConditionalOnBean 用于判断存在某个Bean时才会创建User Bean.这里创建的Bean名称默认为方法的名称user。也可以@Bean(\"xxxx\")定义。
2、@Bean注解
3、@Import注解
4、使用ImportSelector或者ImportBeanDefinitionRegistrar接口,配合@Import实现。
这种方式的应用场景是为接口创建动态代理对象,并向SPRING容器注册。比如MyBatis中的Mapper接口,Mapper没有实现类,启动时创建动态代理对象,将该对象注册到容器中,使用时只要@Autowired注入即可使用,调用接口方法将会被代理拦截,进而调用相关的SqlSession执行相关的SQL业务逻辑
手动注入Bean容器
Bean创建的两种方式
如何通过注解配置文件
BeanFactory & FactoryBean & ApplicationContext
AOP是什么
AOP相关注解
AOP相关术语
AOP的过程
IOC和AOP面试
springboot自动配置原理
1. 通过 SpringFactoriesLoader加载 META-INF/spring.factories⽂件,获取并创建SpringApplicationRunListener对象2. 然后由 SpringApplicationRunListener来发出 starting 消息3. 创建参数,并配置当前 SpringBoot 应⽤将要使⽤的 Environment4. 完成之后,依然由 SpringApplicationRunListener来发出 environmentPrepared 消息5. 创建 ApplicationContext6. 初始化 ApplicationContext,并设置 Environment,加载相关配置等7. 由 SpringApplicationRunListener来发出 contextPrepared消息,告知SpringBoot 应⽤使⽤的ApplicationContext已准备OK8. 将各种 beans 装载⼊ ApplicationContext,继续由 SpringApplicationRunListener来发出contextLoaded 消息,告知 SpringBoot 应⽤使⽤的 ApplicationContext已装填OK9. refresh ApplicationContext,完成IoC容器可⽤的最后⼀步10. 由 SpringApplicationRunListener来发出 started 消息11. 完成最终的程序的启动12. 由 SpringApplicationRunListener来发出 running 消息,告知程序已运⾏起来了
springboot启动原理
1、springboot启动时会扫描application.properties或者application.yml作为默认的配置文件2、扫描顺序:工程根目录:./config/ 优先于 工程根目录:./classpath:/config/ 优先于 classpath:/3、高优先级配置 会覆盖 低优先级配置,形成互补配置
springboot配置文件加载流程
通常用在主类上
@Configuration
@EnableAutoConfiguration
@ComponentScan
@SpringBootApplication
默认byType方式(可以修改),把配置好的Bean拿来用,完成属性、方法的组装,它可以对类成员变量、方法及构造函数进行标注,完成自动装配的工作。当加上(required=false)时,就算找不到bean也不报错
ps:byType和byName
@AutoWired
用于标注控制层,控制视图跳转以及视图层的请求响应
@Controller 控制器(注入服务)
用于标注业务层组件,主要用来进行业务的逻辑处理
@Service
用于标注数据访问组件,即DAO组件
@Repository
用于标注控制层组件(如struts中的action),包含@Controller和@ResponseBody
作用在方法上,将java对象转为json格式的数据,表示该方法的返回结果直接写入 HTTP response body例如ajax向后台发起请求,如果不加ResponseBody则返回的是java对象(Object),加了则是返回json
@ResponseBody
@RestController
将普通pojo(Bean)实例化到spring容器中泛指组件,当组件不好归类的时候(不属于@Controller、@Services等的时候),可以使用这个注解进行标注。
@Component
组件扫描。相当于,如果扫描到有@Component @Controller @Service等这些注解的类,则把这些类注册为bean
指出该类是 Bean 配置的信息源,相当于XML中的,一般加在主类上
springboot常用注解
spring-boot-starter-actuator
提供了很多监控和管理你的spring boot应用的HTTP或者JMX端点,并且你可以有选择地开启和关闭部分功能。当spring boot应用中引入actuator的依赖之后,将自动的拥有审计、健康检查、Metrics监控功能
服务器之间如何检测是否宕机(SpringBoot健康检查与监控)
如何检测到用户掉线
SpringBoot
用户发送请求至前端控制器DispatcherServlet;DispatcherServlet收到请求调用HandlerMapping;HandlerMapping根据请求的url找到具体的HandlerMapping处理器,生成并返回处理器执行链HandlerExecutionChain。(拦截器链里装有handler对象,拦截器)根据handler拿到对应的适配器。处理拦截器的prehandler方法。适配器执行handler,返回ModelAndView;处理拦截器的poshandler方法DispatcherServlet将ModelAndView传给ViewReslover视图解析器ViewReslover解析后返回具体View。(主要是提供视图缓存的支持,对redirect和forward前缀的处理)DispatcherServlet对View进行渲染视图(即将模型数据model填充至视图中)。DispatcherServlet响应用户
springMVC接受请求到响应请求的一个流程
spring mvc运行原理
提供方 @Autowired是Spring的注解,@Resource是javax.annotation注解
注入方式 @Autowired先按照Type 注入,如果有多个bean,则按照Name注入;@Resource默认按Name自动注入,也提供按照Type 注入
@Autowired与@Resource的区别
编程式事务:在代码中手动的管理事务的提交、回滚等操作,代码侵入性比较强
基于TX和AOP的xml配置文件方式
作用在类:表示所有该类的public方法都配置相同的事务属性信息
作用在方法:方法上的事务 > 类的事务,方法上的优先
作用在接口(不推荐):因为注解是不能继承的,第一个实现接口的类会有事务属性,但这个类再去调用别的方法,就会失效
作用位置
spring在TransactionDefinition接口中定义了七个事务传播行为:propagation_requierd:如果当前没有事务,就新建一个事务,如果已存在一个事务中,加入到这个事务中,这是最常见的选择。 propagation_supports:支持当前事务,如果没有当前事务,就以非事务方法执行。 propagation_mandatory:使用当前事务,如果没有当前事务,就抛出异常。 propagation_required_new:新建事务,如果当前存在事务,把当前事务挂起。 propagation_not_supported:以非事务方式执行操作,如果当前存在事务,就把当前事务挂起。 propagation_never:以非事务方式执行操作,如果当前事务存在则抛出异常。 propagation_nested:如果当前存在事务,则在嵌套事务内执行。如果当前没有事务,则执行与propagation_required类似的操作
propagation 事务传播行为
isolation 事务的隔离级别
readOnly 是否只读
rollbackFor :用于指定能够触发事务回滚的异常类型,可以指定多个异常类型
常用属性
基于@Transactional注解
声明式事务
介绍spring事务
最常见:含事务的B方法的异常被A方法的catch捕获,导致B方法不能正常回滚,进而事务失效
因为事务拦截器需要在目标方法执行前后进行拦截
@Transactional 不用在 public 修饰的方法上(且不会报错)
因为基于AOP代理,只有从类的外部调用类中含事务的方法才会生效
同一个类中的不含事务的A方法调用含事务的B方法(不论B是public还是private)
最少见:数据库引擎不支持事务,InnoDB支持,MyISAM不支持
@Transactional失效场景
所有的Aware方法都是在初始化阶段之前调用的
bean生命周期(singleton才有)
获取 BeanName,对传入的 name 进行解析,转化为可以从 Map 中获取到 BeanDefinition 的 bean name。合并 Bean 定义,对父类的定义进行合并和覆盖,如果父类还有父类,会进行递归合并,以获取完整的 Bean 定义信息实例化,使用构造或者工厂方法创建 Bean 实例。属性填充,寻找并且注入依赖,依赖的 Bean 还会递归调用 getBean 方法获取。初始化,调用自定义的初始化方法。获取最终的 Bean,如果是 FactoryBean 需要调用 getObject 方法,如果需要类型转换调用 TypeConverter 进行转化
bean加载过程
singleton : 唯一 bean 实例,Spring 中的 bean 默认都是单例的
prototype : 每次请求都会创建一个新的 bean 实例
request : 每一次HTTP请求都会产生一个新的bean,该bean仅在当前HTTP request内有效
session : 每一次HTTP请求都会产生一个新的 bean,该bean仅在当前 HTTP session 内有效
作用域
BeanFactory源码
FactoryBean源码
BeanFactory是接口,提供了IOC容器最基本的形式,给具体的IOC容器的实现提供了规范, FactoryBean也是接口,为IOC容器中Bean的实现提供了更加灵活的方式,FactoryBean在IOC容器的基础上给Bean的实现加上了一个简单工厂模式和装饰模式(如果想了解装饰模式参考:修饰者模式(装饰者模式,Decoration) 我们可以在getObject()方法中灵活配置。其实在Spring源码中有很多FactoryBean的实现类.
BeanFactory和FactoryBean区别?
当我们尝试按name从BeanFactory.getBean(beanname)一个Bean时,返回的一定是A类对应的实例吗?答案是否, 当A需要需要创建代理对象时,我们getBean 得到是 代理对象的引用
bean
A绑定到ObjectFactory 注册到工厂缓存singletonFactory中,B在填充A时,先查成品缓存有没有,再查半成品缓存有没有,最后看工厂缓存有没有单例工厂类,有A的ObjectFactory。调用getObject ,执行扩展逻辑,可能返回的代理引用,也可能返回原始引用。成功获取到A的早期引用,将A放入到半成品缓存中,B填充A引用完毕。代理问题, 循环依赖问题都解决了
singletonObjects:第一级缓存,里面存放的都是创建好的成品Bean
earlySingletonObjects : 第二级缓存,里面存放的都是半成品的Bean(实例化,未完成初始化的单例对象(未完成属性注入的对象))
singletonFactories :第三级缓存, 不同于前两个存的是 Bean对象引用,此缓存存的bean 工厂对象,也就存的是 专门创建Bean的一个工厂对象。此缓存用于解决循环依赖(存放ObjectFactory对象)
为什么要有二级缓存?
所有循环依赖都可以用三级缓存解决吗?
三级缓存
循环依赖
它是一个接口,在spring用作一个标识作用比如beanNameAware继承aware接口自定义一个类实现这个接口,重写它的setBeanNameAware方法当容器bean初始化时发现这个bean属于BeanNameAawre这个类那么就会去调用它的setBeanName以及其它重写的方法
Aware作用
意思为:关闭钩子函数,实现在程序退出时关闭资源、平滑退出的功能
ShutDownHook
java程序运行在JVM上,有很多情况可能会突然崩溃掉,比如OOM、用户强制退出、业务其他报错等一系列的问题可能导致我们的进程挂掉。如果我们的进程在运行一些很重要的内容,比如事务操作之类的,很有可能导致事务的不一致性问题。所以,实现应用的优雅关闭还是蛮重要的,起码我们可以在关闭之前做一些记录补救操作
如何优雅关闭springboot
Spring
也就是说属性完全依赖主键,主键能唯一表示这些属性
一是必须有一个(及以上)主键;二是没有包含在主键中的列必须全部依赖于全部主键,而不能只依赖于主键的一部分而不依赖全部主键
第三范式:建立在第二范式基础上,非主键只能依赖主键,不能依赖非主键
如果通过A属性(属性组)(主键),可以确定唯一B属性,那么B依赖A
依赖
B属性需要完全依赖A属性组(主键)才能确定唯一,比如语文成绩需要完全依赖学号和科目,不可以只通过学号或者科目获得
完全依赖
B属性需要部分依赖A属性组(主键)才能确定唯一,比如姓名需要依赖属性组(学号,班级)其中的学号就能行
部分依赖
A确定B,B确定C,则C传递依赖A
传递依赖
能唯一表示一条数据的属性或属性集,比如(学号),(学号,性别)
超键
能唯一表示一条数据的属性或属性集,b style=\
候选键
能唯一表示一条数据的b style=\
主键
候选码的并集
主属性
非候选码
非主属性
解决办法:可以在任意的一方添加外键 指向 另一方的主键
1对1
解决办法:在多的一方建立外键 指向 1的一方的主键
1对n
解决办法:多对多的关系实现必须通过第三张中间表
n对n
借词:一对一,一对多,多对多
1对1 & 1对n & n对n
先需求分析,再画E-R模型,然后根据模型设计数据库,最后就是写代码、测试和部署
数据库如何设计的?
数据库三大范式
负责和客户端建立连接,获取并验证用户权限以及维持和管理连接(在用户建立连接后,即使管理员改变连接用户的权限,也不会影响到已连接的用户)
连接为长连接,连接时长由wait_timeout控制,默认值8小时
使用show processlist 可以查看所有连接的信息
基于TCP协议
连接器(建立管理连接,验证权限)
因为实际缓存命中率低,所以被mysql8及以后被废弃
但在实际情况下,查询缓存一般没有必要设置。因为在查询涉及到的表被更新时,缓存就会被清空。所以适用于静态表即因为实际缓存命中率低,所以被废除
查询缓存(查询到缓存直接返回结果)
扫描字符流,根据构词规则识别单个单词,如 select,表名,列名,判断其是否存在等。
词法分析
判断语句是否符合 MySQL 语法,在词法分析的基础上将单词序列组成语法短语,最后生成语法树,提交给优化器,
语法分析
分析器(语法、词法分析)
基于开销的优化器,以确定例如:索引的使用,join 表的连接顺序以及处理查询等的最优解方式,也就是说执行查询之前,都会先选择一条自以为最优的方案,然后执行这个方案来获取结果
优化器(选择最优的执行方案)
在具体执行语句前,会先进行权限的检查,通过后使用数据引擎提供的接口,进行查询。如果设置了慢查询,会在对应日志中看到 rows_examined 来表示扫描的行数。在一些场景下(索引),执行器调用一次,但在数据引擎中扫描了多行,所以引擎扫描的行数和 rows_examined 并不完全相同。
执行器(操作存储引擎,返回结果)
server层
buffer pool
内存管理
定义:只对于非聚集索引(非唯一)的插入、删除和更新有效,对于每一次的插入不是写到索引页中,而是先判断插入的非聚集索引页是否在缓冲池中,如果在则直接插入,若不在,则先放到Insert Buffer 中,再按照一定的频率进行合并操作,再写回disk。这样通常能将多个插入合并到一个操作中,目的还是为了减少随机IO带来性能损耗。
对该页进行写操作后并不会立刻将该页从磁盘中加载到缓存池,而是在change buffer中记录页的修改,等该页被读取时,再将修改的数据merger到缓存池中以此来缓解写操作多次随机读的IO消耗
具体功能
非聚簇索引&非唯一索引
使用条件
MySQL5.5之前,叫插入缓冲(insert buffer),只针对insert做了优化;现在对delete和update也有效,叫做写缓冲(change buffer)主要目的是将对二级索引的数据操作缓存下来,以此减少二级索引的随机IO,并达到操作合并的效果
只对insert有效
Insert Buffer
对insert、delete、update(实际参数叫change,原理delete+insert)、purge有效
change buffer 使用的是 buffer pool里的内存,不能无限增大,可以通过参数 innodb_change_buffer_max_size来动态设置,这个参数为50的时候,标识change buffer 的大小最多只能占用 buffer pool 的50%当change buffer大小超过最大阈值后不会再使用change buffer
默认,缓存全部
all
不缓存
none
缓存insert
inserts
缓存delete
deletes
缓存delete+insert操作(delete+insert实现update操作)
changes
缓存后台执行的物理删除操作
purges
innodb_change_buffering参数
Change Buffer
插入缓存/写缓存
搜索buffer机制
二次写
自动监控并为某被频繁访问的二级缓存设置哈希索引
自适应哈希
将下一个extent提前读取到buffer pool中
线性预读
将下一个extent剩余的page提前读取到buffer pool中
随机预读(5.5废弃,但可以启用)
预读
特性
Innodb
MyISAM默认使用表锁,InnoDB默认使用行锁,但是只有InnoDB支持行级锁,外键,事务,崩溃后的安全恢复,MVCC。
InnoDB支持外键,而MyISAM不支持。对一个包含外键的InnoDB表转为MYISAM会失败
外键
InnoDB支持事务,MyISAM不支持,对于InnoDB每一条SQL语言都默认封装成事务,自动提交,这样会影响速度,所以最好把多条SQL语言放在begin和commit之间,组成一个事务
事务
InnoDB是聚簇索引,B+树结构。MyISAM是非聚簇索引,但也是B+树结构但是InnoDB的B+树主键索引的叶子节点就是数据文件,辅助索引的叶子节点是主键的值;而MyISAM的B+树主键索引和辅助索引的叶子节点都是数据文件的地址指针
索引
InnoDB和MyISAM区别
完整版页结构
页(Page)是 Innodb 存储引擎用于管理数据的最小磁盘单位,和存储的最基本结构。默认的页大小为 16KB,每个页中至少存储有 2 条或以上的行记录。每个Page使用一个32位(一位表示的就是0或1)的int值来表示,正好对应Innodb最大64TB的存储容量(16kb * 2^32=64tib)
与数据库相关的所有内容都存储在Page结构里。Page分为几种类型:数据页(B-Tree Node),Undo页(Undo Log Page),系统页(System Page),事务数据页(Transaction System Page)等;
页的种类
页(Page)组成的双向链表
page头部保存了两个指针,分别指向前一个Page和后一个Page,头部还有Page的类型信息和用来唯一标识Page的编号。根据这个指针分布可以想象到Page链接起来就是一个双向链表
数据头部(File Header):前后指针、id、类型信息,共38字节
页头部:页内各种信息,共56字节
主要关注数据和索引的存储,他们都位于User Records部分,User Records占据Page的大部分空间,User Records由一条条的Record组成,每条记录代表索引树上的一个节点(非叶子节点和叶子节点)在一个单链表的内部,单链表的头尾由两条记录来表示,字符串形式的“ Infimum”代表开头,“Supremum”表示结尾;System Record 和 User Record是两个平行的段;Innodb中存在四种不同的Record
主体数据
页的结构(共16kb,即16384字节)
页合并和页分裂
扩展:页(Page)
存储引擎层
存储引擎层的日志,只记录事务对数据页做了哪些修改,而不必修改整个数据页
保证数据完整性、保证持久性
mysql 支持三种将 redo log buffer 写入 redo log file 的时机,可以通过 innodb_flush_log_at_trx_commit 参数配置
0 延迟写1 实时写,实时刷2 实时写,延时刷
刷盘时机
确定恢复的起点
确定恢复的终点
怎样恢复
崩溃恢复
应用场景
redo log(重做日志)
保证原子性,也是mvcc实现的基础
事务回滚
在事务中对表中的记录做改动时
生成时机
服务器在内存中维护一个全局变量,且事务id分配之后自动+1
每当变量值为256的倍数时,会将变量值刷新到系统表空间页号为5的页面中
生成策略
事务id(唯一、递增)
INSERT操作对应的undo日志
DELETE操作对应的undo日志
UPDATE操作对应的undo日志
日志格式
undo log(回滚日志)
bin log是以二进制的形式记录的是这个语句的原始逻辑,依靠binlog是没有crash-safe能力的
binlog 则是 Server 层的日志,主要用于归档,在备份,主从复制,恢复数据时发挥作用,常见的日志格式有 5.7.7之前statement,5.7.7之后row,mixed
刷盘时机:0 不强制,1 每1次commit就刷盘,N 每N次commit就刷盘
bin log(归档日志)
redo log是属于innoDB储存引擎层面,binlog属于MySQL Server层面的。redo log是物理日志,记录该数据页更新的内容;binlog是逻辑日志,记录的是这个更新语句的原始逻辑redo log是循环写,日志空间大小固定;binlog是追加写,是指一份写到一定大小的时候会更换下一个文件,不会覆盖。binlog可以作为恢复数据使用,主从复制搭建,redo log作为异常宕机或者介质故障后的数据恢复使用
redo log&bin log区别
日志系统
编译器解析优化器根据采样和统计涉及字段的cardinality确定是走索引还是全表扫描写undo log,记录版本和回滚指针如果不是唯一索引,记录到change buffer等待刷入磁盘,否则是从磁盘读入内存校验是否已存在执行器拿到,行版本+1,写入redo log执行器生成bin log, commit两阶段提交prepare阶段redo log刷盘,commit阶段bin log刷盘;因为是插入操作,事务结束以后可以删除undo log,否则更新和删除的话需要放到待清理列表判断是否上undo上一个版本还有事务在使用
1、往mysql表里插入一条数据发生了什么(插入流程&insert流程)
mysql每次链接需要三次握手(TCP)和登录权限校验,数据读写权限校验,开销很大
max_connects可以控制mysql最大连接数,超过则保存提示线程数过多机器负载较高时,处理现有请求时间变长,连接时间也会变长,导致很容易超过max_connect但不建议调高max的值,因为更多连接进来可能会进一步加大系统负载,大量资源用于握手和权限校验,已经连接的线程反而拿不到资源执行sql请求
开销
主动:kill connection 主动断开线程连接
被动: wait_timeout 超过时间则断开
处理掉占着连接不工作的线程
-skip-grant-tabls 跳过所有权限认证,外网访问下有很大风险
减少连接过程的消耗
解决方案
2、mysql的连接成本和优化
扩展:
mysql整体架构
通过创建唯一索引,可以保证数据库表中每一行数据的唯一性。可以大大加快数据的查询速度,这也是创建索引的主要原因。在实现数据的参照完整性方面,可以加速表与表之间的连接。在使用分组和排序子句进行数据查询时,也可以显著的减少查询中分组和排序的时间
索引即有逻辑上的概念,更是一种物理存储方式,且真实存在,需要耗费一定的存储空间
如何实现索引覆盖?
场景1:全表count查询优化
场景2:列查询回表优化
场景3:分页查询
哪些场景可以利用索引覆盖来优化SQL?
索引覆盖
b+树非叶子节点只储存索引,一次性读入内存中可以查找的关键字也就越多,降低IO读写次数b+树1个节点可以有n个节点,但是红黑树只有2个子节点,导致树太高
红黑树太高,而b+树一般只有3层,查询时间短、磁盘读写代价更低
B树搜索有可能会在非叶子结点结束,越靠近根节点的记录查找时间越短,只要找到关键字即可确定记录的存在,其性能等价于在关键字全集内做一次二分查找
B+树中,顺序检索比较明显,随机检索时,任何关键字的查找都必须走一条从根节点到叶节点的路,所有关键字的查找路径长度相同,导致每一个关键字的查询效率相当
b树查找不稳定,红黑树增删费时
没有利用局部性原理,而b+树的叶节点的数据页用双链表连接,实现了局部性原理
b+树遍历一遍叶子节点完成整棵树遍历,b树不行
索引为什么用b+树而不用b树或红黑树实现?
无法范围查找,无法排序,不支持最左匹配原则,有大量重复键值时效率低
为什么无法范围查找:由于Hash索引比较的是进行Hash运算之后的Hash值,所以它只能用于等值的过滤,不能用于基于范围的过滤,因为经过相应的Hash算法处理之后的Hash值的大小关系,并不能保证和Hash运算前完全一样
B+树索引和Hash索引区别?
B+树的叶子节点上有指针进行相连,因此在做数据遍历的时候,只需要对叶子节点进行遍历即可,这个特性使得B+树非常适合做范围查询而Mongodb是做单一查询比较多,数据遍历操作比较少,所以用B树作为索引结构
为什么 MongoDB 选用 B 树作为索引实现?
红黑树性能更高,因为其利用了“缓存”,算法一书中说过,红黑树相当于2-3树。2节点等价于普通平衡二叉树的节点,而3节点本质上是“非平衡的缓存”,当数据随机性强时,2节点向3节点转化可以吸收一些非平衡性性,减少旋转次数,快速完成平衡且避免AVL退化成线性结构的情况
红黑树和AVL树(平衡二叉树)比较
InnoDB存储引擎的最小存储单元是页,默认一个数据页大小为16kb,一个页中key假设为bigint占8byte,指向下个页的地址指针占6byte,非叶节点中可以存放16kb/(8+6)b=1170个对象(关键字-页指针)
高度为2的B+树:1170 * 16 = 18720,约存2万条数据记录。
高度为3的B+树:1170 * 1170 * 16 = 21902400,约存2千万条数据记录。
假设数据记录大小1KB -> 叶子节点(页)可以存 16kb/1kb = 16条数据
如果是b树,那么2千万数据的树高为(log16 2千万) 远远大于3层
计算多少数据的树高/三层可以放多少数据
单次请求涉及的磁盘IO次数少(树的高度小)
查询效率稳定(数据在叶子结点,查询路径长度相同)
遍历效率高(从符合条件的某个叶子节点开始遍历即可)
b+树结构
改为:select * fromuserwhere userid=1unionallselect * fromuserwhere age = 18
少用or,用unionall
select * fromuserwhere userid=1select * fromuserwhere age = 18
分开两个查询语句
对于or+没有索引的age这种情况,假设它走了userId的索引,但是走到age查询条件时,它还得全表扫描,也就是需要三步过程:全表扫描+索引扫描+合并 如果它一开始就走全表扫描,直接一遍扫描就完事。mysql是有优化器的,处于效率与成本考虑,遇到or条件,索引可能失效,看起来也合情合理
select * fromuserwhere userid=1or age =18
or中至少有一个字段无索引
不符合最左前缀原则
模糊匹配%在最前
使用不等于或者比较: != <>
not in
mysql自动调优选择了不走索引
如果查询的是字符串,那么where后面字符串和数字的比较中,数字会隐式转换为字符串对比如果查询的是数字,那么where后面字符串和数字的比较中,字符串会隐式转换为数字对比
MySQL类型转换规则:两个参数至少有一个是NULL时,比较的结果也是 NULL,例外是使用 <=> 对两个NULL做比较时会返回1,这两种情况都不需要做类型转换两个参数都是字符串,会按照字符串来比较,不做类型转换两个参数都是整数,按照整数来比较,不做类型转换十六进制的值和非数字做比较时,会被当做二进制串有一个参数是TIMESTAMP或DATETIME,并且另外一个参数是常量,常量会被转换为timestamp所有其他情况下,两个参数都会被转换为浮点数再进行比较
两种隐式转换是否走索引的情况
部分隐式转换是指如果比较的两个条件里,需要转换的对比字段是一整列,则不走索引;如果只是单个的字符串(数字)需要转换,则依然走索引详情看链接的博客举例
部分隐式转换导致索引失效
案例
索引失效场景
递增才能支持范围查找
递增下,新增节点直接往后双链表后放。不递增的话,会因插入新节点造成大量页分裂
为什么主键推荐设为自增?
聚簇索引和非聚簇索引(innodb)(回表查询就是走非聚簇查询->聚簇查询)聚簇索引:直接从主键索引(树)中的id=14获取到行记录非聚簇索引:先从辅助索引(树)中定位到id=14后,再通过14定位到主键索引(树)中id=14的行记录
mysql会找到一个值都不相同的列,为它加上UNIQUE INDEX
如果没有具有唯一值的特征列,那么InnoDB会自动生成一个不可见的名为ROW_ID的列,名为GEN_CLUST_INDEX的聚簇索引该列是一个6字节的自增数值,随着插入而自增
如果没有主键,还会不会有聚簇索引?有
主键索引和辅助索引是没啥区别的,都指向叶子节点的数据。因为索引树都是独立的,所以辅助索引无须通过主键索引来查询数据。
myisam默认非聚簇索引
聚簇索引和非聚簇索引
1、给具有唯一值的列建唯一性索引(避免重复)2、给经常查询、排序、分组、连接的列建索引3、尽量使用最左前缀匹配原则,才能利用上索引对于过长的字段尽量使用前缀索引删除不用的索引
简化了MySQL对这个索引的管理工作,这个索引也因此而变得更有效率
MySQL会在有新记录插入数据表时,自动检查新记录的这个字段的值是否已经在某个记录的这个字段里出现过了;如果是,MySQL将拒绝插入那条新记录。也就是说,唯一索引可以保证数据记录的唯一性
一般来讲创建唯一索引的目的往往不是为了提高访问速度,而只是为了避免数据出现重复
给具有唯一值的列建立唯一性索引
给经常查询的字段加索引提高查询速度ps:更新频繁的字段不适合创建索引,不会出现在 where 子句中的字段不应该创建索引
order By&group By语句跟WHERE语句中都用了索引字段,Order By中的索引才会生效order By&group By中使用索引可避免重新排序导致CPU资源浪费
给经常查询、排序、分组和连接的列建立索引
最左匹配原则
建立索引要注意什么?(索引优化)
a
a and b
b and a
虽然explain显示用了联合索引,但实际上只用到了a的索引,c并没有用到
a and c
a and b and c
用到了联合索引
b
c
只有ab都有索引,才会都用索引,其他情况(a和b至少有一个没索引)都用不到索引因为假设ab中b没索引的话,那么a or b的执行情况很可能是a走了索引扫了一遍没找到,最后还是要全表扫描,还不如直接全表扫描
a or b
b and c
没用到索引
只用到a索引(abc都可以用,只不过mysql优化器只选其中最有效的一个或几个)
只用到b(和上同理)
a和b都用到了
给a、b、c分别创建单列索引
结论:多个单列索引底层会建立多个B+索引树,比较占用空间,也会浪费一定搜索效率,故如果只有多条件联合查询时最好建联合索引
where查询是按照从左到右的顺序,所以筛选力度大的条件尽量放前面?错误。实际上mysql优化器会根据索引自己选择,与顺序无关
经常查询的放前面,虽然对效率没什么影响 保证查询的高效,能够命中我们建立的索引
联合索引创建多个单列索引好还是一个联合索引好?
mysql主键和唯一性索引的区别
普通索引不能保证唯一性,所以在查找到第一个之后会继续查找,直到不满足条件, 但是对于唯一索引来说,因为其唯一性,找到一个即停止往下搜索
性能差距很小,只多了一次指针寻找和计算,除非普通索引在数据页尾部,这样会多一次数据页io,但数据页上千个索引,概率很小
唯一索引和普通索引
约束是一种限制,它通过对表的行或列的数据做出限制,来确保表的数据的完整性、唯一性
列级约束:六大约束语法上都支持,但外键约束没有效果
表级约束:除了非空、默认、其它的都支持
约束分类
创建表时:列名 数据类型(长度) 约束类型举例:name varchar(32) not null
创建表时添加约束
格式:alter table 表名 add constraint 约束名称 增加的约束类型 (列名)举例:alter table emp add constraint xxx primary key (id);
主键约束(primary key)
格式:alter table 表名称 add constraint 约束名称 增加的约束类型 (列名)例子:alter table emp add constraint xxx check(age>20);
限制约束(check)
格式:alter table 表名 add constraint 约束名称 约束类型(列名)例子:alter table emp add constraint xxx unique(ename);
唯一性约束(unique)
...
修改表时添加约束(ADD CONSTRAINT方法)
创建时机
非空约束(not null) :用not null约束的字段不能为null值,必须给定具体的数据
默认值(DEFAULT):用于保证该字段有默认值。
唯一性约束(unique) : unique约束的字段,具有唯一性,不可重复,但可以为null
主键约束(primary key) PK : 表设计时一定要有主键
外键约束(foreign key) FK
自增约束(AUTO_INCREMENT) :被AUTO_INCREMENT约束的字段会自动增加
检查约束(目前MySQL不支持、Oracle支持)
约束
DDL(Data Definition Languages)语句(操作表)
DML(Data Manipulation Language)语句(操作具体数据)
DCL(Data Control Language)语句(操作权限)
即数据查询语句,用来查询数据库数据仅有select语句
DQL(Data Query Language)语句(查询表)
TCL(Transaction Control Language)语句(操作事务)
语句分类
Global Level(全局权限控制):和MySQL所有的数据库相关
Database Level(数据库级别):和一个具体数据库中所有对象相关
Table Level(表级别):和一个具体数据表中所有表相关,表级别的权限仅有ALTER,CREATE,DELETE,DROP,INDEX,INSERT,SELECT UPDATE 这八种。
Column Level(列级别):和表中的一个具体列相关。列级别的权限仅有 INSERT,SELECT 和 UPDATE 这三种
Routine Level(常规级别):主要针对的对象是procedure 和function 这两种对象,常规级别的权限仅有EXECUTE 和ALTER ROUTINE 两种
权限级别
错误日志(error log):记录启动、运行或停止mysqld时出现的问题
查询日志(general log):又称全量日志,记录建立的客户端连接和执行的所有语句(包括错误的),会消耗5%-10%性能,一般不开
二进制日志(bin log):记录所有更改数据(增删改)的语句、还用于复制,在主从复制中,从库利用主库上的binlog进行重播,实现主从同步。 以及用于数据库的基于时间点的还原
慢日志(slow log):记录所有执行时间超过long_query_time秒的所有查询,虽然详细,但只记录超过设定值的慢查询sql信息
中继日志(relay log):主从复制时使用的日志
重做日志(redo log):用于记录事务操作的变化,记录的是数据修改之后的值,不管事务是否提交都会记录下来在实例和介质失败(media failure)时,redo log文件就能派上用场,如数据库掉电,InnoDB存储引擎会使用redo log恢复到掉电前的时刻,以此来保证数据的完整性
回滚日志(undo log):保存了事务发生之前的数据的一个版本,可以用于回滚,同时可以提供多版本并发控制下的读(MVCC),也即非锁定读
日志类型
以字段为依据,按照一定策略(hash、range、id的单双数等),将一个库的数据按一定规则拆到不同的数据库中,每个库可以放在不同的服务器上
系统绝对并发量上来了,分表难以根本上解决问题,并且还没有明显的业务归属来垂直分库。当一个应用难以再细粒度的垂直切分,或切分后数据量行数巨大,存在单库读写、存储性能瓶颈,这时候就需要进行水平分库了,经过水平切分的优化,往往能解决单库存储量及性能瓶颈。
场景:
每个库的结构都一样;每个库的数据都不一样,没有交集;所有库的并集是分库前的所有数据(全量数据);
结果
解决了单库大数据,高并发的性能瓶颈。 提高了系统的稳定性及可用性。ps:稳定性体现在IO冲突减少,锁定减少,可用性指某个库出问题,部分可用
分析:
由于同一个表被分配在不同的数据库,需要额外进行数据操作的路由工作,因此大大提升了系统复杂度
缺点:
水平分库
和水平分库类似,不过这次操作的目标是表以字段为依据,按照一定策略(hash、range、id的单双数等),将一个表中的数据拆分到多个表中。每个表只有这个表的部分数据,这样做能小幅提升性能,它仅仅作为水平分库的一个补充优化
系统绝对并发量并没有上来,只是单表的数据量太多,影响了SQL效率,加重了CPU负担,以至于成为瓶颈
场景
每个表的结构都一样;每个表的数据都不一样,没有交集;所有表的并集是分表前的所有数据(全量数据)
优化单一表数据量过大而产生的性能问题避免IO争抢并减少锁表的几率库内的水平分表,分出来的小表中只包含一部分数据,从而使得单个表的数据量变小,提高检索性能表的数据量少了,单次SQL执行效率高,减轻了CPU的负担
分析
水平分表
垂直分库
将一个表按照业务分成多表,每个表存储其中一部分字段。它带来的提升是:1.为了避免IO争抢并减少锁表的几率,查看详情的用户与商品信息浏览互不影响2.充分发挥热门数据的操作效率,商品信息的操作的高效率不会被商品描述的低效率所拖累
垂直分表
在系统设计阶段就应该根据业务耦合松紧来确定垂直分库,垂直分表方案,在数据量及访问压力不是特别大的情况,首先考虑缓存、读写分离、索引技术等方案。若数据量极大,且持续增长,再考虑水平分库水平分表方案
分库分表
全量备份&增量备份
备份
主从复制,是用来建立一个和主数据库完全一样的数据库环境,称为从数据库;主数据库一般是准实时的业务数据库
1、架构的扩展。业务量越来越大,I/O访问频率过高,单机无法满足,此时做多库的存储,物理服务器增加,能承载的负荷增加
S锁(共享锁 shared lock)读锁是共享的,或者说是相互不阻塞的又称读锁,若事务T对数据对象A加上S锁,则事务T可以读A但不能修改A,其他事务只能再对A加S锁,而不能加X锁,直到T释放A上的S锁。这保证了其他事务可以读A,但在T释放A上的S锁之前不能对A做任何修改。
X锁(排他锁 exclusive lock)写锁是排他的,一个写锁会阻塞其他的写锁和读锁又称写锁。若事务T对数据对象A加上X锁,事务T可以读A也可以修改A,其他事务不能再对A加任何锁,直到T释放A上的锁。这保证了其他事务在T释放A上的锁之前不能再读取和修改A。
写会加锁,降低数据库并发量,读写分离提高并发量;缺点是读服务器会存在延迟
待补充,大概是上S锁同时会上一个IS IS锁表 S锁行,这样就不需要遍历找到该行才知道它上锁X和IX同理
S/X/IS/IX 共享/排他/意向共享/意向排他锁的联系和区别
2、读写分离,使数据库能支撑更大的并发。主从只负责各自的写和读,极大程度的缓解X锁和S锁争用。在报表中尤其重要。由于部分报表sql语句非常的慢,导致锁表,影响前台服务。如果前台使用master,报表使用slave,那么报表sql将不会造成前台锁,保证了前台速度
3、做数据的热备份,作为后备数据库,主数据库服务器故障后,可切换到从数据库继续工作,避免数据丢失。
1、MySQL 的主从复制是依赖于 binlog 的,也就是记录 MySQL 上的所有变化并以二进制形式保存在磁盘上二进制日志文件。2、主从复制就是将 binlog 中的数据从主库传输到从库上,一般这个过程是异步的,即主库上的操作不会等待 binlog 同步的完成。3、过程:首先从库在连接到主节点时会创建一个 IO 线程,用以请求主库更新的 binlog,并且把接收到的 binlog 信息写入一个叫做 relay log 的日志文件中,而主库也会创建一个 log dump 线程来发送 binlog 给从库;同时,从库还会创建一个 SQL 线程读取 relay log 中的内容,并且在从库中做回放,最终实现主从的一致性。这是一种比较常见的主从复制方式
一个中介临时的日志文件,用于存储从master节点同步过来的binlog日志内容,它里面的内容和master节点的binlog日志里面的内容是一致的。IO 线程负责从主库接收 binlog 日志,并保存在本地的 relaylog 中。SQL 线程负责解析和重放 relaylog 中的 event,读取数据应用到数据库中,来实现数据的主从复制。
master主节点的binlog传到slave从节点后,被写道relay log里,从节点的slave sql线程从relaylog里读取日志然后应用到slave从节点本地。从服务器I/O线程将主服务器的二进制日志读取过来记录到从服务器本地文件,然后SQL线程会读取relay-log日志的内容并应用到从服务器,从而使从服务器和主服务器的数据保持一致。
relay log(中继日志)
GTID(全局事务ID)
ps:延迟复制只是对SQL_Thread的线程的延迟。IO_Thread 主库发生的任何操作的日志都会同步到 slave,也就是说 IO_Thread 线程和主库是没有延迟的。只有 SQL_Thread 与主库有延迟。所以只是执行时间延迟,而不是读取 binlog 时间延迟
延迟复制就是Slave节点与Master节点保持指定时间的复制间隔
定义
该语句设置从数据库延时N秒后,再与主数据库进行数据同步复制
MASTER TO MASTER_DELAY
SKIP-SLAVE-START
·SQL_Delay:显示当前设定的延迟时间,以秒为单位
·SQL_Remaining_Delay: 当 Slave_SQL_Running_State 列的状态是“Waiting until MASTER_DELAY seconds after master executed event''时,本列显示的值就是距离延迟阈值的时间,也就是说还有多长时间才能开始应用,否则本列值应该是 NULL。复制完成后没有可复制的 events 时,这个值就是 NULL。
·Slave_SQL_Running_State: 该值显示的是当前 SQL_THREAD 的状态
SHOW SLAVE STATUS\\G
相关参数
提供 Master 节点意外错误的快速恢复机制,若 Master 节点出现误改、误删等操作,造成数据丢失的情况,由于Slave节点有延迟因素的存在,DBA可以通过 Slave 节点仍然保存的数据,快速地恢复。不过通常延迟时间不会太长,如果出现误操作,而且Slave节点恰好还没有应用这些Master传来的操作,在延迟时间范围内进行恢复即可,可先直接备份误操作的表(延迟复制期间没有操作过这个表)或者关闭slave复制,恢复到误操作前的时间再导出表
误操作恢复
把延迟从库作为专用的备份节点,这样可以设置延迟的时间长点。虽然有一定的延迟,但并不影响利用该节点作为备份角色,也不影响生产节点数据库。
专用备份节点
测试复制环境出现延迟时,评估对系统应用可能造成的影响。
评估影响
slave节点的SQL线程解析和重放relay log的速度赶不上IO线程的写入relay log速度,会造成主备延迟。如果延迟过大,relaylog 一直在备库堆积,还可能把磁盘占满。为了防止主备延迟,MySQL 5.7 更新了基于组提交的并行复制
复制延迟
并行复制
主从延迟复制
主库binlog格式为Statement,同步到从库执行后可能造成主从不一致。
主库执行更改前有执行set sql_log_bin=0,会使主库不记录binlog,从库也无法变更这部分数据。
从节点未设置只读,误操作写入数据。
主库或从库意外宕机,宕机可能会造成binlog或者relaylog文件出现损坏,导致主从不一致。
主从实例版本不一致,特别是高版本是主,低版本为从的情况下,主数据库上面支持的功能,从数据库上面可能不支持该功能。
MySQL自身bug导致
主从节点表结构不一致
导致主从不一致的情况
场景:在主库为Statement且隔离级别为RC(读已提交)情况下会导致数据不一致问题因为Statement是按照事务commit顺序来记录的,如果出现以下情况则会导致主从不一致:事务1开启-> set a=8 where a=4 ->事务2开启 -> set a=4 where a=2 ->事务2commit ->事务1commit 这样按理来讲是先set a=8 再 有set a= 4 不会导致所有a都变成8但由于binlog的Statement按commit顺序记录,则会记录为先set a= 4 再 set a=8 导致所有a都变为8 出现不一致
解决方案:binlog的row或者mix模式可以避免,因为会记录事务set前的原始数据
binlog日志格式问题出现主从复制数据不一致
主从复制
事务中的操作要么全部完成,要么全部失败
原子性(atomicity)
事务的执行结果必须是使数据库从一个满足一致性的正确状态到另一个正确状态(当前的状态满足预定的约束就叫做正确状态)
一致性(consistency)
通过MVCC或锁保证隔离性
扩展:四种隔离级别和各自的底层实现
一个事务的执行不受其它事务的干扰
隔离性(isolation)
事务一旦提交,它对数据库的改变就是永久性的
持久性(durability)
ACID
事务特性
读取到另一个事务未提交的数据
脏读
两次读取到的数据不一致。读一次,然后有另一个事务更新了数据,第二次读就不一致了
不可重复读
SQL规范中,可重复读不能解决幻读,但mysql使用gap锁解决了幻读问题
两次读到的数据(行数)不一致。第一次读,然后有事务插入或删除了数据,第二次读与之前不一致。
幻读
并发事务带来的问题
读取到未提交的事务
RU读未提交
读取已经提交的事务
RC读已提交(实际用的最多)
一个事务执行过程中看到的数据,总是跟这个事务在启动时看到的数据是一致的,可以理解为事务在启动的时候就”拍了个基于整个库的快照“
(幻读是指在同一事务下,连续执行两次同样的SQL语句可能导致不同的结果,第二次的SQL语句可能返回之前不存在的行记录)加上Gap Lock后,并发事务插入新数据前会先检测间隙中是否已被加锁,防止幻读的出现
在RR下,该事务第一次读取到数据后,就将这些数据加锁(悲观锁),其它事务无法修改这些数据,就可以实现可重复读了。但这种方法却无法锁住insert的数据,所以当事务A先前读取了数据,或者修改了全部数据,事务B还是可以insert数据提交,这时事务A就会发现莫名其妙多了一条之前没有的数据,这就是RR无法防止幻读(gap锁解决)
Read View InnoDB:里面每个事务都有一个唯一的事务 ID,叫作 transaction id。它在事务开始的时候向 InnoDB 的事务系统申请的,是按申请顺序严格递增的数组里面事务 ID 为最小值记为低水位,当前系统里面已经创建过的事务 ID 的最大值加 1 记为高水位。这个视图数组和高水位,就组成了当前事务的一致性视图(read-view)InnoDB 就是利用 undo log 和 trx_id 的配合,实现了事务启动瞬间”秒级创建快照“的能力
MVCC1.事务启动时,InnoDB会分配每个事务递增且唯一的事务id,叫作 transaction id。2.通过在每行记录后面保存两个隐藏的列,一个列创建此行的transaction id,一个保存删除此行的transaction id。3.InnoDB只查找版本早于(包含等于)当前事务版本的数据行。可以确保事务读取的行,要么是事务开始前就已存在,或者事务自身插入或修改的记录;行的删除版本要么未定义,要么大于transaction id。可以确保事务读取的行,在事务开始之前未删除
底层原理:MVCC+Read View
RR可重复读(mysql默认)
这是最高的隔离级别,它通过强制事务排序,使之不可能相互冲突,从而解决幻读问题。简言之,它是在每个读的数据行上加上共享锁。在这个级别,可能导致大量的超时现象和锁竞争。
串行化
隔离级别(强度由上往下增强)
先调用binglog_hton和innobase_hton的prepare方法完成第一阶段,binlog_hton的papare方法实际上什么也没做innodb的prepare方法将事务状态设为TRX_PREPARED,并将redo log刷磁盘 (innobase_xa_prepare à trx_prepare_for_mysql à trx_prepare_off_kernel)
如果事务涉及的所有存储引擎的prepare都执行成功,则调用TC_LOG_BINLOG::log_xid将SQL语句写到binlog,同时将binlog刷入磁盘此时,事务已经铁定要提交了。否则,调用ha_rollback_trans回滚事务,而SQL语句实际上也不会写到binlog
最后,调用引擎的commit完成事务的提交。实际上binlog_hton->commit什么也不会做(因为(2)已经将binlog写入磁盘),innobase_hton->commit则清除undo信息,刷redo日志,将事务设为TRX_NOT_STARTED状态(innobase_commit à innobase_commit_low à trx_commit_for_mysql à trx_commit_off_kernel)
主要在ha_commit_trans函数中完成
事务提交流程(2PC)
事务恢复流程
mysql的2PC
读-读 不存在线程安全问题
读-写:有线程安全问题,可能会造成事务隔离性问题
后一个事务的更新覆盖了前一个事务更新的情况
丢失更新
由于某个事务的回滚操作,参与回滚的旧数据将其他事务的数据更新覆盖标准定义的所有隔离界别都不允许第一类丢失更新发生。基本上数据库的使用者不需要关心此类问题
第一类丢失更新:回滚覆盖
解决:乐观锁或悲观锁
多个事务同时更新一行数据,导致一个事务更新被另一个事务覆盖
第二类丢失更新:更新覆盖
写-写:有线程安全问题,可能会存在丢失更新问题
并发场景
什么是MVCC?
多事务并发操作数据与一致性读实现多事务并发操作数据核心基于Undo Log进行实现一致性读实现核心基于ReadView进行实现
MVCC在可重复读下实现原理:每行记录后面隐藏了两列:创建时间和删除时间(实际上是系统版本号)每开始一个事务,版本号就+1。查询时只查出同时符合条件1和2的行记录1.行的系统版本号<=当前事务版本号,这样可以确保事务读取的行,要么是在事务开始前已经存在的,要么是事务自身插入或者修改过的2.行的删除版本号<=当前事务版本号)。这可以确保事务读取到的行,在事务开始之前未被删除
insert:InnoDB为新插入的每一行保存当前系统版本号作为行版本号
delete:InnoDB为删除的每一行保存当前系统版本号作为行删除标识
MVCC只在读已提交和可重复读两个隔离级别下工作。MVCC可以使用 乐观锁 和 悲观锁来实现
row_id
用来存储的每次对某条聚簇索引记录进行修改的时候的事务id
trx_id
旧版本串成单链表,版本链的头结点是当前记录最新的值
roll_pointer
三个隐藏列
版本链
判断版本链中哪些版本对当前事务可见
版本链访问记录判断逻辑
核心问题
每一次进行普通select操作前都会生成一个ReadView
Read Commited
只在第一次进行普通select操作前生成一个ReadView,之后的select重复使用
Repeated Read
事务提交即释放
insert undo
需要支持MVCC,不能立即删除
update undo
记录打删除标记(逻辑删除)
delete mark
undo
MVCC
id:选择标识符,值越高,优先级越高
select_type:表示查询的类型
span style=\
type:表示表的连接类型
possible_keys:表示查询时,可能使用的索引
ref:列与索引的比较
rows:扫描出的行数(估算的行数)rows是核心指标,绝大部分rows小的语句执行一定很快(有例外)。所以优化语句基本上都是在优化rows。
using where:使用了where
using index:使用了覆盖索引
表示在查询过程中产生了临时表用于保存中间结果。mysql在对有不是索引的字段进行group by,会出现临时表group by的实质是先排序后分组.
using temporay:
Using filesort通常出现在order by,当试图对一个不是索引的字段进行排序时,mysql就会自动对该字段进行排序,这个过程就称为“文件排序”
using filesort
Extra:执行情况的描述和说明
5.5和5.7版本explain的区别5.7之后的版本默认会有 partitions 和 filtered两列,但是5.5版本中是没有的,需要使用explain partitions select ……来显示带有partitions 的列,使用explain extended select ……来显示带有filtered的列
partitions:匹配的分区
用于sql语句前面查看sql语句的执行计划select,update,delete,insert都可以使用,explain字段相同,不过增删改在内部都被重写为 执行增删改+select
explain
MySQL采用buffer机制,避免每次读写进行磁盘IO,提升效率buffer一页的大小是16K,文件系统一页的大小是4K,也就是说,MySQL将buffer中一页数据刷入磁盘,要写4个文件系统里的页
缓冲池(buffer pool)
写缓冲(change buffer)
日志缓冲(log buffer)
为了解决部分页面写入问题,当mysql将脏数据刷新到数据文件的时候,先使用memcopy将脏数据复制到内存中的双写缓冲区(DWB),之后通过双写缓冲区再分2次,每次写入1MB到共享表空间,然后马上调用fsync函数,同步到磁盘上,避免过程缓存带来的问题,在这个中,doublewrite是顺序写,开销不大,在完成doublewrite后,在将写buffer写入各表空间文件,字节是离散写入。如果发生了情况(断电),InnoDB再次启动后,发现了一个页面数据已经损坏,此时就可以从双写缓冲区中进行数据恢复了
二次写DWB(Double Write Buffer)
buffer机制
原理:next-key锁(行记录锁+Gap间隙锁)
当前读
含义:多次执行select语句,查询到的数据都是事务开始时那个状态的数据
原理:undolog和多版本并发控制MVCC
快照读就是每一行数据中额外保存两个隐藏的列,插入这个数据行时的版本号,删除这个数据行时的版本号(可能为空),滚动指针(指向 undo log 中用于事务回滚的日志记录)。事务在对数据修改后,进行保存时,如果数据行的当前版本号与事务开始取得数据的版本号一致就保存成功,否则保存失败。当我们不显式使用 BEGIN 来开启事务时,我们执行的每一条语句就是一个事务,每次开始事务时,会对系统版本号+1 作为当前事务的 ID
快照读
当前读和快照读解决幻读问题
当前读:读取的是记录的最新版本,需要保证其它事务不能修改读取记录,所以会对记录进行加锁。比如 select for update、select lock in share mode、update等,都属于当前读。快照读:基于MVCC实现的读,不对读操作加任何锁,读取的时候根据版本链和read view进行可见性判断,所以读取的数据不一定是数据库中的最新值。注意在串行化隔离级别下,读操作也会加锁,所以属于当前读
当前读和快照读
ps:当内存数据页跟磁盘数据页内容不一致的时候,我们成这个内存页为“脏页”。内存数据写入磁盘后,内存和磁盘上的数据页内容就一致了,称为“干净页”MySQL 从 内存更新到磁盘的过程,称为刷脏页的过程(flush)
WAL 的全称是 Write-Ahead Logging,中文称预写式日志,是一种数据安全写入机制。简单来讲就是先写日志,然后在写入磁盘,这样保证数据的安全性。Mysql中的Redo Log就是采用WAL机制
WAL
每次去拿数据的时候都认为别人不会修改,所以不会上锁,但是在提交更新的时候会判断一下在此期间别人有没有去更新这个数据(版本号或者时间戳)
乐观锁
每次(开启事务)在拿数据的时候都会上锁,这样别人想拿这个数据就会block直到它拿到锁。
悲观锁
按加锁机制
锁粒度小,开销大,加锁慢,会发生死锁,并发度高,发生锁冲突概率低
对当前操作的行加锁
行级锁
锁粒度大,开销小,加锁块,不会发生死锁,并发度低,发生锁冲突概率高
对当前操作的表上锁
表级锁(MDL锁(metadata lock元数据锁))
会发生死锁,并发度一般
处于行级锁和表级锁之间
页级锁
按粒度
用法:lock in share mode
读取数据时,任何事务不能修改数据
共享锁(读锁)
扩展:for update是一种行级锁,又叫排它锁,一旦用户对某个行施加了行级加锁,则该用户可以查询也可以更新被加锁的数据行,其它用户只能查询但不能更新被加锁的数据行.如果其它用户想更新该表中的数据行,则也必须对该表施加行级锁.即使多个用户对一个表均使用了共享更新,但也不允许两个事务同时对一个表进行更新,真正对表进行更新时,是以独占方式锁表,一直到提交或复原该事务为止。行锁永远是独占方式锁
1、执行提交(COMMIT)语句2、退出数据库(LOG OFF)3、程序停止运行
什么时候释放排它锁
for update执行时会锁多少行
用法:for update
修改数据时,任何事务不能读取和写数据
排他锁(写锁)
按兼容性
单个行记录上的锁
Record Lock(记录锁):锁定一个记录
会对键值条件内但并不存在的数据加锁。(行锁是前提)它是innoDB在可重复读的级别下防止幻读引入的锁
Gap Lock(间隙锁):锁定一个区间
next-key锁是mysql默认的锁,是记录锁和在此索引记录之前的gap上的锁的结合,这个锁的作用是为了防止幻读,导致主从复制的不一致。当我们具体where条件指定某一个值时,它也会锁住这个值的前后范围
Next-key Lock(临键锁)
按模式
什么时候加行锁,什么时候加表锁
https://www.cnblogs.com/wangshiwen/p/9837408.html
FOR UPDATE 仅适用于InnoDB存储引擎,且必须在事务区块(BEGIN/COMMIT)中才能生效。
测试for update之前需要设置成非自动提交事务,不然无法模拟并发访问:1、(select @@autocommit;)2、(set autocommit = 0;)
for update对应的锁
InnoDB锁
全局唯一,不能重复,(基本要求)
递增,下一个ID大于上一个ID;(可选,某些需求)
信息安全,非连续ID,避免恶意用户/竞争对手发现ID规则,从而猜出下一个ID或者根据ID总量猜出业务总量
高可用,不能故障,可用性4个9或者5个9;(99.99%、99.999%)
高QPS,性能不能太差,否则容易造成线程堵塞;
平均延迟尽可能低;
分布式ID生成系统需求
MySQL中,可通过数据列的auto_increment属性来自动生成自动递增的唯一编号
简单,代码方便,性能可以接受
数字ID天然排序,对分页或者需要排序的结果很有帮助
不同数据库语法和实现不同,数据库迁移的时候或多数据库版本支持的时候需要处理
ID生成依赖数据库单机的读写性能;(高并发条件下性能不是很好)
在单个数据库或读写分离或一主多从的情况下,只有一个主库可以生成。有单点故障的风险
在性能达不到要求的情况下,比较难于扩展
如果遇见多个系统需要合并或者涉及到数据迁移会相当复杂
分表分库的时候无法依靠auto_increment属性来唯一标识一条记录
1、mysql主键自增
简单,代码方便
生成ID性能非常好,基本不会有性能问题
全球唯一,在遇见数据迁移,系统数据合并,或者数据库变更等情况下,可以从容应对
没有排序,无法保证趋势递增
UUID往往是使用字符串存储,查询的效率比较低
传输数据量大
存储空间比较大,如果是海量数据库,就需要考虑存储量的问题
不可读
2、uuid
缺点:不利于扩展机器
ps:比较适合使用Redis来生成每天从0开始的流水号。比如订单号=日期+当日自增长号。可以每天在Redis中生成一个Key,使用INCR进行累加
3、redis固定步长生成
Twitter开源的分布式ID生成算法,结果是一个long型64位的ID。其核心思想是:使用41bit作为毫秒数,10bit作为机器的ID(5个bit是数据中心,5个bit的机器ID),12bit作为毫秒内的流水号(意味着每个节点在每毫秒可以产生 4096 个 ID),最后还有一个符号位,永远是0
4、Twitter的雪花算法
方案一:通过持久顺序节点实现;
方案二:通过节点版本号;
5、Zookeeper生成分布式唯一ID
主键生成策略
设计:存储引擎,字段类型,范式与逆范式
功能:索引,缓存,分区分表
架构:主从复制,读写分离,负载均衡
合理SQL:测试,经验
0.先运行看看是否真的很慢,注意设置SQL_NO_CACHE
这句话的意思是把查询语句的where都应用到 表中返回的记录数最小的表 开始查起,单表每个字段分别查询,看哪个字段的区分度最高(区分度的公式是count(distinct col)/count(*),表示字段不重复的比例)
1.where条件单表查,锁定最小返回记录表
2.explain查看执行计划,是否与1预期一致(从锁定记录较少的表开始查询)
开启:set global slow_query_log=1;只对当前数据库生效,重启MySQL后失效;想永久开启就修改my.cnf文件
查看慢查询开启命令:show variables like '%slow_query_log%'默认关闭
但设置后再查看会发现没改变?这时重新开个会话窗口就好了。或者show global variables like '%long_query_time%';
查看慢查询阈值时间:show variables like 'long_query_time';默认10秒修改 set global long_query_time=x ; x秒
查看日志
show status like '%slow_queries%';查询整个系统的话就加global
查询当前表有多少条慢SQL
mysqldumpslow
一个语句的生命周期,SQL语句在上张图片
语句和花费的时间
showprofile
查出慢查询的语句后,SQL优化的手段也主要是修改SQL写法,或者新增索引
搜索 索引失效场景
索引没起作用的情况
建立中间表
优化数据库结构
避免多表直接where(笛卡尔积)
联合查询拆解
查询优化
使用索引覆盖扫描,而不是查询所有的列。然后根据需要做一次关联操作再返回所需的列
优化LIMIT分页
常见的慢查询优化
慢查询优化步骤
对索引进行优化。1.不要加过多的索引,考虑给where和order by加 2.避免在where子句中用NULL,会造成全表扫描 3.字符字段最好不做主键,只加前缀索引 4.使用覆盖索引,(例如通过添加联合索引实现覆盖索引)
SELECT 字段 FROM table WHERE EXISTS(subquery);
SELECT * FROM A WHERE id IN (SELECT id FROM B);
in和exists
order by
group by
mysql大表优化查询效率
SQL和索引优化
加缓存
尽量使用TINYINT、SMALLINT、MEDIUM_INT作为整数类型而非INT
VARCHAR的长度只分配真正需要的空间
单表不要有太多字段,建议在20以内
避免使用NULL字段,很难查询优化且占用额外索引空间
枚举或整数代替字符串类型
字段
慢查询优化
SQL查询优化
用MyISAM
引擎
垂直分库、垂直分表
单表大表查询优化
2、如果是BNJ,在join_buffer_size足够大时,大表在前小表在前都无所谓如果join_buffer_size不够大(比较常见),那么应选择小表作为驱动表
3、尽量还是使用小表作为驱动表,大表作为被驱动表(参考INL的复杂度)
4、为匹配的条件增加索引:争取使用INJ,减少被驱动表的循环次数
5、把join_buffer_size调大(一次缓存的数据越多,那么内层表循环的次数就越少)
6、减少不必要的字段查询(BNJ的join_buffer,select什么就读入什么)
join的优化
mysql调优
create table ....as......; 语句可以复制表结构及表数据,但不可以复制源表的主键、外键、索引信息
create table newTb as select * from oldTb
create table....like...;语句可以复制完整的表结构(包括列、主键、外键、索引等信息),但它不会复制表数据
create table newTb like oldTb
复制表
降序排序(大到小)使用:order by XXX desc
DESC
举例:select * from book where id between 10 and 20 :查询book表中所有价格为10到20的书(要求连续)
在某个范围内(between A and B)
举例:select * from book where price not between 20 and 30:查询book表中所有价格不在10到20的书(要求连续)
不在某个范围内(not between 20 and 30)
范围查询
扩展:in和=的性能区别in的性能比=差,尽量避免使用in待补充
in(not in)
select * from book where publish = '机械工业出版社' or publish = '科学出版社' or publish ='人民邮电出版社'
=(!=)
null不能用=,>,<去判断,全都是返回false,只能用is null去判断是否为空
默认情况下,推荐使用 IS NOT NULL去判断,因为SQL默认情况下对!= Null的判断会永远返回0行,但没有语法错误
null
查询读者的总人数select count(*) from reader;
统计该列的总数
count
条件查询
inner join / join (等值连接) 只返回两个表中联结字段相等的行
straight_join 只适用于inner join,并不使用于left join,right join。(因为left join,rightjoin已经代表指定了表的执行顺序)尽可能让优化器去判断,因为大部分情况下mysql优化器是比人要聪明的。使用STRAIGHT_JOIN一定要慎重
STRAIGHT_JOIN 让MySQL使用固定的连接方式进行查询inner join在使用时mysql可能会自动对驱动和被驱动表进行优化,导致性能反而下降使用:A STRAIGHT_JOIN B 中 A为驱动表,B为被驱动表,等值与A left join B
内连接
a LEFT JOIN b 即a为左表,b为右表,建立左连接
a显示全部记录,b只显示ON条件里符合的记录,即如果ON里a.id != b.id 则 b.id对应查出来的b其他记录为null
left join(左连接):返回包括左表中的所有记录和右表中联结字段存在相等的记录
a RIGHT JOIN b 即a为左表,b为右表,建立右连接
右连接同理左连接
right join(右连接):返回包括右表中的所有记录和左表中联结字段存在相等的记录
inner join 和 left/right join 的区别
外连接
UNION
结果集链接
使用方式:left join...on...on条件是在生成临时表时使用的条件,以左连接为例子:它不管on中的条件是否为真,都会返回左边表中的记录。如果符合ON条件那么B表的内容也会列出来如果不符合条件,则左表全显示,右表为null
on
多表使用left join只是把主表里的所有数据查询出来,其他表只查询表中的符合条件的某一条记录,所以速度非常快;而多表使用where内联,是把所有表的数据全查出来,然后进行比对,所以速度非常慢。如果无法确定主表,则选择哪张表查询的字段最多,就把哪张表作为主表
为什么join比where快
驱动表&被驱动表
Nested-Loop Join算法主要用于优化join效率,分为三种类型
实际上就是简单粗暴的嵌套循环,如果table1有1万条数据,table2有1万条数据,那么数据比较的次数=1万 * 1万 =1亿次,这种查询效率会非常慢
所以Mysql继续优化,然后衍生出Index Nested-LoopJoin、Block Nested-Loop Join两种NLJ算法。在执行join查询时mysql会根据情况选择两种之一进行join查询
SNL 简单嵌套循环连接
Simple Nested-Loop Join(效率最低)
和SNL一样也是嵌套查询,但是可以用上被驱动表的索引原来的匹配次数 = 驱动表行数 * 被驱动表行数优化后的匹配次数= 驱动表行数 * 被驱动表索引的高度
局限性:只有内层表join的列有索引时,才能用到Index Nested-LoopJoin进行连接由于用到索引,如果索引是辅助索引而且返回的数据还包括被驱动表的其他数据,则会回被驱动表查询数据(回表查询),多了一些IO操作
复杂度:N+N*2*log2M 驱动表全表扫描为N,被驱动表树高为M,搜索树近似复杂度为log2M在复杂度中N的影响最大,N越小越快,所以应该把小表作为驱动表
INL 索引嵌套循环连接
Index Nested-Loop Join
如果被驱动表上没有索引1、则先把驱动表读入线程内存join_buffer中(select 什么就读入什么,select * 则把整表放入内存,select name则只放name字段)2、然后把被驱动表每一行取出来和join_buffer中数据对比,满足join..on条件的则作为结果集返回join_buffer每次读入一批,都得扫描一遍被驱动表,所以join_buffer空间越大越好。同时因为基于内存,所以相比SNL会快一点
N越小,复杂度越低,速度越快,所以小表作为驱动表比较好
复杂度:N+K*M 驱动表为N,被驱动表为M,分片数为K(K=λ*N)
join_buffer_size越大,一次可以放入的行越多,需要的分片数量就越少,对被驱动表的全部扫描次数就越少
一次缓存的数据越多,那么内层表循环的次数就越少
为什么建议把join_buffer_size调大
BNL 缓存块嵌套循环连接
Block Nested-Loop Join
(1)Join Buffer会缓存所有参与查询的列而不是只有Join的列。(2)可以通过调整join_buffer_size缓存大小(3)join_buffer_size的默认值是256K,join_buffer_size的最大值在MySQL 5.1.22版本前是4G-1,而之后的版本才能在64位操作系统下申请大于4G的Join Buffer空间。(4)使用Block Nested-Loop Join算法需要开启优化器管理配置的optimizer_switch的设置block_nested_loop为on,默认为开启
扩展:join_buffer
4、为匹配的条件增加索引:争取使用INLJ,减少被驱动表的循环次数
Nested-Loop Join
join详解
联合查询
举例:查询结果是id = 2且age = 20或者id=1(id=1 或者 id=2且age=20)SELECT * from student WHERE id = 1 or id = 2 AND age = 20;
举例:查询结果是 id=1或id=2 且age = 20 (id=1且age=20 或者 id=2且age=20)SELECT * from student WHERE (id = 1 or id = 2 ) AND age = 20;
OR与AND一起时的用法
and&or
百分号%可以代表任意数量字符 而下划线___只能表示1位字符
'%a' //以a结尾的数据'a%' //以a开头的数据'%a%' //含有a的数据'_a_' //三位且中间字母是a的'_a' //两位且结尾字母是a的'a_' //两位且开头字母是a的
模糊查询like
用于在已有的表中添加、修改或删除列
ALTER TABLE table_name ADD column_name datatypeADD后面直接跟列名和数据类型
增加
ALTER TABLE table_name DROP COLUMN column_nameDROP要加COLUMN再加列名
删除
ALTER TABLE table_nameALTER COLUMN column_name datatypeDROP要加COLUMN再加列名再加类型
修改
alter table
触发器是一种特殊的存储过程,但触发器不能直接调用,只能通过某些事件触发。主要用于监视某个表的insert、update以及delete等更新操作,这些操作可以分别激活该表的insert、update或者delete类型的触发程序运行,从而实现数据的自动维护。
事件(event)是MySQL在相应的时刻调用的过程式数据库对象。一个事件可调用一次,也可周期性的启动,它由一个特定的线程来管理的,也就是所谓的“事件调度器”。能够方便地实现MySQL数据库的计划任务,而且能够精确到秒
两者都是在某些事情发生时自动启动的。触发器由事件触发,事件是由调度事件来启动的,往往是一个时间点
触发器&事件的区别
作用对象不同:WHERE 子句作用于表和视图,HAVING 子句作用于分组。
执行顺序不同:WHERE在分组和聚合计算之前执行,用于选取行。而 HAVING 在分组和聚集之后执行,用于选取分组的行。因此,WHERE当中不能直接使用聚合函数,而having\t可以
取出有重复的邮件:SELECT Email FROM PersonGROUP BY EmailHAVING count(Email) > 1
where&having区别
replace into 跟 insert into功能类似
当一个表中存在主键或唯一索引时,使用replace into 语句插入数据时,会先把冲突的旧数据删除,然后插入新数据。而insert into会直接插入数据,如果和主键或唯一索引重复,那么就会插入失败
replace&insert区别
应用程序调用存储过程或者函数时,只需要提供存储过程名或者函数名,以及参数信息,无需将若干条MySQL命令或SQL语句发送到MySQL服务器,节省了网络开销
存储过程或者函数可以重复使用,可以减少数据库开发人员,尤其是应用程序开发人员的工作量
使用存储过程或者函数可以增强数据的安全访问控制。可以设定只有某些数据库用户才具有某些存储过程或者函数的执行权
相同点
函数必须有且仅有一个返回值,且必须指定返回值数据类型(返回值类型目前仅仅支持字符串、数值类型)
存储过程可以没有返回值,也可以有返回值,甚至可以有多个返回值,所有的返回值需要使用out或者inout参数定义
函数体内可以使用select…into语句为某个变量赋值,但不能使用select语句返回结果(或者结果集)
存储过程则没有这方面的限制,存储过程甚至可以返回多个结果集
不同点
存储函数&存储过程区别
AS
别名
直接在该值上做处理即可(*0.8)
举例: 查询全部图书的信息,font color=\"#f44336\
查询的某个值做特殊处理
delete from 表名 where 列名称=值 :一行一行删,只能删数据Truncate:用于删除表内的数据,仅删除表内的数据且一次清空,不删除表本身,相当于Delete语句不写Where子句一样truncate不会记录到系统日志,不会触发delete触发器。delete不能使自动编号返回为起始值。但是truncate能使自动增长的列的值返回为默认的值
truncate和delete区别
1、在速度上,一般来说,drop> truncate > delete。2、在使用drop和truncate时一定要注意,虽然可以恢复,但为了减少麻烦,还是要慎重。3、如果想删除部分数据用delete,注意带上where子句,回滚段要足够大;4、drop是DDL,truncate是DDL,delete是DML(扩展可搜上面的语句分类Tag)使用:1、只删除表,用drop;2、保留表而将所有数据删除,如果和事务无关,用truncate即可,如何和事务有关,或者想触发trigger,还是用delete;3、整理表内部的碎片,可以用truncate跟上reuse stroage,再重新导入/插入数据
drop&truncate&delete区别
in&or&exist区别
数据结构、数据操作、完整性约束
数据模型三要素
net start 服务名、net stop 服务名
启动/关闭mysql服务
网状数据库、层次数据库和关系数据库
数据库依据数据类型分为三种
65535B=64KB,超出则内存溢出
65535
Text类型保存多少字节数
drop DATABASE 和 drop SCHEMA 这两种写法都能删除数据库
一张表只能有一个主键,联合主键的意思是多个字段联合作为一张表的一个主键
备份数据库命令:mysqldump
RESTRICT,No ACTION,CASCADE,Set Null
当取值为No Action或者Restrict时,则当在父表(即外键的来源表)中删除对应记录时,首先检查该记录是否有对应外键,如果有则不允许删除当取值为Cascade时,则当在父表(即外键的来源表)中删除对应记录时,首先检查该记录是否有对应外键,如果有则也删除外键在子表(即包含外键的表)中的记录。当取值为Set Null时,则当在父表(即外键的来源表)中删除对应记录时,首先检查该记录是否有对应外键,如果有则设置子表中该外键值为null(不过这就要求该外键允许取null)。
外键约束的四大级联级别
杂项
常用
sql
1、ORDER BY x 对结果集根据x来进行排序(默认从小到大排序)
2、DESC 就是将默认排序改为从大到小降序排序
查找最晚入职员工的所有信息
计算出现了多少次
count()
求和
sum()
HAVING
GROUP BY
查找薪水记录超过15次的员工号emp_no
设置自动增长主键的初始值
解决 嵌套inner join查询
!找出每个分组最大的那个值
实战
Sql语句练习
MySQL
Redis 的全称是:Remote Dictionary.Server,本质上是一个 Key-Value 类型的内存数据库,很像 memcached,整个数据库统统加载在内存当中进行操作,定期通过异步操作把数据库数据 flush 到硬 盘上进行保存。 因为是纯内存操作,Redis 的性能非常出色,每秒可以处理超过 10 万次读写操作,是已知性能最快的 Key-Value DB。 Redis 的出色之处不仅仅是性能,Redis 最大的魅力是支持保存多种数据结构,此外单个 value 的最大 限制是 1GB,不像 memcached 只能保存 1MB 的数据,因此 Redis 可以用来实现很多有用的功能。 比方说用他的 List 来做 FIFO 双向链表,实现一个轻量级的高性 能消息队列服务,用他的 Set 可以做 高性能的 tag 系统等等。 另外 Redis 也可以对存入的 Key-Value 设置 expire 时间,因此也可以被当作一 个功能加强版的 memcached 来用。 Redis 的主要缺点是数据库容量受到物理内存的限制,不能用作海量数据的高性能 读写,因此 Redis 适合的场景主要局限在较小数据量的高性能操作和运算上
redis优缺点
热点数据缓存
限时业务
分布式锁
其他
排行榜
set操作
共同关注
点赞/收藏(标签)
抽奖
微博/公众号消息流
购物车
计数器
微信小程序中的喜欢作者和踩一下,采用incrby xx即可
String
小型购物车
hlen获取商品总数
hgetall勾选所有商品
Hash
消息队列
微信订阅号中消息的推送
List
微信小程序的开奖
srandmember xxx
spop xxx
Zset
五种基本数据类型
签到
Bitmap
基于loglog算法用于基数统计
Hyperloglog
定位
附近的人
GEO
三种特殊数据类型
数据类型对应应用
Redis可以实现的项目功能
注意:在Redis中,键总是一个字符串对象,而值可以是字符串、列表、集合等对象,所以我们通常说的键为字符串键,表示的是这个键对应的值为字符串对象,我们说一个键为集合键时,表示的只是这个键对应的值为集合对象,键本身为字符串。
int编码保存的是可以用 long 类型表示的整数值。例如 1 、 233 、1000000
cpucacheline每次读是64byte(64操作系统),redisObject一般只占20byte,所以剩下空间缓存embstr的字符串
embstr 编码保存长度小于44字节的字符串(redis3.2版本之前是39字节,之后是44字节)
raw 编码保存长度大于44字节的字符串(redis3.2版本之前是39字节,之后是44字节)
1、计数器
不同于Java中的锁,只能保证在同一个JVM进程内中执行。如果在分布式集群环境则需要用到分布式锁
2、分布式锁
3、储存对象(不常变化)
string
ziplist或linkedlist(双端链表)(3.2及之前)
当同时满足下面两个条件时,使用ziplist(压缩列表)编码: 1、列表保存元素个数小于512个 2、每个元素长度小于64字节不能满足上面两个条件的时候使用 linkedlist 编码。上面两个条件可以在redis.conf 配置文件中的 list-max-ziplist-value选项和 list-max-ziplist-entries 选项进行配置
ziplist是Redis为了节省内存而开发的,是由一系列特殊编码的连续内存块组成的顺序型数据结构,一个压缩列表可以包含任意多个节点(entry),每个节点可以保存一个字节数组或者一个整数值。原理:压缩列表并不是对数据利用某种算法进行压缩,而是将数据按照一定规则编码在一块连续的内存区域,目的是节省内存
ziplist(压缩列表) quickList(3.2之后)
1、排行榜
使用场景:
list
储存方式和list的ziplist一样
ziplist
hashtable 编码的哈希表对象底层使用字典数据结构,哈希对象中的每个键值对都使用一个字典键值对
hashtable
1、购物车 以用户id为key,商品id为field,商品信息为value
2、储存对象(经常变化)
hash
intset 编码的集合对象使用整数集合作为底层实现,集合对象包含的所有元素都被保存在整数集合中
intset(整数集合)(会排序不重复)
hashtable 编码的集合对象使用 字典作为底层实现,字典的每个键都是一个字符串对象,这里的每个字符串对象就是一个集合中的元素,而字典的值则全部设置为 null。这里可以类比Java集合中HashSet 集合的实现,HashSet 集合是由 HashMap 来实现的,集合中的元素就是 HashMap 的key,而 HashMap 的值都设为 null
set
分值小的靠近表头,分值大的靠近表尾
ziplist
skiplist 编码的有序集合对象使用 zset 结构作为底层实现,一个 zset 结构同时包含一个字典和一个跳跃表字典的键保存元素的值,字典的值则保存元素的分值;跳跃表节点的 object 属性保存元素的成员,跳跃表节点的 score 属性保存元素的分值 说明:其实有序集合单独使用字典或跳跃表其中一种数据结构都可以实现,但是这里使用两种数据结构组合起来,原因是假如我们单独使用 字典,虽然能以 O(1) 的时间复杂度查找成员的分值,但是因为字典是以无序的方式来保存集合元素,所以每次进行范围操作的时候都要进行排序;假如我们单独使用跳跃表来实现,虽然能执行范围操作,但是查找操作有 O(1)的复杂度变为了O(logN)。因此Redis使用了两种数据结构来共同实现有序集合
优点:跳表的线程安全是通过cas锁实现的,跳表的构建相对简单,同时支持范围查找
缺点:相对于红黑树,空间消耗增加
扩展:跳表的数据结构
skiplist
zset
详解 2021/11/29 待看
redis5种数据类型
redis五种数据类型
在Redis内部,每当我们设置一个键的过期时间时,Redis就会将该键带上过期时间存放到一个过期字典中。当查询一个键时,Redis便首先检查该键是否存在过期字典中,如果存在,那就获取其过期时间。然后将过期时间和当前系统时间进行比对,比系统时间大,那就没有过期;反之判定该键过期。
Expire 设置过期时间
及时删除对内存好,但是偶尔过多需要删除的话对cpu不好
定时删除:设置定时器任务,key的过期时间到了定时器就去就删
对cpu好,但是对内存不好,还有可能内存泄漏
惰性删除:要用这个key的时候发现过期了才删
兼容上面两种优点,但缺点是频率不好把握,频率过高就跟定时删除一样,过低就跟惰性删除一样更致命的是还可能返回已经过期的key的值
定期删除:定期随机抽取一部分key看是否过期,过期就删
Redis的过期删除策略就是:惰性删除和定期删除两种策略配合使用
过期删除策略
先设置redis最大内存,默认无限制,一般设物理内存3/4
此外还有:volatile-lru 利用LRU算法移除设置过过期时间的key (LRU:最近使用 Least Recently Used )volatile-random 移除设置过过期时间的随机key
策略有很多种,通常用allkeys-lru 利用LRU算法移除所有key(包括过期和不过期的key
内存淘汰策略allkeys-lru
key对应的value过大(一般超过10kb即认为为大key)
场景:热门话题的评论,答案排序,大v的粉丝列表
整存整取:多redis实例拆分。只要部分:hash+filed片段访问
hash取模
本地缓存
在Redis中,要特别注意复杂度为O(n)的操作,这类操作一般时间较长,很容易阻塞Redis,在集群环境下极易发生故障切换
大key问题
本地缓存:Ehcache、hashmap
集群+随机数:给请求加随机数以分配到集群中不同的redis
最好提前发现:监控热key+通知系统去做本地缓存
热key问题
解决:设置过期时间(setnx ex)
setnx拿到锁后 删锁前 宕机 死锁
解决:拿锁和设置过期必须原子(setnx ex+Lua脚本)
setnx拿到锁后 设置过期时间前 宕机 死锁
解决:删锁必须原子(uuid+Lua脚本)
setnx ex拿到锁后 锁因已过期 现在删了别的锁
每过1/3的过期时间就判断一次锁状态,锁还在就续满
即使哨兵模式也无法解决主从复制的时延问题,redis主机一崩就会丢失锁信息
Redisson的看门狗
记录一个毫秒级的开始时间。加锁时轮询所有redis服务器,如果某台连接时间过长则放弃它
>=n/2+1台已加锁 && 当前时间 - 开始时间 < 锁的超时时间 则创建成功
RedLock
1.监控(主节点是否下线)
2.选主(选择一个新的主节点)
3.通知(通知客户端和其他从节点,哨兵)
通过 pub/sub 机制,连接同一个主库的哨兵之间可以组成集群(当多个哨兵实例都在主库上做了发布和订阅操作后,它们就能知道彼此的 IP 地址和端口)同时,哨兵又通过 INFO 命令,获得了从库连接信息,也能和从库建立连接,并进行监控了
哨兵如何保证高可用,如何组成集群
哨兵模式
业务层校验
布隆过滤器
为不存在的数据设置短过期时间
用户不断发起缓存和数据库都不存在的请求
缓存穿透
其实有点类型定时更新过期时间,只是这个是第一次发现热点key失效的时候才会加锁更新,
互斥锁
定时更新过期时间
热点key失效的瞬间大量请求进来
缓存击穿
过期时间均匀分布一下
数据预热
集群+哨兵保证高可用
key大面积同时失效或redis宕机
缓存雪崩
缓存问题
定期把当前内存中数据写入dump数据集快照后再写入磁盘,Snapshot 快照存储了数据库中所有键值对数据。恢复时是将快照文件直接读到内存里。默认的文件名为dump.rdb,Redis 服务器在载入 RDB 文件期间,会一直处于阻塞状态,直到载入工作完成为止。
优点:文件适合备份和恢复,大数据集恢复速度比AOF快 生成RDB时会让主进程fork()一个子进程来做,主进程不需要磁盘IO缺点:不能实时持久化会丢失最后一次修改产生的数据
save
bgsave
自动化
RDB(默认)
把所有的对Redis的服务器进行修改的命令都存到一个文件里,是一个命令的集合,通过保存Redis服务器所执行的写命令来记录数据库状态
优点:每秒同步一次 文件格式可读性强可手动修改一些命令缺点:同等数据量下AOF比RDB文件更大 每秒同步一次导致性能比RDB低一些 AOF保存的是指令容易出bug
AOF重写: AOF 文件重写并不是对原文件进行重新整理,而是直接读取服务器现有的键值对,然后用一条命令去代替之前记录这个键值对的多条命令,生成一个新的文件后去替换原来的 AOF 文件
AOF
RDB-AOF混合持久化(redis4.0以后)
持久化策略
一致性hash是无法支持直接水平扩缩容的。因为无论增加一个节点或者删除一个节点,都会导致整个hash环的调整
水平扩容:加机器的数量
垂直扩容:单机器提升性能
如果Redis被当做缓存使用,使用一致性哈希实现动态扩容缩容
当缓存服务器数量发生变化时,会引起缓存的雪崩,可能会引起整体系统压力过大而崩溃(大量缓存同一时间失效)
当缓存服务器数量发生变化时,几乎所有缓存的位置都会发生改变,需要尽量减少受影响的缓存
普通hash算法对服务器数量取模可能会导致问题
出现原因
一致性哈希算法步骤是1、服务器地址对2*32次方 取模(%),计算出服务器的hash环地址后,将服务器地址放到地址数量为2*32次方的hash环上,2、放完服务器后再计算 资源对应的hash环地址(资源名称/标签/..%2*32次方),将资源放到对应的hash环地址上3、然后资源沿着hash环顺时针寻找最近的服务器地址,找到后即为该资源所存的服务器
当缓存服务器发生变化的时候,只有失效服务器上对应的部分缓存会失效,不会引起缓存雪崩和系统压力过大
同理,只有失效服务器上的资源地址发生改变
一致性Hash算法对于节点的增减都只需重定位环空间中的一小部分数据,具有较好的容错性和可扩展性。可以用来做负载均衡和扩容处理
解决问题&优点
举例:除了5,其它资源全部分配到A服务器
服务器经过一致性哈希计算后不一定在hash环上均匀分布(例如数台服务器非常靠近),那么被缓存的对象很有可能大部分集中缓存在某一台服务器上
上述中服务器集中的情况被称为hash环的偏斜,A、B、C三台服务器并没有被合理的平均的充分利用,缓存分布的极度不均匀,而且,如果此时服务器A出现故障,那么失效缓存的数量也将达到最大值,在极端情况下,仍然有可能引起系统的崩溃
映射多个虚拟节点,资源找到虚拟节点即存入对应的实际节点
虚拟节点越多,hash环上的节点就越多,缓存被均匀分布的概率就越大,越减小hash环偏斜所带来的影响
解决方法:虚拟节点
一致性哈希
如果Redis被当做一个持久化存储使用,必须使用固定的keys-to-nodes映射关系,节点的数量一旦确定不能变化。否则的话(即Redis节点需要动态变化的情况),必须使用可以在运行时进行数据再平衡的一套系统,而当前只有Redis集群可以做到这样
谁说NoSql都不支持事务,虽然redis的事务提供的并不是严格的ACID的事务(比如一串用EXEC提交执行的命令,在执行中服务器宕机,那么会有一部分命令执行了,剩下的没执行),但是这个事务还是提供了基本的命令打包执行的功能(在服务器不出问题的情况下,可以保证一连串的命令是顺序在一起执行的,中间会有其他客户端命令插进来执行)。redis还提供了一个watch功能,你可以对一个key进行watch,然后再执行事务,在这个过程中,如果这个watch的值进行了修改,那么这个事务会发现并拒绝执行
redis支持事务吗
写:先更新 DB然后直接删除 cache
读 :从 cache 中读取数据,读取到就直接返回cache中读取不到的话,就从 DB 中读取数据返回再把数据放到 cache 中
缺陷1:首次请求数据一定不在 cache 的问题解决办法:可以将热点数据可以提前放入cache 中。
缺陷2:写操作比较频繁的话导致cache中的数据会被频繁被删除,这样会影响缓存命中率 。解决办法:数据库和缓存数据强一致场景 :更新DB的时候同样更新cache,不过我们需要加一个锁/分布式锁来保证更新cache的时候不存在线程安全问题。可以短暂地允许数据库和缓存数据不一致的场景 :更新DB的时候同样更新cache,但是给缓存加一个比较短的过期时间,这样的话就可以保证即使数据不一致的话影响也比较小。
问题1:在写数据的过程中,可以先删除 cache ,后更新 DB 吗?答案: 不行 因为这样可能会造成数据库(DB)和缓存(Cache)数据不一致的问题。例如:请求1先把cache中的A数据删除 -> 请求2从DB中读取数据->请求1再把DB中的A数据更新请求2读取的数据和DB里的数据就不一致了
可能存在的问题
旁路缓存模式
读写穿透模式
异步缓存写入
三种常用读写策略
消费者订阅指定队列,Redis 就会记录一个映射关系:队列->消费者
生产者向这个队列发布消息,那 Redis 就从映射关系中找出对应的消费者,把消息转发给它
完整流程
支持多组生产者、消费者处理消息
优势
必须先订阅,后发布,否则消息丢失
如果一个消费者异常挂掉了,它再重新上线后,只能接收新的消息,在下线期间生产者发布的消息,因为找不到消费者,都会被丢弃掉
消费者下线
不支持数据持久化,Redis 宕机,数据也会丢失
当消费者的速度,跟不上生产者时,就会导致数据积压的情况发生,即超过了消息缓冲区的大小时会把消费最慢的消费者踢出去
消息堆积
丢数据
没有基于任何数据类型实现,所以不具备「数据持久化」的能力
无法持久化
List 中的数据可以一直积压在内存中,消费者什么时候来「拉」都可以。
但 Pub/Sub 是把消息先「推」到消费者在 Redis Server 上的缓冲区中,然后等消费者再来取
和list模型的区别
发布/订阅模式
一个redis实例作为主机,其余实例作为从机。主机和从机的数据完全一致,主机支持数据的写入和读取等各项操作,而从机则只支持与主机数据的同步和读取。客户端将数据写入到主机,由主机自动将数据的写入操作同步到从机
解决了数据备份(主从有同样数据)和性能提升(读写分离)
主从复制一致性问题
1、连上从库,做save操作。将会在从库的data目录保存一份从库最新的dump.rdb文件。将这份dump.rdb文件拷贝到主库的data目录下。再重启主库
Raft算法得到票数,如果新leader拿到超过半数以上票数 且 拿到的票数>=哨兵配置文件中的quorum值
如何选举新master
2、哨兵重新选一个主机,原主机重新上线后变为从机
主机挂了怎么办
redis主从模式
redis和mysql区别
redis-benchmark
redis压测
Redis持久化数据和缓存怎么做扩容?
避免了不必要的上下文切换和竞争条件,也不存在多进程或者多线程导致的切换而消耗CPU,不用去考虑各种锁的问题,不存在加锁释放锁操作,没有因为可能出现死锁而导致的性能消耗
为什么redis是单线程
面试题:
redis详解
Redis
异步、解耦、削峰、数据分发
rocketmq图
作用就是优点
缺点:引入外部依赖,系统稳定性降低,复杂度提高还要考虑消息一致性问题
微信qq就是典型的mq应用。超时订单自动关闭
RocketMQ和RabbitMQ对比
nameserver 无状态的含义:每台nameserver之间没有连接且没有信息同步,他们都会收到broker上报的信息,和producer、consumer的询问,搭建无状态集群比较方便
broker主从部署:nameserver将两台broker分为一组,其中broker的nameserverId为0的是主,其它的都是从,比如1
nameserver(broker的路由中心)、producer、broker、consumer
组成
集群消费:每个group只有一个consumer能消费
广播消费:每个group每个consumer能消费
消费模式
问题:consumer消费后发送的ack因网络原因导致broker没及时收到,让consumer再消费了一遍
解决:每条消息都会有一条唯一的消息ID,消费者接收到消息会存储消息日志,如果日志中存在相同ID的消息,就证明这条消息已经被处理过了
重复消费问题
单个队列:天然FIFO顺序没有问题
缺点:降低并发和吞吐量
多个队列:限制1个topic里只有1个queue,且只被1个consumer消费
顺序消费问题
发送失败后重试(一般设最多3次)
采取send()同步发消息,发送结果是同步感知的
producer
默认异步刷盘,修改成同步刷盘
集群部署
broker
consumer:消费正常后再进行手动ack确认
消息丢失问题
添加consumer
加topic
决定是否丢弃
消息堆积问题
场景:一般应用在当正常业务处理时出现异常时,将消息拒绝则会进入到死信队列中,有助于统计异常数据并做后续处理
死信队列
把每种延迟时间段的消息都存放到同一个队列中,然后通过一个定时器进行轮询这些队列,查看消息是否到期,如果到期就把这个消息发送到指定topic的队列中
订单超时未支付,自动取消
支付后24小时未评论自动好评
应用
延时队列
心跳机制
RocketMQ如何实现分布式事务?
RocketMQ
概述
1.权限控制使用在节点上2.一个节点可以有多个权限3.权限对子节点无影响
所有人可用 id固定是anyone
world
对ip认证
ip
对已添加认证的用户认证
auth
使用用户名密码认证
digest(常用)
secheme策略
permission权限:cdrwa
acl权限控制scheme:id:permission
可以监听节点的状态和是否发生了变化。只能使用一次。如果想要继续监听就要再回调时重新设置watch
getData()
exists()
setData()
create()
DataWathch监听node节点的数据变化
getChildren()
create()
ChildWatch监听孩子节点发生变化
两种数据类型
watch
依赖数据版本号生成
每增加一个事务就会生成一个64位id,高32位表示leader的周期,换leader就+1低32位表示事务次数,一旦有事务进来,如果其他半数以上服务器连接成功,就+1
保证事务顺序一致性:分布式唯一id
1.每个客户端与zookeeper连接时,都会再lock/目录下创建临时节点,并存储该客户带信息2.按cZxid大小排序lock/目录下的节点3. 判断排在第一的目录 是不是 自己,是的话就获取锁,不是的话就监听排在自己前面的节点
如果拿着锁的客户端宕机了,与zookeeper断开连接,那么它的临时节点就会被删除,监听这个节点的节点就会被通知
zookeeper 是通过 zab协议来保证分布式事务的最终一致性
zab协议zookeeper原子广播
监听原理
同步数据
寻找leader状态
looking
领导者状态
leading
跟随着状态
following
观察者状态,不投票
observing
服务器状态
当有两个服务器时,每个服务器都给自己投票,平票然后就会比较zxid,如果相等,再比较myid,选择大的最后票数大于一半服务器就成功选出leader
选举机制大于半数机制
断开连接后,创建的节点自己删除
临时节点
断开连接,创建的节点不删除
永久节点
znode
全部重启
逐个重启(常用)(需满足有半数以上存活)
3.2水平扩容
3.5动态扩容
zk如何实现注册中心
zookeeper
1、维护配置信息
2、分布式锁场景
3、集群管理
4、生成分布式唯一ID
应用场景:
1、高性能 zk的全量数据放在内存里
2、高可用 只要集群内超过一半机器正常工作,整个集群就能正常对外提供服务
3、严格顺序访问 对客户端的更新请求分配全局唯一的递增编号,用于反映操作先后顺序
树状结构(目录),被称为znode(zookeeper node),一个znode可以有多个子节点使用路径来定位某个znode节点:/ns-1/icast/mysql/schema1/table1
1、数据:znode-data,类似map中的key-value关系
属性说明(ACL权限列表)
具体属性(get命令查看)
2、状态 stat 用来描述当前节点的创建,修改记录,包括cZxid、ctime等ps:写(增删改)操作会在zk服务器内部自动维护一个事务,读不会
3、子节点:children
znode内容
节点的类型在创建时被确定,且不能改变
生命周期依赖会话,会话(Session)结束后,临时节点自动删除,也可以手动删除ps:虽然临时znode创建后会被绑定到一个客户端会话,但它对所有客户端也可见pss:临时节点不允许拥有子节点
生命周期不依赖会话,只有在客户端执行删除操作的时候才会被删除
持久节点
znode类型
待补充:watch、client、zab协议、acl权限控制、监听原理
zk集群模型是什么?follower和observer的区别?leader挂了(单点故障)怎么办
不是强一致性,zab只保证最终一致性,通过sync()实现强一致性
一致性:数据在多个副本节点之间是一致的,在一个副本节点上修改了数据,其他副本节点也会相应的修改数据
强一致性:在一个副本节点修改了数据,那么在其他副本节点都能立刻读到最新修改的数据
zookeeper使用的ZAB协议进行主从数据同步,保证最终一致性,ZAB协议认为只要是过半数节点写入成为,数据就算写成功了然后会告诉客户端A数据写入成功,如果这个时候客户端B恰好访问到还没同步最新数据的zookeeper节点,那么读到的数据就是不一致性的,因此zookeeper无法保证写数据的强一致性,只能保证最终一致性,而且可以保证同一客户端的顺序一致性
zk不是强一致性
zookeeper原生客户端API和Curator客户端都提供了sync()方法,调用sync()方法之后,zookeeper集群会保证集群所有节点数据都是一致性的此时客户端再去任意节点读取数据,都能读取最新的数据
sync()扩展
sync()保证强一致性
zookeeper不保证强一致性的原因,是在性能和可用性(A)和一致性之间(C)做了取舍。1.如果节点之间存在网络延迟,而又要所有节点都同步数据才算成功,那么写性能非常的差;2.如果有一个节点挂了,无法同步数据,那么此时整个集群就无法提供写服务,无法保证可用性.
保证强一致性会导致性能下降和可用性问题
zookeeper是不是强一致性的,如果是,又怎么保证数据强一致性的吗
Zookeeper第二版
数据发布/订阅:订阅节点通过注册监视器到数据发布节点
负载均衡:命名空间表示全局路径
ZooKeeper
1、引入io-dubbo-springboot依赖
...
扩展:常用核心配置
2、配置application.properties文件
接口上什么都不加,但是其实现类上要加上一个注解@Service 注意该注解是com.alibaba.dubbo.config.annotation.Service 如果引入错误,发布也不会成功的
3、创建接口和实现类
dubbo接口发布者
1、引入依赖
2、配置properties
dubbo接口消费者
springboot配置dubbo
开发实战
dubbo是阿里开源的高性能的RPC框架,它提供了三大核心能力:面向接口的远程方法调用,智能容错和负载均衡,以及服务自动注册和发现。
dubbo是什么
树形结构
zookeeper注册dubbo
实现方设计接口,并实现接口的实例,但无法选择用哪个实例。
java api
调用方可以选择使用该接口的哪个实例缺点:会一次性实例化接口的所有实现,耗时,浪费资源
使用方法:在META-INF/services目录下创建文件名为该接口的全路径名内容为接口实例类的全路径名然后用serverLoader去加载这个接口
java spi
它只是加载文件中的类(不是实例化)然后按种类放入不同的缓存里。
用在接口上:相当于@SPI用在接口方法上:会生成这个方法的代理类根据URL对象找到对应的实现类去调用这个方法。用在实例类上:调用的默认就是这个实例类如果@Adaptive没有指定默认值就根据类名生成如:YyyInvokerWrapper->yyy.invoke.wrapper
@Adaptive
主要用于存在多个扩展点实现,需要根据不同条件被激活的场景。比如要区分consumer和provider使用哪些过滤器所以它可以传入的参数有: order group value
@Active
根据传入的值,匹配配置文件里的实现类
@SPI
扩展点注解
用字符串构造成类的属性方法等,然后生成类,实例化。可以减少代理次数
Javassist
扩展点动态编译
dubbo spi
扩展点加载机制(spi)
主要在serviceBean初始化它在afterpropertiesSet完成标签解析然后在容器bean创建完后回调onApplicationEvent创建impl类的代理,注册到注册中心,订阅节点启动netty.
提供者服务暴露
在这个接口Bean被引用时,会通过FactoryBean的getObject()返回一个代理对象在这过程会去向注册中心注册,订阅节点启动netty
消费者服务暴露
进入invoke()方法会对服务列表进行路由过滤根据负载均衡选出要调用的服务异步发送
消费者调用过程
把远程服务用injvm协议再暴露一份,就是保存在内存Map里
本地服务暴露
服务源码系列
injvm
dubbo
rmi
http
hessian
rest
thrift
webservice
redis
memcached
支持的协议
异步发送
服务接口层(Service):该层是与实际业务逻辑相关的,根据服务提供方和服务消费方的业务设计对应的接口和实现
提供服务双方使用的接口
配置层(Config):对外配置接口,以ServiceConfig和ReferenceConfig为中心,可以直接new配置类,也可以通过spring解析配置生成配置类
生成配置类
服务代理层(Proxy):服务接口透明代理,生成服务的客户端Stub和服务器端Skeleton,以ServiceProxy为中心,扩展接口为ProxyFactory
服务注册层(Registry):封装服务地址的注册与发现,以服务URL为中心,扩展接口为RegistryFactory、Registry和RegistryService。可能没有服务注册中心,此时服务提供方直接暴露服务
提供服务注册和发现功能
集群层(Cluster):封装多个提供者的路由及负载均衡,并桥接注册中心,以Invoker为中心,扩展接口为Cluster、Directory、Router和LoadBalance。将多个服务提供方组合为一个服务提供方,实现对服务消费方来透明,只需要与一个服务提供方进行交互
路由和负载均衡
监控层(Monitor):RPC调用次数和调用时间监控,以Statistics为中心,扩展接口为MonitorFactory、Monitor和MonitorService
监控服务状态
远程调用层(Protocol):封装RPC调用,以Invocation和Result为中心,扩展接口为Protocol、Invoker和Exporter。Protocol是服务域,它是Invoker暴露和引用的主功能入口,它负责Invoker的生命周期管理。Invoker是实体域,它是Dubbo的核心模型,其它模型都向它靠扰,或转换成它,它代表一个可执行体,可向它发起invoke调用,它有可能是一个本地的实现,也可能是一个远程的实现,也可能一个集群实现
实现远程调用功能
信息交换层(Exchange):封装请求响应模式,同步转异步,以Request和Response为中心,扩展接口为Exchanger、ExchangeChannel、ExchangeClient和ExchangeServer
网络传输层(Transport):抽象mina和netty为统一接口,以Message为中心,扩展接口为Channel、Transporter、Client、Server和Codec
数据序列化层(Serialize):可复用的一些工具,扩展接口为Serialization、ObjectInput、ObjectOutput和ThreadPool
序列化和数据传输(netty)
在RPC中,远程调用层(Protocol)是核心层,也就是只要有Protocol+Invoker+Exporter就可以完成非透明的RPC调用,然后在Invoker的主过程上设置Filter拦截点
十层整体架构图
dubbo的架构设计
Dubbo
Netty是一个异步事件驱动的网络应用程序框架,用于快速开发可维护的高性能协议服务器和客户端,同时也是基于NIO的,它封装了jdk的nio,让我们使用起来更加方法灵活
Netty 是一款基于 NIO(Nonblocking IO,非阻塞IO)开发的网络通信框架,对比于 BIO(Blocking I/O,阻塞IO),他的并发性能得到了很大提高。
高并发
Netty 的传输依赖于零拷贝特性,尽量减少不必要的内存拷贝,实现了更高效率的传输。
传输快
Netty 封装了 NIO 操作的很多细节,提供了易于使用调用接口
封装好
特点
封装了 NIO 的很多细节,使用更简单
使用简单
预置了多种编解码功能,支持多种主流协议,如 FTP,SMTP,HTTP 以及各种二进制和基于文本的传统协议
功能强大
可以通过 ChannelHandler 对通信框架进行灵活地扩展。
定制功能强
Netty 是活跃的开源项目,版本迭代周期短,bug 修复速度快
社区活跃
Netty 修复了已经发现的NIO的 bug,让开发人员可以专注于业务本身
稳定
很多开源项目都使用到了 Netty, 比如我们经常接触的 Dubbo、RocketMQ 等等
经历大型项目考验
IO 线程模型:同步非阻塞,用最少的资源做更多的事。
内存零拷贝:尽量减少不必要的内存拷贝,实现了更高效率的传输。
内存池设计:申请的内存可以重用,主要指直接内存。内部实现是用一颗二叉查找树管理内存分配情况。
串形化处理读写:避免使用锁带来的性能开销
高性能序列化协议:支持 protobuf 等高性能序列化协议
通过与其他业界主流的 NIO 框架对比,如mina,Grizzly之类,Netty 的综合性能最优
性能高
RPC 框架的网络通信工具
实现一个自定义的HTTP 服务器(类似tomcat)
即时通讯系统
消息推送系统
FileChannel 文件数据传输通道
DatagramChannel UDP网络数据传输通道
SocketChannel 客户端/服务端TCP网络数据传输通道
ServerSocketChannel 服务端TCP网络数据传输通道
Channel(双向通道,输入输出数据)
MappedByteBuffer
DirectByteBuffer
HeapByteBuffer
1、channel向buffer写入数据(channel.read(buffer))
3、从buffer读取数据(buffer.get())
4、切换到写模式(buffer.clear()&buffer.compact())
5、向buffer里写入数据(buffer.put(byte)) (参数可以是byte也可以是byte数组)
从写切换到读,position会指向0(即从0开始读),limit会指向最后一个写的位置
1、position(当前修改的位置)
2、Limit(写入限制)
3、capacity(buffer容量)
ByteBuffer
ShortBuffer
IntBuffer
LongBuffer
FloatBuffer
DoubleBuffer
CharBuffer
Buffer(缓冲读写数据)
Selector详解
Selector(配合一个线程管理多个Channel)
1、三大组件
Reactor模式是处理并发I/O常见的一种模式,用于同步I/O,其中心思想是将所有要处理的I/O事件注册到一个中心I/O多路复用器上,同时主线程阻塞在多路复用器上,一旦有I/O事件到来或是准备就绪,多路复用器将返回并将相应I/O事件分发到对应的处理器中
Reactor模式(响应器模式)
netty-NIO基础
长连接
注:心跳包还有另一个作用,即:一个连接如果长时间不用,防火墙或者路由器就会断开该连接
IdleStateHandler这个类会根据你设置的超时参数的类型和值,循环去检测channelRead和write方法多久没有被调用了,如果这个时间超过了你设置的值,那么就会触发对应的事件,read触发read,write触发write,all触发all如果超时了,则会调用userEventTriggered方法,且会告诉你超时的类型如果没有超时,则会循环定时检测,除非你将IdleStateHandler移除Pipeline
IdleStateHandler
心跳定义
零拷贝(netty)
单线程模型
多线程模型
主从多线程模型
NioEventLoopGroup 线程池
线程模型
内存池
对象池
服务端和客户端的启动流程
八股
Netty 网络操作(读写等操作)抽象类,包括基本的 I/O 操作,如 bind()、connect()、read()、write()
Channel
本质上 是单线程执行器(同时维护了一个selector),里面有run方法处理channel上源源不断的io事件ps:一个eventloop就是一个线程功能为 负责监听网络事件并调用事件处理器注册到其上的Channel 进行相关 I/O 操作的处理
NioEventLoop
EventLoop
EventLoopGroup是一组EventLoop,Channel调用Eventloopgroup的register方法来绑定其中的一个EventLoop后续这个channel上的io事件都由这个eventloop来处理,保证了io事件处理时的线程安全问题
EventLoopGroup是一个接口,需要具体实现,例如NioEventLoopGroup功能最全,支持io事件,普通任务,定时任务
NioEventLoopGroup 类的无参构造函数设置线程数量的默认值就是 CPU 核心数 *2
主要管理 eventLoop 的生命周期,可以理解为一个线程池,内部维护了一组线程,每个线程(NioEventLoop)负责处理多个 Channel 上的事件,而一个 Channel 只对应于一个线程。
NioEventLoopGroup
相比NioEventLoopGroup,不支持io事件,只能处理普通任务和定时任务
DefaultEventLoopGroup
EventLoopGroup
核心组件
客户端
服务端
channel:数据的通道msg:流动的数据handle:数据的处理工序 handle合在一起就是pipelinepipeline:加工流水线 加工msgeventloop:处理数据的工人
相关解析
helloworld
eventloop的基本使用
实战学习
Netty
简介图
动词:相当于mysql的insert在es里插入一条数据即称为索引一条数据到es
名词:相当于mysql的databasemysql里的database内存储一张张table(表)对应es里index里存储一个个Type
Index(索引)
在Index里可以定义一个或多个Type(类型)类似mysql里的table,每一种类型的数据放在一起es的数据(Document)存在某个索引的某个类型下
在 5.X 版本中,一个 index 下可以创建多个 type;在 6.X 版本中,一个 index 下只能存在一个 type;在 7.X 版本中,直接去除了 type 的概念,就是说 index 不再会有 type
为什么移除:es基于lucene的倒排索引,倒排索引的生成基于index而非type,多个type会影响倒排索引性能
PS:最新版本es移除了type字段
Type(类型)
相当于mysql里的数据,格式为Json,文档内每个记录称为属性保存在某个Index(索引)下的某个Type(类型)里的一个数据(文档)相当于mysql 某个database下的某个table里的一个记录
Document(文档)
ES中所有数据均衡的存储在集群中各个节点的分片中,会影响ES的性能、安全和稳定性整个ES集群的核心就是对所有分片的分布、索引、负载、路由等达到惊人的速度
分片
缺点:正排索引是指文档ID为key,表中记录每个关键词出现的次数,查找时扫描表中的每个文档中字的信息,直到找到所有包含查询关键字的文档虽然正排是以 id 作为索引的,但是在搜索的时候我们基本上都是用关键词来搜索。所以,试想一下,我们搜一个关键字(Tom),当100个网页的10个网页含有Tom这个关键字。但是由于是正排是doc id 作为索引的,所以我们不得不把100个网页都扫描一遍,效率很低优点:正排这种模式容易维护。由于是采用doc 作为key来存储的,所以新增网页的时候,只要在末尾新增一个key,然后把词、词出现的频率和位置信息分析完成后就可以使用了
根据id查询相关信息
正排索引
由于正排的耗时太长缺点,倒排就正好相反,是以word作为关键索引。表中关键字所对应的记录表项记录了出现这个字或词的所有文档,一个表项就是一个字表段,它记录该文档的ID和字符在该文档中出现的位置情况
倒排包含两部分: 1、由不同的索引词(index term)组成的索引表,称为“词典”(lexicon)。其中包含了各种词汇,以及这些词汇的统计信息(如出现频率nDocs),这些统计信息可以直接用于各种排名算法。 2、由每个索引词出现过的文档集合,以及命中位置等信息构成。也称为“记录表”。就是正排索引产生的那张表。当然这部分可以没有。具体看自己的业务需求了。
根据关键词查找id
倒排索引
1、维护一个倒排索引表
2、分词
3、根据保存的数据分词情况在索引表里添加记录
4、相关性得分
5、检索
查询过程
ES存储的是一个JSON格式的文档,其中包含多个字段,每个字段会有自己的倒排索引
B+树实现
单词词典(Term Dictionary)
倒排列表记录了单词对应的文档集合,有倒排索引项(Posting)组成
倒排索引项主要包含如下信息:1.文档id用于获取原始信息2.单词频率(TF,Term Frequency),记录该单词在该文档中出现的次数,用于后续相关性算分3.位置(Posting),记录单词在文档中的分词位置(多个),用于做词语搜索(Phrase Query),分词所在位置从0开始计算4.偏移(Offset),记录单词在文档的开始和结束位置,也是从0开始,用于高亮显示
倒排列表(Posting List)
不需要锁,提升并发能力,避免锁的问题数据不变,一直保存在os cache中,只要cache内存足够filter cache一直驻留在内存,因为数据不变可以压缩,节省cpu和io开销
倒排索引不可变的好处
索引的设计
es和mysql的区别
es和redis区别
docker pull elasticsearch:7.4.2docker pull kibana:7.4.2 可视化检索数据界面,可装可不装ps:如果访问拒绝则在最前面加上sudo
docker安装es
(sudo)mkdir -p /mydata/elasticsearch/config(sudo)mkdir -p /mydata/elasticsearch/data(sudo)echo \"http.host:0.0.0.0\" >> /mydata/elasticsearch/config/elasticsearch.ymlhttp.host:0.0.0.0表示允许任何服务器端口访问 >>表示写入到某个文件
创建实例
1、暴露端口9200用于发送接收请求 9300分布式集群通信端口 2、指定单节点模式 3、重要:指定es初始和最大内存大小,不指定会占用全部内存导致卡死
略
启动并指定参数
安装&启动
PUT http://127.0.0.1:9200/commodity
通过 Elasticsearch 的 RESTFul API 来创建索引
put json指定分片数量和副本数量(默认情况下,创建的索引分片数量是 5 个,副本数量是 1 个)
创建索引
es主要通过PUT/GET/POST命令发送请求到对应端口,es就会返回相关json数据或者操作
查看命令 _cat
GET /_cat/nodes :查看所有节点
GET /_cat/health :查看es的健康状况
GET /_cat/master :查看主节点
GET /_cat/indices :查看所有索引 (类似mysql的show database)
查
索引一个文档(保存)保存一个数据到某个索引的某个类型下,并可以指定一个唯一标识
新增:不带id,或带id之前没数据
修改:带id且之前有数据
不指定id会自动生成id,如果指定id就会修改这个数据并新增版本号
POST(主要用于新增)
新增:带id之前没数据,因为必须带id导致每次新增要换新id
PUT必须指定id,不指定会保错,一般用于修改操作(更新同一个id)
PUT(主要用于修改)
新增 PUT请求/POST请求
返回值ps:PUT:如果同样的请求发了2次或以上,version++,result从create变为updated,PUT发送多次即为更新操作POST:如果指定id则和PUT没区别而如果不指定id,则发送多次都会是新增操作,version不变,result为create不变,id会变另一个随机生成的id
PUT A/B/1 :在A索引的B类型下保存了一个自定的json同时指定id为1POST A/B :同理,POST可以不指定id,会自动生成一个
增
增删改查
添加依赖
注册es client对象
测试
另一篇demo
springboot集成es
Elasticsearch
Docker
借词:k8s、K8S
Kubernetes
点对点&发布-订阅式消息队列,分布式,高性能,零停机和零数据丢失
Kafka 分为一个或多个分区的主题的集合。Kafka 分区是消息的线性有序序列,其中每个消息由它们的索引(称为偏移)来标识。Kafka 集群中的所有数据都是不相连的分区联合。 传入消息写在分区的末尾,消息由消费者顺序读取。 通过将消息复制到不同的代理提供持久性。
kafka的点对点&发布订阅模式
消息的发送者叫 Producer,消息的使用者和接受者是 Consumer,生产者将数据保存到 Kafka 集群中,消费者从中获取消息进行业务的处理。
生产者和消费者(producer和consumer)
Kafka 集群中有很多台 Server,其中每一台 Server 都可以存储消息,将每一台 Server 称为一个 kafka 实例,也叫做 broker。broker一般分布式存储,保证高可用服务
服务进程(broker)
一个 topic 里保存的是同一类消息,相当于对消息的分类,每个 producer 将消息发送到 kafka 中,都需要指明要存的 topic 是哪个,也就是指明这个消息属于哪一类(消费者也要指定消费哪个topic)
主题(topic)
和topic不同,topic是逻辑概念,partition是物理概念,每个 topic 都可以分成多个 partition,每个 partition 在存储层面是 append log 文件。任何发布到此 partition 的消息都会被直接追加到 log 文件的尾部
kafka基于文件进行存储,当文件内容大到一定程度时,很容易达到单个磁盘的上限,因此一个分区对应一个文件,这样就可以将数据分别存储到不同的server上去,另外这样做也可以负载均衡,容纳更多的消费者
分区(partition)
为了保证kafka的高可用而提出的副本机制:leader-follower
leader副本:生产者只向领导者副本写消息;而消费者只是从领导者副本读消息。
follower副本:只做向领导者副本发送请求,请求领导者把最新生产的消息发给它,保持与领导者的同步,不参与对外读写
leader和follower
标记分区内的消息位置,它是不变的,即一旦消息被成功写入到一个分区上,它的偏移值就是固定的
一个分区对应一个磁盘上的文件,而消息在文件中的位置就称为 offset(偏移量),offset 为一个 long 型数字,它可以唯一标记一条消息。由于kafka 并没有提供其他额外的索引机制来存储 offset,文件只能顺序的读写,所以在kafka中几乎不允许对消息进行“随机读写”。
偏移量(Offset)
第一层是主题层,每个主题可以配置 M 个分区,而每个分区又可以配置 N 个副本。
第二层是分区层,每个分区的 N 个副本中只能有一个充当领导者角色,对外提供服务;其他 N-1 个副本是追随者副本,只是提供数据冗余之用。
第三层是消息层,分区中包含若干条消息,每条消息的位移从 0 开始,依次递增
消息架构
简单版:kafka服务启动会创建一个GroupCoordinator 实例,客户端实例化一个消费者就创建一个 ConsumerCoordinator 对象一个用来管理部分消费者组和该消费者组下的每个消费者的offset,一个用来同一个消费者组下各消费者与服务端的 GroupCoordinator 进行通信(服务端协调器用来管理offset,客户端协调器用来通信)
组协调器(0.10版本引入)
关键概念
Kafka 使用消息日志(Log)来保存数据,一个日志就是磁盘上一个只能追加写(Append-only)消息的物理文件。因为只能追加写入,故避免了缓慢的随机 I/O 操作,改为性能较好的顺序I/O 写操作,实现 Kafka 高吞吐量
一个日志细分成多个日志段,消息被追加写到当前最新的日志段中。写满了一个日志段后,Kafka 会自动切分出一个新的日志段,并将老的日志段封存起来。Kafka 在后台还有定时任务会定期地检查老的日志段是否能够被删除,从而实现回收磁盘空间的目的
ps:消费者消费完消息后不会删除,只有超出老化时间才会删
定期删除机制:日志段
kafka的持久化
多个消费者实例共同组成一个组来消费一组主题ps:一个topic可以有多个消费者组
这组主题中的每个分区都只会被组内的一个消费者实例消费,其他消费者实例不能消费它。消费者组主要是为了提升消费者端的吞吐量。多个消费者实例同时消费,加速整个消费端的吞吐量(TPS)
消费者组(Consumer Group)
记录它当前消费到了分区的哪个位置,可能会随时变动
消费者位移(Consumer Offset)
Empty:消费者组里没有成员,但可能存在尚未过期且已经提交的offset
Dead:消费者组里没有成员,但组的元数据(注册数据)已经被协调者端删除
PreparingRebalance:消费者组准备开始重平衡,所有成员重新请求加入组
CompletingRebalance:消费者组所有成员都加入,各成员正在等待分配方案
Stable:消费者组的稳定状态,代表重平衡完成,各成员能正常消费了
重平衡过程:一个消费者组最开始是 Empty 状态,当重平衡过程开启后,它会被置于 PreparingRebalance 状态等待成员加入,之后变更到 CompletingRebalance 状态等待分配方案,最后流转到 Stable 状态完成重平衡
发生成员变动时:当有新成员加入或已有成员退出时,消费者组的状态从 Stable 直接跳到 PreparingRebalance 状态,此时,所有现存成员就必须重新申请加入组。当所有成员都退出组后,消费者组状态变更为 Empty
Kafka 定期自动删除过期位移的条件就是,组要处于 Empty 状态。因此,如果消费者组停掉了很长时间(超过 7 天),那么 Kafka 很可能就把该组的位移数据删除了
状态转移流程
消费者五种状态
消费者
消费者和生产者
详解;消费组有多个消费者,消费组在消费一个Topic的时候,kafka为了保证消息消费不重不漏,kafka将每个partition唯一性地分配给了消费者。但是如果某个消费组在消费的途中有消费者宕机或者有新的消费者加入的时候那么partition分配就是不公平的,可能导致某些消费者负载特别重,某些消费者又没有负载的情况。Kafka的Rebalance机制用于处理这种情况
Kafka防止partition不公平分配的机制本质就是重新分配partition
消费组成员发生了变更,比如有新的消费者加入了消费组组或者有消费者宕机
消费者无法在指定的时间之内完成消息的消费(心跳超时或者消费时间太久)
消费组订阅的Topic发生了变化
Topic的partition发生了变化
触发条件
empty->PreparingRebalance->CompletingRebalance->stable消费者组开始为Empty ,当重平衡过程开启后,它会被置于 PreparingRebalance 状态等待成员加入,之后变更到 CompletingRebalance 状态等待分配方案,最后流转到 Stable 状态完成重平衡
消费者状态变化
JoinGroup:收集组里成员的订阅主题信息给协调者,然后默认选择第一个成员为领导者协调者会订阅信息封装进 JoinGroup 请求的响应体中,然后发给领导者,由领导者统一做出分配方案后向协调者发起SyncGroup请求
SyncGroup:领导者将分配方案发给协调者。同时,其他成员也会向协调者发送 SyncGroup 请求,只不过请求体中并没有实际的内容。这一步的主要目的是让协调者接收分配方案,然后统一以 SyncGroup 响应的方式分发给所有成员,这样组内所有成员就都知道自己该消费哪些分区了
消费者端:重平衡分为两个步骤:分别是加入组和等待领导消费者(Leader Consumer)分配方案。这两个步骤分别对应两类特定的请求:JoinGroup 请求和 SyncGroup 请求
具体操作
表示 consumer 向 broker 发送心跳的超时时间。例如 session.timeout.ms = 180000 表示在最长 180 秒内 broker 没收到 consumer 的心跳,那么 broker 就认为该 consumer 死亡了,会启动 rebalance
session.timeout.ms
表示 consumer 每次向 broker 发送心跳的时间间隔。heartbeat.interval.ms = 60000 表示 consumer 每 60 秒向 broker 发送一次心跳。一般session.timeout.ms 的值是 heartbeat.interval.ms 值的 3 倍以上
heartbeat.interval.ms
表示 consumer 每两次 poll 消息的时间间隔。间隔就是consumer 每次消费消息的时长。如果消息处理的逻辑很重,那么时长就要相应延长。否则如果时间到了 consumer 还没消费完,表现为还没有发起第二次poll,broker 会默认认为 consumer 死了,发起 rebalance
max.poll.interval.ms
表示每次消费的时候,获取多少条消息。获取的消息条数越多,需要处理的时间越长。所以每次拉取的消息数不能太多,需要保证在 max.poll.interval.ms 设置的时间内能消费完,否则会发生 rebalance
max.poll.records
重平衡(rebalance)
已经消费了数据,但是offset没有成功提交。大多数重复消费是由于重平衡
消费者宕机、重启等。导致消息已经消费但是没有提交offset。
消费者使用自动提交offset,但当还没有提交的时候,有新的消费者加入或者移除,发生了重平衡。再次消费的时候,消费者会根据提交的偏移量来,于是重复消费了数据。
消息处理耗时,或者消费者拉取的消息量太多,处理耗时,超过了max.poll.interval.ms的配置时间,导致认为当前消费者已经死掉,触发重平衡
原因
由于网络问题,重复消费不可避免。因此需要在业务侧保持消费幂等(就算发生了也有对应的去重方案)
1、消息表:存已经消费过的数据,可能重复消费的时候就检查一下是否存在,存在就丢弃
2、数据库唯一索引:思路类似消息表,利用数据库去重,唯一键约束了,重复数据插入只会报错,不会导致数据库中出现脏数据
3、redis的set:利用set的数据结构特性天然去重
4、唯一消息id:生产者发送每条数据的时候,里面加一个全局唯一的 id,然后同时redis里也存该id,每次消费都检查一下redis是否存在该id
扩展:KIP-500 思想是使用社区自研的基于 Raft 的共识算法, 替代 ZooKeeper,实现 Controller 自选举
目前kafka仍然需要zookeeper,等 KIP-500 提案完成后,Kafka 将完全不再依赖 于 ZooKeeper
Broker是分布式部署并且相互之间相互独立,但是需要有一个注册系统能够将整个集群中的Broker管理起来,此时就使用到了Zookeeper。在Zookeeper上会有一个专门用来进行Broker服务器列表记录的节点:/brokers/ids
1、broker注册
在Kafka中,同一个Topic的消息会被分成多个分区并将其分布在多个Broker上,这些分区信息及与Broker的对应关系也都是由Zookeeper在维护,由专门的节点来记录,如:/borkers/topics
2、topic注册
由于同一个Topic消息会被分区并将其分布在多个Broker上,因此,生产者需要将消息合理地发送到这些分布式的Broker上,目前kafka生产者的负载均衡支持两种:传统的四层负载均衡 和 Zookeeper方式
3、生产者消息负载均衡
与生产者类似,Kafka中的消费者同样需要进行负载均衡来实现多个消费者合理地从对应的Broker服务器上接收消息,每个消费者分组包含若干消费者,每条消息都只会发送给分组中的一个消费者,不同的消费者分组消费自己特定的Topic下面的消息,互不干扰
4、消费者消息负载均衡
早期版本的 kafka 用 zk 做 meta 信息存储,consumer 的消费状态,group 的管理以及 offse t的值
zookeeper在kafka中起什么作用
问题引入:一个生产者往一个topic里写数据,但有两个消费者组正在监听该topic1、同一个topic的消息可以被两个不同的消费者组消费吗?2、同一条消息被消费后另一个消费者还能消费吗?3、消息被消费后就立刻删除了吗?
offset扩展
RabbitMQ:用于实时的,对可靠性要求较高的消息传递上。
kafka:用于处于活跃的流式数据,大数据量的数据处理上
kafka和rabbitmq区别
解耦:允许你独立的扩展或修改两边的处理过程,只要确保它们遵守同样的接口约束
冗余:消息队列把数据进行持久化直到它们已经被完全处理,通过这一方式规避了数据丢失风险。许多消息队列所采用的”插入-获取-删除”范式中,在把一个消息从队列中删除之前,需要你的处理系统明确的指出该消息已经被处理完毕,从而确保你的数据被安全的保存直到你使用完毕
扩展性:因为消息队列解耦了你的处理过程,所以增大消息入队和处理的频率是很容易的,只要另外增加处理过程即可
灵活性 & 峰值处理能力:在访问量剧增的情况下,应用仍然需要继续发挥作用,但是这样的突发流量并不常见。如果为以能处理这类峰值访问为标准来投入资源随时待命无疑是巨大的浪费。使用消息队列能够使关键组件顶住突发的访问压力,而不会因为突发的超负荷的请求而完全崩溃
顺序保证:在大多使用场景下,数据处理的顺序都很重要。大部分消息队列本来就是排序的,并且能保证数据会按照特定的顺序来处理。(Kafka 保证一个 Partition 内的消息的有序性)
为什么需要消息系统,mysql 不能满足需求吗
顺序io、多分区、batch send、kafka Reator 网络模型、pagecache、sendfile 零拷贝、数据压缩
kafka分区和吞吐量的问题
谈谈 Kafka 吞吐量为何如此高
主要解决思路是确保 Producer 的消息发送到了 Broker应该设置 acks = all (并且要注意 ISR 数量 > 1,要不然就和 ack = 1 一样了),这样所有 ISR 都成功写入消息才 ACK。保证发送到了 Brokerretries 设置一个合理的值,遇到网络抖动时候发送失败会重试应该采用同步发送消息并且对失败做重试
Producer 发送时候没发到 Broker
主要解决思路是多备份几份防止消息丢失unclean.leader.election.enable = false ,确保一个 Broker 落后 Leader 太多则不让其成为 Leaderreplication.factor 设置副本数量,最好大于 3min.insync.replicas 最小 ISR 数量,最好大于 1,如果设置为 1 有可能出现副本中只有一个 Leader 无 Follower
设置ack参数 0发了就成功 1leader写了就成功 all isr的follower同步完才成功 all要求isr必须大于等于1
Broker 泵机导致消息丢失
解决思路是让 Consumer 确保自己处理完了数据再提交位移(坏处是可能没来得及提交就崩溃了导致重复消费)enable.auto.commit = false 关闭自动提交,自己手动管理位移自动提交也行,但是需要 kafka consumer 框架帮忙处理一下,比如每次自动提交上一次拉取消息的位移。或者让 consumer 处理完提交消息之后 mark 一下消息,只提交 mark 了的消息的位移(sarama 的做法)。
消费者因为种种原因没消费到,或者消费到了没处理消息就提交了位移
kafka保证消息不丢失第二版
如果在发消息的时候指定了分区,则消息投递到指定的分区
如果没有指定分区,但是消息的key不为空,则基于key的哈希值来选择一个分区
如果既没有指定分区,且消息的key也是空,则用轮询的方式选择一个分区
三种分区策略
生产者如何确认该把消息投递到哪个分区?
消费者以组的名义订阅主题,主题有多个分区,消费者组中有多个消费者实例分区数大于或者等于组中的消费者实例数没问题,但分区数小于消费者数会导致消费者空余和浪费
分区数大于消费者不会有问题,一个消费者对应多个分区(最理想是消费者和分区数相同,1对1)但是消费者大于分区数按默认分配策略(可以自定义策略)会导致消费者多余,接不到消息处于空闲状态
一个分区只能对应一个消费者,一个消费者可以对应多个分区
两个消费者负责同一个分区,那么就意味着两个消费者同时读取分区的消息,由于消费者自己可以控制读取消息的offset,就有可能C1才读到2,而C1读到1,C1还没处理完,C2已经读到3了,则会造成很多浪费,因为这就相当于多线程读取同一个消息,会造成消息处理的重复,且不能保证消息的顺序,这就跟主动推送(push)无异
一个分区对应多个消费者会导致分区消息消费顺序错误
前置知识
对于每个主题,以数字顺序排列可用分区,以字典顺序排列消费者。然后,将分区数量除以消费者总数,以确定分配给每个消费者的分区数量。如果没有平均划分(PS:除不尽),那么最初的几个消费者将有一个额外的分区(如图,1个topic有3个分区,3/2=1(1个分区),3%2=1(第一个消费者),那么当前topic下多出来的那1分区给字典序前的那一个消费者)
range随机分配(默认)
如果该消费者没有对应分区,那么分配给他;如果有,则跳过;如果分区有多余,则全给轮询的最后一个消费者
roundrobin轮询分配
分配策略
如何确认消费者和分区的对应关系
如何保证不重复消费
kafka作为一个高性能的消息队列,只要消费能力足够,发出的消息都是会立刻收到的,因此我们需要想一个办法,让消息延迟发送出去
在代码程序收到消息之后判断条件不满足,就调用sleep方法,过了一段时间我再进行下一个循环拉取消息但是这样会导致长时间不消费而触发重平衡,虽然可以设置对应参数延长消费间隔时间,但是不优雅
初步解决
KafkaConsumer 提供了暂停和恢复的API函数,调用消费者的暂停方法后就无法再拉取到新的消息,同时长时间不消费kafka也不会认为这个消费者已经挂掉了。另外为了能够更加优雅,我们会启动一个定时器来替换sleep。,完整流程如下图,当消费者发现消息不满足条件时,我们就暂停消费者,并把偏移量seek到上一次消费的位置以便等待下一个周期再次消费这条消息
最终方法
kafka如何实现一个延时队列
Kafka
列式数据库和行式数据库区别
极高的装载速度 (顺序io,最高可以等于所有硬盘IO 的总和,基本是极限了)
适合大量的数据而不是小数据
实时加载数据仅限于增加(删除和更新需要解压缩Block 然后计算然后重新压缩储存)
高效的压缩率,不仅节省储存空间也节省计算内存和CPU。
非常适合做聚合操作
优点:
不适合扫描小量数据
不适合随机的更新
不支持事务和高并发,建议qps不超过100
批量更新情况各异,有的优化的比较好的列式数据库(比如Vertica)表现比较好,有些没有针对更新的数据库表现比较差。
尽量做1000条以上批量的写入,避免逐行insert或小批量的insert,update,delete操作,因为ClickHouse底层会不断的做异步的数据合并,会影响查询性能,这个在做实时数据写入的时候要尽量避开
不适合做含有删除和更新的实时操作
Clickhouse
NoSQL
HBase
\t降低维护带来的新风险
对扩展开放,对修改关闭
开闭原则
更利于代码结构的升级扩展
高层不应该依赖低层,要面向接口编程
依赖倒置原则
便于理解,提高代码的可读性
一个类只干一件事,实现类要单一
单一职责原则
\t功能解耦,高聚合、低耦合
一个接口只干一件事,接口要精简单一
接口隔离原则
只和朋友交流,不和陌生人说话,减少代码臃肿
不该知道的不要知道,一个类应该保持对其它对象最少的了解,降低耦合度
迪米特法则
\t防止继承泛滥
不要破坏继承体系,子类重写方法功能发生改变,不应该影响父类方法的含义
里氏替换原则
降低代码耦合
尽量使用组合或者聚合关系实现代码复用,少使用继承
合成复用原则
七大原则
饿汉式
懒汉式
双重校验锁
静态内部类
最优
枚举类
单例模式:Bean默认为单例模式应用:工具类、共享数据、单例线程池
写好Car接口,WuLing和Teals类继承Car。再写个CarFactory类,里面有getCar方法用if-else判断传入的String等于哪个车名,就return new xxCar();
简单工厂
定义一个创建对象的接口,让其子类自己决定实例化哪一个工厂类,工厂模式使其创建过程延迟到子类进行
写好CarFactory接口,WuLingFactory和TealsFactory类实现CarFactory。
工厂方法
提供一个创建一系列相关或相互依赖对象的接口,而无需指定它们具体的类
产品族难扩展,产品等级易扩展
抽象工厂模式
1、一个调用者想创建一个对象,只要知道其名称就可以了。
2、扩展性高,如果想增加一个产品,只要扩展一个工厂类就可以
3、屏蔽产品的具体实现,调用者只关心产品的接口
工厂模式
指挥者
产品
抽象建造者
具体建造者
一个复杂的对象分解为多个简单的对象,然后一步一步构建而成。产品的组成部分是不变的,但每一部分是可以灵活选择的
建造者模式注重零部件的组装过程,而工厂方法模式更注重零部件的创建过程,但两者可以结合使用
建造者模式
当存在大量相同或相似对象的创建问题,用原型实例指定创建对象的种类,并且通过拷贝这些原型创建新的对象
原型模式
创建型模式
代理模式:Spring AOP,如jdk和cglib动态代理
(对象)适配器模式
桥接模式
装饰模式
外观模式
享元模式
组合模式
结构型模式
策略模式
命令模式
介绍:避免请求发送者与接收者耦合在一起,让多个对象都有可能接收请求,将这些对象连接成一条链,并且沿着这条链传递请求,直到有对象处理它为止
应用:JDK的java.util.logging.Logger#log()和javax.servlet.Filter#doFilter()Spring Security 使用责任链模式,可以动态地添加或删除责任(处理 request 请求)Spring AOP 通过责任链模式来管理 Advisor、Netty 中的 Pipeline 和 ChannelHandler 通过责任链设计模式来组织代码逻辑Mybatis 中的 Plugin 机制使用了责任链模式,配置各种官方或者自定义的 Plugin,与 Filter 类似,可以在执行 Sql 语句的时候做一些操作
责任链模式
状态模式
观察者模式(Spring中listener的实现:ApplicationListener):定义对象键一种一对多的依赖关系,当一个对象的状态发生改变时,所有依赖于它的对象都会得到通知被制动更新,有时又称作发布-订阅模式、模型-视图模式
中介者模式(MVC 框架中,控制器(C)就是模型(M)和视图(V)的中介者;QQ 聊天程序的“中介者”是 QQ 服务器)定义一个中介对象来封装一系列对象之间的交互,使原有对象之间的耦合松散,且可以独立地改变它们之间的交互。中介者模式又叫调停模式,它是迪米特法则的典型应用。
迭代器模式
访问者模式
备忘录模式
行为型模式
GoF的23种设计模式
java.lang.Proxy#newProxyInstance()
java.lang.Object#toString()
java.lang.Class#newInstance()
java.lang.Class#forName()
java.util.logging.Logger#log()
javax.servlet.Filter#doFilter()
责任链模式:
JDK里用到的设计模式
1、一个调用者想创建一个对象,只要知道其名称就可以了
仅仅简单的对不同类对象的创建进行了一层薄薄的封装。该模式通过向工厂传递不同的类型来指定要创建的对象,由工厂生产所有具体的产品
1、定义产品的模板:Phone类:手机标准规范类(AbstractProduct)
2、定义要生产的产品:MiPhone类:制造小米手机(Product1)和 IPhone类:制造苹果手机(Product2)
3、定义生产工厂:PhoneFactory类:手机代工厂(Factory)
4、调用方使用工厂开始生产需要的手机
简单工厂模式
和简单工厂模式中工厂负责生产所有产品相比,工厂方法模式将生成具体产品的任务分发给具体的产品工厂
工厂方法模式
手撕工厂模式(以手机生产举例)
手撕单例模式
设计模式
输入设备:用来将人们熟悉的信息形式转换为机器能够识别的信息形式,常见的有键盘,鼠标等
存储器:用来存放数据和程序
运算器:主要运行算数运算和逻辑运算,并将中间结果暂存到运算器中
控制器:主要用来控制和指挥程序和数据的输入运行,以及处理运算结果
输出设备:可以将机器运算结果转换为人们熟悉的信息形式,如打印机输出,显示器输出等
冯诺依曼体系结构
程序由指令和数据组成,但这些指令要运行,数据要读写,就必须将指令加载至 CPU,数据加载至内存。在指令运行过程中还需要用到磁盘、网络等设备。进程就是用来加载指令、管理内存、管理 IO 的。
当一个程序被运行,从磁盘加载这个程序的代码至内存,这时就开启了一个进程。进程就可以视为程序的一个实例。大部分程序可以同时运行多个实例进程(例如记事本、画图、浏览器 等),也有的程序只能启动一个实例进程(例如网易云音乐、360 安全卫士等)
什么是进程?
一个进程之内可以分为一到多个线程。一个线程就是一个指令流,将指令流中的一条条指令以一定的顺序交给 CPU 执行 。Java 中,线程作为小调度单位,进程作为资源分配的小单位。 在 windows 中进程是不活动的,只是作为线程的容器
什么是线程?
协程是一种用户态的轻量级线程,协程的调度完全由用户控制。从技术的角度来说,“协程就是你可以暂停执行的函数”。协程拥有自己的寄存器上下文和栈。协程调度切换时,将寄存器上下文和栈保存到其他地方,在切回来的时候,恢复先前保存的寄存器上下文和栈,直接操作栈则基本没有内核切换的开销,可以不加锁的访问全局变量,所以上下文的切换非常快。
1.进程是操作系统资源分配的基本单位,而线程是处理器任务调度执行的基本单位2.每个进程都有独立的代码和数据空间(程序上下文),程序之间的切换会有较大的开销;而线程可以看做轻量级的进程,同一类线程共享代码和数据空间,每个线程都有自己独立的运行栈和程序计数器(PC),线程之间切换的开销小3、进程间不会相互影响,但是一个线程挂掉将导致整个进程挂掉
进程和线程的区别(分工、开销、资源、稳定)
线程每次创建和销毁都要调用操作系统,是很昂贵的资源而协程就像是用户态的轻量级线程,协程的创建、切换发生在用户态。是一个在线程的基础上,针对某些应用场景发展出来的功能,由编程语言直接创建协程按照组织好的代码流程,并发地执行一些操作,代替一个线程,虽然时间上慢几毫秒,但省了创建线程过程
线程和协程的区别(协程是轻量级线程)
子进程由父进程创建,子进程再创建新的进程。父子进程是一个异步过程,父进程永远无法预测子进程的结束,所以,当子进程结束后,它的父进程会调用wait()或waitpid()取得子进程的终止状态,回收掉子进程的资源。
一般进程
子进程退出了,但是父进程没有用wait或waitpid去获取子进程的状态信息,那么子进程的进程描述符仍然保存在系统中,这种进程称为僵尸进程
僵尸进程
父进程结束了,而它的一个或多个子进程还在运行,那么这些子进程就成为孤儿进程(father died)。子进程的资源由init进程(进程号PID = 1)回收
孤儿进程
产生原因
在每个进程退出的时候,内核会释放所有的资源,包括打开的文件,占用的内存等。但是仍保留一部分信息(进程号PID,退出状态,运行时间等)。直到父进程通过wait或waitpid来取时才释放
前提:unix提供了一种机制保证父进程知道子进程结束时的状态信息
导致:如果父进程不调用wait或waitpid的话,那么保留的信息就不会被释放,其进程号就会被一直占用,但是系统所能使用的进程号是有限的,如果大量产生僵死进程,将因没有可用的进程号而导致系统无法产生新的进程,这就是僵尸进程的危害孤儿线程没什么危害
任何一个子进程(init除外)在exit()之后,并非马上就消失掉,而是留下一个称为僵尸进程的数据结构,等待父进程去处理。如果父进程在子进程exit()之后,没有及时处理,出现僵尸进程,并可以用ps命令去查看,它的状态是“Z”。
问题危害
1、通过信号机制,在处理函数中调用wait,回收资源
严格的说,僵尸进程并不是问题的根源,罪魁祸首是产生大量僵死进程的父进程。因此,我们可以直接除掉元凶,通过kill发送SIGTERM或者SIGKILL信号。元凶死后,僵尸进程进程变成孤儿进程,由init充当父进程,并回收资源。
2、kill杀死元凶父进程(一般不用)
父进程通过wait或waitpid等函数去等待子进程结束,但是不好,会导致父进程一直等待被挂起,相当于一个进程在干活,没有起到多进程的作用。
3、父进程用wait或waitpid去回收资源(方案不好)
僵尸进程&孤儿进程
生存期长的一种进程,没有控制终端,即切断进程与控制终端的联系,进程的运行不受控制终端的影响,比如信号它们常常在系统引导装入时启动,仅在系统关闭时才终止,父进程为init,也是一种孤儿进程
守护进程
进程&线程&协程&管程
环境:进程代码段、文件描述符、进程当前目录、进程用户/组ID
资源:堆 全局变量 静态变量 文件等
进程和线程(线程和线程)共享的区域
切换页目录以使用新的地址空间地址空间切换主要是针对用户进程而言
第1步、进程地址空间切换
主要为切换内核栈和硬件上下文处理器状态切换对应于所有的调度单位
第2步、处理器状态切换
为什么进程间切换很慢 因为切换虚拟地址空间后页面缓存失效,内存访问低效每个进程对应一块虚拟地址空间,虚拟地址空间内有一个页表(页目录)记录虚拟地址空间对应的物理地址空间把虚拟地址转换为物理地址需要查找页表,页表查找是一个很慢的过程,因此通常使用一个叫TLB的Cache来缓存常用的地址映射,这样可以加速页表查找。一旦切换进程后,页表也要切换,导致已缓存的TLB全部失效,缓存命中率降低,虚拟地址查找页表对应物理地址变慢,导致内存的访问在一段时间内相当的低效,因此进程间切换很慢
就绪态、运行态、阻塞态(待补充)
进程间切换
时间片
1、挂起当前任务(线程/进程),将这个任务在 CPU 中的状态(上下文)存储于内存中的某处2、恢复一个任务(线程/进程),在内存中检索下一个任务的上下文并将其在 CPU 的寄存器中恢复3、跳转到程序计数器所指向的位置(即跳转到任务被中断时的代码行),以恢复该进程在程序中
当前执行任务(线程)的时间片用完之后,系统CPU正常调度下一个任务
时间片用完
硬件中断如IO中断、硬件失效中断
软件中断包括IO阻塞、未抢到资源或者用户代码等原因,线程被挂起
中断(硬件中断、软件中断)
用户态与内核态互相切换
多个任务抢占锁资源,在多任务处理中,CPU会在不同程序之间来回切换,每个程序都有相应的处理时间片,CPU在两个时间片的间隔中进行上下文切换
抢占锁资源
为什么引起上下文切换
上下文切换
指的是每条线程执行的时间、线程的切换都由系统控制,系统控制指的是在系统某种运行机制下,可能每条线程都分同样的执行时间片,也可能是某些线程执行的时间片较长,甚至某些线程得不到执行的时间片。在这种机制下,一个线程的堵塞不会导致整个进程堵塞Java中线程会按优先级分配CPU时间片运行,且优先级越高越优先执行,但优先级高并不代表能独自占用执行时间片,可能是优先级高得到越多的执行时间片,反之,优先级低的分到的执行时间少但不会分配不到执行时间
抢占式调度(java线程切换模式)
指某一线程执行完后主动通知系统切换到另一线程上执行,这种模式就像接力赛一样,一个人跑完自己的路程就把接力棒交接给下一个人,下个人继续往下跑。线程的执行时间由线程本身控制,线程切换可以预知,不存在多线程同步问题,但它有一个致命弱点:如果一个线程编写有问题,运行到一半就一直堵塞,那么可能导致整个系统崩溃。
协同式调度
1、当前运行线程主动放弃CPU,JVM暂时放弃CPU操作(基于时间片轮转调度的JVM操作系统不会让线程永久放弃CPU,或者说放弃本次时间片的执行权),例如调用yield()方法。
2、当前运行线程因为某些原因进入阻塞状态,例如阻塞在I/O上
3、线程执行完成,例如执行完run()里面方法
线程主动让出cpu
系统调度
线程间调度
线程间切换
1、进程间切换需要切换虚拟地址空间,而线程间切换不用这两种上下文切换的处理都是通过操作系统内核来完成的。内核的这种切换过程伴随的最显著的性能损耗是将寄存器中的内容切换出。
2、进程的切换会扰乱处理器的缓存机制,让处理器已经缓存的内存地址全部失效,同时虚拟地址空间的改变导致TLB被刷新,缓存命中率降低而线程切换没有这些问题
进程和线程间切换的区别
切换
用于具有亲缘关系的父子进程间或者兄弟进程之间的通信,一个管道只能进行单向通信,想要实现双向通信必须建立两个管道。调用pipe系统函数可以创建管道
比如:ls | grep 1 就是将ls的输出结果作为grep 1的输入,实现进程间通信
匿名管道(pipe)
有名管道以磁盘文件的方式存在,可以实现本机任意两个进程通信
有名管道(fifo)
管道
比如按ctrl+c会发送(2)SIGINT、kill pid会发送(15)SIGTERM(中断信号)结果为Terminated、kill -9 pid会发送(9)SIGKILL结果为killed
信号(signal)
每个进程都有一个虚拟地址到物理地址的映射,一般情况虚拟地址可能相同,但物理地址不同这时将物理地址改为相同就可以共同访问同一块内存,利用共享内存实现进程间通信
缺点:多进程竞争同个共享资源会造成数据的错乱
共享内存的生命周期
共享内存(最快)
内核创建了一个消息队列,进程可以对其发送或接收数据
支持 TCP/IP 的网络通信的基本操作单元,可以看做是不同主机之间的进程进行双向通信的端点
套接字(socket)
进程间通信
一个进程下多个线程争夺一个资源
临界区(CriticalSection)
多个进程争夺一个资源
互斥量(Mutex)
一个线程完成任务后唤醒另一线程开始任务
事件(Event)
信号量(Semphore)
操作系统线程同步
操作系统线程间同步
套接字
操作系统线程间通信
通信
新建态
就绪态
运行态
阻塞态
终止态
五种基本状态
R(TASK_RUNNING),可执行状态
S(TASK_INTERRUPTIBLE),可中断的睡眠状态
D(TASK_UNINTERRUPTIBLE),不可中断的睡眠状态
T(TASK_STOPPEDorTASK_TRACED),暂停状态或跟踪状态
Z(TASK_DEAD-EXIT_ZOMBIE),退出状态,进程成为僵尸进程
X(TASK_DEAD-EXIT_DEAD),退出状态,进程即将被销毁
Linux六种进程状态
进程状态
NEW(刚新建)
Runable(可运行)
Blocked(被阻塞)
Waiting(等待)
Timedwaiting(计时等待)
Terminated(被终止,即执行完毕或线程死亡)
线程状态流程
1、查找需要终止的进程的PCB;2、如果处于执行状态,则立即终止该进程的执行,然后将CPU 资源分配给其他进程;3、如果其还有子进程,则应将其所有子进程终止;4、将该进程所拥有的全部资源都归还给父进程或操作系统;5、将其从PCB 所在队列中删除;
os终止进程的过程
状态
1、最短工作优先(SJF)
2、最短剩余时间优先(SRTF)
非抢占式
3、最高响应比优先(HRRF)
4、优先级调度(Priority)
5、轮转调度(RR)
抢占式
导致饥饿:短作业优先、优先级队列不导致饥饿:先到先服务、时间片轮转、多级反馈队列
进程调度算法
产生死锁的条件:资源互斥、请求与保持、不可剥夺、循环等待
银行家算法
避免死锁
资源剥夺法。 挂起某些死锁进程,抢占它资源,分配给其他的死锁进程
进程回退法。 让一部分进程回退到足以避免死锁的地步,进程回退时资源被释放而不是被剥夺
进程撤销法。 强制撤销并剥夺一部分进程的资源
解除死锁
死锁
IO密集型任务,是指磁盘IO、网络IO占主要的任务,计算量很小。比如请求网页、读写文件、读写数据库&缓存等
计算密集型任务,是指CPU计算占主要的任务,CPU一直处于满负荷状态。比如在一个很大的列表中查找元素(当然这不合理),复杂的加减乘除
IO密集型:多线程,大部分时间在处理I/O请求,不需要CPU提供多大算力,这是后频繁切换可以提高并发性,所以I/O密集型的处理,希望在高并发下进行,多线程并发消耗资源少
CPU密集型:多进程,占用CPU算力大,希望能获得更长的时间轮片而不是经常切换;这样使用进程较好,进程本身优于线程,只是切换调度消耗的资源多,但可以非常有效的使用CPU资源
IO密集型&CPU计算密集型
一个进程可以创建多少个线程
进程和线程
会浪费空间,会有碎片
块式管理
连续分配
段式管理
分页是建立在分段的基础上,继续把段内的内存划分,页式管理通过页表对应逻辑地址和物理地址
页式管理
把主存先分成若干段,每个段又分成若干页,也就是说段页式管理机制中 段与段之间以及段的内部的都是离散的。有段表+页表
段页式管理
页的大小是固定的,由操作系统决定;而段的大小不固定,取决于我们当前运行的程序。分页仅仅是为了满足操作系统内存管理的需求,而段是逻辑信息的单位,在程序中可以体现为代码段,数据段,能够更好满足用户的需要。
段和页区别
非连续分配
内存管理机制
快表相当于页表的cache,原本需要两次访问内存,现在只要一次cache一次内存
多级页表的主要目的是避免把全部页表一直放在内存中占用过多空间
快表和多级页表
64位的话就是2^64bit的寻址空间,数值远远大于1亿GB
32位操作系统会为每个进程分配多大的内存空间?4G,因为32位cpu的寻址空间最多4G,因此32位的cpu或操作系统都最多支持4G内存
建立在分页管理之上,为了支持虚拟内存功能而增加了请求调页功能和页面置换功能
请求分页管理
请求分段管理
请求段页式管理
虚拟内存实现
局部性原理,保证了虚拟内存不至于效率太低
在地址映射过程中,若在页面中发现所要访问的页面不在内存中,则产生缺页中断。当发生缺页中断时,如果操作系统内存中没有空闲页面,则操作系统必须在内存选择一个页面将其移出内存,以便为即将调入的页面让出空间。而用来选择淘汰哪一页的规则叫做页面置换算法
LRU(最近最久未使用算法)
LFU(最近最少使用算法)
FIFO(先进先出置换算法)
OPT(不可能实现,只作为目标)
页面置换算法
虚拟内存
1、运行能力不同。64位可以一次性处理8个字节的数据量,而32位一次性只可以处理4个字节的数据量,因此64位比32位的运行能力提高了一倍。2、内存寻址不同。64位最大寻址空间为2的64次方,理论值直接达到了16TB,而32位的最大寻址空间为2的32次方,为4GB,换而言之,就是说32位系统的处理器最大只支持到4G内存,而64位系统最大支持的内存高达亿位数。3、运行软件不同。由于32位和64位CPU的指令集是不同的。所以需要区分32位和64位版本的软件。一般来说最广泛使用的intel x86是源于很久以前的80x86系列处理器,从80386开始就是32位的CPU,也对应的32位指令集。intel后来的所有32位CPU都使用了这一套指令集。再后来发展到64位CPU,从x86扩展出64位的指令集,一般被称为x64。为了保证兼容性,intel使得在其64位CPU上也能运行老的32位x86指令。于是实际上我们可以在64位CPU上运行32位程序,但是反过来不行。简而言之就是64位的操作系统可以兼容运行32位的软件,反过来32位系统不可以运行64位的软件。总的来说64位处理器和系统在运算能力和读写内存速度上比32位处理器和系统有很大的优势
32位和64位区别
内核态(管态)
不能直接使用系统资源,也不能改变CPU的工作状态,并且只能访问这个用户程序自己的存储空间
用户态(目态)
分为Ring0(内核态)、Ring1、Ring2、Ring3(用户态),每种特权等级可以使用不同的指令集合Ring设计的初衷是将系统权限与程序分离出来,使之能够让OS更好的管理当前系统资源,也使得系统更加稳定。内核态运行在R0特权级别上,可以使用特权指令,控制中断、修改页表、访问设备等等特权级别决定现在是内核态还是用户态
面试题:内核态和用户态分别能做什么?
(Linux)特权级别
1、系统调用(用户主动切换为内核态)这是用户态进程主动要求切换到内核态的一种方式,用户态进程通过系统调用申请使用操作系统提供的服务程序完成工作,比如linux中fork()实际上就是执行了一个创建新进程的系统调用。而系统调用的机制核心还是使用了操作系统为用户特别开放的一个中断来实现,例如Linux的int 80h中断
2、异常(被动)当CPU在执行运行在用户态下的程序时,发生了某些事先不可知的异常,这时会触发由当前运行进程切换到处理此异常的内核相关程序中,也就转到了内核态,比如缺页异常。
3、外围设备的中断(被动)外围设备完成用户请求的操作后,会向CPU发出相应的中断信号,这时CPU会暂停执行下一条即将要执行的指令转而去执行与中断信号对应的处理程序,如果先前执行的指令是用户态下的程序,那么这个转换的过程自然也就发生了由用户态到 内核态的切换。比如硬盘读写操作完成,系统会切换到硬盘读写的中断处理程序中执行后续操作等。
唯一途径是通过中断、异常、陷入机制(访管指令)
用户态->内核态
PSW
设置程序状态字PSW
内核态->用户态
1、内核态与用户态是操作系统的两种运行级别,当程序运行在3级特权级上时,就可以称之为运行在用户态。因为这是最低特权级,是普通的用户进程运行的特权级,大部分用户直接面对的程序都是运行在用户态;当程序运行在0级特权级上时,就可以称之为运行在内核态。
2、处于用户态执行时,进程所能访问的内存空间和对象受到限制,其所处于占有的处理机是可被抢占的 ; 处于核心态执行中的进程,则能访问所有的内存空间和对象,且所占有的处理机是不允许被抢占的。
内核态与用户态区别
工作状态的切换
内核态和用户态
CPU的工作状态
拷贝描述的是CPU不执行拷贝数据从一个存储区域到另一个存储区域的任务,这通常用于通过网络传输一个文件时以减少CPU周期和内存带宽
优点:减少CPU和内存的占用
应用场景:RocketMQ持久化时用的是mmap+write()
在内存到硬件的直接工作
读:DMA会把硬盘数据拷贝缓冲区写:DMA将缓冲区的数据拷贝到网卡
DMA直接内存访问硬件
4次用户空间与内核空间的上下文切换+2次CPU拷贝和2次DMA拷贝
传统I/O
4次用户空间与内核空间的上下文切换+1次CPU拷贝和2次DMA拷贝
通过mmap实现的零拷贝I/Ommap(内存映射)是一个比sendfile昂贵但优于传统I/O的方法。mmap就是把内核空间的读缓冲区与用户空间的缓冲区映射到同一物理地址,用户空间与内核空间读缓冲区共享着物理内存。写的话要读了之后拷贝到socket
2次用户空间与内核空间的上下文切换+1次CPU拷贝和2次DMA拷贝
通过sendfile实现的零拷贝I/O
2次用户空间与内核空间的上下文切换+1次DMA拷贝和1次DMA gather拷贝
带有DMA gather拷贝功能的sendfile实现的I/O
\"传统I/O” VS “sendfile零拷贝I/O”
零拷贝
磁盘可以说是计算机系统最慢的硬件之一,读写速度相差内存 10 倍以上,所以针对优化磁盘的技术非常的多,比如零拷贝、直接 I/O、异步 I/O 等等,这些优化的目的就是为了提高系统的吞吐量,另外操作系统内核中的磁盘高速缓存区,可以有效的减少磁盘的访问次数(减少上下文切换次数)。
整个数据的传输过程,都要需要 CPU 亲自参与搬运数据的过程,而且在这个过程中CPU 是不能做其他事情的。简单的搬运几个字符数据那没问题,但是如果我们用千兆网卡或者硬盘传输大量数据的时候,都用 CPU 来搬运的话,肯定忙不过来
未引入DMA技术的传统IO
在进行 I/O 设备和内存的数据传输的时候,数据搬运的工作全部交给 DMA 控制器,而 CPU 不再参与任何与数据搬运相关的事情,这样 CPU 就可以去处理别的事务。
早期 DMA 只存在在主板上,如今由于 I/O 设备越来越多,数据传输的需求也不尽相同,所以每个 I/O 设备里面都有自己的 DMA 控制器。
DMA( 直接内存访问 Direct Memory Access)
整个数据传输的过程,CPU 不再参与数据搬运的工作,而是全程由 DMA 完成,但是 CPU 在这个过程中也是必不可少的,因为传输什么数据,从哪里传输到哪里,都需要 CPU 来告诉 DMA 控制器。
引入DMA技术后的传统IO
出现的背景
文件传输:将磁盘上的文件读取出来,然后通过网络协议发送给客户端。
传统IO下的一次文件传输: 4 次用户态与内核态的上下文切换:两次系统调用:read()、write():每次系统调用都得先从用户态切换到内核态,等内核完成任务后,再从内核态切换回用户态 4 次数据拷贝,其中2次是DMA的拷贝,2次CPU 拷贝
传统IO的工作方式:数据读取和写入是从用户空间到内核空间来回复制,而内核空间的数据是通过操作系统层面的 I/O 接口从磁盘读取或写入
系统调用会导致上下文切换,所以要尽可能减少系统调用的次数
因为文件传输的应用场景中,在用户空间并不会对数据「再加工」,所以数据实际上可以不用搬运到用户空间,因此用户的缓冲区是没有必要存在的去掉用户缓冲区可以减少内存拷贝的次数
传统IO下的一次文件传输,原本只搬运一份数据,结果却搬运了 4 次,过多的数据拷贝无疑会消耗 CPU 资源,大大降低了系统性能简单又传统的文件传输方式,存在冗余的上文切换和数据拷贝,在高并发系统里是非常糟糕的,多了很多不必要的开销,会严重影响系统性能所以,要想提高文件传输的性能,就需要减少「用户态与内核态的上下文切换」和「内存拷贝」的次数。
传统IO下的文件传输
1、把read()系统调用替换成mmap()系统调用,mmap() 系统调用函数会直接把内核缓冲区里的数据「映射」到用户空间应用进程调用了 mmap() 后,DMA 会把磁盘的数据拷贝到内核的缓冲区里。接着,应用进程跟操作系统内核「共享」这个缓冲区
2、应用进程再调用 write(),操作系统直接将内核缓冲区的数据拷贝到 socket 缓冲区中,这一切都发生在内核态,由 CPU 来搬运数据;
3、最后,把内核的 socket 缓冲区里的数据,拷贝到网卡的缓冲区里,这个过程是由 DMA 搬运的。
这样,操作系统内核与用户空间就不需要再进行任何的数据拷贝操作,相比传统IO少了一次CPU拷贝,因为直接由内核空间的缓冲区搬运到socket缓冲区但这还不是最理想的零拷贝,因为仍然需要通过 CPU 把内核缓冲区的数据拷贝到 socket 缓冲区里,而且仍然需要 4 次上下文切换,因为系统调用还是 2 次。
过程解析
4次上下文切换+3次拷贝(2次DMA拷贝和1次CPU拷贝)
mmap+write
在 Linux 内核版本 2.1 中,提供了一个专门发送文件的系统调用函数 sendfile()它可以替代前面的 read() 和 write() 这两个系统调用,这样就可以减少一次系统调用,也就减少了 2 次上下文切换的开销
2次上下文切换+3次拷贝(2次DMA拷贝和1次CPU拷贝)
sendfile
零拷贝下的文件传输
从文件传输中看零拷贝
传统文件传输 4次上下文切换+4次拷贝(2次DMA+2次CPU)
mmap+write 4次上下文切换+3次拷贝(2次DMA+1次CPU)
sendfile 2次上下文切换+3次拷贝(2次DMA+1次CPU)
直观对比
零拷贝第二版
1.git clone 把远程dev上的代码克隆到本地(origin/dev) 2.git checkout -b dev 在本地创建一个dev分支,在这个分支上修改代码 3.dev分支上add和commit代码 4.切换到origin/dev分支上 5.git pull 把远程dev分支上的代码更新下来。 6.切换到dev分支 7.把origin/dev分支合并到dev分支,如果有冲突解决冲突。解决完冲突需要add和commit提交代码 8.切换到origin/dev分支上 9.把dev分支合并到origin/dev分支上 10.git push origin 把origin/dev分支提交到远程dev上
提交完整流程
git clonegit initgit checkout -b xxxgit branch -a 查看本地和远程分支git checkout xxx 切换到xxx分支git add .git commit -m \"xxx\"git pull origin mastergit push origin <分支名/标签名>git status 查看修改过的文件
git log 显示历史commit的idgit show commitID 查看
查看上次提交的代码
git fetch是从远程获取最新版本到本地,但不会自动mergegit pull则是会获取所有远程索引并合并到本地分支中来。效果相同时git pull将更为快捷
git pull和 git fetch的区别
git常用命令
CPU
总线
南北桥
内存
计算机结构
编译过程
entry.asm:供grub调用的引导程序,用于设置CPU工作模式与工作环境,并调用C语言编写的main函数
main.c:实现main函数,此处用于打印字符串
#vgastr.c / #vgastr.h:实现字符串在显示器上的输出
hello.lds:链接器脚本,用于指导链接过程,设定不同程序段的布局
Makefile:编译脚本,用于指导编译过程
LD:链接器
修改/etc/default/grub,使出现选择os界面
修改/boot/grub/grub.cfg,增加HelloKOS启动项
将HelloKOS.bin 文件复制到 /boot目录下
helloOS
编译安装
GRUS多重操作系统启动管理器。用来引导不同系统,如windows,linux
通电
计算机通电后立即读取ROM里的程序BIOSBIOS会控制硬件自检,自检完成后按照启动顺序交给下一个启动程序
读取ROM里面的BIOS,用来检查硬件
1、BIOS
BIOS按照启动顺序,把控制权转交给排在第一位的储存设备然后计算机读取该设备的第一个扇区(最前面的512个字节,也叫主引导记录MBR)根据主引导记录签名判断设备可以用于启动;如果是0x55和0xAA,可以用于启动如果不是,表明设备不能用于启动,控制权于是被转交给\"启动顺序\"中的下一个设备
ps:MBR的主要作用是,告诉计算机到硬盘的哪一个位置去找操作系统第1-446字节:调用操作系统的机器码第447-510字节:分区表,用于将硬盘分成若干个区第511-512字节:主引导记录签名(0x55和0xAA)
BIOS根据指定的顺序,检查引导设备的第一个扇区(即主引导记录),加载在内存地址 0x7C00
2、主引导记录
分3种情况1、卷引导记录:根据硬盘的第一个扇区(卷引导记录)去这个分区找操作系统2、逻辑分区和扩展分区3、启动管理器:不再把控制权转交给某一个分区,而是运行事先安装的启动管理器,由用户选择启动哪一个操作系统
根据主引导记录去硬盘里找操作系统
3、硬盘启动
控制权转交给操作系统后,操作系统的内核首先被载入内存内核加载成功后,运行/boot目录下的init程序(不同操作系统不同区分)产生init进程init线程加载系统的各个模块,比如窗口程序和网络程序,直至登录程序,启动到此完成
控制权转交给操作系统,加载系统各个模块
4、操作系统
计算机的启动流程
引导流程
PC上电,进入BIOS固件中的指令,即grub程序,它首先会执行entry.asm,并在grub.cfg里找到了HelloKOS启动项,选择并进入HelloKOS之后,grub会检查/boot目录下是否存在HelloKOS.bin,存在则执行该系统的指令。(该系统会做的事情是entry.asm所指定要执行的main函数
HelloWorld
往os里添加功能之前,必须要想好这个os该用哪种内核
宏内核
商业级的系统不采用微内核主要还是因为性能差
微内核
COSMOS内核
linux五大组件
Linux
多内核:Mach+BSD
Darwin-XNU
混合内核:HAL+小内核
NT
内核设计
寄存器(16位)
代码段是由 CS 和 IP 确定的,而栈段是由 SS 和 SP 段确定的
访问内存
IDTR:中断描述符表寄存器(Interrupt Descriptor Table Register)
中断号结合cpu的IDTR寄存器指向中断向量表(内存中)中的中断描述符再利用中断描述符保存当前CS和IP寄存器,然后装载新的CS和IP寄存器,实现中断
补充:中断控制器不属于cpu,最新的在cpu和外部,老的在外部。中断控制器会在cpu的引脚上声明如果cpu没有屏蔽中断且符合优先级设定的情况下 cpu会响应中断在中断总线上取得中断向量并执行
硬件中断:中断控制器发送信号和中断号给cpu
软件中断:cpu执行“INT 中断号”指令
两种触发方式
中断
实模式(直接执行到真实地址)
寄存器(32位为主、16位只有段寄存器)
R0 可以执行所有指令,R1、R2、R3 依次递减,后面是前面的子集
特权级
16位的段寄存器在32位cpu下不够放,因此出现段描述符
段描述符(内存中)
由特权级和段描述符配合实现
GDTR:全局描述符表寄存器(Global Descriptor Table Register)
此时段寄存器变成存放指向具体段描述符的索引(不止存放索引)结合cpu的GDTR寄存器指向段全局描述符表(内存中)中的段描述符,实现内存访问
内存访问
由影子寄存器(硬件操作)、段描述符索引、描述符表索引(TI)、权限级别组成
段选择子
x86cpu不能使用分页,但分页比分段更好。通过设置段基地址和段长度使分段成为虚设,实际上是分页
平坦模型
和实模式相比,多了特权级,因此中断描述符 升级成 中断门描述符(简称中断门),中断向量表中存放的条目也更改成中断门
CPL: Current Privilege Level RPL: Request Privilege Level 请求访问者所用的权限级别DPL: Descriptor Privilege Level 中断门描述符权限级别
如果 CPL>=中断门中的段选择子的RPL && CPL<=中断门的DPL ,就指向段描述符的 DPLeg:如果CPL=3,中断门中的段选择子的RPL为0,中断门的 DPL=3, 相当于从用户态到内核态进行了一次调用
权限检查
准备全局段描述符表
加载设置 GDTR 寄存器,使之指向全局段描述符表
设置 CR0 寄存器,开启保护模式
进行长跳转,加载 CS 段寄存器,即段选择子
x86cpu在第一次加电和每次reset之后都进入实模式,进入保护模式需要写代码切换
切换到保护模式
保护模式
寄存器(64位为主,少数32、16位)
特权级(权限检查)
段描述符
长模式下,CPU 不再对段基地址和段长度进行检查(必须开启MMU的原因),只对 DPL 进行相关的检查开启分页后,交给MMU管理
切换到长模式必须要开启分页(开启MMU)
切换到长模式
长模式(和保护模式大致相同)
三种模式总结:实模式:简单、16位、不安全保护模式:权限检查、32位、安全长模式:又名AMD64、64位、安全、弱化段模式而交由MMU管理
思考题:请问实模式下能寻址多大的内存空间?寻址能力由地址总线个数和寄存器位数共同决定,地址值是寄存器给的,用这个值到地址总线上去索引内存单元 实模式虽然寄存器只有16位,但可以两个寄存器决定一个地址值(其中一个左移4位),于是在当时20条地址总线的情况下,寻址空间就有2^20=1M
几个问题。段寄存器有什么用,到底放了什么,和段选择子有什么区别
x86、ARM 系列将 MMU 集成在 CPU核心
SUN 公司的 CPU 是将独立的 MMU 芯片卡在总线上
程序的虚拟地址由编译后的链接步骤的链接器产生通过软硬结合,硬件MMU读取内存中的地址转换表,实现虚拟地址向物理地址的转换
MMU适用于保护模式下的平坦模式、长模式
地址总线上的信号(物理地址)可以表示其他设备的存储单元比如显存、IO设备寄存器、网卡缓存,但这里默认是内存的
虚拟地址 -> 物理地址 -> 电子信号 -> 地址总线 -> 内存储存单元
CR3寄存器指向页表项
页目录索引、页表索引、页内偏移
4KB
页表索引、页内偏移
4MB
4KB(主流)
2MB
长模式
虚拟地址转换(x86cpu的MMU)
局部性原理
Cache与内存
硬件
LMOS
操作系统
可通过修改conf/logging.properties日志配置文件来屏蔽掉一部分的日志信息将level级别设置成WARNING就可以大量减少日志的输出,当然也可以设置成OFF,直接禁用掉ps:日志级别 SEVERE (highest value) > WARNING > INFO > CONFIG > FINE > FINER > FINEST (lowest value)
1、修改tomcat的输出日志级别
利用系统logrotate命令来实现tomcat的日志切割
利用cronlog工具来实现日志切割
2、切割日志
解决Tomcat catalina.out 不断成长导致档案过大的问题
处理生产环境Tomcat的catalina.out日志
catalina.out
服务器
1.DNS解析并返回ip地址(DNS2.tcp三次握手建立连接(TCP、IP、OSPF、ARP3.浏览器发送http请求(HTTP4.服务器处理请求并返回http报文5.浏览器渲染数据并显示6.tcp四次挥手断开连接
查找过程:本机缓存(游览器、操作系统) -> 操作系统host -> 本地Ldns -> 根域名服务器 -> 顶级域名服务器 -> dns权威服务器(递归查找) -> 已找到就缓存到本地
dns协议同时利用了tcp和udp
dns解析
游览器搜索自己的缓存有没有被解析过的这个域名对应的ip地址,如果有,解析结束。同时域名被缓存的时间也可通过TTL属性来设置
1、游览器检查自己缓存
Windows DNS缓存的默认值是 MaxCacheTTL,默认值是86400s,一天
2、检查操作系统的缓存
如果在这里指定了一个域名对应的ip地址,那浏览器会首先使用这个ip地址
存在问题:域名劫持 这种操作系统级别的域名解析规程也被很多黑客利用,通过修改hosts文件里的内容把特定的域名解析到指定的ip地址上,造成域名劫持。所以在windows7中将hosts文件设置成了readonly,防止被恶意篡改
3、检查操作系统里的host文件
这台服务器由运营商提供,一般在你的城市的某个角落,距离你不会很远,并且这台服务器的性能都很好,一般都会缓存域名解析结果,大约80%的域名解析到这里就完成了
第一,代替用户设备参与域名查询的迭代过程,帮助获取域名查询结果返回给用户设备;
第二,缓存域名查询记录,当其他用户发起相同的域名查询请求时可以直接返回查询结果,可以加快域名查询速度,同时也降低了权威服务器,尤其是根服务器的工作压力
LDNS不提供域名解析服务,只负责代替用户查询根服务器和缓存记录
4、请求本地域名服务器(Local DNS)来解析这个域名
1、如果LDNS仍然没有命中,LDNS就直接去Root Server 域名服务器请求解析
2、根域名服务器返回给LDNS一个所查询域的主域名服务器(gTLD Server,国际顶尖域名服务器,如.com .cn .org等)地址(根域名服务器告诉LDNS一个gTLD地址,让LDNS去gTLD里查)
3、此时LDNS再发送请求给上一步返回的gTLD(LDNS向gTLD发起查询)
4、接受请求的gTLD查找并返回这个域名对应的Name Server的地址,这个Name Server就是网站注册的域名服务器
5、Name Server根据映射关系表找到目标ip,返回给LDNS
5、跳转root server进行查询
6、LDNS把gTLD解析的结果返回给用户,同时缓存这个域名和对应的ip,用户根据TTL值缓存到操作系统缓存中
7、操作系统缓存后,返回IP到游览器,域名解析过程结束
1、游览器向DNS请求解析并返回ip地址
1.1OSPF
1、查询到IP地址后,IP数据报需从主机A上传送到主机B上,主机A首先查找路由表
如果有,则封装数据帧,向目的MAC地址,即主机B传输
如果没有,则发送一个ARP请求广播给网段内的所有主机,来查询该目的IP地址的MAC地址
2、如果目的主机是与自己在同一个网段内,那么主机A查询自己的ARP表是否存在目的IP的MAC地址
1.2查询ARP表
2、三次握手建立TCP连接
3、游览器发起HTTP请求
4、服务器接受并解析HTTP请求,查找指定资源,并返回HTTP响应消息
5、客户端解析html代码,并请求html代码中的资源
6、客户端渲染展示页面
7、四次挥手关闭TCP连接
1、DNS缓存
减少 DNS 查询
如何优化加速
输入url到显示界面,经历了什么?用了什么协议?
应用层:通过应用进程间的交互来完成特定网络应用
传输层:负责向两台主机进程之间的通信提供通用的数据传输服务,单位为:数据段(Segment)或报文
网络层:选择合适的网间路由和交换结点, 确保数据及时传送,单位:分组(数据包(Packet))
数据链路层: 在两个相邻节点之间传送数据时,数据链路层将网络层交下来的 IP 数据报组装成帧,单位:数据帧
物理层:实现相邻计算机节点之间比特流的透明传送,尽可能屏蔽掉具体传输介质和物理设备的差异,单位:比特
OSI七层/五层协议
简约版
DNS、DHCP在应用层
SSL/TLC、RPC在会话层
OSPF、IP/IPv6在网络层
ARP在数据链路层
详细版
网络分层模型和对应的协议
http明文传输,https密文传输
https要用CA证书验证
http响应更快,因为https除了tcp还需要ssl(或tls)连接,也因此更安全
http在tcp端口80,https为443
http和https区别
由请求方法、URL(包含参数)和协议版本组成
请求行
由多个key-value值组成
请求头
请求报文使用空行将请求头部和请求数据分隔
空行
GET方法没有携带数据,POST方法会携带一个body
请求体
请求报文
响应行:由协议版本、状态码和状态值组成
响应头:由多个key-value值组成
空行:响应报文使用空行将响应头和响应体分隔
响应体:响应数据,例如html或json数据
响应报文
HTTP的报文格式
在一个TCP连接上可以传送多个HTTP请求和响应,为了减少建立和关闭的消耗和延迟
HTTP分为长连接和短连接,其实是指TCP连接。TCP连接是一个双向的通道,它是可以保持一段时间不关闭的,因此TCP连接才有真正的长连接和短连接这一说。HTTP协议说到底是应用层的协议,而TCP才是真正的传输层协议,只有负责传输的这一层才需要建立连接
只传输头部信息,若有权限继续传输body
节约宽带
可存在多个虚拟主机共享一个IP地址
host域
引入了更多的缓存控制策略
缓存处理
长连接多用于操作频繁(读写),点对点的通讯,而且连接数不能太多情况,。每个TCP连接都需要三步握手,这需要时间,如果每个操作都是先连接,再操作的话那么处理速度会降低很多,所以每个操作完后都不断开,次处理时直接发送数据包就OK了,不用建立TCP连接。例如:数据库的连接用长连接, 如果用短连接频繁的通信会造成socket错误,而且频繁的socket 创建也是对资源的浪费
WEB网站的http服务一般都用短链接(http1.0只支持短连接,1.1keep alive 带时间,操作次数限制的长连接),因为长连接对于服务端来说会耗费一定的资源,而像WEB网站这么频繁的成千上万甚至上亿客户端的连接用短连接会更省一些资源,如果用长连接,而且同时有成千上万的用户,如果每个用户都占用一个连接的话,那可想而知吧。所以并发量大,但每个用户无需频繁操作情况下需用短连好
扩展:长连接和短连接场景
1.1的优化
在tcp链接中,http请求必须等待前一个请求响应之后,才能发送,后面的依次类推,由此可以看出,如果在一个tcp通道中如果某个http请求的响应因为某个原因没有及时返回,后面的响应会被阻塞
因为1.1的管道化导致的请求/响应模式,无法解决队头阻塞,只能提供缓解方案:
缓解
2.0不使用管道化的方式,而是引入了帧、消息和数据流等,解决了队头阻塞
在2.0里面,每个请求/响应被称为消息,每个消息都被拆分成若干个帧进行传输,每个帧都分配一个序号。每个帧在传输是属于一个数据流,而一个连接上可以存在多个流,各个帧在流和连接上独立传输,到达之后在组装成消息,这样就避免了请求/响应阻塞
解决
队头阻塞
低效的TCP利用
2.0头部压缩解决了
臃肿的消息首部
受限的优先级设置
第三方资源
1.1的问题
http1.0后的1.1
一个连接处理多个请求,解决了1.1的队头阻塞
多路复用
HPACK算法压缩header信息,解决了1.1的消息首部臃肿(请求头+请求行
头部压缩
当客户端请求资源时,服务器把多个资源都传输给你
服务器推送
二进制协议
http1.1后的2.0
放弃使用TCP协议,而使用基于UDP的QUIC协议
http2.0后的3.0
http版本区别
速度慢,只适合加密少量数据。私钥自己保存,公钥可随意分发。
密钥包括:公钥和私钥。如公钥加密,则私钥解密;如私钥加密,则公钥解密。
常用加密算法:RSA
非对称加密
加密速度快,适合大量数据的处理。但密钥的管理和分发安全性要求高。
加密和解密使用相同的密钥
常用加密算法:DES,3DES
对称加密
摘要的计算是单向的,其不是加密技术。
通过哈希(散列)函数对不同长度的报文计算出相同长度的特征值。报文如有修改,则特征值会变化。
常用签名算法:MD5,SHA-1,SHA-256
报文摘要
1、网站拥有用于非对称加密的公钥A、私钥A 2、浏览器向网站服务器请求,服务器把公钥A明文给传输浏览器。 3、浏览器随机生成一个用于对称加密的密钥X,用公钥A加密后传给服务器。 4、服务器拿到后用私钥A’解密得到密钥X。 5、这样双方就都拥有密钥X了,且别人无法知道它。之后双方所有数据都通过密钥X加密解密即可。
1、某网站有用于非对称加密的公钥A、私钥A。2、浏览器向网站服务器请求,服务器把公钥A明文给传输浏览器。3、中间人劫持到公钥A,保存下来,把数据包中的公钥A替换成自己伪造的公钥B(它当然也拥有公钥B对应的私钥B)。4、浏览器生成一个用于对称加密的密钥X,用公钥B(浏览器无法得知公钥被替换了)加密后传给服务器。5、中间人劫持后用私钥B解密得到密钥X,再用公钥A加密后传给服务器。服务器拿到后用私钥A’解密得到密钥X
中间人攻击
CA证书,确保服务端传的公钥A和浏览器收到的公钥是同一个
如何防止中间人攻击
漏洞
整个非对称加密过程都是为了最后的对称加密服务的,最终目的是证明证书中的公钥是安全且未篡改。使用公钥来加密一个秘钥,并把秘钥传给后端,后端使用私钥解密秘钥,这样两端都拥有同一个秘钥,从而进行对称加密
非对称&对称加密
1、客户端发送随机数x、客户端TLS版本号、加密套件列表2、服务端发送随机数y,确认TLS版本号、RSA加密算法、公钥证书3、客户端通过浏览器内的CA 去校验公钥证书 获取服务端公钥,并对随机数z加密4、服务端收到后私钥解开获得随机数z5、双方都用x、y、z生成会话密钥
证书内容:颁发机构信息+公钥+公司信息+域名+有效期+指纹
如何验证合法性:验证域名和有效期等信息是否正确+判断证书来源是否合法+判断证书是否被篡改+判断证书是否已吊销
签名哈希算法又称指纹算法,通过对比证书的hash值和传递的哈希值确认证书的安全性
签名算法用于加密签名哈希算法,防止证书内的hash值被修改
签名算法&签名哈希算法
CA证书认证流程
CA证书
SSL协议对应的层:应用层和传输层之前(会话层)
通过握手过程,客户端与服务端之间协商会话参数(包括相互验证、协商加密和MAC算法、生成会话密钥等
SSL握手协议
SSL记录协议
SSL警报协议
SSL(安全套接字层)
用于两个应用程序之间提供保密性和数据完整性。该协议由两层组成:TLS记录协议和TLS握手协议
SSL是Netscape开发的专门用户保护Web通讯的,目前版本为3.0。最新版本的TLS 1.0是IETF(工程任务组)制定的一种新的协议,它建立在SSL 3.0协议规范之上,是SSL 3.0的后续版本。两者差别极小,可以理解为SSL 3.1
TLS(传输层安全协议)
https加密机制
简单理解为:token = 混淆/加密(用户id + 密码)所以前端拿着用户名和密码跟后端换了一个token 这个token 包含了用户名密码所以token 是由后端下发的合法标识
服务端生成的一串字符串,以作客户端进行请求的一个令牌
减少服务器和数据库查询压力
用设备号/设备mac地址作为Token(推荐)
用session值作为Token
Token
Session是在服务端保存的一个数据结构,用来标识用户和跟踪用户的状态,这个数据可以保存在集群、数据库、文件中
Cookie是客户端保存用户信息的一种机制,用来记录用户的一些信息,也是实现Session的一种方式( Cookie 里面记录一个Session ID)如果cookie被禁用,session无法标识,则会用url重写方式,在url链接里带上sid=xxxx
cookie和session区别
session生命周期
cookie&session&token
GET传递参数长度受限制,因为传递的参数是直接表示在地址栏中,而特定浏览器和服务器对url的长度是有限制的。因此,GET不适合用来传递私密数据,也不适合拿来传递大量数据
POST参数长度没有限制,把传递的数据封装在HTTP请求数据中,以名称/值的形式出现,可以传输大量数据,对数据量没有限制,也不会显示在URL中。表单的提交用的是POST
GET请求参数长度有限制,而POST没有
GET比POST更不安全,因为参数直接暴露在URL上,所以不能用来传递敏感信息
GET在浏览器回退时是无害的,而POST会再次提交请求
GET参数通过URL传递,POST放在Request body中
GET请求会被浏览器主动缓存(历史记录可以找到),而POST不会,除非手动设置
GET请求只能进行url编码,而POST支持多种编码方式
GET请求参数会被完整保留在浏览器历史记录里,而POST中的参数不会被保留
GET对参数的数据类型,只接受ASCII字符,而POST没有限制
对于GET方式的请求,浏览器会把http header和data一并发送出去,服务器响应200(返回数据);
而对于POST,浏览器先发送header,服务器响应100 continue,浏览器再发送data,服务器响应200 ok(返回数据)
性能上来讲GET请求比POST会快一点,但是:1. GET与POST都有自己的语义,不能随便混用。2. 据研究,在网络环境好的情况下,发一次包的时间和发两次包的时间差别基本可以无视。而在网络环境差的情况下,两次包的TCP在验证数据包完整性上,有非常大的优点。3. 并不是所有浏览器都会在POST中发送两次包,Firefox就只发送一次
GET产生一个TCP数据包;POST产生两个TCP数据包
GET&POST
PUT方法用于将数据发送到服务器以创建或更新资源,它可以用上传的内容替换目标资源中的所有当前内容。它会将包含的元素放在所提供的URI下,如果URI指示的是当前资源,则会被改变。如果URI未指示当前资源,则服务器可以使用该URI创建资源
PUT
HEAD方法与GET方法相同,但没有响应体,仅传输状态行和标题部分。这对于恢复相应头部编写的元数据非常有用,而无需传输整个内容
HEAD
DELETE请求一般会返回三种状态码200 (OK) - 删除成功,同时返回已经删除的资源202 (Accepted) - 删除请求已经接受,但没有被立即执行(资源也许已经被转移到了待删除区域)204 (No Content) - 删除请求已经被执行,但是没有返回资源(也许是请求删除不存在的资源造成的)
DELETE方法用来删除指定的资源,它会删除URI给出的目标资源的所有当前内容。
DELETE
CONNECT方法用来建立到给定URI标识的服务器的隧道;它通过简单的TCP / IP隧道更改请求连接,通常实使用解码的HTTP代理来进行SSL编码的通信(HTTPS)
CONNECT
OPTIONS方法用来描述了目标资源的通信选项,会返回服务器支持预定义URL的HTTP策略。
OPTIONS
TRACE方法用于沿着目标资源的路径执行消息环回测试;它回应收到的请求,以便客户可以看到中间服务器进行了哪些(假设任何)进度或增量
TRACE
http常用方法
指定客户端应相应的某些动作,代表请求已被接受。由于 HTTP/1.0 协议中没有定义任何 1xx 状态码,所以除非在某些试验条件下,服务器禁止向此类客户端发送 1xx 响应
1XX系列:继续处理
200状态码:表示请求已成功,请求所希望的响应头或数据体将随此响应返回
201状态码:表示请求成功并且服务器创建了新的资源,且其 URI 已经随Location 头信息返回。假如需要的资源无法及时建立的话,应当返回 '202 Accepted'
202状态码:服务器已接受请求,但尚未处理
2XX系列:接收成功
代表需要客户端采取进一步的操作才能完成请求,这些状态码用来重定向,后续的请求地址(重定向目标)在本次响应的 Location 域中指明
301状态码:被请求的资源已永久移动到新位置。服务器返回此响应(对 GET 或 HEAD 请求的响应)时,会自动将请求者转到新位置
302状态码:请求的资源临时从不同的URI响应请求,但请求者应继续使用原有位置来进行以后的请求
304自从上次请求后,请求的网页未修改过。服务器返回此响应时,不会返回网页内容
3XX系列:重定向
代表了客户端看起来可能发生了错误,妨碍了服务器的处理。
401状态码:请求要求身份验证。 对于需要登录的网页,服务器可能返回此响应
403状态码:服务器已经理解请求,但是拒绝执行它。与401响应不同的是,身份验证并不能提供任何帮助,而且这个请求也不应该被重复提交
没有信息能够告诉用户这个状况到底是暂时的还是永久的。假如服务器知道情况的话,应当使用410状态码来告知旧资源因为某些内部的配置机制问题,已经永久的不可用,而且没有任何可以跳转的地址。404这个状态码被广泛应用于当服务器不想揭示到底为何请求被拒绝或者没有其他适合的响应可用的情况下
404状态码:请求失败,请求所希望得到的资源未被在服务器上发现
代表了服务器在处理请求的过程中有错误或者异常状态发生,也有可能是服务器意识到以当前的软硬件资源无法完成对请求的处理
500状态码:服务器遇到了一个未曾预料的状况,导致了它无法完成对请求的处理。一般来说,这个问题都会在服务器的程序码出错时出现
503状态码:由于临时的服务器维护或者过载,服务器当前无法处理请求。通常,这个是暂时状态,一段时间会恢复
状态码
TCP的Keepalive和HTTP的Keep-Alive是一个东西吗
转发forward是服务器行为,重定向redirect是客户端行为
2. 从数据共享来说forward:转发页面和转发到的页面可以共享request里面的数据.redirect:不能共享数据.
4. 从效率来说forward:高.redirect:低.
转发和重定向的区别
HTTP
告诉 TCP 协议应该把报文发给哪个进程,最大端口数目为65535(2的16次方)(哪个进程在侦听这个端口,就发哪个进程)
源端口和目的端口
第一个报文的序号在第一次交互时由系统随机生成变化过程:初始值+偏移量即为下一个报文的序号值
占4个字节,TCP连接中传送的字节流中的每个字节都按顺序编号。例如,一段报文的序号字段值是 301 ,而携带的数据共有100字段,显然下一个报文段(如果还有的话)的数据序号应该从401开始
对数据的排列顺序,以便于接收方能按顺序接受数据,提高了数据在传输过程中的可靠性(有的数据必须按顺序传送和接受,如语音IP)
序号
数据被接收后,接收端给发送端回馈确认的机制。 若接收端接收到2000序号,则回复2001。还能够处理重复的报文段,一旦接收到相同的序号就丢弃
确认号
头部长度
数据偏移
占6位,保留为今后使用,目前应设置为0
保留
同步信号SYN
用来释放一个连接,当FIN=1时,表明此报文段的发送方数据已经发送完毕,并要求释放运输连接。
终止信号FIN
确认报文段,仅当ACK=1时确认号字段才有效。当ACK=0时,确认号无效。
确认报文ACK
当RST=1时,表明TCP连接出现了严重差错,必须释放连接,然后重新建立新运输连接。**RST=1还可以用来拒接一个非法报文段或拒绝打开一个连接例如:0窗窗口探测3次都无ack返回,time_wait状态结束
差错释放RST
当两个应用进程进行交互式的通信时,有时在一端的应用进程希望在键入一个命令后立即就能够收到对方响应。在这种情况下,TCP可以使用PSUH(推送操作)。这时,发送方TCP把PSH置1,并立即创建一个报文段发送出去。接收方TCP收到PSH=1的报文段,就尽快(推送)交付给接收应用进程,而不在等整个缓存都填满了再向上交付
尽快推送PSH
当UGR置1时,发送应用进程就告诉发送方的TCP有紧急数据要传送。于是发送方的TCP就把紧急数据插入到本报文段数据的最前面,而在紧急数据后面的数据仍是普通数据
紧急数据URG
控制位
窗口
校验和
紧急指针
TCP报文首部
提供某种服务,侦听远方TCP端口的连接请求,当提供的服务没有被连接时,处于LISTENING状态,端口是开放的,等待被连接
LISTEN
客户端调用connect,发送一个SYN请求建立一个连接,在发送连接请求后等待服务端ACK匹配的连接请求,此时状态为SYN_SENT.
SYN_SENT
在收到和发送一个连接请求后,等待对方对连接请求的确认,当服务器收到客户端发送的同步信号时,将标志位ACK和SYN置1发送给客户端,此时服务器端处于SYN_RCVD状态,如果连接成功了就变为ESTABLISHED,正常情况下SYN_RCVD状态非常短暂
SYN_RECEIVED
ESTABLISHED状态是表示两台机器正在传输数据
ESTABLISHED
服务端处于开放端口等待连接状态,客户端发送SYN进入SYN_SENT状态并等待ACK回复,服务端收到SYN后返回ACK回复和SYN建立连接信号并从LISTEN进入SYN_RECEIVED状态,客户端接收到SYN信号后返回ACK进入ESTABLISHED,服务端接收到ACK后进入ESTABLISHED
过程
TCP的可靠连接是靠 seq( sequence numbers 序列号)来达成的,TCP 设计中一个基本设定就是:通过TCP 连接发送的每一个包,都有一个sequence number。而因为每个包都是有序列号的,所以都能被对方确认收到这些包
1、序列号
client发出的第一个连接请求报文段并没有丢失,而是在某个网络结点长时间的滞留了,以致延误到连接释放以后的某个时间才到达server。本来这是一个早已失效的报文段。但server收到此失效的连接请求报文段后,就误认为是client再次发出的一个新的连接请求。于是就向client发出确认报文段,同意建立连接。
2、已失效的连接请求报文段
为什么握手要三次
各种情况面试题
connect()在第二次握手,accept在第三次握手
TCP的accept()函数发生在第几次握手
服务端:超时重传
在linux c 中,client 一般是通过 connect() 函数来连接服务器的,而connect()是在 TCP的三次握手的第二次握手完成后就成功返回值。也就是说 client 在接收到 SYN+ACK包,它的TCP连接状态就为 established (已连接),表示该连接已经建立。那么如果第三次握手中的ACK包丢失的情况下,Client 向 server端发送数据,Server端将以 RST包响应,Client才能感知到Server的错误
客户端:等待RST
三次握手时ACK丢失怎么办
TCP和Socket的方法调用流程
TCP三次握手协议栈
消息传递(管道、FIFO、消息队列)同步(互斥量、条件变量、读写锁、文件和写记录锁、信号量)共享内存(匿名的和具名的)远程过程调用(Solaris门和Sun RPC)
本地进程通信
本地进程可以使用进程PID唯一标记,但是网络间进程不行
唯一标识一个进程
本地
socket
网络进程通信
三元组(ip地址,协议,端口)TCP/IP协议族中:网络层的“ip地址”可以唯一标识网络中的主机,而传输层的“协议+端口”可以唯一标识主机中的应用程序(进程)有了标识后,网络中的进程通信就可以利用这个标志与其它进程进行交互
起因:网络中的进程通信
socket和三挥四握的关系
源代码跟踪分析
三次握手
为什么连接的时候是三次握手,关闭的时候却是四次握手?因为当Server端收到Client端的SYN连接请求报文后,可以直接发送SYN+ACK报文。其中ACK报文是用来应答的,SYN报文是用来同步的。但是关闭连接时,当Server端收到FIN报文时,很可能并不会立即关闭SOCKET,所以只能先回复一个ACK报文,告诉Client端,\"你发的FIN报文我收到了\"。只有等到我Server端所有的报文都发送完了,我才能发送FIN报文,因此不能一起发送。故需要四步握手。
虽然按道理,四个报文都发送完毕,我们可以直接进入CLOSE状态了,但是我们必须假象网络是不可靠的,有可能最后一个ACK丢失。如果ACK丢失,可以在TIME_WAIT状态的2MSL内,等对方再次发送FIN,然后重新给对方发ACKPS:2MSL中,MSL是报文最大生存时间,可以自定义MSL为30秒,1分钟,2分钟,默认为2分钟,2MSL是指2倍MSL
为什么TIME_WAIT状态需要经过2MSL(最大报文段生存时间)才能返回到CLOSE状态?
time_wait状态结束后才会释放端口,当并发请求过多无法及时断开的话,会占用大量的端口资源和服务器资源
1、复用处于 TIME_WAIT 的 socket 为新的连接所用问题:因为开启了时间戳,当客户端与服务端主机时间不同步时,客户端的发送的消息会被直接拒绝掉
2、服务端通过设置so_linger字段,调用close关闭tcp连接,可跳过四次挥手问题:跳过time_wait状态有点危险
3、设置net.ipv4.tcp_max_tw_buckets数值 默认18000,超过这个值会重置所有time_wait问题:治标不治本
出现大量time_wait会发生什么?怎么办?
客户端发送最后一次ACK之后,自身进入time_wait状态,如果ack在网络中丢失则服务端将再次发送FIN报文,如果没超过2MSL,则客户端重发ACK,如果超过2MSL,接受FIN的时候客户端已经关闭,则客户端发送RST,服务端收到后认为该连接出现异常
可靠的实现TCP全双工连接的终止
如果刚关闭连接就立刻建立新连接,可能会出现上一个连接发送较慢的数据包被新连接接收,破坏了新连接
允许老的重复节点在网络中消逝
为什么一定要time_wait?
TIME_WAIT
四次挥手
TCP 将保持它首部和数据的检验和。这是一个端到端的检验和,目的是检测数据在传输过程中的任何变化。如果收到段的检验和有差错,TCP 将丢弃这个报文段和不确认收到此报文段
TCP 连接的每一方都有固定大小的缓冲空间,TCP的接收端只允许发送端发送接收端缓冲区能接纳的数据。当接收方来不及处理发送方的数据,能提示发送方降低发送的速率,防止包丢失。TCP 使用的流量控制协议是可变大小的滑动窗口协议。(窗口字段包含在确认报文中,为0的时候表示不能发送数据)
滑动窗口中,窗口关闭+窗口恢复报文丢失 导致的死锁问题,用0窗口探测解决
发送方根据收到ACK当中的期望收到的下一个字节的序号n以及窗口m,还有当前已经发送的字节序号x,算出还可以发送的字节数假定当前发送方已发送到第x字节,则可以发送的字节数就是y=m-(x-n)
TCP协议的滑动窗口具体是怎样控制流量的?
流量控制(被接收方要求发送方降低速率
一开始立即把大量数据字节注入到网络,可能会引起网络阻塞,因为现在还不知道网络的符合情况经验表明,较好的方法是先探测一下,即由小到大逐渐增大发送窗口
cwnd初始值为1,每经过一个传播轮次,cwndx2,cwnd>=慢启动门限就会触发拥塞避免算法
慢开始
每经过一个往返时间就把发送方的cwnd加1,发生丢包时(超时重传或快重传时)触发拥塞发生算法
拥塞避免
结果:门限减半,起点为1,然后执行慢开始
超时重传
结果:门限减半,起点减半
快重传算法首先要求接收方每收到一个失序的报文段就立即发出重复确认(为的是使发送方及早的知道有报文段没有到达对方)而不要等到自己发送数据时才捎带确认。快重传算法规定,发送方只要一连收到三个重复确认就应当立即重传对方尚未收到的报文段,而不必继续等待为其设置的重传计时器到期。
概率问题TCP按序发送,但TCP包是封装在IP包内,IP包在传输时乱序,意味着TCP包到达接收端也是乱序
1、为什么要设置为3个重复确认
SACK
2、重传的时候,是只重传丢失的报文,还是重传在重复确认时发送的所有报文
快重传是啥
快速重传
造成 拥塞发生 的两个原因
通过快重传引起的拥塞发生算法才会进入快恢复
快速重传和快速恢复算法一般同时使用,快速恢复算法是认为,你还能收到 3 个重复 ACK 说明网络也不那么糟糕,所以没有必要像 RTO 超时那么强烈
在门限减半和起点减半之后,起点=起点+3( 3 的意思是确认有 3 个数据包被收到了),并进入拥塞避免
快恢复
拥塞控制(被网络太拥堵要求发送方降低速率
它的基本原理就是每发完一个分组就停止发送,等待对方确认。在收到确认后再发下一个分组。如果发送方在发送后一段时间之内没有收到确认帧,它通常会重新发送
优点: 简单缺点: 信道利用率低,等待时间长
当 TCP 发出一个段后,它启动一个定时器,等待目的端确认收到这个报文段。如果不能及时收到一个确认,将重发这个报文段
超时重传机制
A向B发送消息,B收到后给A发确认,但是确认丢失了,但A不知道,超时后A就继续发消息这时B会做两件事 1.把A重发的消息丢弃 2.再次向A发确认消息
确认丢失机制
A向B发送消息,B收到后给A发确认,但确认迟到,但A不知道,超时后A就继续发消息B又会收到重复消息,又发了个确认。结果是A发了两次消息,B发了两次确认处理如下:1.A丢弃第二次确认消息 2.B丢弃第二次收到的消息
确认迟到机制
停止等待ARQ协议
连续 ARQ 协议 可提高信道利用率。发送维持一个发送窗口,凡位于发送窗口内的分组可连续发送出去,而不需要等待对方确认。接收方一般采用累积确认,对按序到达的最后一个分组发送确认,表明到这个分组位置的所有分组都已经正确收到了
优点: 信道利用率高,容易实现,即使确认丢失,也不必重传。缺点: 不能及时向发送方反映出接收方已经正确收到的所有分组的信息。
连续ARQ协议
ARQ协议(自动重传请求协议
tcp如何保证可靠传输
1、要发送的数据大于TCP发送缓冲区剩余空间大小,将会发生拆包。
3、要发送的数据小于TCP发送缓冲区的大小,TCP将多次写入缓冲区的数据一次发送出去,将会发生粘包。
2、待发送数据大于MSS(最大报文长度),TCP在传输前将进行拆包
4、接收数据端的应用层没有及时读取接收缓冲区中的数据,将发生粘包
发生原因
1、发送端给每个数据包添加包首部,首部中应该至少包含数据包的长度,这样接收端在接收到数据后,通过读取包首部的长度字段,便知道每一个数据包的实际长度了
2、发送端将每个数据包封装为固定长度(不够的可以通过补0填充),这样接收端每次从接收缓冲区中读取固定长度的数据就自然而然的把每个数据包拆分开来
3、可以在数据包之间设置边界,如添加特殊符号,这样,接收端通过这个边界就可以将不同的数据包拆分开
粘包&拆包
SYN泛洪攻击利用TCP三次握手协议的缺陷,向目标主机发送大量的伪造源地址的SYN连接请求,即三次握手时攻击者第一次发送SYN,在服务端发送TCP SYN + ACK包回客户机前,连接受害者(服务器)必须为每个TCP SYN包分配了一个特定的数据区,这些SYN包具有不同的源地址(攻击者很容易伪造),且不回复服务端的SYN+ACK请求这种情况下服务器端会再次发送SYN+ACK给客户端,并等待一段时间(SYN Timeout)后丢弃这个未完成的半连接攻击方发送大量的SYN请求使服务端维持大量的半连接,使得被攻击方资源耗尽,从而不能够为正常用户提供服务
缩短SYN timeout时间
设置SYN可疑队列
为了支持该功能,Linux内核新增了一个tcp_syncookies参数
在TCP服务器收到TCP SYN包并返回TCP SYN+ACK包时,不分配一个专门的数据区,而是根据这个SYN包计算出一个cookie值。在收到TCP ACK包时,TCP服务器再根据那个cookie值检查这个TCP ACK包的合法性。如果合法,再分配专门的数据区进行处理未来的TCP连接。如果短时间内连续受到某个IP的重复SYN文,认定是受到了攻击,以后从这个IP地址来的包会被丢弃
在防火墙中可以开启tcp_syncookies服务器端在收到客户端的SYN 包后,防火墙代替服务器向客户端发送SYN+ACK包,如果客户端在一段时间内没有应答或中间的网络设备发回了ICMP错误消息,防火墙则丢弃此状态信息; 如果客户端的ACK到达,防火墙代替客户端向服务器发送SYN包,并完成后续的握手最终建立客户端到服务器的连接
1、不能将初始的SYN的所有选项加密成cookie。
通常,这种情况被服务器转发处理,但是在SYN cookie中,主机中不保存任何状态,这种转发的机制是不存在的。
缺陷
只有在服务器的accept_queue满载时才会启用,可以看出懒惰启用对效率提升很有效,并且还可以有效防止syn-flood攻击,你可以随便攻击,这个linux不管,linux丝毫不会畏惧dos攻击,也不会提前采取任何行动,一切就像什么也没有发生一样,但是一旦攻击开始影响系统,这里就是接收队列已经爆满,linux就要应付了,启动应急预案,这里就是syn-cookie
何时启动sync cookie?
SYN cookie
SYN泛洪攻击
socket是在应用层和传输层之间的一个抽象层,它把TCP/IP层复杂的操作抽象为几个简单的接口供应用层调用已实现进程在网络中通信。提供支持 TCP/IP 的网络通信的基本操作方法,可以看做是不同主机之间的进程进行双向通信的端点
socket起源于UNIX,在Unix一切皆文件哲学的思想下,socket是一种\"打开—读/写—关闭\"模式的实现,服务器和客户端各自维护一个\"文件\",在建立连接打开后,可以向自己文件写入内容供对方读取或者读取对方内容,通讯结束时关闭文件
每个进程的进程空间里都有一个套接字描述符表,该表中存放着套接字描述符和套接字数据结构的对应关系(key-value)该表中有一个字段存放新创建的套接字的描述符,另一个字段存放套接字数据结构的地址,因此根据套接字描述符就可以找到对应的套接字数据结构每个进程在自己的进程空间里都有一个套接字描述符表,但是套接字数据结构都存在操作系统的内核缓冲里
socket():创建socket
bind():绑定socket到本地地址和端口,通常由服务端调用
listen():TCP专用,开启监听模式
accept():TCP专用,服务器等待客户端连接,一般是阻塞态
connect():TCP专用,客户端主动连接服务器
send():TCP专用,发送数据
recv():TCP专用,接收数据
sendto():UDP专用,发送数据到指定的IP地址和端口
recvfrom():UDP专用,接收数据,返回数据远端的IP地址和端口
closesocket():关闭socket
常用方法
socket的底层原理
socket概述
新增博客2021/7/18
TCP
TCP(传输控制协议)
UDP(用户数据报协议)报文首部
三挥四握
TCP面向连接,UDP无连接
三挥四握,确认、窗口、重传、流量阻塞控制等
TCP可靠,UDP不可靠
TCP传输慢,UDP传输快
TCP占用资源多,UDP占用资源少
三次挥手四次握手
tcp和udp区别
HTTP 的 Keep-Alive 也叫 HTTP 长连接,该功能是由「应用程序」实现的,可以使得用同一个 TCP 连接来发送和接收多个 HTTP 请求/应答,减少了 HTTP 短连接带来的多次 TCP 连接建立和释放的开销。
TCP 的 Keepalive 也叫 TCP 保活机制,该功能是由「内核」实现的,当客户端和服务端长达一定时间没有进行数据交互时,内核为了确保该连接是否还有效,就会发送探测报文,来检测对方是否还在线,然后来决定是否要关闭该连接
tcp和http的keepalive(长连接)区别
总大小 1500——>1480——1400
以太网数据报&IP数据报&TCP数据报关系
TCP和UDP
针对tcp进行socket编程
未完成连接队列(SYN 队列):接收到一个 SYN 建立连接请求,处于 SYN_RCVD 状态;
已完成连接队列(Accpet 队列):已完成 TCP 三次握手过程,处于 ESTABLISHED 状态;
Linux内核中会维护两个队列:
listen时的backlog是啥
tcp第三次握手之后
accept 发送在三次握手的哪一步?
自己实现心跳机制
为什么有keepalive还要自己实现心跳机制?因为keepalive只能保证对方存活,但无法保证能正确响应,比如服务器死锁时,keepalive还是返回正常
tcp服务端如何判断客户端已断开连接?
socket编程
IP报文首部
MAC 的作用则是实现「直连」的两个设备之间通信IP 则负责在「没有直连」的两个网络之间进行通信传输。
IP(网络层)和MAC(数据链路层)的区别
IP
DHCP协议维护一个动态的IP池,根据设备加入和离开网络回收或分发可用IP,还能实现多个设备共享相同IP。需要IP的设备和具备分配IP能力的设备根据DHCP协议的方式封装数据包,然后通过UDP协议发送给对方。有了该协议后,上网时不再麻烦的去配置各种信息,设备和路由器之间相互通信后,自动配置好相应信息,只要等着配置完毕然后上网就行
由管理员手动将指定IP地址分发给特定设备
手动分配
它从当前可用的IP地址池中选出一个,永久的分发给某一台特定设备
自动分配
它从IP地址池中选出一个分发给某台设备一段时间,时间到了后收回,或者设备离开网络后通知路由器主动收回
使用动态分配方式时,管理员指定一系列可以分配的IP,然后DHCP服务器会自动维护哪些IP已经分配,哪些IP可以使用。同时服务器指定分配的IP使用时长,一旦超时后,客户必须主动向服务器请求续租
优点:自动化配置ip,集中管理,地址的共享和重用
动态分配
DHCP地址分配方式
DHCP
java写入cookie
cookie(java使用方法)
阻塞和非阻塞关注的是 自己等待请求结果时的状态等待时,阻塞会把自己挂起,非阻塞自己可以去干别的,偶尔来查看一下
同步和异步关注的是 处理方处理响应结果时的状态处理时,同步会保持会话直到处理完毕再返回,异步会直接结束会话处理好了再返回
阻塞/非阻塞、同步/异步
fd:打开一个文件时,内核会返回一个文件描述符应用程序进程拿到的文件描述符ID == 进程文件描述符表的索引,通过索引拿到文件指针,指向系统级文件描述符表的文件偏移量,再通过文件偏移量找到inode指针,最终对应到真实的文件
fd:file description 文件描述符。fds:存放fd的数组。
虚线以上内容:创建socket服务端+fd+fds
max:最大fd编号,标记轮询的范围
rset(fd_set):实际上是一个默认1024的bitmap
单线程下多个网络请求被系统(DMA)识别成多个fd,形成fds数组,再将fds数组中的编号存放至fd_set(编号是几,从0开始bitmap从左往右数第几位就是1),并在内核态下检查哪些位置是1,那就是有数据的
bitmap会从用户态放入内核态,对有数据的位置进行置位(做个标记),当有数据时select有返回值,然后回到用户态下的for遍历哪些位置被置位过,并读取该数据。否则没有返回值,select会阻塞
成功调用返回结果>0,超时返回结果=0,出错返回结果=-1
默认最大1024的bitmap虽然可调大小,但仍旧有上限
fdset不可重用,在内核中被置位了
每次都需要重新将fdset从用户态拷贝进内核态,有一定开销
O(n)再次遍历问题。因为rset里的fd被置位后,select函数并不知道哪个被置位了,需要从头遍历到尾,逐个对比
四个缺点
1. 最好不要频繁的进入内核区,不但危险而且实际上是很慢的。2. 对于每一个系统级的函数粒度越细越好
个人思考
select(windows/linux)
好处是不用一次申请足够大的空间,而可以分批次去申请空间。
解决缺点1:存储结构:以页为单位的链表结构,页中包含有pollfd这个结构体。由poll_list(链表结构)指向pollfds数组,然后pollfd结构体存放在pollfds数组里
解决缺点2revents在每次为1时,又会恢复为0再执行读取等后续操作
基于结构体存储fd\tstruct pollfd{ int fd; //fd编号 short events; //将做读还是写 short revents; //可重用\t}
epoll_create调用时:1.内核在epoll文件系统里建了个file结点,建立一个rdllist双向链表,用于存储准备就绪的事件 2.内核在cache里建了个红黑树用于存储以后epoll_ctl传来的socket
epoll_ctl 用于向内核注册新的或修改文件描述符,已注册的描述符在内核中的红黑树上
epoll_wait调用时,仅仅观察这个rdllist双向链表里有没有数据即可。有数据就返回,没有数据就sleep,等到timeout时间到后即使链表没数据也返回
LT(水平触发)模式下,只要有数据就触发,缓冲区剩余未读尽的数据会导致 epoll_wait都会返回它的事件;ET(边缘触发)模式下,只有新数据到来才触发,不管缓存区中是否还有数据,缓冲区剩余未读尽的数据不会导致epoll_wait返回。
epoll两种模式
解决缺点1:在epoll中对于每一个事件都会建立一个epitem结构体,无上限问题
解决缺点2:epitem结构体可重用
解决缺点3:只在while(1)循环外通过epoll_ctl将fd添加进内核一次,无需重复拷贝
解决缺点4:epoll_wait检查到rdllist有数据并执行完后,会返回告知用户有几个fd,那么for遍历时走几步即可,时间O1
使用场景:redis、nginx、(linux下)javaNIO
epoll(基于Linux)解决select的1,2,3,4
select,poll,epoll都是IO多路复用的机制。I/O多路复用就是通过一种机制,一个进程可以监视多个描述符,一旦某个描述符就绪(一般是读就绪或者写就绪),能够通知程序进行相应的读写操作。但select,poll,epoll本质上都是同步I/O,因为他们都需要在读写事件就绪后自己负责进行读写,也就是说这个读写过程是阻塞的,而异步I/O则无需自己负责进行读写,异步I/O的实现会负责把数据从内核拷贝到用户空间。
当客户处理多个描述符时(一般是交互式输入和网络套接口),必须使用I/O复用
如果一个服务器即要处理TCP,又要处理UDP,一般要使用I/O复用
多路复用就是在单线程里利用一个监听机制实现对多个客户端的监听,若客户端有反应,则代表有读写事件
IO多路复用
内核(kernel)利用文件描述符(file descriptor)来访问文件。文件描述符是非负整数。打开现存文件或新建文件时,内核会返回一个文件描述符。读写文件也需要使用文件描述符来指定待读写的文件
fd(文件描述符)
当客户处理多个描述符时(一般是交互式输入和网络套接口),必须使用I/O复用。当一个客户同时处理多个套接口时,而这种情况是可能的,但很少出现。如果一个TCP服务器既要处理监听套接口,又要处理已连接套接口,一般也要用到I/O复用。如果一个服务器即要处理TCP,又要处理UDP,一般要使用I/O复用。如果一个服务器要处理多个服务或多个协议,一般要使用I/O复用。
IO多路复用是指内核一旦发现进程指定的一个或者多个IO条件准备读取,它就通知该进程。IO多路复用适用如下场合
IO多路复用第二版
信号驱动IO
I/O模型
Java NIO 全称 Java non-blocking IO,指的是 JDK 提供的新 API。从 JDK 1.4 开始,Java 提供了一系列改进的输入/输出的新特性,被统称为 NIO,即 New IO,是同步非阻塞的。
NIO 相关类都放在 java.nio 包下,并对原 java.io 包中很多类进行了改写。
NIO 有三大核心部分:Channel(管道)、Buffer(缓冲区)、Selector(选择器)。
NIO 是面向缓冲区编程的。数据读取到了一个它稍微处理的缓冲区,需要时可在缓冲区中前后移动,这就增加了处理过程中的灵活性,使用它可以提供非阻塞的高伸缩性网络。
Java NIO 的非阻塞模式,使一个线程从某通道发送请求读取数据,但是它仅能得到目前可用数据,如果目前没有可用数据时,则说明都不会获取,而不是保持线程阻塞,所以直到数据变为可以读取之前,该线程可以做其他事情。非阻塞写入同理
NIO简介
BIO 方式适用于连接数比较小且固定的架构,这种方式对服务器资源要求比较高,并发局限于应用中,JDK1.4 之前唯一的选择,程序较为简单容易理解。
NIO 方式适用于连接数目多且连接比较短的架构,比如聊天服务器,弹幕系统,服务器间通讯等,编程比较复杂,JDK1.4 开始支持。
AIO 方式适用于连接数目多且连接比较长的架构,比如相册服务器,充分调用 OS 参与并发操作,变成比较复杂,JDK7 开始支持
适用场景
BIO&NIO&AIO
collection集合
udp有端口 ip无端口 udp可以实现可靠传输
汉字getBYTE 3个字节
线程安全的容器
网络
c是指consistency一致性,保证读时能返回最新写的数据;a指available可用性,表示服务器可以在合理时间内返回合理结果(不是错误或者超时的响应);p指partition tolerance分区容错性,表示出现网络分区后仍能够对外提供服务。
很多人认为cap只能任意三选二,不对,实际上出现网络分区后,p是前提,也就是必须保证能对外提供服务,再从ca中2选1,为什么ca只能2选1呢?因为一致性相当于在写的时候要让读等待,就保证不了可用性,也就是不能及时返回结果。
应用方面,zk可以保证cp,无法保证ap,因为zk在选举leader或者超过一半节点故障时,整个服务器将不可用。Eureka保证ap,因为节点都是平等的,但无法保证cp可能会返回旧数据。而Nacos可以保证cp和ap。总结:在没出现网络分区时尽量思考如何保证ca,出现网络分区时,考虑保证cp还是ap
简述CAP理论
ap状态会产生一些损耗,如时间上慢些,非必须功能不可用
BA基本可用
数据暂时不一致,但最终会一致,如银行转账延迟
S软状态(柔性事务)
强一致性(实时一致性)
弱一致性(不确定什么时候一致)
最终一致性(确定未来某个时间会一致)(业界推崇)
分布式一致性三个级别
E最终一致性
BASE理论(本质上是对ap的延伸)
分布式原理
基于XA
事务管理器分两个阶段来协调资源管理器,第一阶段准备资源,也就是预留事务所需的资源,如果每个资源管理器都资源预留成功,则进行第二阶段资源提交,否则协调资源管理器回滚资源。
2PC协议的核心是,划分出了事务参与者和协调者的角色,并将整个过程划分成两个阶段
Seata
TCC
2PC(Two-phase commit protocol),中文叫二阶段提交。 二阶段提交是一种强一致性设计
2PC 引入一个事务协调者的角色来协调管理各参与者(也可称之为各本地资源)的提交和回滚,二阶段分别指的是准备(投票)和提交两个阶段
2PC 是一种尽量保证强一致性的分布式事务,因此它是同步阻塞的,而同步阻塞就导致长久的资源锁定问题,总体而言效率低,并且存在单点故障问题,在极端条件下存在数据不一致的风险
第一阶段返回准备成功
第一阶段返回准备失败
协调者会给各参与者发送准备命令,准备命令将完成除了提交事务之外其他任务
然后在同步等待所有资源的响应之后就进入第二阶段提交阶段(注意提交阶段不一定是提交事务,也可能是回滚事务(准备失败))
成功
同样进入第二阶段,只不过是回滚事务阶段
失败
准备阶段
第一阶段所有参与者都返回准备成功,那么协调者则向所有参与者发送提交事务命令,然后等待所有事务都提交成功之后,返回事务执行成功
假如在第一阶段有一个参与者返回失败,那么协调者就会向所有参与者发送回滚事务的请求,即分布式事务执行失败
提交阶段
由于协调者是一个单点,所以存在单点故障问题
对系统影响不大,等于事务还没开始
发送准备命令之前挂了
影响很大,导致有些参与者等于都执行了处于事务资源锁定的状态。不仅事务执行不下去,还会因为锁定了一些公共资源而阻塞系统其它操作
发送准备命令之后挂了
影响很大,导致事务也是执行不下去,且在第一阶段那些准备成功参与者都阻塞着
发送回滚事务命令之前挂了
影响不大,至少命令发出去了,很大的概率都会回滚成功,资源都会释放。但是如果出现网络分区问题,某些参与者将因为收不到命令而阻塞着
发送回滚事务命令之后挂了
影响巨大,导致所有资源阻塞
发送提交事务命令之前
影响不大,资源已经释放,理由同回滚事务之后挂了
发送提交事务命令之后
协调者故障,通过选举得到新协调者
协调者单点故障问题
存在的问题:
2PC
相比于 2PC 它在参与者中也引入了超时机制,并且新增了一个阶段使得参与者可以利用这一个阶段统一各自的状态
3PC
空回滚: 在没有调用 TCC 资源 Try 方法的情况下,调用了二阶段的 Cancel 方法,Cancel 方法需要识别出这是一个空回滚,然后直接返回成功。 出现原因是当一个分支事务所在服务宕机或网络异常,分支事务调用记录为失败,这个时候其实是没有执行Try阶段,当故障恢复后,分布式事务进行回滚则会调用二阶段的Cancel方法,从而形成空回滚。
幂等: 由于任何一个请求都可能出现网络异常,出现重复请求,所以所有的分布式事务分支,都需要保证幂等性
悬挂: 悬挂就是对于一个分布式事务,其二阶段 Cancel 接口比 Try 接口先执行。 出现原因是在 RPC 调用分支事务try时,先注册分支事务,再执行RPC调用,如果此时 RPC 调用的网络发生拥堵,RPC 超时以后,TM就会通知RM回滚该分布式事务,可能回滚完成后,Try 的 RPC 请求才到达参与者真正执行
分布式事务存在的问题(以TCC为例)
分布式事务
所有功能都在一个机器上部署,扩展性低,不利于维护
orm单一应用架构
多个模块系统分开部署,但公用模块无法重复利用,开发性的浪费
mvc垂直应用架构
在垂直架构基础上,把公共模块抽取出来
RPC分布式服务架构
soa流动计算架构
发展演变
分布式
多线程打印xyyx
多线程实战:FutureTask与CountDownLatch
洗牌程序:遍历1-54,当前在i,随机生成1~i之间的一个位置,并与i交换
单个用户多次操作并发性(检查用户是否已经抢过)
多个用户操作并发性(检查红包是否已经抢完)
合法性
高并发,考虑redis
大容量,考虑分库分表
redis/db2,考虑同步
有状态,考虑hash
消息顺序,考虑单线程
实时,考虑同步,延时,考虑异步
不可重复抢:set
注意点:
红包流水表
红包记录表
微信红包数据库表设计
微信红包实现
实现生产者和消费者,一个长度100的buffer,10个生产者线程,10个消费者线程
top 命令:先查看当前系统每个进程的负载信息top -Hp xxxx(线程pid) :定位到最高负载的进程后,再查看指定进程中每个线程的资源占用情况printf \"%x \\" xxxx(线程pid) :定位到线程后,将线程id转为16进制后打印jstack pid > ./dump.log :将指定进程中线程的堆栈信息输出到文件利用MAT工具分析内存占用
线上CPU爆高,如何定位问题
LRU(Least Recently Used),最近最久未使用如果一个数据在最近一段时间没有被访问到,那么在将来它被访问的可能性也很小。也就是说,当限定的空间已存满数据时,应当把最久没有被访问到的数据淘汰
1. 用一个数组来存储数据,给每一个数据项标记一个访问时间戳,每次插入新数据项的时候,先把数组中存在的数据项的时间戳自增,并将新数据项的时间戳置为0并插入到数组中。每次访问数组中的数据项的时候,将被访问的数据项的时间戳置为0。当数组空间已满时,将时间戳最大的数据项淘汰
2.利用一个链表来实现,每次新插入数据的时候将新数据插到链表的头部;每次缓存命中(即数据被访问),则将数据移到链表头部;那么当链表满的时候,就将链表尾部的数据丢弃
3.利用链表和hashmap。当需要插入新的数据项的时候,如果新数据项在链表中存在(一般称为命中),则把该节点移到链表头部,如果不存在,则新建一个节点,放到链表头部,若缓存满了,则把链表最后一个节点删除即可。在访问数据的时候,如果数据项在链表中存在,则把该节点移到链表头部,否则返回-1。这样一来在链表尾部的节点就是最近最久未访问的数据项
对于第一种方法, 需要不停地维护数据项的访问时间戳,另外,在插入数据、删除数据以及访问数据时,时间复杂度都是O(n)。对于第二种方法,链表在定位数据的时候时间复杂度为O(n)。所以在一般使用第三种方式来是实现LRU算法
哈希表和双向链表结构、增删操作伪代码
手写LRU
map里的keySet()函数
新建一个map,用for循环输出每一组键值对
新建一个git分支、比较两个分支差异、合并分支
基于 junit 写一个测试代码,场景是加减乘除计算器
1.数据结构首要考虑的就是数据该如何存储,用什么数据结构存储,最简单的就直接用Map来存储数据;或者复杂的如redis一样提供了多种数据类型哈希,列表,集合,有序集合等,底层使用了双端链表,压缩列表,集合,跳跃表等数据结构
2.对象上限因为是本地缓存,内存有上限,所以一般都会指定缓存对象的数量比如1024,当达到某个上限后需要有某种策略去删除多余的数据
3.清除策略上面说到当达到对象上限之后需要有清除策略,常见的比如有LRU(最近最少使用)、FIFO(先进先出)、LFU(最近最不常用)、SOFT(软引用)、WEAK(弱引用)等策略
4.过期时间除了使用清除策略,一般本地缓存也会有一个过期时间设置,比如redis可以给每个key设置一个过期时间,这样当达到过期时间之后直接删除,采用清除策略+过期时间双重保证
5.线程安全像redis是直接使用单线程处理,所以就不存在线程安全问题;而我们现在提供的本地缓存往往是可以多个线程同时访问的,所以线程安全是不容忽视的问题;并且线程安全问题是不应该抛给使用者去保证
6.简明的接口提供一个傻瓜式的对外接口是很有必要的,对使用者来说使用此缓存不是一种负担而是一种享受;提供常用的get,put,remove,clear,getSize方法即可
7.是否持久化这个其实不是必须的,是否需要将缓存数据持久化看需求;本地缓存如ehcache是支持持久化的,而guava是没有持久化功能的;分布式缓存如redis是有持久化功能的,memcached是没有持久化功能的
8.阻塞机制在看Mybatis源码的时候,二级缓存提供了一个blocking标识,表示当在缓存中找不到元素时,它设置对缓存键的锁定;这样其他线程将等待此元素被填充,而不是命中数据库;其实我们使用缓存的目的就是因为被缓存的数据生成比较费时,比如调用对外的接口,查询数据库,计算量很大的结果等等;这时候如果多个线程同时调用get方法获取的结果都为null,每个线程都去执行一遍费时的计算,其实也是对资源的浪费;最好的办法是只有一个线程去执行,其他线程等待,计算一次就够了;但是此功能基本上都交给使用者来处理,很少有本地缓存有这种功能
如何设计一个缓存
从大到小的思路考虑
网络原因(机房抖动)
宿主机问题(硬件上的问题)
虚拟机问题(cpu打满、内存打满、IO过高假死)
中间件问题(Redis击穿了,Kafka废了)
机器层面
下游服务挂了
一个后台的服务突然挂了,原因可能是什么
Java
逻辑树分析方法,将大问题拆解成一个个子问题
费米问题:1个公交车能装多少乒乓球
2的次方数 1、2、4、8、16...512这样取n个篮子可以组成1-1000内任意一个数
西瓜放进10个篮子里,要求n个篮子的西瓜数能取到1-1000任意数,西瓜怎么放
决出前五:8-10次
决出前三:7次
25匹马,一次可以5匹比赛,多少次比赛能决出名次
3L和5L杯子装出4L水
逻辑题
场景题
商城项目-面试题
为什么用单点登录:多系统中session不共享问题
SSO系统生成一个token,并将用户信息存到Redis中,并设置过期时间其他系统请求SSO系统进行登录,得到SSO返回的token,写到Cookie中每次请求时,Cookie都会带上,拦截器得到token,判断是否已经登录
单点登录(SSO)
单点登录SSO
在一个多系统共存的环境下,用户在一处登录后,就不用再其他系统中登录,也就是用户的一次登录能得到其他所有系统的信任。
单点登录在大型网站使用非常频繁,例如阿里巴巴网站,在网站的背后是成白上千的子系统,用户的一次操作可能涉及到几十个子系统的协作,如果每个子系统都需要用户验证会导致系统效率非常低
解决如何产生和存储信任,系统如何验证这个信任的有效性(1.存储信任 2.验证信任)
需要解决的问题
创建一个cookies
通过注解的方式获得cookies
cookie 一般是由与用户访问页面而被创建的 , 可是并不是只有在创建 cookie 的页面才可以访问这个cookie。在默认情况下,出于安全方面的考虑,只有与创建 cookie 的页面处于同一个目录或在创建cookie页面的子目录下的网页才可以访问。那么此时如果希望其父级或者整个网页都能够使用cookie,就需要进行路径的设置
共享Cookie当我们的子系统都在一个父级域名下时,我们可以将Cookie种在父域下,这样浏览器同域名下的Cookie则可以共享,这样可以通过Cookie加解密的算法获取用户SessionID,从而实现SSO。但是,后面我们发现这种方式有几种弊端:a. 所有同域名的系统都能获取SessionID,易被修改且不安全;b. 跨域无法使用。
路径
cookies存在跨域问题
1、cookie(SSO)
用户使用用户名密码来请求服务器服务器进行验证用户的信息服务器通过验证发送给用户一个token客户端存储token,并在每次请求时附送上这个token值服务端验证token值,并返回数据
JWT由三部分组成,分别是头信息、有效载荷、签名,中间以(.)分隔
声明类型,这里是jwt声明加密的算法 通常直接使用 HMAC SHA256
头部
标准中注册的声明
公共的声明可以添加任何的信息,一般添加用户的相关信息或其他业务需要的必要信息.但不建议添加敏感信息,因为该部分在客户端可解密
公共的声明
私有声明是提供者和消费者所共同定义的声明,一般不建议存放敏感信息,因为base64是对称解密的,意味着该部分信息可以归类为明文信息
私有的声明
载荷
签证
组成部分
不应该在jwt的payload部分存放敏感信息,因为该部分是客户端可解密的部分。保护好secret私钥,该私钥非常重要。如果可以,请使用https协议
安全相关
最终:jwt
项目一开始我先封装了一个JWTHelper工具包(GitHub下载),主要提供了生成JWT、解析JWT以及校验JWT的方法,其他还有一些加密相关操作,接下来,我在客户端项目中依赖JWTHelper工具包,并添加Interceptor拦截器,拦截需要校验登录的接口。拦截器中校验JWT有效性,并在response中重新设置JWT的新值;最后在JWT服务端,依赖JWT工具包,在登录方法中,需要在登录校验成功后调用生成JWT方法,生成一个JWT令牌并且设置到response的header中
准备
Controller只是发布服务。接收三个参数,一个是要校验的数据,一个数据类型,一个是callback。调用Service校验,返回json数据,需要支持jsonp,需要判断callback (扩展:@PathVariable在备注里)
Service接收两个参数,一个是要校验的数据,一个是数据类型。根据不同的数据类型生成不同的查询条件,到user表中进行查询如果查询到结果返回false,查询结果为空返回true
数据校验接口
Controller接收一个表单,请求的方法为post。使用TbUser接收表单的内容。调用Service插入数据,返回
Service接收TbUser参数,对数据进行校验,校验成功,插入数据,返回结果
用户注册接口
用户注册
jedisClient用于设置和更新session过期时间
准备jedisClient接口
Controller接收两个参数,一个是用户名,一个是密码,请求的方法为post。调用Service方法返回登录处理结果,响应json数据
共享Session共享Session可谓是实现单点登录最直接、最简单的方式。将用户认证信息保存于Session中,即以Session内存储的值为用户凭证,这在单个站点内使用是很正常也很容易实现的,而在用户验证、用户信息管理与业务应用分离的场景下即会遇到单点登录的问题,在应用体系简单,子系统很少的情况下,可以考虑采用Session共享的方法来处理这个问题
这个架构使用了基于Redis的Session共享方案。将Session存储于Redis上,然后将整个系统的全局Cookie Domain设置于顶级域名上,这样SessionID就能在各个子系统间共享。这个方案存在着严重的扩展性问题,首先,ASP.NET的Session存储必须为SessionStateItemCollection对象,而存储的结构是经过序列化后经过加密存储的。并且当用户访问应用时,他首先做的就是将存储容器里的所有内容全部取出,并且反序列化为SessionStateItemCollection对象。这就决定了他具有以下约束:1、 Session中所涉及的类型必须是子系统中共同拥有的(即程序集、类型都需要一致),这导致Session的使用受到诸多限制;2、 跨顶级域名的情况完全无法处理;
Service接收用户名、密码。校验密码是否正确,生成token,使用jedisClient向redis中写入用户信息,把token写入cookie,并在返回结果中包含token。
用户登录接口
Controller从url中取token的内容,调用Service取用户信息,响应json数据。
Service接收token,根据token查询redis,查询到结果返回用户对象,更新过期时间。如果查询不到结果,返回Session已经过期,状态码400
通过token查询用户信息
用户登录
展示注册和登录页面
当用户在首页点击登录或者注册的时候需要跳转到sso系统。进行相应的操作。登录成功跳转到首页。首页应该显示当前登录的用户
门户登录
有些页面是需要登录之后才能访问的,比如订单页面,当用户查看订单页面时此时必须要求用户登录,可以使用拦截器来实现。拦截器的处理流程为拦截请求url从cookie中取token如果没有token跳转到登录页面。取到token,需要调用sso系统的服务查询用户信息。如果用户session已经过期,跳转到登录页面如果没有过期,放行
拦截器配置
扩展:HandlerInterceptor拦截器
在springmvc中实现HandlerInterceptor接口开始拦截->取token->验证token->调用相关服务
其对应的Service作用为:根据token取用户信息,如果取到返回TbUser对象,如果取不到,返回null
登录拦截器
其他系统整合SSO
简易版流程
流程
单点登录(SSO)扩展
客户端请求的时候,请求的服务器不是同一个IP、端口、域名、主机名的时候,即为跨域
什么是跨域问题
在应用模型中,一个完整的,有独立路径的功能集合称为域;例如:百度为一个应用,百度下有若干域如搜索引擎(www.baidu.com)、贴吧(www.tieba.baidu.com)
什么是域
IP、端口、域名、主机名为划分不同的域(localhost和127.0.0.1也算跨域,因为一个是IP,一个是域名)
域的划分
由于浏览器同源策略产生跨域问题
使用nginx代理配置为同一域
利用jsonp在<script>标签里添加外源地址
可以向@RequestMapping注解处理程序方法添加一个@CrossOrigin注解,以便启用CORS(默认情况下,@CrossOrigin允许在@RequestMapping注解中指定的所有源和HTTP方法)
@CrossOrigin中的2个参数:origins: 允许可访问的域列表maxAge:准备响应前的缓存持续的最大时间(以秒为单位)
@CrossOrigin
请求方式为 HEAD、GET、POST 这三种方式之一HTTP头信息中开发者添加的信息不超过以下几种
对于简单请求,浏览器直接发出 CORS 请求,具体来说,就是在头信息之中,添加一个 Origin 字段.
Origin 字段用来说明,本次请求来自来个源,服务器根据这个值决定是否同意这个请求。如果该值在许可范围(即允许跨域访问),服务器就会返回一个正常的 HTTP 回应,会多出几个头信息字段:Access-Control-Allow-Origin : 该字段必须的,表示接受该值对应的域名的请求。Access-Control-Allow-Credentials : 该值是一个布尔值,表示是否允许发送 Cookie
简单请求
原理:CORS 请求分为两类:简单请求和复杂请求
CORS
详见token
JWT
跨域问题如何解决
跨域问题
在用户密码验证通过后,生成一条jsession_id保存服务端里,同时发送一条给客户端,客户端收到后写入cookie内服务端同时存储一个session,用户下次登录时带着这个cookie一起,服务端直接验证cookie内该session对应存储的用户信息即可直接登录
1、开销问题:每次用户发起认证请求时客户端都需要创建session,内存开销越来越大
2、可扩展性:最重要的问题,用户的session_id可能只存在一台服务器上,登录时用户需要找到对应的服务器才能验证,不同服务器间session不能共享暂时解决:nginx的负载均衡算法ip_hash(用户ip做hash运算,以后一直固定只访问一台服务器),但是可能会导致某台服务器压力过高
3、CORS:跨域的资源共享(不同设备之间的共享,不同域之间共享的问题),ajax抓取另一个域的时候,出现禁止请求的情况
4、CSRF:跨站伪造请求,中间人诱导用户攻击网站
简易版:tomcat的managerbase类的getSession方法,随机数+时间+jvmid生成,服务端内存或客户端cookie
创建:sessionid第一次创建是在直到某server端程序调用 HttpServletRequest.getSession(true),由tomcat创建(tomcat的ManagerBase类提供创建sessionid的方法:随机数+时间+jvmid)
删除:超时;程序调用HttpSession.invalidate();程序关闭(session销毁只能通过invalidate或超时,关掉浏览器并不会关闭session)
保存:服务端的session存储在内存中,或者持久化到数据库,redis等客户端只保存sessionid到cookie中,不会保存session
sessionid由谁产生,如何产生,保存在哪
解决方案:传统Session
在服务端不需要存储用户的信息
JWT由三部分组成,分别是头信息、有效载荷、签名,中间以(.)分隔,表示为:xxxxx.yyyyy.zzzz
一个json对象存两个东西:加密算法和Token类型
一个json对象,存标准中注册的声明
Signature 是对前两部分的签名,防止数据被篡改
使用头部里的加密算法指定一个密钥,该只有服务器才知道,不能泄露给用户
签名
不应该在jwt的payload部分存放敏感信息,因为该部分是客户端可解密的部分,并设置过期时间。保护好secret私钥,该私钥非常重要。发送JWT要使用HTTPS;不使用HTTPS发送的时候,JWT里不要写入秘密数据
JWT简介
ps:你可以把token放在Cookie里面自动发送,但是这样不能跨域,所以更好的做法是放在HTTP请求的头信息 Authorization 字段里面
1、无状态、可扩展 :在客户端存储的Token是无状态的,并且能够被扩展。基于无状态和不存储Session信息,负载均衡器能够将用户信息从一个服务传到其他服务器上
2、安全性
3、提供接口给第三方
4、多平台跨域
1、JWT默认不加密,但可以加密。生成原始令牌后,可以使用改令牌再次对其进行加密。
2、当JWT未加密方法是,一些私密数据无法通过JWT传输。
3、JWT不仅可用于认证,还可用于信息交换。善用JWT有助于减少服务器请求数据库的次数。
4、JWT的最大缺点是服务器不保存会话状态,所以在使用期间不可能取消令牌或更改令牌的权限。也就是说,一旦JWT签发,在有效期内将会一直有效。
5、JWT本身包含认证信息,因此一旦信息泄露,任何人都可以获得令牌的所有权限。为了减少盗用,JWT的有效期不宜设置太长。对于某些重要操作,用户在使用时应该每次都进行进行身份验证。
6、为了减少盗用和窃取,JWT不建议使用HTTP协议来传输代码,而是使用加密的HTTPS协议进行传输。
解决方案:Token
安全问题,任何人都可以获取sessionId并登录服务端了
为什么sessionId不能放在请求头
1、cookie存的sessionId,不包含用户数据,只是一个唯一标示,相比密码没那么危险,服务器端通过seesionid定位session,sesion值还是在服务器端的。2、cookie 可以加密,类似 jwt.io 方案3、HTTP是一个无状态的协议,上次访问和下次访问,服务器是无法知道是否是同一个用户,只能通过这种方式实现4、Cookie是跟域名绑定的,别的网站是无法扫描到你的Cookie的。现在一般都使用HttpOnly的Cookie和HTTPS协议来加强安全性
那为什么sessionId能放在cookie?cookie也不安全(一般cookie保存不重要的信息,session保存账号等重要信息)
因为token是一串加密的字符串,需要服务端后进行解析并验证,获取token没什么用
为什么token可以放在请求头
token放在http请求头里,session放在cookie里
token和session的区别
1. 去中心化,便于分布式系统使用
2. 基本信息可以直接放在token中。 username,nickname,role
3. 功能权限信息可以直接放在token中。用bit位表示用户所具有的功能权限。
服务端无法主动让token失效
服务端生成并发给客户端之后,后台不用存储,客户端带着jwt访问时会验证其签名、过期时间等再取出里面的信息(如username),再使用该信息直接查询用户信息完成登录验证。jwt自带签名、过期等校验,后台不用存储,缺陷是一旦下发,服务后台无法拒绝携带该jwt的请求(如踢除用户);
去中心化的jwt方案
服务端可以主动让token失效
每次都要进行redis查询。占用redis存储空间,而且这样和sessionid就差不多了(除了跨域)
自己生成个32位的key,value为用户信息,访问时判断redis里是否有该token,如果有,则加载该用户信息完成登录。服务需要存储下发的每个token及对应的value,维持其过期时间,好处是随时可以删除某个token,阻断该token继续使用
中心化的token+redis
Jwt Token中,增加TokenId字段。
这种方法和中心化的token+redis区别在于token+redis:redis存储的是token的白名单。用户的其他信息也要放在redis中存储。需要占用较大的redis空间和查询次数。tokenId+redis :redis存储tokenId的黑名单,同时redis可以分布式部署,读写分离。token认证服务器操作redis的master,其他redis同步master的数据
将TokenId字段存储在redis中,用来让服务端可以主动控制token失效
牺牲了JWT去中心化的特点。
使用非对称加密。颁发token的认证服务器存储私钥:私钥生成签名。其他业务系统存储公钥:公钥验证签名
优化方案
jwt和token+redis的区别
请求<https://www.google.com/>时,浏览器会自动把google.com的Cookie带过去给google的服务器,而不会把<https://www.baidu.com/>的Cookie带过去给google的服务器由于域名不同,用户向系统A登录后,系统A返回给浏览器的Cookie,用户再请求系统B的时候不会将系统A的Cookie带过去
cookie为什么不能跨域
服务端将Cookie写到客户端后,客户端对Cookie进行解析,将Token解析出来,此后请求都把这个Token带上就行了多个域名共享Cookie,在写到客户端的时候设置Cookie的domain。将Token保存在SessionStroage中(不依赖Cookie就没有跨域的问题了)
cookie跨域问题
登陆鉴权方案
单点登录第二版
登录功能如何实现
将购物车数据存放到Redis中,可以加快购物车的读写性能,从而提高用户体验,缺点就是Redis数据是存放到内存,相对成本较高。但可以接受一般情况下购物车功能都是使用session/cookie实现的,也就是将整个购物车数据都存储到session中。这样做的好处就是不用操作数据库就可以实现,同时用户可以不同登录就可以将商品加入到购物车中,缺点就是1. 导致session过于臃肿 2. session数据默认是存储到文件中的,所以操作session是比较慢
个人商城系统,后台对购物车数据进行“半持久化”。因为购物车增删改的操作很频繁,如果使用mysql效率会很低,所以使用redis进行存储。如果担心redis会挂,可使用redis集群,还是很靠谱的
用户可以在登录状态下将商品加入在线购物车,在未登录状态下加入离线购物车
登录后会将未登录时缓存的购物车数据合并到账号中,并清空原先缓存
退出登录后原来的离线购物车数据也不存在
核心思路
hset key filed value(hset cart:userid id count)(多加个cart: 是因为要区分别的功能)
添加功能:假设用户id为1001,放3个商品,产品id为10021,10025,10079,各放1个
删除商品:hdel
加减商品数量:hincrby(减时用负数)
商品数量:hlen
全选功能:hgetall
jedis提供了redis客户端的操作
redis存入购物车商品的数据结构
springboot项目实战---Redis购物车
开发流程
Cookie: 优点: 保存用户浏览器(不用浪费我们公司的服务器) 缺点:Cookie禁用,不提供保存
Session:(Redis : 浪费大量服务器内存:实现、禁用Cookie) 速度很快
数据库(Mysql、Redis、SOlr) 能持久化的就数据库 速度太慢
离线商品存cookie的优点
离线购物车
购物车实现
redis离线购物车
难点:加入购物车
购物车功能如何实现
商品展示页面功能如何实现
多级分类功能如何实现
搜索功能如何实现
冷热数据分离,垂直分表如果业务数据持续增长,考虑水平分表
数据库表的设计
分片上传、断点续传、分片导出、HTTP 请求头、响应头的字段(待补充)
文件上传问题
设计权限
设计功能模块
电商
客户端(Client):服务调用方
存放服务端地址信息,将客户端的请求参数数据信息打包成网络消息,再通过网络传输发送给服务端
一种代理类,把客户端调用方法,类,方法参数传递给服务端
客户端桩(Client Stub)
socket或者netty
服务端(Server):服务的真正提供者
接收客户端发送过来的请求消息并进行解包,然后再调用本地服务进行处理并返回给客户端
服务端桩(Server Stub)
Network Service:底层传输,可以是 TCP 或 HTTP
注册中心负责服务地址的注册与查找,相当于目录服务
服务端启动的时候将服务名称及其对应的地址(ip+port)注册到注册中心,服务消费端根据服务名称找到对应的服务地址。有了服务地址之后,服务消费端就可以通过网络请求服务端了。
服务寻址
数据流的序列化和反序列化
网络传输
基本要素
netty+动态代理
调用模块
继承序列化接口的RpcRequest类里的getRpcServiceName()方法,该类包含接口名字和group分组两个信息,这两个信息能完全定位一个具体接口实现类,服务消费端也是根据toRpcServiceName()方法返回值去服务注册中心找到服务提供方的ip地址
如何定位一个具体接口实现类
通过设计协议,我们定义需要传输哪些类型的数据, 并且还会规定每一种类型的数据应该占多少字节。这样我们在接收到二进制数据之后,就可以正确的解析出我们需要的数据。
主要是为了筛选来到服务端的数据包,有了这个魔数之后,服务端首先取出前面四个字节进行比对,如果不对,即无效数据包,为了安全考虑可以直接关闭连接以节省资源
魔数
为版本升级预留
版本号
包括header和body的总长度
消息长度
请求/响应/心跳检测请求/心跳检测响应,根据消息类型来确定body反序列化后的实体类
消息类型
body数据的序列化方式(header不序列化)
序列化类型
body数据的压缩方式(header不压缩)
压缩类型
标识该次请求的编号
requestId
传输协议组成部分
自定义协议
protostuff序列化,自定义传输协议
基于protobuf,只支持java,需要注册
kryo序列化后更小
第一次序列化会加载类描述信息,所以第一次较慢但以后再次序列化该类可直接拿到信息则更快
kryo存储int和long使用变长,更加灵活
kryo在string中使用结尾标识符表示结束,Hessian使用写入长度,kryo更快
和Hessian对比
kryo
序列化模块
阻塞io,性能低功能单一
Socket
麻烦
NIO网络传输模块
心跳机制IdleStateHandler
连接服务端并返回对应的channel,有了channel,netty就可以发送数据到服务端了
doconnect
传输rpc请求(rpcRequest)到服务端
sendRpcRequest
rpc客户端
处理客户端发送的数据
rpc客户端handler
netty
发送目标类和方法的信息以及方法的参数到服务端
网络传输模块
根节点:classname+group+version 子节点:ip+端口号 一个根节点对应多个子节点
注册中心
注册模块
节点存储了该服务的IP、端口、调用方式。第一次调用服务,定位服务位置,缓存到本地。再次调用通过负载均衡算法从IP列表中取一个服务提供者的服务器调用服务。当服务器下线,这个服务也就下线了。再次上线就会缓存新服务ip等信息
发现模块
模块
项目选项主要为netty+protostuff+zookeeper,抽象核心组件包括客户端(功能),客户端桩(功能),服务端,服务端桩,然后由各个模块分别提供功能:例如网络传输模块的自定义传输协议,以及rpc客户端的绑定连接并返回channel,利用channel绑定接口名字和分组发送数据注册模块:服务端将服务注册至注册中心,根节点:classname+group+version 子节点:ip+端口号 一个根节点对应多个子节点服务端启动时将服务地址注册至注册中心,如果我们要获得某个服务对应的地址的话,就直接根据完整的服务名称来获取到其下的所有子节点,然后通过具体的负载均衡策略选择一个就可以了。
rpc介绍
架构
netty+protostuff+zookeeper
项目选型
创建连接(Channel)发心跳包发消息,并通知其他用户一段时间没收到心跳包或者用户主动关闭之后关闭连接
netty长连接
IdleStateHandler 可以用来实现心跳检测
服务端启动后,等待客户端连接,客户端连接之后,向服务端发送消息。如果客户端在“干活”那么服务端必定会收到数据,如果客户端“闲下来了”那么服务端就接收不到这个客户端的消息,既然客户端闲下来了一定时间后即为浪费连接资源所以服务端检测到一定时间内客户端不活跃的时候,将客户端连接关闭
netty心跳机制
自定义基于tcp的协议,包含了4种解码器解决粘包拆包问题LineBasedFrameDecoder(以换行符分包)DelimiterBasedFrameDecoder(以特殊字符分包)FixedLengthFrameDecoder(使用定长的报文来分包)LengthFieldBasedFrameDecoder(消息头指定长度来分包)
netty粘包拆包
单Reactor单线程 -> 单Reactor多线程 -> 主从Reactor多线程(使用)
netty网络IO模型
除了操作系统级别的零拷贝技术外,Netty 提供了面向用户态的零拷贝技术在 I/O 读写时直接使用 DirectBuffer,避免了数据在堆内存和堆外内存之间的拷贝。
netty零拷贝
优点:性能高,开销小,压缩率高(对比java默认:hessian,thift,json)缺点:可读性很差,并且protobuf需要使用特定语言的库进行翻译转换,编写.proto文件protostuff不用写proto文件,直接序列化pojo
为什么使用protostuff
实战:引入依赖->编写工具类
序列化
负载均衡
效率:但毋庸置疑,HTTP接口由于受限于HTTP协议,需要带HTTP请求头,导致传输起来效率或者说安全性不如RPC
长链接,不必每次通信都要像http 一样去3次握手什么的,减少了网络开销
成熟的RPC库相对http容器,更多的是封装了“服务发现”,\"负载均衡\",“熔断降级”一类面向服务的高级特性,RPC框架一般都有注册中心,有丰富的监控管理;发布、下线接口、动态扩展等,对调用方来说是无感知、统一化的操作
安全性。最后就是最近流行的服务化架构、服务化治理,RPC框架是一个强力的支撑。
为什么需要RPC,而不是简单的HTTP接口
客户端发送数据后,服务端返回响应结果的时候,怎么和客户端的请求正确匹配起来呢,(即一个请求对应一个自己的响应)?解决思路:通过客户端唯一的RequestId,服务端返回的响应中需要包含该RequestId,这样客户端就可以通过RequestId来正确匹配请求响应。
请求和响应的正确匹配问题
请求线程会在发出请求后,同步等待服务端的返回。因此,就需要解决,Netty客户端在接受到响应之后,怎么通知请求线程结果。解决思路:客户端线程在发送请求后,进入等待,服务器返回响应后,根据RequestId来唤醒客户端的请求线程,并把结果返回给请求线程
请求线程和响应线程的通信问题
客户端发送请求后将<请求ID,Future>的键值对保存到一个缓存中,这时候用Future等待结果,挂住请求线程;当Netty客户端收到服务端的响应后,响应线程根据请求ID从缓存中取出Future,然后设置响应结果到Future中。这个时候利用CountDownLatch的通知机制,通知请求线程。请求线程从Future中拿到响应结果,然后做业务处理。缓存使用google的guava
扩展:CountDownLatch能够使一个线程在等待另外一些线程完成各自工作之后,再继续执行。使用一个计数器进行实现。计数器初始值为线程的数量。当每一个线程完成自己任务后,计数器的值就会减一。当计数器的值为0时,表示所有的线程都已经完成一些任务,然后在CountDownLatch上等待的线程就可以恢复执行接下来的任务
netty是NIO,异步事件驱动,在项目中使用的netty作为网络传输,利用线程通信异步转同步,即java的类CountDownLatch
客户端同步
服务端异步
netty的异步事件驱动和同步
NIO为底层:netty使用了IO多路复用比如epoll。事件驱动:一般有一个主循环和一个任务队列,所有事件只管往队列里塞,主循环则从队列里取出并处理。如果不依赖于多路复用处理多个任务就会需要多线程(与连接数对等),但是依赖于多路复用,这个循环就可以在单线程的情况下处理多个连接。无论是哪个连接发生了什么事件,都会被主循环从队列取出并处理(可能用回调函数处理等),也就是说程序的走向由事件驱动至于异步,只是说对用户来说开启来是异步,但是实际nio只是同步非阻塞。
netty底层为NIO(同步非阻塞),为什么又说是异步事件驱动呢
你的RPC是同步的吗?怎么实现的同步netty是异步事件驱动的(selector)
1、keepalive只能检测连接是否存活,不能检测连接是否可用。比如服务器因为负载过高导致无法响应请求但是连接仍然存在,此时keepalive无法判断连接是否可用。2、如果TCP连接中的另一方因为停电突然断网,我们并不知道连接断开,此时发送数据失败会进行重传,由于重传包的优先级要高于keepalive的数据包,因此keepalive的数据包无法发送出去。只有在长时间的重传失败之后我们才能判断此连接断开了3、keepalive 并不能准确体现应用层的可用性。举个例子,sever 端代码有 bug,死锁了。此时,tcp keepalive 正常,但应用层不正常,需要做一个应用层 keepalive,在死锁的时候,这个 keepalive 也要 block 住,对方就能感知到服务不正常。
tcp有心跳机制了,为什么应用层面还要加心跳机制
客户端封装好方法请求后通过什么发送到服务端
都用的tcp, server那边先反序列化获得请求类,请求类RPCRequest里面包含需要调用的方法和参数,执行对应方法后会把结果封装成RPCResponse类返回给客户端
客户端和服务端都用的TCP?Server怎么处理请求
不是,netty传输的是序列化后的字节码。需要在服务端桩反序列化后执行业务代码
是在netty的线程里面直接调用了业务代码吗?
在编程中.一个幂等操作的特点是其任意多次执行所产生的影响均与一次执行的影响相同。幂等函数,或幂等方法,是指可以使用相同参数重复执行,并能获得相同结果的函数。这些函数不会影响系统状态,也不用担心重复执行会对系统造成改变
幂等操作
CP 模型并不适合注册中心的需求场景
大规模服务集群场景中,zookeeper 的性能也是瓶颈。
zookeeper 所有的写操作都是 leader 处理的,在大规模服务注册写请求时,压力巨大,而且 leader 是单点,无法水平扩展。
还有所有服务于 zookeeper 的长连接也是很重的负担。
zookeeper 对每一个写请求,都会写一个事务日志,同时会定期将内存数据镜像dump到磁盘,保持数据一致性和持久性。
这个动作会降低性能,而且对于注册中心来讲,是不需要的
zookeeper为什么不适合注册中心
Protostuff比起其他序列化来说好在哪里
了解过 grpc 和 thrift 嘛,如果让你当架构师会选哪个?
客户端会有一个服务器地址列表,在发送请求前通过负载均衡算法选择一个服务器,然后进行访问,这是客户端负载均衡;即在客户端就进行负载均衡算法分配
在客户端进行的负载均衡,参考的dubbo源码
传入key值和key所包含的ip地址值,该地址值存入TreeSet中(有序存储)获得TreeSet的长度,然后随机得到其索引,挑出随机的一个
随机
TreeSet中的地址值存入一个数组中,并设置一个map集合来记录该函数调用了几次,每次调用,就将索引加1,然后返回该索引的地址值。这样就会按照TreeSet中的顺序依次选取请求地址
轮询
加权轮询
每次使用了每个节点的时候,就将该节点放置在最后面,这样就保证每次使用的节点都是最近最久没有使用过的节点,当节点数大于最大空间的时候,就直接将前面的节点删掉。实现:使用LinkedHashMap来实现。它内部有一个双向链表在维护
LRU
负载均衡怎么做的,为什么选这个负载均衡算法?
主动下线+心跳检测
你写的 rpc 有哪些功能,服务发现支不支持?展开问问 zk etcd consul 啥的
nginx 默认的加权负载均衡算法,它的重要特点是平滑,避免低权重的节点长时间处于空闲状态,因此被称为平滑加权轮询
swrr了解过嘛,有什么缺点和改进办法
健康检查有做嘛?如果发现不健康了会怎么处理
具体的网络通信是用长链接嘛,那还需要健康检查嘛?
熔断降级有做嘛,怎么做的
sentinel 有了解过嘛
漏斗桶,令牌桶,分布式限流
有了解过 service mesh 嘛,如果有了成熟的 service mesh 还需要 rpc 嘛
听说过泛化调用嘛
重试机制是在设置的超时时间到了之后没有返回结果或者服务端出现异常后服务调用端进行再次调用
重试机制
不能轻易重试的 重试肯定是在知道下游接口是幂等的前提下
可以对重试的请求做个标记,下游对重试的请求不重试
重复消费幂等就没问题
RPC框架重试问题
客户端申请服务失败重试问题
json将object反序列化成别的类型,需借助辅助参数
难点
问题
设计思路
手写RPC框架
由于微服务技术发展迅猛,在我们的架构中,每个微服务都会相应的对接一个数据库,各个数据库之间有关联的表(比如用户表、业务表等)会互相同步数据,其他的数据操作各自独立(如日志表、操作表等),这么设计是基于性能考虑降低数据库容量及尽最大努力避免性能遭遇瓶颈。但是这样会导致跨库联合查询时非常复杂
单库时,系统中很多列表和详情页所需数据可以简单通过SQL join关联表查询;然而多库情况下,数据可能分布在不同的节点/实例上,不能跨库使用join,此时join带来的问题就很棘手了
具体操作:create view 视图名称 as ( SELECT 库名. 表名. 列名 AS 列的重命名..... FROM 库名. 表名)注意: 数据库必须在同一个服务器上. 两个库用户名和密码需要相同.
验证
解决方案:视图
微服务跨数据库联查
直接通过远程过程调用来访问别的service,例如:REST、gRPC、Apache、Thrift优点:简单,常见。因为没有中间件代理,系统更简单缺点:只支持请求/响应的模式,不支持别的,比如通知、请求/异步响应、发布/订阅、发布/异步响应降低了可用性,因为客户端和服务端在请求过程中必须都是可用的
远程过程调用
使用异步消息来做服务间通信。服务间通过消息管道来交换消息,从而通信,例如:Apache Kafka、RabbitMQ优点:把客户端和服务端解耦,更松耦合 提高可用性,因为消息中间件缓存了消息,直到消费者可以消费支持很多通信机制比如通知、请求/异步响应、发布/订阅、发布/异步响应缺点:增加了系统的复杂性
消息
微服务通信方式
微服务
离线数据处理,修bug,优化,特有的开发工具,hsf,switch,diamond,mataq,流水线工具:aone,拉分支,改 发日常,发预发,测试后发线上
AoneFlow 只使用三种分支类型:主干分支、特性分支、发布分支,以及三条基本规则。规则一(开始工作前,从主干创建特性分支)规则:AoneFlow 的特性分支基本借鉴 GitFlow,没有什么特别之处。每当开始一件新的工作项(比如新的功能或是待解决的问题)的时候,从代表最新已发布版本的主干上创建一个通常以feature/前缀命名的特性分支,然后在这个分支上提交代码修改。也就是说,每个工作项(可以是一个人完成,或是多个人协作完成)对应一个特性分支,所有的修改都不允许直接提交到主干。
规则二(通过合并特性分支,形成发布分支)规则:AoneFlow 的发布分支设计十分巧妙,可谓整个体系的精髓。GitFlow 先将已经完成的特性分支合并回公共主线(即开发分支),然后从公共主线拉出发布分支。TrunkBased 同样是等所有需要的特性都在主干分支上开发完成,然后从主干分支的特定位置拉出发布分支。而 AoneFlow 的思路是,从主干上拉出一条新分支,将所有本次要集成或发布的特性分支依次合并过去,从而得到发布分支。发布分支通常以release/前缀命名。
基础使用:基础玩法是将每条发布分支与具体的环境相对应,比如release/test分支对应部署测试环境,release/prod分支对应线上正式环境等等,并与流水线工具相结合,串联各个环境上的代码质量扫描和自动化测试关卡,将产出的部署包直接发布到相应环境上
另一篇比较笼统的介绍https://www.sohu.com/a/253018196_297161
Aone Flow项目管理工具
hsf RPC框架
1.支持严格的消息顺序2.支持Topic与Queue两种模式3.亿级消息堆积能力4.比较友好的分布式特性5.同时支持Push与Pull方式消费消息
mataq 消息队列
阿里
《重构》pdf参考资源
待编写
重构
项目
Clone:克隆,就是将远程仓库复制到本地
Push:推送,就是将本地仓库代码上传到远程仓库
Pull:拉取,就是将远程仓库代码下载到本地仓库
基本操作
工作流程如下:1.从远程仓库中克隆代码到本地仓库2.从本地仓库中checkout代码然后进行代码修改3.在提交前先将代码提交到暂存区4.提交到本地仓库。本地仓库中保存修改的各个历史版本5.修改完成后,需要和团队成员共享代码时,将代码push到远程仓库
工作流程
当安装Git后首先要做的事情是设置用户名称和email地址。这是非常重要的,因为每次Git提交都会使用该用户信息设置用户信息git config --global user.name “itcast”git config --global user.email “kinggm520@163.com”查看配置信息git config --listgit config user.name通过上面的命令设置的信息会保存在~/.gitconfig文件中
环境配置
获取Git仓库
git revert是用一次新的commit来回滚之前的commit,git reset是直接删除指定的commit。在回滚这一操作上看,效果差不多。但是在日后继续merge以前的老版本时有区别。因为git revert是用一次逆向的commit“中和”之前的提交,因此日后合并老的branch时,导致这部分改变不会再次出现,但是git reset是之间把某些commit在某个branch上删除,因而和老的branch再次merge时,这些被回滚的commit应该还会被引入。git reset 是把HEAD向后移动了一下,而git revert是HEAD继续前进,只是新的commit的内容和要revert的内容正好相反,能够抵消要被revert的内容。
Git中的revert(撤消操作)和reset(版本撤回)
常用命令
Git
与export的区别
修改和提交 checkout
创建用户密码 passwd
划分权限 authz
url重新定位 relocate
SVN
idea的Analyze->Analyze Module Dependencies.可以定位到对应的出错的包,删除或修改即可
出现Maven循环依赖怎么办
Maven
JMeter是Apache组织开发的基于Java的压力测试工具。用于对软件做压力测试,它最初被设计用于Web应用测试,但后来扩展到其他测试领域。
jmeter 可以对测试静态资源(例如 js、html 等)以及动态资源(例如 php、jsp、ajax 等等)进行性能测试jmeter 可以挖掘出系统最大能处理的并发用户数jmeter 提供了一系列各种形式的性能分析报告
流程图
启动 jmeter
在测试计划中新增一个线程组,并初始化(填写模拟的线程数和循环次数)
在测试计划中添加jmeter元组(cookie管理,http请求默认值等)
在测试计划中添加监听器(图形结果、聚合报告等)
查看压测结果
Jmeter压测
工具
PTS压测(阿里云)
压力测试
单元测试
测试用网站:https://regex101.com/
ps:一般\\大写字母表示小写字母的反义
. 表示匹配任意的字符
[]代表匹配中括号中其中任一个字符,如[abc]匹配a或b或c
\\d 表示数字
\\D 表示非数字
\\s表示由空字符组成,[ \\t\\\\x\\f]
\\S表示由非空字符组成,[^\\s]
\\w表示字母、数字、下划线,[a-zA-Z0-9_]
\\W表示不是由字母、数字、下划线组成
?: 表示出现0次或1次
+表示出现1次或多次
JAVA调用正则表达式的类是java.util.regex.Matcher 和 java.util.regex.Pattern
常用符号
abcd? 可以匹配 abc 或者 abcd,但不能匹配abcdd
? 的前一个字符可不出现,或者只出现1次
?
ab*c 可以匹配 ac 或者 abc 或 abbb...c
* 的前一个字符可不出现,或者出现n次
*
ab+c 可以匹配 abc 或者 abbb...c ,但不能匹配ac
+ 的前一个字符必须出现1次及以上
+
ab{3}c 只匹配 abbbc
{} 的前一个字符必须出现花括号内数字的次数
{}
(ab)+ 可以匹配 ab、abab、ababab
() 可以将多个字符括起来用于匹配
()
限定符
(?<=(?<!^)\\G..|^.)$
\"ab\"\"cd\"\"de\"
\"(?<=\\\\G..)(?!$)\" 偶数长度的字符串两两拆分
个人常用
正则表达式
手写递归快排,非递归快排,堆排,归并,Dijkstra,Kruskal
手写5种单例,枚举类
时空复杂度及其优化
手写生产者/消费者模型
手写前中后序遍历的迭代写法
B树:1.叶子节点和非叶子节点都存数据。2.数据无链指针。B+树:1.只有叶子节点存数据。2.数据有链指针。B树优势:1.靠近根节点的数据,访问速度快。B+树优势:1.一页内存可以容纳更多的键,访问数据需要更少的缓存未命中。2.全面扫描只需要扫描叶子节点
B+树和B树有什么区别
数据结构与算法
一个指令通常由 指令主体 [选项] [操作对象] 选项和操作对象可以省略,选项省略表示不增加额外操作,操作对象省略表示操作当前对象
指令
/(表示根目录)
绝对路径,从根目录出发的路径
./(表示当前目录)
../(表示父级目录)
相对路径,从当前目录的路径
-c 假如目的档案不存在,不会建立新的档案。
-m 改变档案的修改时间记录
-a 改变档案的读取时间记录
touch 创建新文件(不存在则新建,存在则修改文件系统时间)
1.-i 删除前逐一询问确认。
2.-f 即使原档案属性设为唯读,亦直接删除,无需逐一确认。
3.-r 将目录及以下之档案亦逐一删除
rm 删除该文件/目录(删除目录需要-r,文件则不需要)
vim/vi 编辑文件
less(功能最多)linux正统查看文件内容的工具,用法比起 more 更加的有弹性。more一次性加载完所有日志,less从日志的最后一行往前显示,缓冲区,所以不会一次性加载完
more 相对于cat可以按页来查看文件的内容,还支持直接跳转行等功能。但是由于从前向后读取文件,因此在启动时就加载整个文件less和more都提供了向前向后的查询命令:键盘的[空格键] 向下,[b]向上
cat命令(功能最少)是整个文件的内容从上到下显示在屏幕上。还可以将多个文件连接起来显示,它常与重定向符号配合使用,适用于文件内容少的情况more和less是一页页展示,cat全部拼接后展示
tail 命令可用于查看文件的内容,一般配合 -f 常用于查阅正在改变的日志文件tail -f filename 会把 filename 文件里的最尾部的内容显示在屏幕上,并且不断刷新,只要 filename 更新就可以看到最新的文件内容
less/more/cat/tail 查看文件
线上出问题的时候,我们常用tail -n 或者 tail -f 或者grep 或者 vi cat等各种命令去查看异常信息,但是日志是在不停地刷屏,tail -f是动态的,不方便排查,我们往往期望从日志最后一行往前一页一页的翻页查看,从而找到异常信息
因此想从日志的最后一行往前查看,就可以用less命令:打开日志文件 less sigma.log定位到日志文件的最后一行:shift+g移动到最后一行往前一页一页翻页查看:ctrl+b
1、线上排查日志错误
实战扩展
文件相关
一般配合 -p 使用,表示如果不存在就新建一个如果不加-p 上一级目录不存在的话则会创建失败且报错
mkdir 创建新目录
目录相关
ps 查看进程
进程相关
linux指令搜索借词:linux
文件 touch rm [-rf] vi/vim less/more/cat/tail
find /tmp -name \"test.txt\" 从/tmp目录中找test.txt的路径
目录 mkdir rm [-rf] mv(剪切)/cp(拷贝) find cd(目录切换) ls(目录查看)
scp 用于不同 Linux 机器之间复制文件和目录。
在当前目录输出包含xxx内容的文件
grep -r \"xxx\" ./
Linux下常用的性能分析工具,能够实时显示系统中各个进程的资源占用状况,类似于Windows的任务管理器
top命令有啥第一行:当前系统时间和运行了多久,有几个用户登录了系统,1、5、15分钟的负载情况第二行:进程信息。几个running,几个sleeping,几个stopped,几个zombie第三行:cpu信息。用户态和内核态占多少空间第四行:内存信息。内存的total、used、free、buffers数据第五行:swap交换分区信息:和内存信息结构一致,但数据不同第六行:空行第七行:各进程的状态监控。pid、user所有者、pr优先级、s状态、%cpu、%mem
top
查看具体端口占有情况,一般配合netstat(查看所有端口)和kill(杀进程)使用
lsof -i:端口号
用于显示 tcp,udp 的端口和进程等相关情况
netstat -napt
查看3306端口是否被占用
netstat -nap | grep 3306
ps:所有进程,ef:运行中的,grep xxx:搜索带xxx的结果
ps -ef | grep redis
-9:强制结束
-15:非强制,先等待进程释放资源再结束如果程序正在等待IO,可能会阻塞
kill后面跟的是信号编号,代表kill向进程发出的信号(kill -l可以查有哪些信号编号)
杀进程 kill -9 进程pid
删除所有进程中包含xxx字符的进程
ps -ef | grep xxx | grep -v grep | cut -c 9-15 | xargs kill -9
ps -ef | grep xxx 找到进程pid进入/proc/pid,再ls -l,cwd那行就是路径
查看进程启动路径
显示第3行到第9行的内容
查看前5行。-5:倒数5行之前的
head -n 5 filename
查看倒数5行。+5:正数5行之后的
tail -n 5 filename
查看第几行/一些行
du -sh
查看当前目录下一级子文件和子目录占用的磁盘容量:
du -lh --max-depth=1
显示文件目录占用空间
zcvf是打包的命令,zxvf是解压缩包的命令
压缩 tar -zcvf/zxvf
后台运行。但关闭终端可能导致关闭程序
命令 &
后台运行。关闭终端也会继续运行
nohup 命令 &
后台运行程序
chmod 777 可能会带来巨大的安全风险,建议如果你的Web服务器遇到权限问题,请将文件的所有权更改为运行应用程序的用户并将文件的权限设置为644,将目录的权限设置为755,而不是递归地将权限设置为777
chmod 改变权限,-R是目录下所有文件,777就是高权限(读、写、执行)chmod -R 777 * 意思就是将当前目录下所有文件都给予777权限
大文件用less,vim的话会把文件内容全部加载到内存中,在生产库是很危险的。并且,我们公司生产环境的服务器还不给vim的命令权限
日志 less、tail、head、 cat、tac、sed、echo
df 用来检查linux服务器的文件系统的磁盘空间占用情况。可以利用该命令来获取硬盘被占用了多少空间,目前还剩下多少空间等信息
show variables like 'general_log' 查看mysql日志是否开启。没开就开启一下tail -f /var/log/mysql/mysql.log -f:循环查看
show variables like 'slow_query_log' 查看慢查询是否开启。没开就开启一下show status like 'slow_queries' 查询该表有多少条慢查询
linux常用命令
Linux常用命令
Linux SHELL
next()
nextInt()
循环输入string
输出的不会换行,可以for each遍历数组输出
System.out.print
会自动换行,可能不符合输出要求
System.out.println
数组必须初始化大小,没有数据的位置为自动为0
int[] array = new int[100]
输出
java输入输出
ACM模式
笔试模板
检测循环依赖
zk保证强一致性吗
KafkaProducers有自动重试机制:内部包装原生的kafka client,默认是 重试3次 retries=3,框架层面加上了多集群重试的能力。使用双集群一般 基本可以保证一定写入成功, 毕竟2个集群同时故障的可能性还是非常小的
kafka保证消息可靠
实习做了什么
HTTP 的 Keep-Alive 也叫 HTTP 长连接,该功能是由「应用程序」实现的,可以使得用同一个 TCP 连接来发送和接收多个 HTTP 请求/应答,减少了 HTTP 短连接带来的多次 TCP 连接建立和释放的开销。TCP 的 Keepalive 也叫 TCP 保活机制,该功能是由「内核」实现的,当客户端和服务端长达一定时间没有进行数据交互时,内核为了确保该连接是否还有效,就会发送探测报文,来检测对方是否还在线,然后来决定是否要关闭该连接
tcp&http长链接
字节飞书
虚拟内存的容量受什么限制
什么情况下进行进程调度
磁盘进行读写操作的物理单位是什么
1、Dijkstra不能处理负权图,Flyod能处理负权图;2、Dijkstra处理单源最短路径,Flyod是处理多源最短路径3、Dijkstra时间复杂度为O(n^2),Flyod时间复杂度为O(n^3) 空间复杂度为O(n ^ 2);所以题目中如果是单源点正权图,就用Dijkstra如果是任意两个点之间的最短路径或者是负权图,就用Floyd;
佛洛依德和迪加斯特算法区别
18625473建立小根堆后中序遍历的结果
数据结构
计算索引长度
Sql
dp或者模拟
0左边必有1的二进制字符串数量
单调栈
找重复数组中离i最近且比i小的值
算法
笔试
按业务垂直分表(不建议),给高频字段建立索引,删除经常更改、做运算字段的索引,优化8s->2s
怎么做的mysql优化
建立redis缓存,例如查列表接口用到了一个keyword,如果kw为空则全量,不为空则模糊匹配,redis里就存这个keyword和对应的dto(这里redis的value讲不清楚)
业务层怎么优化
每次更新数据库后就更新缓存并且reload JVM的缓存(这里也没讲清楚)
说一下redis缓存一致性问题(redis的回写与刷新)
kafka消费延迟问题,由于用userId做分区导致重复userId到了同一个分区解决方案:1、增加分区数&增加分区策略字段,如contentType2、看grafana cpu利用率才40%,可以增加消费线程压榨cpu性能3、增加消费线程发现并发并没有上去,排查发现消费时的解析操作用了synchronize,改为renntranlock读写锁4、消费端性能存在瓶颈,建议改为批处理,同时json序列化改为proto序列化(暂时没懂)
实习遇到的难点
acks = 0: 生产者将消息发送出去,就认为消息已经成功写入
acks = 1: 消息发出后,leader分区将它写入内存,就返回确认。此方法可能存在数据丢失,比如leader写入成功,但是没有同步到fellow节点。如果此时leader挂了,或者消息还未刷新至磁盘
acks = -1:leader返回确认前,要等待所有同步副本都收到消息,才确认返回
扩展:ack参数
看过一点源码,producer.send()方法内有个ack参数
集群模式,自动重传机制
说到kafka,那kafka如何保证消息可靠
算法题:滑动窗口 lc76
一面
常用的数据结构有哪些
说下快排思路和伪代码
双端队列删除其中某个节点
网页里哪些操作用到了栈
问算法
实习难点,印象最深的点
人生中两次重大事件
自己的三个优点和缺点
兴趣爱好..逐渐hr化
二面
aftership
算法:topK问题和链表倒数第k个节点
final finally finalize区别
map了解哪些 有序的map有哪些
实习经历,做了什么
sql调优,索引优化
linux端口和uid的命令 定位进程
介绍了一下redis
反问
平时逛什么技术论坛
问项目
问dubbo源码了解多少
聊rpc实现
聊es,倒排索引是什么,过程
mysql索引深挖
问实习
未来规划
腾讯cdg
concurrenthashmap为什么线程安全,put的过程,1.8和1.7区别,扩容的时候多个线程如何协作扩容
说到synchronized,能对什么加锁,对方法和代码块加锁的具体细节,jvm对syn的优化,锁膨胀种类和过程
java线程状态和改变线程状态的方法,sleep和wait区别
aqs细节,有什么实现类
数据库隔离级别,可重复读原理,next-key lock原理
对 select * from test where a>xx and b=xx 建立索引,为什么这么建立,这条语句查找数据的具体过程
zk是cp还是ap,对最终一致性的理解,zk如何保证强一致性
分布式事务,具体应用场景
kafka是推还是拉,一个partition对应多少个消费者,一个消费者能对应多少个partition,如何检测消费者挂了,重平衡触发条件,具体做了什么
没写算法
网易有道
笔经&面经
自由主题
Java后端开发体系
0 条评论
下一页