LLVM的名字其实弱爆了,Low Level Virtual Machine。从字面上看去它不过是一个类似于JVM的虚拟机。但是实际上这个项目自从被苹果包养之后,它已经远远超出了一个虚拟机所具有的能力。其实我觉得它压根儿就和虚拟机没什么关系,完全就是一个Compiler。
特别是2010年左右LLVM自举(就是自己编译自己,是编译器一个非常重要的里程碑)之后,很快就被集成进XCode中取代原先的GCC,这使得它的曝光度大增。
LLVM是一个大项目,它包含一系列的子项目如:
Core
: LLVM IR的分析,转换,优化与编译(狭义上的LLVM)Clang
: "LLVM Native"的C/C++/Objective-C编译器前端(输出LLVM IR后用Core进行编译)Dragonegg
: 使用GCC 4.5的编译器前端 + LLVM CoreLLDB
: 类似于GDB的Debugger
当然还有其他诸如Polly一类优化器或者libc++这样的基础库项目。
做一个编译器有很多路子。解释器也好,一遍编译也好,都是编译器的典型设计。但随着语言机制的愈发复杂和后端技术的日益完善,编译器中用于语法分析和语义处理的前端,和用于生成目标代码的后端的界限也越来越清晰。某种意义上借助于中间语言(Intermediate Language,IL)或者称中间表达(Intermediate Representation, IR)的方法已经成为产品级编译器开发中绝对主流的技术。
中间语言/中间表达是个很宽泛的概念。它可能是抽象语法树,也可能是SSA Form,或者是MSIL这样的伪汇编。当然和机器直接相关的汇编语言从学理上也可以作为IR,只不过不管是哪个平台的汇编,都和硬件关系紧密(恐怕就MMIX会好一些,所以也只有Knuth这个全球唯一的CPU),它们作为IR会带来很多的复杂度。这也正是为什么要有一个高层抽象的IR在汇编和编程语言之间,编译器把众多的前端语言(C,C++,Objective C,C#)编译成IR,再在IR上进行优化,最后再编译到多个平台(x86,x86-64,PowerPC,etc)上。
LLVM IR与汇编格式相近,如你看到的这样:
define i32 @add(i32 %a, i32 %b) {
entry:
%tmp = add i32 %a, %b
ret i32 %tmp
}
但同时, LLVM IR 是遵从 SSA Form 的。所谓 SSA Form ,即 Static Single Assignment Form ,译名为 静态单赋值 。静态单赋值极大地降低了数据流分析和控制流分析这两个编译器优化和静态检查中的关键技术的复杂度。它的特点是程序中的每个值只能在定义(defined)时被赋值,之后再也不能被改变。比方说
%3 = fadd %1, %2
%5 = fadd %3, %4
就是一段正确的LLVM IR代码,而
%3 = fadd %1, %2
%3 = fadd %3, %4
就是错的,因为%3
一旦被定义就不能被再次赋值了。这也是 静态单赋值 这个名字的由来。
当然,单有这个限制是没法写程序的,因为这样连输入输出都没法处理。这也是函数式编程如会有Monad或类似机制的原因之一。这里是一篇单静态赋值的简介,可以解决一部分上面所提到的问题。实践中的IR是如何解决这些问题的,可以参考LLVM Tutorial。
从静态单赋值形式的IR到最终的汇编,有很长的路要走。你需要选择合适的机器指令;将IR中支持的相对复杂的数据类型运用各种神通转换成机器可以直接执行的数据类型;物理寄存器的分配;以及最重要、也是很多人最常挂在嘴边但是又不太了解的:编译器优化。
此篇文档描述相关的编译和优化技术在LLVM中的实现。
废话结束,正篇开始。
译注:本文在说 目标平台 时对应的原文中的单词是 Target 。为了简单起见,在不产生歧义的情况下,我会将 Target 翻译成 平台 。
LLVM中的平台无关 代码生成器(Code Generator) ,同时也是一个编译器开发 框架(Framework) 。它提供了一些可复用的组件,帮助用户将LLVM IR编译到特定的平台上。此外,LLVM的输出格式也非常灵活,既可以是文本形态的汇编也可以是二进制的机器码。前者一般用于静态编译器,后者则可以用于JIT。纵观整个架构,代码生成可分成以下六个部分:
- 描述平台特性的抽象接口(Abstract Target Description Interfaces)。它定义了一组接口用于描述平台特性。在设计上,它们仅用来说明特性,至于特性是如何被代码生成器使用的,接口对此并不关心。相关的定义和实现可参阅
include/llvm/Target/
。 - 一组表达 生成后代码(Code being generated) 的类。这些类保存的并不是与平台直接相关的指令和数据,而是能够跨平台的概念或特性,比方说 常量池项(Constant Pool Entries) 和 跳转表(Jump Tables) 这些都是在这一层体现的。具体代码见
include/llvm/CodeGen/
。
译注:这里“跨平台的概念”也包括在所有平台上都能直接或间接支持的指令,比方说ADD, SUB。虽然它们在不同平台上实现完全不同。
- MC Layer中所需要的类和算法 。这些类和算法用来生成object file中的二进制代码。MC Layer表达的内容和大部分的汇编文件相同,例如 标识(Label) , 节(Sections) 和 指令(Instructions) 。 在这一层中,已经不再存在 跳转表 这样相对高层的概念。
- 生成Native code时使用的 平台无关的算法(Target-independent Algorithm) 。例如 寄存器分配(Register Allocation) , 指令调度(Scheduling) , 栈帧的表达(Stack Frame Representation) 这些,都是平台无关的。代码见
lib/CodeGen
。 - 第五个部分是 平台描述接口的具体实现(Implementation of the abstract target description interfaces) 。LLVM的部分代码会用到这些描述;用户在实现自己Pass的时候,也需要这份实现提供所需数据。自定义的Passes和LLVM的框架代码一起,构成完整的针对特定平台的代码生成器。具体代码参见
lib/Target/
。 - 最后一个部分是 平台无关的JIT组件 。LLVM JIT本身是完全和平台无关,但它有一个接口
TargetJITInfo
,可以帮助JIT处理平台相关的问题。JIT的平台无关部分的代码,在lib/ExecutionEngine/JIT
。
组件介绍完了,你可以根据自己的兴趣和需要,阅读相应的章节。我们建议你先熟悉一下 平台描述(Target Descrption) 以及 机器码表达(Machine Code Representation) 两部分内容。如果想给新平台开发后端,那么你需要知道 _如何实现自己的平台描述_以及 如何编写LLVM IR 。如果只想实现一个新的 代码生成算法 ,那么只需研究 平台描述 和 机器码表达 相关的类。当然,最好保证你实现的代码生成算法是可移植的。
整体上,LLVM的代码生成器可分为两个部分:一个是用于代码生成框架的上层接口,一个是用来开发后端的可复用组件。对于用户自定义的后端起码要实现 TargetMachine 和 DataLayout 两个接口,才可以和LLVM框架协同工作。如果后端使用了LLVM提供的代码生成组件,那还需要实现其他相应的接口。
这个设计有两个目的:第一,这样做LLVM可以支持非常特殊的目标平台。比如编译目标是C语言,那诸如寄存器分配、指令选择这些传统的代码生成组件统统都不需要。此时只要实现了两个必要接口,那它就能和LLVM一起工作。再比如,用户需要开发一个后端将LLVM IR编译成GCC RTL,那也是类似的情况。
第二,它允许用户开发全新的、不依赖任何现有组件的代码生成器,并集成到LLVM中。当然大部分情况下,我们还是建议尽量复用LLVM组件。但是目标平台如果奇葩到无法用LLVM的模型来描述(do not fit into the LLVM machine description model),例如给FPGA开发后端,这个设计就起作用了。
LLVM中的平台无关的代码生成器针对标准的寄存器机而设计,同时它也兼顾了代码生成的速度和生成代码的质量。整个代码生成可分为以下阶段:
- 指令选择(Instruction Selection) — 这个步骤将LLVM IR转化成目标平台的指令集。不过经此阶段产生的指令还相当原始,它一方面借助 虚拟寄存器(Virtual Register) 的概念,让目标代码维持了 SSA 的形式;另一方面为了受平台限制和调用协议的需要,它也使用了部分的 物理寄存器(Physical Register) 。最终,LLVM IR被转化成一个由目标平台的指令所组成的 DAG 。
- 调度与排列(Scheduling and Formation) — 耳熟能详的指令重排就是这个部分的主要工作。这个阶段将读取DAG,根据需要,将DAG中的指令排成
MachineInstr
的队列并输出。要注意的是,虽然我们这个阶段单独列出,但是它和 指令选择 的操作目标都是 SelectionDAG ,且两者的实现也极为接近。因此在讨论算法的时候,它会和 指令选择 一并讲解。 - 基于SSA的优化 — 对于代码生成而言,优化 指令选择 阶段产生的 DAG 是一个可选阶段,整个优化过程由很多个基于SSA的优化 步骤(Pass) 所组成。 模调度(modulo-scheduling) 和 大名鼎鼎的 窥孔优化(peephole optimization) 都可在这个阶段执行。
译注:这也是为什么要在指令选择以后仍然保持SSA Form的原因之一。
- 寄存器分配 — 到目前为止,指令的 参数(Operands) 都是 虚拟寄存器(Virtual Register) 和部分的 物理寄存器(Physical Register) 。LLVM的虚拟寄存器等价于一个无穷大的 虚拟寄存器文件(Virtual Register File) ,但在硬件上指令只能去操作有限的物理寄存器或者是内存。此时我们需要借助 寄存器溢出(Spilling) 溢出算法,将虚拟寄存器都映射到物理寄存器或内存地址上。
- Prolog/Epilog的生成 — 当函数体的指令都生成后,就能够确定函数所需的堆栈大小了。此时我们可以在函数前后安插Prolog和Epilog代码用于分配堆栈或处理异常,之前尚未确定的堆栈位置在此时也可以算出正确的偏移。知道了这些信息,我们还可以完成 栈帧指针消除(Frame Pointer Elimination) 或 堆栈打包(Stack Packing) 这一类的优化。
- 机器码的晚期优化 — 这个阶段是最后一次给低效的代码卖后悔药。基本上到了这里的代码已经和“最终”代码相差无几,不过你仍然有机会进行一些 Spill code scheduling 或者是 窥孔 一类的优化。
- 代码发射(Code Emission) — 在这一步你需要输出调整完毕的代码。一般代码输出都分函数进行的。目标格式并没有什么限制,你可以选择是汇编或者是二进制的机器码。
之所以LLVM的代码生成采用这样的设计,是基于一个重要假设:我们只需要用一个 最优模式匹配选择子(Optimal Pattern Marching Selector) 来匹配并生成目标代码,就能够获得较高质量的本地指令。当然也有更牛逼的设计,比方说 模式展开(Pattern Expansion) 或者 激进迭代窥孔优化(Aggressive Iterative Peephole Optimization) ,但是它们的优化速度太慢,特别是对于JIT而言。况且现有设计也可以通过多遍优化满足离线编译器对激进优化的需求。
虽然上述步骤大部分平台无关,但后端也可以加入任何针对目标平台的处理。举个栗子!x86体系中,x87浮点运算绝对是个傲娇。它非得要 浮点堆栈(Floating Point Stack) 来搞浮点运算。所以LLVM在x86的实现中专门有一个Pass来处理这个问题。如果你在其它平台遇到了类似需求,也可如法炮制。
用来描述平台特性的类(Target Description Classes)需要存储并提供关于目标架构的细节信息。仔细观察会发现这当中很多信息是可以共享的,例如add
的参数类型、约束等信息几乎和sub
完全一致。为尽可能复用这些共性,LLVM使用了一个 DSL 工具TableGen
来描述目标平台的信息。这个DSL工具可以更好的抽象出平台上的特性,尽可能地减少重复代码。
未来的LLVM计划把所有的平台描述都移到.td
文件中。这主要是因为我们希望使LLVM更易于移植。因为C++的代码会变少,移植它的程序员要掌握的内容也会少很多。此外这也会让LLVM更容易修改,因为如果所有的工作都是tblgen
完成的话,一旦相关接口有调整只需修改tblgen
实现即可。
平台描述相关的类(Target Description Classes) 为不同的平台提供了相同的抽象接口。这些类在设计上仅用来表达目标平台的属性,例如平台所支持的指令和寄存器,但不会保存任何和具体算法相关的描述。
所有的平台描述类除了DataLayout
外都是可以被继承的,用户可以根据不同的平台提供具体的子类。这些子类通过重载接口的虚函数来提供平台信息。class TargetMachine
提供了一组接口,可以访问这些描述。
class TargetMachine
提供了一组虚方法以获得具体的平台描述。这组函数一般都命名成get*Info
,如 getInstrInfo
, getRegisterInfo
, getFrameInfo
。TargetMachine
也是通过子类提供平台相关的实现(如 X86TargetMachine
)。如果只是想实现一个能被LLVM支持的最简单的TargetMachine
,那只要能返回DataLayout
,如果你使用了LLVM其他的代码生成组件,那就需要实现诸如getInstrInfo
等其他的接口函数。
译注:这里可以看做是一个抽象工厂模式。
TargetMachine
和Target Description Classes
的关系,是就抽象工厂和抽象工厂的抽象产品的关系。 X86TargetMachine就是具体工厂,而例如X86RegisterInfo就是具体工厂的具体产品。
所有平台描述类中,只有DataLayout
是必须要支持的,同时它也是唯一一个不能被继承的类。DataLayout
保存了 结构体成员的内存布局 、不同类型的数据的内存对齐、指针大小还有Little Endian/Big Endian等诸多信息。
译注:Lowering是指高层指令向底层指令转化的过程
TargetLowering
用于指导LLVM的 指令选择 阶段如何将LLVM IR指令转化成SelectionDAG上的节点和操作。该类型保存了以下的信息:
- 对寄存器进行分类,以匹配不同的
ValueType
s(an initial register class to use for variousValueType
s), - 哪些操作(指令)是平台原生支持的,
setcc
的返回类型,- 偏移量(shift amounts) 的类型,
- 其他的高层特性,例如是否要把除以常量转换成乘法运算。
TargetRegisterInfo
描述了目标平台的寄存器文件以及寄存器间的交互。
代码生成阶段的每个寄存器都会有一个整数编号,物理寄存器(也就是平台实际支持的寄存器)的标号通常都较小,而虚拟寄存器的序号一般都往大了标。LLVM预留了#0
寄存器作为标志寄存器。
每个寄存器都对应一个TargetRegisterDesc
项,这个项保存了寄存器的文本名称(比方说EAX
,ECX
之类,输出汇编和dump要用到),以及一坨 寄存器别名(register alias) (如果有的话,寄存别名是说两个寄存器占用了同样的空间,比方说x86中的EAX
和AX
)。
TargetRegisterInfo
还提供了目标平台支持的寄存器类别(保存在TargetRegisterClass
的实例中)。每个类别都包含了若干相同属性的寄存器(比方说EAX
、EBX
、ECX
、EDX
都是32位的整数寄存)。虚拟寄存在创建的时候,也要指定寄存器类别,并且虚拟寄存器在最终被替换成物理寄存器的时候,也要使用相同类别的寄存器进行替换。
本节所涉及的实现代码通常都是由.td
直接生成。
TargetInstrInfo
用来描述平台指令,基本上它就是一个TargetInstrDescriptor
的数组。后者保存了单条指令的信息,常见的有指令的 助记符(Mnemonic) , 参数(Operands) 的数量,一些隐含的寄存器使用与定义。指令的信息里既有平台无关的部分,例如是否操作了内存(accesses memory),或者能交换(is commutable),也有平台相关的标记。
TargetFrameInfo
提供了关于堆栈布局的信息,包括堆栈的增长方向,堆栈的对齐要求以及 本地偏移(offset to the local area) 。这里的 本地偏移 是指函数内数据(局部变量或者Spilling Location)的起始地址到函数入口处的偏移量。
TargetSubtarget
保存了一些和平台具体实现(例如芯片组)有关的信息。一般来说,TargetSubtarget
会告诉你支持或不支持哪些指令、指令的延迟或者是特别的指令执行顺序。
如果TargetMachine
需要支持JIT,那么相应的TargetMachine
就要实现方法getJITInfo
,它将返回一个从TargetJITInfo
派生出的具体类型的实例。JIT过程中需要的一些行为,都需要由TargetJITInfo
的派生类提供支持,例如怎么去生成一个 桩函数(Stub) 。
译注:Stub是JIT中一个很重要的概念。在JIT程序初始化的时候,会将每个函数都初始化成Stub。这个Stub很短很简单,他的逻辑是当自己被调用的时候,就去找JIT Engine,为自己生成一个真正的函数体,然后Stub替换掉,执行真正的逻辑。
简单来说,从LLVM code生成的机器码最后会由以下三个类的实例来表达, MachineFunction
, MachineBasicBlock
和MachineInstr
。相关的代码可以在include/llvm/CodeGen/
中找到。每条指令由一个 操作码(opcode) 和 若干个 参数(Operands) 构成。很显然这个表示方法在任何平台上都是适用的,它既能将机器代码表现成SSA Form的形式,也能在寄存器分配完成后表现非SSA形式的汇编。
MachineInstr
用于表现目标平台指令。在设计上它是机器指令的一个非常好的抽象,它仅仅保存了 opcode 和 operands 。 操作码(opcode) 是一个无符号整数,具体它代表的指令由相应平台的后端解释。所有 opcode 都在 *InstrInfo.td 中定义, opcode 的枚举值是由.td
文件生成的。MachineInstr
只存储 opcode ,但是它不关心这个 opcode 的含义,指令代表的意义要到TargetInstrInfo
中查询。
指令的 参数(operand) 有多种类别。他们可能是一个寄存器(寄存器编号),一个常量(立即数)或者是一个基本块(跳转指令的目标)。另外, operand 需要标记为 def 或 use 。
译注:简单理解,def就是指令的输出,use就是指令的输入。
注意,LLVM中只能将寄存器参数标记为 def 。
译注:推测是出于SSA Form的考虑。
在指令里同时有 def 和 use 参数时,LLVM规定要将 def 放在所有 use 的前面。这个要求和平台无关,例如SPARC体系上的汇编需要写成add %src0, %src1, %dest
的形式,但是在LLVM中,三个参数仍要求表示为%dest, %src0, %src1
这样的顺序。
让 目标操作数(destination or definition operands) 在参数列表的最前面是有很多好处的,起码在调试时打印代码的时候你就能轻松打出
%dest = add %src0, %src1
这般赏心悦目的代码。还有一个好处是在 创建指令 的时候会更加方便。
译注:我觉得都是狡辩。不过在分析指令的依赖关系的时候可能更方便一些吧。
include/llvm/CodeGen/MachineInstrBuilder.h
中有个函数BuildMI
可以帮助用户方便的生成指令。下列代码是一个使用示例:
// Create a 'DestReg = mov 42' (rendered in X86 assembly as 'mov DestReg, 42')
// instruction. The '1' specifies how many operands will be added.
MachineInstr *MI = BuildMI(X86::MOV32ri, 1, DestReg).addImm(42);
// Create the same instr, but insert it at the end of a basic block.
MachineBasicBlock &MBB = ...
BuildMI(MBB, X86::MOV32ri, 1, DestReg).addImm(42);
// Create the same instr, but insert it before a specified iterator point.
MachineBasicBlock::iterator MBBI = ...
BuildMI(MBB, MBBI, X86::MOV32ri, 1, DestReg).addImm(42);
// Create a 'cmp Reg, 0' instruction, no destination reg.
MI = BuildMI(X86::CMP32ri, 2).addReg(Reg).addImm(0);
// Create an 'sahf' instruction which takes no operands and stores nothing.
MI = BuildMI(X86::SAHF, 0);
// Create a self looping branch instruction.
BuildMI(MBB, X86::JNE, 1).addMBB(&MBB);
代码本身很容易懂,不过要注意为了能够有效的为指令分配内存,所有重载形式的BuildMI
总有一个必要参数指定了 operands 的数量。
译注:和vector.reserve()的作用相同。
另外,示例中的 operands 都是以 use 语义添加。如果想要为指令指定 def 语义的寄存器(也就是为指令指定一个输出),可以使用以下的形式:
MI.addReg(Reg, RegState::Define);
代码生成阶段,会遇到一个关键的需求,那就是有可能需要给指令分配特定的寄存器。这个要求一般是由平台特性决定的,比如在x86下你想要执行整数除法,就必须要在EAX
和EDX
中加载相应的操作数。调用协议也会需要使用特定的寄存器。
译注:比如fastcall和x64下的calling convention都需要使用一些寄存器作为输入,使用
EAX
做输出。
这些场合下必须要为指令参数提供正确的物理寄存器,并将数据拷贝到物理寄存器上(也可能是从物理寄存器拷贝到虚拟寄存器)。
再举个栗子!下面是一段简单的LLVM的代码:
define i32 @test(i32 %X, i32 %Y) {
%Z = udiv i32 %X, %Y
ret i32 %Z
}
将这段代码编译成x86指令后,div
的除数需要放到EAX/EDX
中,而ret
返回值则要放在EAX
内。我们执行下llc X.bc -march=x86 -print-machineinstrs
来看看LLVM是怎么处理的:
;; Start of div
%EAX = mov %reg1024 ;; Copy X (in reg1024) into EAX
%reg1027 = sar %reg1024, 31
%EDX = mov %reg1027 ;; Sign extend X into EDX
idiv %reg1025 ;; Divide by Y (in reg1025)
%reg1026 = mov %EAX ;; Read the result (Z) out of EAX
;; Start of ret
%EAX = mov %reg1026 ;; 32-bit return value goes in EAX
ret
代码生成以后的寄存器分配阶段会执行 合并寄存器(coalesce the registers) 的优化,并生成以下代码:
;; X is in EAX, Y is in ECX
mov %EAX, %EDX
sar %EDX, 31
idiv %ECX
ret
拷贝-合并这个方法非常通用(x86都搞得定,还能有啥搞不定的!),同时它还能让 指令选择子(instruction selector) 在不知道平台细节的情况下正确执行。不过有一点要注意,就是物理寄存器的 生命期(Lifetime) 越短越好。
译注:关于这个问题的简单理解,可以认为物理寄存器是稀少而高效的资源。每次使用它的时间越短,它就能在更多需要它的场合发挥作用。
所以LLVM中假设物理寄存器的生命周期一定控制在 基本块(Basic Block) 内。所以如果要将值在 Basic Block 之间传递, 必须 使用虚拟寄存器。
部分指令例如call
会在调用时 篡改(clobber) 很多的寄存器。
译注:clobber的含义是在指令调用后,会使得很多寄存器失效。比方说call后的那些易失(volatile)寄存器
要记录哪些寄存器被篡改了,一种可选方法是增加<def, dead>
参数,但是LLVM中则是通过添加MO_RegisterMask
参数,给所有 被保留的寄存器(reserved register) 提供一个掩码,其它的未指明的寄存器都认为在指令执行时会被篡改。
从生成MachineInstr
到 寄存器分配 之前,MachineInstr
一直都是以SSA-form存储的。我们将LLVM IR中的 PHI 节点直接转换成机器码的 PHI 节点, 所有的 虚拟寄存器 也都是 静态单赋值 的。
在 寄存器分配 之后,机器码便不再以SSA-form存储。此时所有的虚拟寄存器都已经移除或替换成物理寄存器,同时机器码的形式也更加接近本地指令。
译注:当然PHI这么高级的指令通常也要被替换掉。
MachineBasicBlock
可以看成是MachineInstr
的列表。MachineBasicBlock
基本上与LLVM IR中的基本块对应:每一个IR BasicBlock
都对应一个或多个MachineBasicBlock
;每个MachineBasicBlock
都可以通过getBasicBlock
函数获得它所属的IR BasicBlock
。
MachineFunction
与LLVM IR中的Function
一一对应。每个IR Function
中产生出的MachineBasicBlock
都以列表的形式存储在它对应的MachineFunction
中。除了MachineBasicBlock
之外,每个MachineFunction
还保存了MachineConstantPool
,MachineFrameInfo
和MachineRegisterInfo
等信息。更多的细节请参见include/llvm/CodeGen/MachineFunction.h
。
LLVM的代码生成器还可以将一串指令打包成一个MachineInstr
Bundle 。MI Bundle 主要是给VLIW架构提供一个指令组。每个包中的指令数量不限,指令之间是可以并行的。它也能用来表达一些必须整包执行的指令组如 ARM Thumb2 IT Blocks 。
译注: 整包执行的时候,Bundle内的指令不一定被要求可并行。
从概念上来讲MI Bundle 应该是内嵌了一组MIs,比方说下图这个样子:
--------------
| Bundle | ---------
-------------- \
| ----------------
| | MI |
| ----------------
| |
| ----------------
| | MI |
| ----------------
| |
| ----------------
| | MI |
| ----------------
|
--------------
| Bundle | --------
-------------- \
| ----------------
| | MI |
| ----------------
| |
| ----------------
| | MI |
| ----------------
| |
| ...
|
--------------
| Bundle | --------
-------------- \
|
...
不过在LLVM中,我们为了不改变MachineBasicBlock
和MachineInstr
的设计,并没有采用这种内嵌分组的方案。即便MIs逻辑上是在一个 bundle 中,我们也仍然把它和其他的普通指令存放在同一个列表中,只不过 bundled 的指令会被标记成InsideBundle
, bundle 前也会有一个特殊的BUNDLE
指令告诉你一个 bundle 开始了。
译注:我对VLIW的结构不熟悉,也没有深究过Bundle的实现,所以这里在阅读的时候微有歧义。
一般在处理MachineInstr
时会将整个MI bundle 作为一条 指令(unit) 处理,MachineBasicBlock
中的iterator
在遇到 bundle 的时候,也是 作为一个完整的单元(as-a-single-unit) 直接跳过。如果想完全按指令遍历可以使用instr_iterator
,此时它会历包括内嵌在 bundle 中的所有指令。 bundle 起始处会有一个特殊的BUNDLE
指令,这条指令需要标记出 bundle 内所有指令的输入和输出寄存器。
MachineInstr
打包成 bundle 的工作在寄存器分配阶段完成。具体来说,只有当所有SSA相关的工作包括 双址指令转换(Two-address pass) 、 PHI节点清除(Phi Elimination) 以及 合并拷贝操作(Copy coalescing) 完成后,才能确定哪些指令可以被打包到一起。BUNDLE
指令收尾工作,包括向BUNDLE
中添加指令、设定BUNDLE
指令的参数(寄存器),要等虚拟寄存器到物理寄存器的转换完成之后才能进行。之所以不放在虚拟寄存器的阶段是因为彼时BUNDLE
指令也需要占用虚拟寄存器,它会导致虚拟寄存器的引用加倍。
译注:这里举个例子。假设bundle中的子指令共占用了四个虚拟寄存器作为输入和输出,那么BUNDLE指令也会引用这四个虚拟寄存器。因为虚拟寄存器保存了所有引用它的指令,这样它不仅需要保存bundle内的子指令,也要保存BUNDLE指令。就使得这个列表变得更长了。特别是如果寄存器所牵涉到的指令都是在 bundle 中的,那这样做就几乎使得这个列表大小翻倍。
MC Layer 的功能基本上等同汇编器,像 常量池 , 跳转表 , 全局变量 这些概念它统统都没有。它能处理的就是 标号(Label) , 机器指令 和 Object file的节(section) 这些更加底层的概念。它的设计目的很明确,就是把处理好的指令输出成.s
或者.o
文件,同时也作为工具llvm-mc
的后端来处理代码的汇编和反汇编。
MCStreamer
是一个非常棒的汇编器接口。针对不同的输出如.s
或者输出.o
它都需要不同的实现。接口的API与汇编文件的内容对应,它为每个汇编文件中的 指示字(directive) 都提供了一个独立函数如EmitLabel
,EmitSymbolAttribute
,SwitchSelection
,EmitValue
(.byte
, .word
)等。它还有EmitInstruction
函数用于将MCInst
添加到流中。
LLVM中有两处用到此接口,一个是汇编器llvm-mc
,一个是 代码发射(Code Emission) 阶段MC Layer
会调用MCStreamer
的接口把IR或机器码对象转换成.s
或者别的格式。
实现方面,LLVM提供了两个基本实现:MCAsmStreamer
输出.s
文件,MCObjectStreamer
输出.o
文件。相比之下前者的实现比较简单,只要把 指示字 按照文本输出就行了,而后者则有完整的汇编器功能。
所有在MC阶段需要使用的数据如 符号 和 节 什么的都放在MCContext
中。所以你要创建符号或者节就得和它打交道。另外这个类型不能被继承。
译注:快看!果然Context才是王道!
MCSymbol
直接对应了汇编文件中的 符号(symbol) 或称 标签(label) 。我们将所有的符号分成 临时符号 和 常规符号 两类。临时符号只是在汇编的时候会使用,等object file生成之后,这些符号就会被丢弃掉。临时符号会有特定前缀进行区分,例如在 MachO 上的前缀就是"L"。
MCSymbol
由MCContext
产生和管理。在MCContext
中每个Symbol只有一个实例,这样MCSymbol
之间的比较用指针即可。不过,不同的Symbol可能会指向相同的地址,比方说下面的例子中,
foo:
bar:
.byte 4
foo
和bar
实际上都是指向.byte 4
同一个位置的。
MCSection
是对object file中 section 的描述。因为不同对象文件的实现中节的表示方法都不一样,因此对于不同的对象它都有不同的实现,如MCSectionMachO
,MCSectionCOFF
,MCSectionELF
。和MCSymbol相同, section 也是由产生MCContext
且在MCContext
内唯一。
MCInst
是MC阶段的机器指令,结构上比MachineInstr
简单多。虽然它的结构也是平台无关的,但是它保存的 指令码(opcode) 以及 MCOperand
都是平台相关的数据。MCOperand是一个union,它包含以下三种数据之一:立即数、目标寄存器ID或者由MCExpr
表示的符号表达式(Lfoo-Lbar+42
)。
MCInst
在MC Layer中的地位非常重要,无论是编码、打印输出或者是汇编器和反汇编器的输入输出,它都是存储指令的唯一手段。
译注:写到这里废话两句。这个文档中很多地方都在强调平台无关,好像一旦相关了它就是标题党一样。总结一下,LLVM在以下方面都是平台无关的:
- 结构上大多平台无关。比方说不管什么平台,它的指令都可以描述成Opcode + Operands的结构。
- 大多数优化是平台无关的。
- 很多处理过程如指令选择(Instruction Selection),当中有很多步骤是平台无关的(这也是LLVM为什么信心满满的说未来要让所有的平台相关信息都可以写到
td
文件中)。但是这里的平台无关是有一些代价的,例如你需要给寄存器和指令提供通用而详尽的特性用于模式匹配,尽管其中一部分描述在某些平台上没有作用。- 最后就是,LLVM为很多平台相关的实现都提供了接口,比如MCStreamer。这样几乎可以让所有的逻辑都是平台无关的。 当然也可以雄辩说,这些实现都是针对寄存器机的共性,所以“平台无关”的说法都是扯淡。
在 代码生成器高层设计 一节我们已经展示了LLVM的工作流程,这一节主要解释算法原理和代码生成器设计时的考量因素。
整个 指令选择 阶段就是把LLVM的代码转化成平台相关的机器指令。关于这个问题有很多现有方案,LLVM使用的是 基于SelectionDAG的指令选择子(SelectionDAG based instruction selector) 。
大部分 指令选择子 的代码都是由目标描述(*.td
)文件产生的,我们也希望以后td
文件能包办一切,但是现阶段我们还需要为指令选择子提供一些自定义的C++实现。
SelectionDAG 是代码的一种抽象表达。这个结构有很很多优点,它适合与一些自动化指令选择算法协同工作,比方说 基于动态规划的最优模式匹配(dynamic-programming based optimal pattern matching selectors) 。对于代码生成特别是 指令调度(instruction scheduling) 它也是个非常易用的结构。另外有很多底层但是平台无关的优化,也可以很方便的应用在SelectionDAG上,当然这些优化需要平台提供相应的信息。
LLVM中的 SelectionDAG 是一个以SDNode
对象作为节点的 有向无环图(DAG,Directed-Acylic-Graph) 。SDNode
最重要的属性是 操作码(Operation Code,Opcode) 和 操作数(Operands) 。前者用来表示 节点(Node) 是做什么的(也就是 指令 或 操作 ),后者是操作的参数。include/llvm/CodeGen/SelectionDAGNodes.h
中提供了一些预定义的 节点类型(Operation Node Types) 。
每个节点都可能使用其它节点作为输入,SDNode
的 operands 就用来保存它们所引用到的SDNode
,这也称作是 边(Edges)(译注:可以理解成DAG的边。)
。尽管大部分的 运算(Operation) 都只会 产生(或称定义,define) 一个值(译注:可理解为运算的返回值)
,但是SDNode
也可能会有多个值,比方指令sincos
就需要同时返回正弦和余弦值。对这种情况,其他节点的输入就必须要知道具体引用了它的哪一个返回值,此时 边 需要用SDValue
而不能是简单的SDNode
来表示。SDValue
是一对值<SDNode, unsigned>
,它不光指明了值的来源节点,还指明了它使用的是节点的第几个返回值。并且每个值都会有一个MVT(Machine Value Type)
来表示它的类型。
译注:
SDValue
在LLVM中经常作为SDNode
的 Reference 来使用;
SelectionDAG有两种类型的值,分别表示 数据流(Data Flow) 和 控制流(Control Flow) 上的 依赖关系(Dependencies) 。
译注:这里我可能断句有点问题。而且有些地方我也没理解清楚。 所以,又到了举栗子的时间了!简单入门一下数据流和控制流依赖。 有这么一段代码(:= 是 define 的意思)
... x := ... // 把某某表达式定义成x y := ... z := x + y
那么这里的z对x就是数据流上的依赖。因为显然x一遍,z的值就变了。
又有这么一段代码
if(x){ z := 3 } else { z := 4 }
那么这个时候z对x当然也是有依赖的。显然x变了,执行路径可能就变了,z就变化了。这是控制流上的依赖。
当然对这个例子,你也可以理解成
z = cond(x, 3, 4)
,进而解释成数据流上的依赖,那当然也能行得通。另外按照下文的暗示,所有的副作用节点之间都是有控制依赖的。
如果一个值在数据上依赖于其它节点,那么这条边就是一个简单边,其类型是整型或浮点这样的数据类型。如果这个值表示的是一个 控制依赖 ,那么我们有一个更贴切的概念 链(chain) 来命名这一类关系,它的类型是MVT::Other
。并且,LLVM需要为所有有 副作用(Side-effects) 的节点(例如Loads,Stores,Calls,Returns)提供一个排序。所有有副作用的节点都必须要接受一个 令牌链(token chain) 作为输入,并且产生一个新的链作为输出。LLVM约定,输入的令牌链作为Node的第一个输入参数(operand #0),输出的令牌链作为Node的最后一个输出。
译注:Token Chain在实现上就是一个Node Chain。所有的分支跳转节点、副作用节点都要加到这个Chain上。
SelectionDAG有两类特殊的节点, Entry 和 Root 。 Entry 节点使用ISD::EntryToken
作为 Opcode ,而 Root 节点是整个 令牌链 中最后一个控制依赖节点(译注:原文中为副作用节点,认为有误,故作修正。)
。例如,如果函数体只有一个基本块,那return
这个节点就是 Root 节点。
译注:文档中没有解释这两个节点的作用。多两句嘴。
- Entry 是整个DAG的入口,它标出了一个代码段的起始位置。在很多分析中,它都起到了哨兵节点的作用,很多
SDValue
(例如 Root )在初始化的时候都是指向 Entry 节点。- Root 作为最后一个控制依赖的节点,可以逆行向上索引到所有有控制依赖的节点。这样做起别名分析、Scheduling、或者是Auto-Vectorization来就会很方便。此外,对volatile的读写操作LLVM在构建Chain的时候有一些非常有趣的行为。
最后,SelectionDAG分为 合法(Legal) 和 非法(illegal) 两种。一个 合法 的DAG中所有节点的指令和参数类型都是目标平台直接支持的,例如32bit的PowerPC上,i1
、i8
、i16
、i64
这些类型就是 非法 类型。所以说要翻译成机器直接运行的指令,得将包含了各种复杂数据类型和指令的 非法 DAG,通过 类型合法化(Legalize Types) 和 操作合法化(Legalize Operations) 两个阶段转换成一个 合法 的DAG。
基于SelectionDAG的指令选择是个很麻烦的过程,细分的话有以下几个阶段:
-
构建最初的DAG —— 将LLVM IR
(译注:LLVM IR在内存中也有个保存形式,和SelectionDAG不一样但是很相似)
转化成一个 非法 的SelectionDAG。 -
优化构建好的SelectionDAG —— 对构建好的SelectionDAG做一些简单优化,尽量让SelectionDAG简单一些,并且把一些平台支持的元指令(meta instructions)(例如 旋转(Rotates) 、
div/rem
指令)识别出来。这样不仅可以优化最终代码,也可以让指令选择阶段变得简单一些。 -
合法化SelectionDAG类型 —— 把目标平台不支持的类型统统超度成平台支持的数据类型。
-
优化SelectionDAG —— 合法化阶段肯定得有一些垃圾代码,把它们都消灭。
-
合法化SelectionDAG的操作(指令) —— 超度目标平台不支持的指令。
-
优化SelectionDAG —— 再次优化,消除合法化阶段带来的问题。
-
指令选择 —— 指令选择子(instruction selector)会根据DAG的操作(指令)选择合适的平台指令。这一步将会把平台无关的DAG转换成平台相关的DAG。
-
SelectionDAG的调度与队列化(Scheduling and Formation) —— 最后一步是要将DAG重排成指令队列,并且发射到
MachineFunction
中。这一步LLVM使用的传统的Prepass调度算法。
译注:解释一下调度算法:
指令调度就是给所有的指令排个顺序(这个算法与很多优化都有关系,比方说延迟隐藏、Cache Missing Ratio之类的)。这里Prepass Scheduling是指在寄存器分配前进行指令调度。如果是指令调度在寄存器分配之后,那就成为Postpass Scheduling。
两者各有利弊。前者的问题在于,指令调度好了之后,寄存器分配时很可能会面临寄存器不够用的情况,那就得加入Spilling Code(寄存溢出代码),用内存来进行数据的周转(和虚拟内存差不多是一个道理)。这部分代码会影响到指令的延迟,这样会非常影响调度的效果。采用Postpass的方法,那就得在寄存器分配完才能进行调度,但此时就没有SSA了,依赖分析上就会差很多,指令调度就会很难做。
在以上所有工作都完成后,SelectionDAG就能被销毁了,代码生成器继续进行接下来的工作。
为了满足大家的偷窥欲,LLC提供了一些参数可将编译的中间过程可视化:
-view-dag-combine1-dags
可以显示初始构建、还没被优化的DAG。-view-legalize-dags
可以显示在合法化之前的DAG(已经经过一些优化了)。-view-dag-combine2-dags
可以显示第二次优化之前的DAG(已经经过一些优化了)。-view-isel-dags
可以显示指令选择之前的DAG。
如果一切OK的话,在你敲完这些命令之后稍等片刻就会弹出一个窗口将DAG绘制出来。如果你除了错误提示别的都看不到,那可能是配置出问题了,重新按照文档配置一下LLVM吧(译注:一般就是什么dot啊,graphviz之类的画图软件没有配置好)
。最后,还有个命令-view-sunit-dags
可以显示Scheduler的依赖图。这个依赖图是依据最终的SelectionDAG绘制出来的,在这张图里面,我们可以知道哪些指令 bundle 到了一起。不过它省略了一些与指令调度无关的立即数和节点。
SelectionDAG的创建是个基本的窥孔算法。LLVM IR经过SelectionDAGBuilder
的处理后转换成SelectionDAG。我们希望这一阶段可以给SelectionDAG附加尽可能多的与平台相关的细节。这个Pass基本都是人肉的,你需要手工将IR中的add
指令转换成SelectionDAG中的add
节点,也要把IR中的GetElementPtr
指令人肉展开成地址的算术运算。
译注:
GetElementPtr
是LLVM IR的指令,用于计算结构体成员或者数组元素的地址偏移量。
根据平台的不同,call
,return
,varargs
这些指令的在转换成DAG的时候都会有所差异,可以使用TargetLowering
接口作为 _hook_以实现平台相关的特性。
这一步要把DAG中用到的数据的类型统统转化成目标平台直接支持的类型。达到这个目的主要有两条途径,一种是将较小的类型转成较大的类型,即 类型提升(promoting) ;一种是将较大的类型拆分成多个小的类型,即 展开(Expanding) 。比方说在某些平台上只有64位浮点和32位整数的运算指令,你得把所有f32都 提升(promoted) 到f64,i1/i8/i16都提升到i32,同时还要把i64拆分成两个i32来存储。当然在提升或扩展的过程中可能会遇到一些问题,例如整型位数变化后,可能需要 带符号扩展(signed extension) 或 无符号扩展(zero extension) 。无论怎样,最终都要保证转换后的指令与原始的IR在行为上完全一致。
LLVM IR中有目标平台无法支持的矢量,LLVM也会有两种转换方案, 加宽(widening) ,即将大vector拆分成多个可以被平台支持的小vector,不足一个vector的部分补齐成一个vector;以及 标量化(scalarizing) ,即在不支持SIMD指令的平台上,将矢量拆成多个标量进行运算。
译注:LLVM IR支持任意长度的 矢量(vector) 。LLVM中的矢量是为SIMD操作设计的,但是目标平台可能无法支持任意长度的矢量,例如x86上SSE的一些指令只支持4个单精度浮点的矢量。因此,在x86平台上需要将15个f32的vector补齐成16个f32然后拆分成四个m128。
在初始化平台特定的TargetLowering
时,要用addRegisterClass
注册平台支持的数据类型及对应的寄存器分类。 Legalizer 会根据这些信息来确定平台所支持的类型。
这一步将DAG中节点的操作/指令合法化成平台支持的操作。
目标平台一般不可能为所有支持的数据提供IR中所具有的全部指令,x86上没有 条件赋值(conditional moves) 指令,PowerPC也不支持从一个16-bit的内存上以符号扩展的方式读取整数。因此, 合法化 阶段要将这些不支持的指令按三种方式转换成平台支持的操作: 扩展(Expansion) ,用一组指令来模拟一条操作; 提升(promotion) 将数据转换成更大的类型; 定制(Custom) 通过Hook,让用户实现合法化。
在初始化平台对应的TargetLowering
时,需调用setOperationAction
注册不被支持的操作,并指定三种行为的一种来完成合法化。
如果没有 合法化 ,那么所有平台上的 选择子 都需要支持DAG中的每一条操作和全部数据类型。借助于 合法化 ,我们可以让平台间共享全部的规范化模式(cononicalized pattern),并且因为规范化后的代码仍然是DAG,因此优化起来也非常方便。
译注:这里不甚明了cononicalized pattern的具体含义,因此只是直译。不过猜测此处的Pattern应该是指那些平台无关的模式匹配规则。
在整个代码生成阶段,SelectionDAG会被优化多次,在SelectionDAG构建完成之后就需要进行首次优化,完成一些代码的清理工作(例如根据指令参数的具体类型进行的优化)。其他的几轮优化用于清除合法化带来的一些垃圾代码。有了单独的优化pass,合法化就可以不必过于操心生成的代码质量,从而使 合法化 的实现变得简单一些。
另外在指令选择的时候,会生成一大堆的整数带符号扩展或者无符号扩展,这些代码是优化的重点。目前LLVM里面还是 人肉(ad-hoc)处理 它,以后我们会该用更严谨的算法去实现,例如:
“Widening integer arithmetic” Kevin Redwine and Norman Ramsey International Conference on Compiler Construction (CC) 2004
“Effective sign extension elimination” Motohiro Kawahito, Hideaki Komatsu, and Toshio Nakatani Proceedings of the ACM SIGPLAN 2002 Conference on Programming Language Design and Implementation.
选择阶段(Select Phase) 是所有平台相关的指令选择过程的统称。这一阶段的输入是合法的SelectionDAG,通过模式匹配获得平台指令,并将结果输出到一个新的DAG。考虑以下LLVM IR片段:
译注:Legalize的阶段和Select阶段都会变换SelectionDAG中的Operation。只不过前者是将目标无关的Operation转换成目标无关但是会被平台支持的Operation,后者是将平台支持的Operation变成平台指令。
%1 = fadd float %w, %x
%2 = fmul float %1, %y
%3 = fadd float %2, %z
这段代码对应的SelectionDAG大概是下面这样:
(fadd:f32 (fmul:f32 (fadd:f32 W, X), Y), Z)
如果目标平台支持浮点的 乘加(multiply-and-add,FMA) 操作,那么此时会把add和mul指令合并到一起。在PowerPC上,输出的DAG是这样:
(FMADDS (FADDS W, X), Y, Z)
FMADDS
是一个单精度的三元运算符,它将头两个参数相乘并加到第三个参数上。FADDS
是一个单精度的二元加法运算符。为了执行这个模式匹配,PowerPC的后端得有这样的指令定义:
def FMADDS
: AForm_1<59, 29,
(ops F4RC:$FRT, F4RC:$FRA, F4RC:$FRC, F4RC:$FRB),
"fmadds $FRT, $FRA, $FRC, $FRB",
[(set F4RC:$FRT, (fadd (fmul F4RC:$FRA, F4RC:$FRC), F4RC:$FRB))]>;
def FADDS
: AForm_2<59, 21,
(ops F4RC:$FRT, F4RC:$FRA, F4RC:$FRB),
"fadds $FRT, $FRA, $FRB",
[(set F4RC:$FRT, (fadd F4RC:$FRA, F4RC:$FRB))]>;
中括号内的部分就是对模式匹配的提示,F4RC
是输出和输出的寄存器分类。所有的DAG操作/指令例如fmul/fadd
都在include/llvm/Target/TargetSelectionDAG.td
中。
TableGen会读入.td
文件,并且生成对应的模式匹配代码。这样做有下面好处:
- 编译时间
(译注:此处是指编译编译器的时间。compiler-compiler time)
内可以检查所有的指令模式并且告诉你模式是否正确。 - 模式匹配时能处理对参数的任意 约束(constraints) 。你可以很容易的描述这样的约束:“参数必须是任何13bit、带符号扩展的立即数”。作为例子可以参考PowerPC后端中的
immSExt16
及相应的tblgen
代码。 - 能够识别一些重要的pattern。例如它知道加法是符合交换律的,因此它既能匹配
fadd X, (fmul Y, Z)
,也能匹配fadd (fmul X, Y), Z
,这些都不需要用户做任何特别的处理。 - 它有完备的 类型推导能力(type-inferencing system) 。大部分情况下用户可以不用显式的指定模式的参数类型。例如
FMADDS
不需要在tblgen
中指明这个pattern的参数是f32
,它会根据参数描述中F4RC
这个寄存器分类,推导出它需要f32
类型的数据。 - 目标平台可以定义自己的" 模式片段(pattern fragments)"。 _模式片段_是一组可复用的模式集合。例如,SelectionDAG不支持
not
操作,但是用户可以定义一个not x
的 模式片段 ,这个片段可以展开成xor x, -1
。具体内容可以参见片段not
和ineg
的相关代码。 - 除了指令之外,目标平台还可以通过类
Pat
将任意模式匹配成指令序列。考虑PowerPC上无法在一条指令内,读取一个任意整型立即数到寄存器中,那么可以在tblgen
中添加这样的pattern:
// Arbitrary immediate support. Implement in terms of LIS/ORI.
def : Pat<(i32 imm:$imm),
(ORI (LIS (HI16 imm:$imm)), (LO16 imm:$imm))>;
如果平台将立即数读到寄存器的单条指令Pattern,它就会使用这条规则:“将一个i32
立即数的读取转化成一条ORI
(同16bit立即数进行或操作)和一条LIS
(左移十六位)指令”。如果运用了这条规则,输入的立即数为了匹配它,也会拆分成LO16/HI16
。
- 系统在大多数时候是运用pattern自动匹配的,但可以添加自定义的C++代码去处理非常复杂的匹配规则。
当然,现有匹配规则也存在不少缺陷。不过大部分问题将在以后的开发中逐渐解决或完善。
- 暂时还没有办法匹配有可以返回/定义多个值的SelectionDAG节点,例如
SMUL_LOHI
,LOAD
,CALL
。这也是用户需要编写C++代码的主要原因。 - 对于复杂的寻址模式目前还支持的不够好(例如x86的四参数寻址模式,目前LLVM还是用C++代码来匹配)。以后我们会增加一些模式片段来支持这一特性,并打算让一个模式片段可以匹配多个不同的模式。
- 不能自动推断标记
isStore/isLoad
。 - 不能自动产生Legalizer需要的寄存器支持集和指令支持集。
- 无法和自定义的合法化节点协同工作。(dont have a way of tying in custom legalized nodes yet.)
译注: 两个问题有待考证: 1. 不清楚isStore和isLoad的标记(flag)有什么作用;2. 不知道自定义的合法化节点是什么样子的节点。
尽管存在这些问题,指令选择子产生器仍然是非常有用的。对大部分平台,它都能涵盖绝大部分的二元和逻辑指令。如果你遇到了问题或者有什么不懂的,可以与Christ联系!
吐槽:邮件列表里面都是小弟在回。而且口气都很可怕。
调度阶段主要将指令从DAG中提取出来并加以排序。调度器会根据平台的特性,依据一定的规则(如 最小化寄存器压力(minimal register pressure) 或 隐藏指令延迟 )来对指令排序。在这一步完成后,DAG会被转换成MachineInstr
的列表,SelectionDAG会随之删除。
这一步尽管在逻辑上是与 指令选择 分离的,但它也是在SelectionDAG进行调度和排序,因此它和指令选择阶段的关系非常紧密。
- Optional function-at-a-time selection.
-
- Auto-generate entire selector from .td file.
TO BE WRITTEN
变量的生存期是指某个变量的有效范围。变量生存期分析最重要的用途是,判断程序在同一个执行点上是否有一个或多个虚拟寄存器申请了相同的物理寄存器。如果发生了 冲突(conflit) 那么就需要这些虚拟寄存器通过寄存器 溢出(spilled) 的形式共享物理寄存器。
译注:这里所说的变量(variable)通常是指值(value)。
活动变量分析的第一步是清除那些定义了但是从未引用过的寄存,其次是确定最后一条引用某个虚拟寄存器的指令。所有的虚拟寄存器以及参与分配的物理寄存器都需要进行活动变量分析。因为LLVM是SSA的形式,所以很容易分析虚拟寄存器的生存期(译注:因为寄存器不能被写,所以生命期就很短)
。同时LLVM约定了物理寄存器不能跨基本块,物理寄存器的生命期只需在块内分析即可。不参与分配的寄存器,如栈指针和条件寄存器,是不跟踪其生命期的。
考虑到函数调用和返回(live in to or out of a function),物理寄存器的生命期可能会跨越函数边界。LLVM通过 虚拟的(dummy) defining
指令保留了所有 输入寄存(live in register) 的生存期;如果最后一个基本块拥有return
指令,那么函数所有的 返回值(live out of register) 的生存期皆用此条指令来界定。
PHI
节点需要做一些特殊处理。由于 变量生存期分析 是对函数控制流图(CFG, Control Flow Graph)的深度优先遍历,因此在分析PHI
节点时,它的参数寄存器可能还未定义。因此当访问到PHI
时,仅处理该节点的定义,而它所引用的寄存器则在其他块中处理。
对于和当前块有关的每个PHI
节点(Phi node of current basic block),我们都在块末模拟一条赋值指令(simulate an assignment at the end)并遍历所有的后继块。如果后继块(successor basic block)中存在PHI
节点且它引用的参数来自于当前块,那么会从当前块向其所有 前驱块(predecessor basic block) 追溯,直到找到定义该变量的指令,并认为该变量在这一范围内都是 存活的(alive) 。
译注:这段文字大部分来自注释,但是它又没有引用完整,因此很难理解。 考虑以下的代码:
Block0: ... %In0 = ... ... Block1: %In2 = phi [%In0, Block1], [%In1, Block2] ... Block2: ... %In1 = ... ... ... = add %In2, ...
可以看到,
- 在读到phi指令的时候,In0已经定义了,但是In1并没有定义。
- Phi的节点在Block2之前。如果将Phi节点作为In1生存期的终结,它显然还没开始就结束了。
因此,在处理Phi节点及其引用的寄存器的生存期,需要一些技巧。具体的,
- 在生存期分析之前,要收集 Phi节点参数 的来源块。(这个很重要!)
- 将 Phi节点参数 挂接到来源块上。
- 在块中的其他指令节点处理完毕后,处理它所关联的 Phi节点参数
- 对于当前块所关联的 Phi节点参数 ,我们认为它在当前块和当前块的前驱块中均是alive的(所谓虚拟的assignment),这一范围一直追溯到参数定义的地方。
- 因为 Phi节点参数 寄存器的生命期都是在它的来源块中处理,所以在Phi节点出现的地方只需要处理它所定义的寄存器即可。
此外,在存储和表达变量生存期的时候,代码和文档也略有区别,具体内容可以参见
include/llvm/CodeGen/LiveVariables.h
在获得了活动变量之后就可以进行进一步的分析。首先要给所有的块和机器指令进行编号;紧接着处理 输入值(“Live-in” values) ,它们都是物理寄存器,因此会在基本块的末尾结束生存期(killed);如果将机器指令表示成[1, N]
的序列,那么虚拟寄存器的生存周期可以表示为[i, j)
,其中 1 <= i <= j < N
。
(More to come ...)
寄存器分配(Register Allocation) 是将程序从无限的虚拟寄存器机模型映射到有限的物理寄存器机模型的必要阶段。不同的平台可以使用的物理寄存器数量是不同的,通常来说,平台所提供的物理寄存器,都要远小于虚拟寄存器数量。此时需要把一些虚拟寄存器映射到内存中,这些在内存中的虚拟寄存器,我们称之为 溢出寄存器(Spilled Virtuals) 。
每一个物理寄存器在LLVM中均有一个 1 - 1023 范围内的编号。具体的编号细节,可以在GenRegisterNames.inc
文件中找到,例如在lib/Target/X86/X86GenRegisterInfo.inc
中可以看到32bit的EAX寄存的编号是43,MMX寄存器MM0
编号是65。
在一些架构上,不同的寄存器名可能会共享相同的物理空间。x86中EAX
,AX
,AL
就共享了8个bit。这些寄存器在LLVM中统称为 别名(aliased) 。别名信息可以在平台的RegisterInfo.td
中查到,通过MCRegAliasIterator
,可以遍历所有的寄存器别名。
LLVM将全部物理寄存器按照 寄存器分类/类别(Register Classes) 进行分组。每一个寄存器分类中的所有寄存器,在功能上都是等价的,彼此间可以相互替代。虚拟寄存器也有分类,而且它只能被映射到同分类的物理寄存器上。还是以x86为例,如果虚拟寄存器是8bit的,那么它也只能映射到8bit的物理寄存器上。在代码中寄存器分类是在TargetRegisterClass
的实例中描述的。LLVM通过以下代码,判断虚拟寄存器和物理寄存器是否兼容:
bool RegMapping_Fer::compatible_class(MachineFunction &mf,
unsigned v_reg,
unsigned p_reg) {
assert(TargetRegisterInfo::isPhysicalRegister(p_reg) &&
"Target register must be physical");
const TargetRegisterClass *trc = mf.getRegInfo().getRegClass(v_reg);
return trc->contains(p_reg);
}
在某些情况下,特别是调试的时候,可能需要修改可用的物理寄存器。此时可以修改TargetRegsterInfo.td
文件:用grep
在文件中找一下RegisterClass
,可以看到它最后的参数是一个寄存器列表。只需要修改这些列表,就可以排除不需要的寄存器。另外,也可以显式的将寄存器排除在 分配顺序(Allocation Order) 之外。作为用例,你可以参考lib/Target/X86/X86RegisterInfo.td
中的寄存器分类GR8
。
虚拟寄存器也有相应的编号。和物理寄存器不同,虚拟寄存器是没有别名的。此外,虚拟寄存器不在TargetRgisterInfo.td
中预定义,而是通过MachineRegisterInfo::createVirtualRegister()
运行时分配出新的虚拟寄存器来。IndexedMap<Foo, VirtReg2IndexFunctor>
保存了虚拟寄存器的信息。如果想遍历全部的虚拟寄存器,可以参考以下代码:
for (unsigned i = 0, e = MRI->getNumVirtRegs(); i != e; ++i) {
unsigned VirtReg = TargetRegisterInfo::index2VirtReg(i);
stuff(VirtReg);
}
在寄存器分配之前,除了少数必须要用物理寄存器的情况,基本上指令的参数都使用虚拟寄存器。通过一些函数可以了解寄存器的使用情况:MachineOperand::isRegister()
判断指令参数是不是用一个寄存器;MachineOperand::getReg()
获得参数对应的寄存器号。此外,寄存器既可以是指令的 输入(use) ,也可以是指令的 输出(def) ,比方说 ADD reg:1026 := reg:1025 reg:1024
就相当于 reg:1026 = reg:1025 + reg:1024
。输入输出的信息,可以通过MachineOperand::isUse()
和MachineOperand::isDef()
获得。
在寄存器分配之前就已经占用的物理寄存器,我们称为 预着色寄存器(pre-colored registers) 。这些寄存器之前我们提到过,主要用在函数参数的寄存器传递、返回值、以及一些特殊的指令上。预着色寄存器可能是 隐式定义(implicitly defined) 的,也可能是 显式定义(explicitly defined) 的。显式定义的寄存器就是指令的参数,可以通过MachineInstr::getOperand(int)::getReg()
来获取。隐式定义的寄存器,则需要通过TargetInstrInfo::get(opcode)::ImplicitDefs
来获得。隐式和显式的预着色寄存器定义主要区别在前者是在定义指令的时候静态指定的,而后者会根据程序而有所变化。举个例子,call
指令就是典型的隐式寄存器定义,因为它始终占用同样的物理寄存器。通过TargetInstrInfo::get(opcode)::ImplicitUses
,可以查找指令隐式地定义了哪些物理寄存。注意,不管用什么寄存器分配算法,预着色的寄存器都是要强制满足的。只要预着色的寄存器还在使用中(alive),它们就不能被虚拟寄存器的值所覆盖。
实现虚拟寄存到物理寄存或 内存插槽(memory slot) 的映射 有两种方案, 直接映射(direct mapping) 和 间接映射(indirect mapping) 。前者使用TargetRegisterInfo
和MachineOperand
中的API即可,后者则需要VirtRegMap
以正确的插入读写指令实现内存调度。
对寄存器分配器算法的开发者来说,直接映射的优点是灵活。但是它的实现相对复杂,也比较容易出错。用户需要自行插入内存的操作指令,以处理虚拟寄存器在内存中的映射。开发者需要用到的API有: MachineOperand::setReg(physicalReg)
建立虚拟寄存器和物理寄存器之间的映射;TargetInstrInfo::storeRegToStackSlot(...)
将虚拟寄存器保存到内存中;TargetInstrInfo::loadRegFromStackSlot
从内存中读出虚拟内存的值。
间接映射的API可以帮助开发者从内存存取的细节中解脱出来。用户只需要通过VirtRegMap::assginVirt2Phys(virtualReg, physicalReg)
建立物理寄存器和虚拟寄存器的映射,或者将VirtRegMap::assignVirt2StackSlot(virtualReg)
将虚拟寄存器映射到内存中即可。你还可以通过VirtRegMap::assignVirt2RegSlot(virtualReg, stackLocation)
强制将虚拟寄存器映射到某个内存地址上。
不过有一点需要强调,即便将虚拟寄存器映射到内存上,实际指令在执行的时候,往往还是要先读到物理寄存器当中的(译注:特别是一些RISC架构的CPU)
。这个时候我们可以假设LLVM是先把物理寄存器的值保存下来,然后读入虚拟寄存器的值,执行指令,再把虚拟寄存器的值保存好了,最后恢复物理寄存器的现场。(译注:这个时候寄存器分配算法如果比较好的话,会有空余的物理寄存器,就没必要这么纠结了。)
如果用户使用了LLVM提供的间接映射将虚拟寄存器映射到物理寄存器或内存上,那么LLVM会生成 溢出代码(spiller object) 以插入内存读写指令。所有映射到内存上的虚拟寄存器都会在定义的时候把值写到内存中,到引用的时候再读出来。溢出代码在实现的时候会进行优化,以避免不必要的读写。lib/CodeGen/RegAllocBasic.cpp
中的RegAllocBasic::runOnMachineFunction
演示了溢出代码的典型用法。
除了少数Call这样的指令外,LLVM大部分的机器指令都是三参数的(通常是两个参数一个返回值)。但是大部分的硬件指令都是双参数。其中一个参数既是输入,同时也是输出。例如x86中的ADD %EAX, %EBX
实际上等价于%EAX = %EAX + %EBX
。
所以LLVM在寄存器分配前,有一个独立的PassTwoAddressInstructionPass
将三参数指令转换成双参数的形式。例如%a = ADD %b %c
会被转换成下面的代码:
%a = MOV %b
%a = ADD %a %c
从例子中可以知道,经过双参数转换后的指令就不再是SSA的形式了。此外还要注意的是,第二条指令在实现中实际表达为ADD %a[def/use] %c
,说明参数%a
既是输入,也是输出。
在寄存器分配阶段,需要将SSA形式的代码进行 解构(SSA Deconstruction Phase) 。SSA是个好东西,分析方便,优化方便。但是硬件没办法直接执行它,最起码Phi节点/指令就能让硬件嗝屁了。所以要让SSA执行起来,首当其冲就是既要维持原有代码的行为,又要清理掉其中的Phi节点。
清理Phi指令的办法有很多,最传统的也是LLVM使用的方法,就是用 拷贝(Copy)指令 替换Phi指令。具体实现可以参阅lib/CodeGen/PHIElimination.cpp
。不过在清理Phi指令之前,先要为每一条Phi指令都分配一个PHIEliminationID。
指令折叠(Instruction Folding) 是一个优化,目的是移除多余的拷贝指令。例如下段代码
%EBX = LOAD %mem_address
%EAX = COPY %EBX
可以被安全的优化成
%EAX = LOAD %mem_address
TargetRegisterInfo::foldMemoryOperand(...)
提供了具体的优化算法。在执行指令折叠的时候必须要小心谨慎,同时折叠后的指令也有可能与原先指令完全不同。lib/CodeGen/LiveIntervalAnalysis.cpp
中的LiveIntervals::addIntervalsForSpills
是指令折叠的一个范例。
LLVM为应用程序开发者提供了以下几种寄存器分配算法:
- Fast —— Debug版本中默认的寄存器分配算法。它在基本块层面上处理寄存器分配,尽可能保留寄存器的值,并且在适当的时候才复用寄存器。
- Basic —— Basic是增量的寄存器分配算法。它通过一个启发式(Heuristics)算法按一定顺序分配给寄存器生存期。因为这一算法可以在运行时进行调整,因此它可以允许以扩展的形式开发一些非常有趣的寄存器分配方案。虽然这个算法作为产品级算法还不够格,但是它可用来作为其他分配算法的正确性和性能的评价基准。
- Greedy —— 贪心(Greedy)算法是LLVM默认的寄存器分配算法。它可以看成是Basic算法将变量生存期进行分裂(splitting global live range)后高度优化的版本。贪心算法大大减少了 溢出代码 带来的成本。
- PBQP —— 这个看起来很专业的名字来自于 Partitional Boolean Quadratic Programming 的缩写。它将寄存器分配描述为一个分区布尔二次规划的问题,解算PBQP后,将结果用于寄存器分配。
译注:
- PBQP是规划算法的一类,相关资料可以参见http://www.complang.tuwien.ac.at/scholz/pbqp.html
- 关于PBQP在寄存器分配中的应用,可以参见此篇http://pp.info.uni-karlsruhe.de/uploads/publikationen/buchwald11cc.pdf
- 寄存器规划是个大问题。教科书上通常会将寄存器分配转化为相交图(Interference Graph)上的节点着色算法。K着色问题是NP完全问题。而且因为物理寄存器数量较少,经常需要溢出到内存,最小化溢出代价也是个NP完全问题。
- Basic算法根据实现,应接近Poletto和Sarkar提出的线性扫描算法(Linear Scan)。它实际上是图着色的简化。
- 最后,关于SSA的寄存器分配问题,在2005年证明了SSA表达下的相交图是弦图(Chordal Graph)。弦图有个非常重要的性质,就是它可以在多项式时间内着色。这也算是SSA的优点之一。
通过llc的参数,可以指定不同的寄存器分配算法:
$ llc -regalloc=basic file.bc -o ln.s
$ llc -regalloc=fast file.bc -o fa.s
$ llc -regalloc=pbqp file.bc -o pbqp.s
(译注:这段文档好像没有写完,很混乱。Prolog和Epilog是进入和退出函数时执行的辅助代码。本节主要讨论Prolog和Epilog对异常的支持。)
如果函数体内要处理异常,那么在退出函数的时候需要执行一段叫Unwinding的代码完成清理。Unwinding需要一些栈帧信息,其中一种常见的信息格式称为DWARF。DWARF最初是设计给调试器使用,每个函数的 帧描述(Frame Description Entry,FDE) 都有20-30个字节之多。并且它在运行时需要根据函数内的地址查找FDE,这也是一笔不小的开销。因此LLVM使用了一种称为Compact Unwind的格式将每个函数的开销降低到四个字节。
Compact Unwind是一个32位的编码,根据平台会有不同的编码方式。它保存了在异常发生后需要恢复的寄存器和恢复数据的来源,以及如何Unwind出函数。链接器(Linker)在创建最终可执行文件的时候,会增加__TEXT
和__unwind_info
两个段(section)。任何函数只要使用了Compact Unwind,Unwind数据都会被编码到这两个段中。两个段都很小,而且在运行时通过函数查找Unwind数据的速度也很快。如果是完整的DAWRF Unwind信息,那么所有的FDE都被保存在__TEXT
和__eh_frame
段中,__TEXT
和__unwind_info
只保存FDE的偏移。
对于x86来说,有三种Compact Unwind编码模式:
- 具有栈帧指针的函数(
EBP
/RBP
)。有xBP
指针的函数,在调用的时候会在返回地址之后将栈顶指针压栈,然后再将xSP
赋值给xBP
。因此在Unwind的时候,要将xBP
赋值给xSP
,并从栈中弹出xBP
。此外,还要从xBP-4
到xBP-1020
的堆栈范围内恢复所有的 非易失性存储器(non-volatile registers)。其偏移量在32位上除以4,或64位上除以8后,编码到16-23bit中(对应掩码是0x00FF0000
)。需要保存的寄存器按照每3bit表示一个寄存器号的形式编码到0-14bit(对应掩码是0x00007FFF)。下表为寄存器号的对照表:
Compact Number | i386 Register | x86-64 Register |
---|---|---|
1 | EBX | RBX |
2 | ECX | R12 |
3 | EDX | R13 |
4 | EDI | R14 |
5 | ESI | R15 |
6 | EBP | RBP |
-
无栈帧,函数的堆栈大小固定且较小的(不使用
xBP
保存堆栈指针)。此种情况下在函数返回时直接向xSP
加上一个地址偏移。此时所有的非易失性寄存器都保存在返回地址之后。堆栈大小(仍然是除以4或除以8)编码到16-23bit,因此这一模式仅支持1024字节(32bit)或2048字节(64bit)以内的堆栈大小;被保存的寄存器数量编码到9-12bit(掩码为0x00001C00
);而0-9bit(掩码为0x000003FF
)则按顺序编码了被保存的寄存器号。(具体的编码算法可以参见lib/Target/X86FrameLowering.cpp
中的encodeCompactUnwindRegistersWithoutFrame()
)。 -
无栈帧,函数的堆栈大小固定且较大(不使用
xBP
保存堆栈指针)。此种情况与上一种情形类似,但因为堆栈太大因而无法将堆栈大小编码到Unwind中,因此选择在Prolog中插入指令subl $nnnnn, %esp
以调整堆栈。Compact Unwind则将$nnnnn
的偏移量保存在9-12bit中(掩码0x00001C00)。
TO BE WRITTEN
简单来说, 代码发射 就是将 MachineFunction 和 MachineInstr 等通过 MC Layer 的API(MCInst
,MCStreamer
等)输出出去。它可能由以下几个类来完成:平台无关的AsmPrinter
,平台相关的AsmPrinter
的子类(如SparcAsmPrinter
),以及TargetLoweringObjectFile
。
因为MC Layer工作在Object file一级上,因此它已经没有了函数和全局变量的概念。在MC Layer中,你需要和 标签(labels) 、 指示字(directives) 和 指令(instructions) 打交道。前文也提到过,MC Layer中最重要的接口是MCStreamer
,因此只要选择不同的实现,并使用MCStreamer
提供的函数如EmitLabel
来发射每一条指示字就可以了。
如果你需要为你的平台开发代码生成器,那么以下三个部分是你必须要实现的:
- 你需要为你的平台提供一个
AsmPrinter
的子类。这个类需要将MachineFunction
转化成对MC Label的构造。AsmPrinter
其实已经提供了大多数可以复用的代码,你只需要重写一部分即可。如果你需要为你的平台实现ELF,COFF或者MachO这些格式,那也是很容易,你可以从TargetLoweringObjectFile
中复用大量的公共逻辑。 - 为平台实现 指令打印的功能(instruction printer) 。指令打印输入
MCInst
,并以文本形式输出到raw_ostream中。大部分打印逻辑可以在.td
中直接定义,比如像add $dst, $src1, $src2
这样,当然你仍然需要实现 参数(operands)打印的部分。 - 你还需要将
MachineInstr
转化成MCInst
。这一过程一般在<target>MCInstLower.cpp
文件中实现。向底层指令转化的过程通常是平台相关的,并且需要将跳转表、常量池索引、全局变量地址等这些上层的概念统统转化成对应的MCLable
。这一步也需要将一些 伪指令(pseudo ops) 用真正的机器指令替代。最终生成的MCInst
,就可以用来编码或打印成文本形式的汇编。
如果你想直接支持.o
文件的输出,或者实现自己的汇编器,你可以实现一个MCCodeEmitter
,它的任务是将MCInst
转化成字节流(code bytes)并进行定位(relocations)。
在 长指令字(VLIW,Very Long Instruction Word) 架构中,编译器需要根据架构将指令打包成 功能单元(functional units) 。LLVM提供了一个平台无关的VLIW 打包器(Packetizer) 来完成这一功能。
在VLIW体系上,多条指令会被映射到多个单元上。在打包指令之前,编译器需要确定哪些指令是可以被分在一组的。理论上来讲这个算法的复杂度非常高。
(译注:如果我没记错,最优分组也是个NP完全的问题。)
为了降低打包算法的复杂度,VLIW预先要分析所有的 指令类型(instruction classes) 并建立一个用于判断指令是否适合某个包的查找表,即Packetization Table。
打包器首先会从平台的信息中获取指令的全部类型,然后创建一个和表示包状态的 有穷自动机(Deterministic Finite Automaton,DFA) 。DFA由三种元素构成, 输入(Inputs) , 状态(States) 和 状态转移(Transitions) 。所有的输入均用来表示已经被加到Packet中的指令;状态表示当前功能单元中所有指令的 耗费(Comsumption) ;在尝试加入指令后,会导致状态转移。根据状态转移是否成立,可以判断指令能否加入到包中。
为了建立平台的打包状态机,需要将平台对应的<Target>GenDFAPacketizer.inc
增加到编译链中。用户会用以下三个接口:DFAPacketizer::clearResources()
,DFAPacketizer::reserveResources(MachineInstr* MI)
以及DFAPacketizer::canReserveResources(MachineInstr* MI)
。打包器会调用这三个接口来确定指令是否可以加入到打包其中。具体内容可以参见llvm/CodeGen/DFAPacketizer.h
。
虽然说整篇文档大部分是针对编译器后端的开发,但是LLVM也提供了完整的汇编器开发的支持。我们已经为.td
文件到汇编文件的自动转换做了大量工作。这也意味着编译器和汇编器之间共享了大部分的数据和操作。
TO BE WRITTEN
在指令解析后,就进入了MatchInstructionImpl
函数。这个函数会先处理别名,然后再做匹配。
别名处理 是将同一个指令的不同文本统一成单一表达的过程。下文我们从简单到复杂,列出了一些常见的别名处理过程。我们建议你尽量选择简单的别名处理方案。
别名处理的第一个阶段是将指令助记符映射到其它的助记符上。这个阶段非常简单,只是基本的文本替换和映射而已,不需要去处理参数等其它的问题。助记符别名的定义也非常直白,下段代码即是截取自x86的助记符别名定义:
def : MnemonicAlias<"cbw", "cbtw">;
def : MnemonicAlias<"smovq", "movsq">;
def : MnemonicAlias<"fldcww", "fldcw">;
def : MnemonicAlias<"fucompi", "fucomip">;
def : MnemonicAlias<"ud2a", "ud2">;
尽管MnemonicAlias
在映射助记符的时候不需要查看具体的指令及其参数的内容,但是它仍然可以根据一些全局状态选择定义,比如下面的例子:
def : MnemonicAlias<"pushf", "pushfq">, Requires<[In64BitMode]>;
def : MnemonicAlias<"pushf", "pushfl">, Requires<[In32BitMode]>;
指令别名是一种更加通用化的处理过程,它会根据匹配到的指令输出全新的指令。指令别名包含两个部分: 需要匹配的字符串 以及 输出指令 。仍然以x86为例子:
def : InstAlias<"movsx $src, $dst", (MOVSX16rr8W GR16:$dst, GR8 :$src)>;
def : InstAlias<"movsx $src, $dst", (MOVSX16rm8W GR16:$dst, i8mem:$src)>;
def : InstAlias<"movsx $src, $dst", (MOVSX32rr8 GR32:$dst, GR8 :$src)>;
def : InstAlias<"movsx $src, $dst", (MOVSX32rr16 GR32:$dst, GR16 :$src)>;
def : InstAlias<"movsx $src, $dst", (MOVSX64rr8 GR64:$dst, GR8 :$src)>;
def : InstAlias<"movsx $src, $dst", (MOVSX64rr16 GR64:$dst, GR16 :$src)>;
def : InstAlias<"movsx $src, $dst", (MOVSX64rr32 GR64:$dst, GR32 :$src)>;
这个例子充分展示了指令别名的作用,它可以为同样助记符的指令,根据其参数输出成不同的指令。实际上别名匹配的参数在数量和顺序上,都不需要与原指令对应,它也可以是下面这样:
def : InstAlias<"clrb $reg", (XOR8rr GR8 :$reg, GR8 :$reg)>;
def : InstAlias<"clrw $reg", (XOR16rr GR16:$reg, GR16:$reg)>;
def : InstAlias<"clrl $reg", (XOR32rr GR32:$reg, GR32:$reg)>;
def : InstAlias<"clrq $reg", (XOR64rr GR64:$reg, GR64:$reg)>;
这里例子显示,绑定的参数只需要列出一次即可。在x86中,XOR8rr
使用了两个GR8
作为输入,并输出到一个GR8
中。InstAliases
使用了 展平的寄存器列表(flattend operand list) ,不需要对绑定参数进行重复(译注:这句话没看懂。)
。别名处理的输出指令也可以使用立即数或者固定寄存器,如下所示:
// Fixed Immediate operand.
def : InstAlias<"aad", (AAD8i8 10)>;
// Fixed register operand.
def : InstAlias<"fcomi", (COM_FIr ST1)>;
// Simple alias.
def : InstAlias<"fcomi $reg", (COM_FIr RST:$reg)>;
此外,别名分析也支持Requires
语句(Clause) 过滤针对特定平台的匹配规则。
只要后端定义了相应的别名处理规则, 指令打印(Instruction Printer) 就可以自动输出别名处理后的代码。使用这一办法处理别名非常简单,代码的可读性也很好好。如果需要打印出处理前的别名,可以在定义InstAlias
的时候,第三个参数填上“0”
。
TO BE WRITTEN
译注:这一块随着版本变化一直在变,而且也没什么难理解的部分,就容许我偷个懒,不做翻译啦。