/art/runtime/interpreter/mterp/arm/ |
H A D | op_long_to_double.S | 18 vldr d3, constval$opcode 19 vmla.f64 d2, d1, d3 @ d2<- vAAh*2^32 + vAAl
|
/art/test/705-register-conflict/src/ |
H A D | Main.java | 28 double d0 = 0, d1 = 0, d2 = 0, d3 = 0, d4 = 0, d5 = 0, d6 = 0, d7 = 0; 36 d3 = d2 + 1; 37 d4 = d3 + 1; 68 return d0 + d1 + d2 + d3 + d4 + d5 + d6 + d7
|
/art/runtime/arch/arm64/ |
H A D | jni_entrypoints_arm64.S | 31 stp d2, d3, [sp, #-16]! 47 ldp d2, d3, [sp], #16
|
H A D | quick_entrypoints_arm64.S | 191 stp d2, d3, [sp, #32] 272 ldp d2, d3, [sp, #32] 778 LOADREG x15 8 d3 .LfillRegisters 903 LOADREG x15 8 d3 .LfillRegisters2 1024 ldp d2, d3, [x1], #16 1975 ldp d2, d3, [sp, #80]
|
/art/test/703-floating-point-div/src/ |
H A D | Main.java | 37 double d3 = 0.0; 48 expectEquals(Double.doubleToRawLongBits(dPi/d3), 0x7ff0000000000000L);
|
/art/test/080-oom-throw/src/ |
H A D | Main.java | 40 double d1, d2, d3, d4, d5, d6, d7, d8; // Bloat this object so we fill the heap faster. field in class:Main.InstanceMemEater
|
/art/compiler/optimizing/ |
H A D | code_generator_arm64.h | 45 vixl::d0, vixl::d1, vixl::d2, vixl::d3, vixl::d4, vixl::d5, vixl::d6, vixl::d7 107 { vixl::d0, vixl::d1, vixl::d2, vixl::d3, vixl::d4, vixl::d5, vixl::d6, vixl::d7 };
|
/art/test/700-LoadArgRegs/src/ |
H A D | Main.java | 273 static void testMore(int i1, double d1, double d2, double d3, double d4, double d5, double d6, double d7, double d8, double d9, int i2, int i3, int i4, int i5, int i6) { argument 274 System.out.println(i1+", "+d1+", "+d2+", "+d3+", "+d4+", "+d5+", "+d6+", "+d7+", "+d8+", "+d9+", "+i2+", "+i3+", "+i4+", "+i5+", "+i6);
|
/art/compiler/utils/arm64/ |
H A D | managed_register_arm64_test.cc | 674 EXPECT_TRUE(vixl::d3.Is(Arm64Assembler::reg_d(D3)));
|
/art/test/083-compiler-regressions/src/ |
H A D | Main.java | 5345 double d3 = 3; 7343 d3 = d2; 7345 d4 = d3;
|
/art/runtime/interpreter/mterp/out/ |
H A D | mterp_arm.S | 3628 vldr d3, constvalop_long_to_double 3629 vmla.f64 d2, d1, d3 @ d2<- vAAh*2^32 + vAAl
|