/art/runtime/interpreter/mterp/arm/ |
H A D | op_long_to_double.S | 16 vcvt.f64.s32 d1, s1 @ d1<- (double)(vAAh) 19 vmla.f64 d2, d1, d3 @ d2<- vAAh*2^32 + vAAl
|
H A D | fbinopWide2addr.S | 4 * "d2 = d0 op d1". 14 fldd d1, [r3] @ d1<- vB
|
H A D | op_cmpg_double.S | 25 fldd d1, [r3] @ d1<- vCC 26 vcmpe.f64 d0, d1 @ compare (vBB, vCC)
|
H A D | op_cmpl_double.S | 25 fldd d1, [r3] @ d1<- vCC 26 vcmpe.f64 d0, d1 @ compare (vBB, vCC)
|
H A D | fbinopWide.S | 4 * "d2 = d0 op d1". 15 fldd d1, [r3] @ d1<- vCC
|
/art/runtime/interpreter/mterp/arm64/ |
H A D | op_rem_double.S | 5 GET_VREG_WIDE d1, w2 // d1<- vCC
|
H A D | op_rem_double_2addr.S | 4 GET_VREG_WIDE d1, w1 // d1<- vB
|
/art/test/705-register-conflict/src/ |
H A D | Main.java | 28 double d0 = 0, d1 = 0, d2 = 0, d3 = 0, d4 = 0, d5 = 0, d6 = 0, d7 = 0; 34 d1 = d0 + 1; 35 d2 = d1 + 1; 68 return d0 + d1 + d2 + d3 + d4 + d5 + d6 + d7
|
/art/runtime/arch/arm64/ |
H A D | jni_entrypoints_arm64.S | 32 stp d0, d1, [sp, #-16]! 46 ldp d0, d1, [sp], #16
|
H A D | quick_entrypoints_arm64.S | 190 stp d0, d1, [sp, #16] 271 ldp d0, d1, [sp, #16] 776 LOADREG x15 8 d1 .LfillRegisters 901 LOADREG x15 8 d1 .LfillRegisters2 1023 ldp d0, d1, [x1], #16 1974 ldp d0, d1, [sp, #64]
|
/art/test/703-floating-point-div/src/ |
H A D | Main.java | 35 double d1 = 0x1.0p1023; 46 expectEquals(Double.doubleToRawLongBits(dPi/d1), 0x1921fb54442d18L);
|
/art/test/080-oom-throw/src/ |
H A D | Main.java | 40 double d1, d2, d3, d4, d5, d6, d7, d8; // Bloat this object so we fill the heap faster. field in class:Main.InstanceMemEater
|
/art/runtime/interpreter/mterp/out/ |
H A D | mterp_arm64.S | 1248 GET_VREG_WIDE d1, w2 1251 fcmp d1, d2 1274 GET_VREG_WIDE d1, w2 1277 fcmp d1, d2 4636 GET_VREG_WIDE d1, w1 // w1<- vBB 4642 fadd d0, d1, d2 // d0<- op, w0-w4 changed 4672 GET_VREG_WIDE d1, w1 // w1<- vBB 4678 fsub d0, d1, d2 // d0<- op, w0-w4 changed 4708 GET_VREG_WIDE d1, w1 // w1<- vBB 4714 fmul d0, d1, d [all...] |
H A D | mterp_arm.S | 1306 fldd d1, [r3] @ d1<- vCC 1307 vcmpe.f64 d0, d1 @ compare (vBB, vCC) 1345 fldd d1, [r3] @ d1<- vCC 1346 vcmpe.f64 d0, d1 @ compare (vBB, vCC) 3626 vcvt.f64.s32 d1, s1 @ d1<- (double)(vAAh) 3629 vmla.f64 d2, d1, d3 @ d2<- vAAh*2^32 + vAAl 4930 * "d2 = d0 op d1" [all...] |
/art/compiler/optimizing/ |
H A D | code_generator_arm64.h | 45 vixl::d0, vixl::d1, vixl::d2, vixl::d3, vixl::d4, vixl::d5, vixl::d6, vixl::d7 107 { vixl::d0, vixl::d1, vixl::d2, vixl::d3, vixl::d4, vixl::d5, vixl::d6, vixl::d7 };
|
H A D | induction_var_analysis.cc | 149 const uint32_t d1 = ++global_depth_; local 150 map_.Put(instruction, NodeInfo(d1)); 154 uint32_t low = d1; 160 if (low < d1) {
|
/art/test/700-LoadArgRegs/src/ |
H A D | Main.java | 273 static void testMore(int i1, double d1, double d2, double d3, double d4, double d5, double d6, double d7, double d8, double d9, int i2, int i3, int i4, int i5, int i6) { argument 274 System.out.println(i1+", "+d1+", "+d2+", "+d3+", "+d4+", "+d5+", "+d6+", "+d7+", "+d8+", "+d9+", "+i2+", "+i3+", "+i4+", "+i5+", "+i6);
|
/art/tools/dmtracedump/ |
H A D | tracedump.cc | 2327 void createDiff(DataKeys* d1, DataKeys* d2) { argument 2328 MethodEntry** methods1 = parseMethodEntries(d1); 2332 qsort(methods1, d1->numMethods, sizeof(MethodEntry*), compareElapsedInclusive); 2333 for (int32_t i = 0; i < d1->numMethods; ++i) { 2342 int32_t max = (d1->numMethods < d2->numMethods) ? d2->numMethods : d1->numMethods; 2348 // printf("<br>d1->numMethods: %d d1->numMethods: %d<br>\n", 2349 // d1->numMethods, d2->numMethods); 2353 for (int32_t i = 0; i < d1 [all...] |
/art/test/083-compiler-regressions/src/ |
H A D | Main.java | 107 double d1 = 1.0; 108 double d2 = Math.round(d1); 109 if (d1 == d2) { 112 System.out.println("b17411468 fails: Math.round(" + d1 + ") returned " + d2); 5341 double d1 = 1; 7339 d1 = d0; 7341 d2 = d1;
|
/art/compiler/utils/arm64/ |
H A D | managed_register_arm64_test.cc | 672 EXPECT_TRUE(vixl::d1.Is(Arm64Assembler::reg_d(D1)));
|
/art/runtime/arch/arm/ |
H A D | quick_entrypoints_arm.S | 1857 vmov r2, r3, d1
|