/external/llvm/test/MC/ARM/ |
H A D | vpush-vpop.s | 6 vpush {d8, d9, d10, d11, d12} 8 vpop {d8, d9, d10, d11, d12} 11 vpush.s8 {d8, d9, d10, d11, d12} 13 vpop.f32 {d8, d9, d10, d11, d12} 16 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 18 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b] 21 @ CHECK-ARM: vpush {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0x2d,0xed] 23 @ CHECK-ARM: vpop {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0xbd,0xec] 26 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 28 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d1 [all...] |
H A D | eh-directive-integrated-test.s | 40 .vsave {d8, d9, d10, d11, d12} 41 vpush {d8, d9, d10, d11, d12} 45 vpop {d8, d9, d10, d11, d12} 74 .vsave {d8, d9, d10, d11, d12} 75 vpush {d8, d9, d10, d11, d12} 79 vpop {d8, d9, d10, d11, d12}
|
H A D | neont2-dup-encoding.s | 19 vdup.8 d16, d11[0] 25 vdup.8 d16, d11[1] 32 @ CHECK: vdup.8 d16, d11[0] @ encoding: [0xf1,0xff,0x0b,0x0c] 38 @ CHECK: vdup.8 d16, d11[1] @ encoding: [0xf3,0xff,0x0b,0x0c]
|
H A D | neont2-pairwise-encoding.s | 4 vpadd.i8 d1, d5, d11 9 @ CHECK: vpadd.i8 d1, d5, d11 @ encoding: [0x05,0xef,0x1b,0x1b] 16 vpaddl.s16 d8, d11 29 @ CHECK: vpaddl.s16 d8, d11 @ encoding: [0xb4,0xff,0x0b,0x82] 47 vpadal.u32 d11, d7 60 @ CHECK: vpadal.u32 d11, d7 @ encoding: [0xb8,0xff,0x87,0xb6] 70 vpmin.s16 d17, d28, d11 78 @ CHECK: vpmin.s16 d17, d28, d11 @ encoding: [0x5c,0xef,0x9b,0x1a] 92 vpmax.f32 d9, d26, d11 100 @ CHECK: vpmax.f32 d9, d26, d11 [all...] |
H A D | neon-mul-accum-encoding.s | 41 vqdmlal.s16 q11, d11, d7[0] 42 vqdmlal.s16 q11, d11, d7[1] 43 vqdmlal.s16 q11, d11, d7[2] 44 vqdmlal.s16 q11, d11, d7[3] 48 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0x47,0x63,0xdb,0xf2] 49 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0x4f,0x63,0xdb,0xf2] 50 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0x67,0x63,0xdb,0xf2] 51 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0x6f,0x63,0xdb,0xf2]
|
H A D | neon-minmax-encoding.s | 6 vmax.u8 d10, d11, d12 14 vmax.u8 d11, d12 38 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0c,0xa6,0x0b,0xf3] 45 @ CHECK: vmax.u8 d11, d11, d12 @ encoding: [0x0c,0xb6,0x0b,0xf3] 68 vmin.u8 d10, d11, d12 76 vmin.u8 d11, d12 100 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x1c,0xa6,0x0b,0xf3] 107 @ CHECK: vmin.u8 d11, d11, d1 [all...] |
H A D | neont2-minmax-encoding.s | 8 vmax.u8 d10, d11, d12 16 vmax.u8 d11, d12 40 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x0c,0xa6] 47 @ CHECK: vmax.u8 d11, d11, d12 @ encoding: [0x0b,0xff,0x0c,0xb6] 70 vmin.u8 d10, d11, d12 78 vmin.u8 d11, d12 102 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x1c,0xa6] 109 @ CHECK: vmin.u8 d11, d11, d1 [all...] |
H A D | neon-shiftaccum-encoding.s | 6 vsra.s64 d11, d10, #64 12 vsra.u16 d11, d14, #11 41 @ CHECK: vsra.s64 d11, d10, #64 @ encoding: [0x9a,0xb1,0x80,0xf2] 47 @ CHECK: vsra.u16 d11, d14, #11 @ encoding: [0x1e,0xb1,0x95,0xf3] 142 vsli.8 d11, d12, #7 150 vsri.8 d28, d11, #8 168 vsri.8 d11, #8 177 @ CHECK: vsli.8 d11, d12, #7 @ encoding: [0x1c,0xb5,0x8f,0xf3] 185 @ CHECK: vsri.8 d28, d11, #8 @ encoding: [0x1b,0xc4,0xc8,0xf3] 202 @ CHECK: vsri.8 d11, d1 [all...] |
H A D | neont2-shiftaccum-encoding.s | 8 vsra.s64 d11, d10, #64 14 vsra.u16 d11, d14, #11 43 @ CHECK: vsra.s64 d11, d10, #64 @ encoding: [0x80,0xef,0x9a,0xb1] 49 @ CHECK: vsra.u16 d11, d14, #11 @ encoding: [0x95,0xff,0x1e,0xb1] 145 vsli.8 d11, d12, #7 153 vsri.8 d28, d11, #8 171 vsri.8 d11, #8 180 @ CHECK: vsli.8 d11, d12, #7 @ encoding: [0x8f,0xff,0x1c,0xb5] 188 @ CHECK: vsri.8 d28, d11, #8 @ encoding: [0xc8,0xff,0x1b,0xc4] 205 @ CHECK: vsri.8 d11, d1 [all...] |
H A D | neont2-mul-accum-encoding.s | 45 vqdmlal.s16 q11, d11, d7[0] 46 vqdmlal.s16 q11, d11, d7[1] 47 vqdmlal.s16 q11, d11, d7[2] 48 vqdmlal.s16 q11, d11, d7[3] 52 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0xdb,0xef,0x47,0x63] 53 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0xdb,0xef,0x4f,0x63] 54 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0xdb,0xef,0x67,0x63] 55 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0xdb,0xef,0x6f,0x63]
|
H A D | eh-directive-section-comdat.s | 24 .vsave {d8, d9, d10, d11, d12} 25 vpush {d8, d9, d10, d11, d12} 30 vpop {d8, d9, d10, d11, d12}
|
H A D | neon-cmp-encoding.s | 182 vaclt.f32 d9, d11, d12 184 vaclt.f32 d11, d12 186 vacle.f32 d9, d11, d12 188 vacle.f32 d11, d12 191 @ CHECK: vacgt.f32 d9, d12, d11 @ encoding: [0x1b,0x9e,0x2c,0xf3] 193 @ CHECK: vacgt.f32 d11, d12, d11 @ encoding: [0x1b,0xbe,0x2c,0xf3] 195 @ CHECK: vacge.f32 d9, d12, d11 @ encoding: [0x1b,0x9e,0x0c,0xf3] 197 @ CHECK: vacge.f32 d11, d12, d11 [all...] |
/external/libvpx/libvpx/vp8/common/arm/neon/ |
H A D | dequant_idct_neon.asm | 59 vqadd.s16 d11, d7, d8 ;d1 61 vqadd.s16 d2, d12, d11 64 vqsub.s16 d5, d12, d11 90 vqadd.s16 d11, d7, d8 ;d1 92 vqadd.s16 d2, d12, d11 95 vqsub.s16 d5, d12, d11
|
H A D | bilinearpredict16x16_neon.asm | 52 vld1.u8 {d11, d12, d13}, [r0], r1 68 vmull.u8 q13, d11, d0 74 vext.8 d11, d11, d12, #1 79 vmlal.u8 q13, d11, d1 108 vld1.u8 {d11, d12, d13}, [r0], r1 138 vmull.u8 q1, d11, d0 143 vext.8 d11, d11, d12, #1 ;construct src_ptr[1] 146 vmlal.u8 q1, d11, d [all...] |
H A D | vp8_subpixelvariance16x16_neon.asm | 60 vld1.u8 {d11, d12, d13}, [r0], r1 76 vmull.u8 q13, d11, d0 82 vext.8 d11, d11, d12, #1 87 vmlal.u8 q13, d11, d1 116 vld1.u8 {d11, d12, d13}, [r0], r1 146 vmull.u8 q1, d11, d0 151 vext.8 d11, d11, d12, #1 ;construct src_ptr[1] 154 vmlal.u8 q1, d11, d [all...] |
H A D | shortidct4x4llm_neon.asm | 65 vqadd.s16 d11, d7, d8 ;d1 67 vqadd.s16 d2, d12, d11 70 vqsub.s16 d5, d12, d11 92 vqadd.s16 d11, d7, d8 ;d1 94 vqadd.s16 d2, d12, d11 97 vqsub.s16 d5, d12, d11
|
H A D | sixtappredict4x4_neon.asm | 77 vext.8 d20, d10, d11, #5 81 vswp d11, d12 92 vzip.32 d10, d11 106 vzip.32 d10, d11 120 vzip.32 d10, d11 141 vext.8 d20, d10, d11, #5 145 vswp d11, d12 158 vzip.32 d10, d11 177 vzip.32 d10, d11 197 vzip.32 d10, d11 [all...] |
H A D | sixtappredict8x4_neon.asm | 86 vext.8 d30, d10, d11, #1 96 vext.8 d30, d10, d11, #4 106 vext.8 d30, d10, d11, #2 116 vext.8 d30, d10, d11, #5 126 vext.8 d30, d10, d11, #3 164 vext.8 d29, d10, d11, #1 176 vext.8 d29, d10, d11, #4 188 vext.8 d29, d10, d11, #2 200 vext.8 d29, d10, d11, #5 212 vext.8 d29, d10, d11, # [all...] |
H A D | sixtappredict8x8_neon.asm | 90 vext.8 d30, d10, d11, #1 100 vext.8 d30, d10, d11, #4 110 vext.8 d30, d10, d11, #2 120 vext.8 d30, d10, d11, #5 130 vext.8 d30, d10, d11, #3 177 vext.8 d29, d10, d11, #1 189 vext.8 d29, d10, d11, #4 201 vext.8 d29, d10, d11, #2 213 vext.8 d29, d10, d11, #5 225 vext.8 d29, d10, d11, # [all...] |
H A D | sixtappredict16x16_neon.asm | 82 vld1.u8 {d9, d10, d11}, [r0], r1 105 vext.8 d29, d10, d11, #1 121 vext.8 d29, d10, d11, #4 137 vext.8 d29, d10, d11, #5 153 vext.8 d29, d10, d11, #2 165 vext.8 d31, d10, d11, #3 191 vqrshrun.s16 d11, q13, #7 194 vst1.u8 {d9, d10, d11}, [lr]! 314 vld1.u8 {d9, d10, d11}, [r0], r1 327 vext.8 d23, d10, d11, # [all...] |
/external/jpeg/ |
H A D | jsimd_arm_neon.S | 186 * 3 | d10 | d11 193 vld1.16 {d8, d9, d10, d11}, [COEF_BLOCK]! 226 vswp d18, d11 245 vswp d18, d11 407 * 3 | d10 | d11 414 vld1.16 {d8, d9, d10, d11}, [COEF_BLOCK]! 436 idct_helper d5, d7, d9, d11, d13, d15, d17, 12, d5, d7, d9, d11 437 transpose_4x4 d5, d7, d9, d11 440 idct_helper d4, d6, d8, d10, d7, d9, d11, 1 [all...] |
/external/valgrind/main/none/tests/arm/ |
H A D | neon64.c | 637 TESTINSN_imm("vmvn.i32 d11", d11, 0x7FF); 669 TESTINSN_un("vmov d10, d11", d10, d11, i16, 7); 682 TESTINSN_bin("vadd.i32 d10, d11, d12", d10, d11, i32, 24, d12, i32, 120); 695 TESTINSN_bin("vsub.i32 d10, d11, d12", d10, d11, i32, 24, d12, i32, 120); 701 TESTINSN_bin("vand d10, d11, d12", d10, d11, i [all...] |
H A D | vfp.c | 1066 TESTINSN_core_to_scalar("vmov.32 d11[1], r6", d11, r6, f2u(-INFINITY)); 1067 TESTINSN_core_to_scalar("vmov.32 d18[0], r5", d11, r5, f2u(653)); 1099 TESTINSN_scalar_to_core("vmov.u16 r12, d11[0]", r12, d11, i32, 0x11223344); 1115 TESTINSN_scalar_to_core("vmov.s16 r4, d11[0]", r4, d11, i32, 0x11223344); 1129 TESTINSN_bin_f64("vmla.f64 d0, d11, d12", d0, d11, i32, f2u0(-INFINITY), f2u1(-INFINITY), d12, i32, f2u0(NAN), f2u1(NAN)); 1140 TESTINSN_bin_f64("vmla.f64 d10, d11, d [all...] |
H A D | neon64.stdout.exp | 41 vmvn.i32 d11, #0x7FF :: Qd 0xfffff800 0xfffff800 42 vmvn.i32 d11, #0x7FF :: Qd 0xfffff800 0xfffff800 90 vmov d10, d11 :: Qd 0x00070007 0x00070007 Qm (i16)0x00000007 91 vmov d10, d11 :: Qd 0x151d191d 0x141c1f1c Qm (i16)0x00000007 113 vadd.i32 d10, d11, d12 :: Qd 0x00000090 0x00000090 Qm (i32)0x00000018 Qn (i32)0x00000078 114 vadd.i32 d10, d11, d12 :: Qd 0x131b1a93 0x121f1e97 Qm (i32)0x00000018 Qn (i32)0x00000078 136 vsub.i32 d10, d11, d12 :: Qd 0xffffffa0 0xffffffa0 Qm (i32)0x00000018 Qn (i32)0x00000078 137 vsub.i32 d10, d11, d12 :: Qd 0x131b19a3 0x121f1da7 Qm (i32)0x00000018 Qn (i32)0x00000078 145 vand d10, d11, d12 :: Qd 0xecececec 0xecececec Qm (i8)0x000000fe Qn (i8)0x000000ed 146 vand d10, d11, d1 [all...] |
/external/clang/test/CodeGenCXX/ |
H A D | mangle-ms-return-qualifiers.cpp | 121 const volatile B<A>& d11() { return *(B<A>*)0; } function 122 // CHECK: "\01?d11@@YAADV?$B@VA@@@@XZ"
|