/external/compiler-rt/lib/builtins/arm/ |
H A D | restore_vfp_d8_d15_regs.S | 26 // Restore registers d8-d15 from stack 30 vldmia sp!, {d8-d15} // pop registers d8-d15 off stack
|
H A D | save_vfp_d8_d15_regs.S | 26 // Save registers d8-d15 onto stack 30 vstmdb sp!, {d8-d15} // push registers d8-d15 onto stack
|
/external/libhevc/common/arm64/ |
H A D | ihevc_neon_macros.s | 42 stp d14,d15,[sp,#-16]! 45 ldp d14,d15,[sp],#16
|
/external/llvm/test/MC/AArch64/ |
H A D | neon-scalar-shift-imm.s | 8 sshr d15, d16, #12 10 // CHECK: sshr d15, d16, #12 // encoding: [0x0f,0x06,0x74,0x5f] 50 srsra d15, d11, #19 52 // CHECK: srsra d15, d11, #19 // encoding: [0x6f,0x35,0x6d,0x5f] 74 sqshl d15, d16, #51 79 // CHECK: sqshl d15, d16, #51 // encoding: [0x0f,0x76,0x73,0x5f] 87 uqshl d15, d12, #19 92 // CHECK: uqshl d15, d12, #19 // encoding: [0x8f,0x75,0x53,0x7f] 170 sqshrun s10, d15, #15 174 // CHECK: sqshrun s10, d15, #1 [all...] |
H A D | neon-scalar-by-elem-mul.s | 28 fmulx d15, d9, v7.d[0] 35 // CHECK: fmulx d15, d9, v7.d[0] // encoding: [0x2f,0x91,0xc7,0x7f]
|
H A D | neon-scalar-mul.s | 60 sqdmull d15, s22, s12 63 // CHECK: sqdmull d15, s22, s12 // encoding: [0xcf,0xd2,0xac,0x5e]
|
/external/libhevc/common/arm/ |
H A D | ihevc_itrans_recon_32x32.s | 243 vld1.16 d15,[r0],r6 257 vmlal.s16 q12,d15,d1[3] 258 vmlal.s16 q13,d15,d5[1] 259 vmlsl.s16 q14,d15,d7[1] 260 vmlsl.s16 q15,d15,d3[3] 315 vld1.16 d15,[r0],r6 331 vmlal.s16 q12,d15,d3[3] 332 vmlsl.s16 q13,d15,d4[3] 333 vmlsl.s16 q14,d15,d2[3] 334 vmlal.s16 q15,d15,d [all...] |
H A D | ihevc_itrans_recon_4x4_ttype1.s | 163 vqrshrn.s32 d15,q4,#shift_stage1_idct @ (pi2_out[1] + rounding ) >> shift_stage1_idct 168 vtrn.16 d14,d15 171 vtrn.32 d15,d17 172 @ output in d14,d15,d16,d17 178 @ d15 - d1 182 vmull.s16 q3,d15,d4[2] @74 * pi2_src[1] 187 vmull.s16 q4,d15,d4[2] @74 * pi2_src[1] 198 vmlsl.s16 q6,d15,d4[2] @ - 74 * pi2_src[1] + 55 * pi2_src[2]
|
H A D | ihevc_inter_pred_chroma_vert_w16inp.s | 121 vdup.16 d15,d0[3] @coeff_3 151 vmlal.s16 q0,d6,d15 152 vmlal.s16 q4,d2,d15 192 vmlal.s16 q15,d3,d15 201 vmlal.s16 q14,d4,d15 211 vmlal.s16 q13,d5,d15 223 vmlal.s16 q12,d6,d15 238 vmlal.s16 q15,d3,d15 247 vmlal.s16 q14,d4,d15 263 vmlal.s16 q13,d5,d15 [all...] |
H A D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 121 vdup.16 d15,d0[3] @coeff_3 151 vmlal.s16 q0,d6,d15 152 vmlal.s16 q4,d2,d15 191 vmlal.s16 q15,d3,d15 200 vmlal.s16 q14,d4,d15 210 vmlal.s16 q13,d5,d15 221 vmlal.s16 q12,d6,d15 235 vmlal.s16 q15,d3,d15 243 vmlal.s16 q14,d4,d15 258 vmlal.s16 q13,d5,d15 [all...] |
H A D | ihevc_itrans_recon_8x8.s | 140 @// row 7 first half - d15 - y7 207 vld1.16 d15,[r9]! 227 @// vld1.16 d15,[r2]! 245 vmlal.s16 q12,d15,d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(part of r0,r7) 246 vmlsl.s16 q13,d15,d1[1] @// b1 = y1 * cos3 - y3 * sin1 - y5 * cos1 - y7 * sin3(part of r1,r6) 247 vmlal.s16 q14,d15,d0[3] @// b2 = y1 * sin3 - y3 * cos1 + y5 * sin1 + y7 * cos3(part of r2,r5) 248 vmlsl.s16 q15,d15,d0[1] @// b3 = y1 * sin1 - y3 * sin3 + y5 * cos3 - y7 * cos1(part of r3,r4) 268 vqrshrn.s32 d15,q3,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct) 336 vqrshrn.s32 d15,q3,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct) 428 vtrn.32 d14,d15 [all...] |
H A D | ihevc_intra_pred_chroma_mode2.s | 140 vld2.8 {d14,d15},[r10],r8 167 vrev64.8 d31,d15 200 vld2.8 {d14,d15},[r10],r8 232 vrev64.8 d31,d15 261 vld2.8 {d14,d15},[r10],r8 265 vshl.i64 d3,d15,#32
|
H A D | ihevc_intra_pred_luma_mode2.s | 153 vrev64.8 d15,d7 177 vst1.8 {d15},[r14],r5 219 vrev64.8 d15,d7 232 vst1.8 {d15},[r14],r5
|
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/ |
H A D | dequant_idct_neon.c | 22 int32x2_t d14, d15; local 29 d14 = d15 = vdup_n_s32(0); 49 d15 = vld1_lane_s32((const int32_t *)dst0, d15, 0); 51 d15 = vld1_lane_s32((const int32_t *)dst0, d15, 1); 128 vreinterpret_u8_s32(d15))); 131 d15 = vreinterpret_s32_u8(vqmovun_s16(q2)); 138 vst1_lane_s32((int32_t *)dst0, d15, 0); 140 vst1_lane_s32((int32_t *)dst0, d15, [all...] |
/external/libvpx/libvpx/vp8/common/arm/neon/ |
H A D | dequant_idct_neon.c | 22 int32x2_t d14, d15; local 29 d14 = d15 = vdup_n_s32(0); 49 d15 = vld1_lane_s32((const int32_t *)dst0, d15, 0); 51 d15 = vld1_lane_s32((const int32_t *)dst0, d15, 1); 128 vreinterpret_u8_s32(d15))); 131 d15 = vreinterpret_s32_u8(vqmovun_s16(q2)); 138 vst1_lane_s32((int32_t *)dst0, d15, 0); 140 vst1_lane_s32((int32_t *)dst0, d15, [all...] |
/external/llvm/test/MC/ARM/ |
H A D | neon-shiftaccum-encoding.s | 4 vsra.s16 d15, d14, #16 13 vsra.u32 d12, d15, #22 31 vsra.u32 d15, #22 39 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x1e,0xf1,0x90,0xf2] 48 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0x1f,0xc1,0xaa,0xf3] 65 @ CHECK: vsra.u32 d15, d15, #22 @ encoding: [0x1f,0xf1,0xaa,0xf3] 76 vrsra.u8 d15, d22, #8 111 @ CHECK: vrsra.u8 d15, d22, #8 @ encoding: [0x36,0xf3,0x88,0xf3] 145 vsli.64 d14, d15, #6 [all...] |
H A D | neont2-shiftaccum-encoding.s | 6 vsra.s16 d15, d14, #16 15 vsra.u32 d12, d15, #22 33 vsra.u32 d15, #22 41 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x90,0xef,0x1e,0xf1] 50 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xc1] 67 @ CHECK: vsra.u32 d15, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xf1] 79 vrsra.u8 d15, d22, #8 114 @ CHECK: vrsra.u8 d15, d22, #8 @ encoding: [0x88,0xff,0x36,0xf3] 148 vsli.64 d14, d15, #6 [all...] |
H A D | neont2-pairwise-encoding.s | 20 vpaddl.u32 d6, d15 33 @ CHECK: vpaddl.u32 d6, d15 @ encoding: [0xb8,0xff,0x8f,0x62] 74 vpmin.u32 d21, d24, d15 82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a] 88 vpmax.s32 d5, d22, d15 96 @ CHECK: vpmax.s32 d5, d22, d15 @ encoding: [0x26,0xef,0x8f,0x5a]
|
H A D | neon-minmax-encoding.s | 7 vmax.u16 d13, d14, d15 15 vmax.u16 d14, d15 39 @ CHECK: vmax.u16 d13, d14, d15 @ encoding: [0x0f,0xd6,0x1e,0xf3] 46 @ CHECK: vmax.u16 d14, d14, d15 @ encoding: [0x0f,0xe6,0x1e,0xf3] 69 vmin.u16 d13, d14, d15 77 vmin.u16 d14, d15 101 @ CHECK: vmin.u16 d13, d14, d15 @ encoding: [0x1f,0xd6,0x1e,0xf3] 108 @ CHECK: vmin.u16 d14, d14, d15 @ encoding: [0x1f,0xe6,0x1e,0xf3]
|
H A D | neont2-dup-encoding.s | 6 vdup.16 d15, r2 13 @ CHECK: vdup.16 d15, r2 @ encoding: [0x8f,0xee,0x30,0x2b]
|
H A D | neont2-minmax-encoding.s | 9 vmax.u16 d13, d14, d15 17 vmax.u16 d14, d15 41 @ CHECK: vmax.u16 d13, d14, d15 @ encoding: [0x1e,0xff,0x0f,0xd6] 48 @ CHECK: vmax.u16 d14, d14, d15 @ encoding: [0x1e,0xff,0x0f,0xe6] 71 vmin.u16 d13, d14, d15 79 vmin.u16 d14, d15 103 @ CHECK: vmin.u16 d13, d14, d15 @ encoding: [0x1e,0xff,0x1f,0xd6] 110 @ CHECK: vmin.u16 d14, d14, d15 @ encoding: [0x1e,0xff,0x1f,0xe6]
|
/external/valgrind/main/none/tests/arm/ |
H A D | vfpv4_fma.c | 85 TESTINSN_bin_f64("vfma.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(0.0), f2u1(0.0)); 86 TESTINSN_bin_f64("vfma.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(NAN), f2u1(NAN)); 91 TESTINSN_bin_f64("vfma.f64 d30, d15, d2", d30, d15, i32, f2u0(-45667.24), f2u1(-45667.24), d2, i32, f2u0(-248562.76), f2u1(-248562.76)); 94 TESTINSN_bin_f64("vfma.f64 d29, d15, d7", d29, d15, i32, f2u0(214), f2u1(214), d7, i32, f2u0(1752065), f2u1(1752065)); 104 TESTINSN_bin_f64("vfma.f64 d20, d13, d15", d20, d13, i32, f2u0(-INFINITY), f2u1(-INFINITY), d15, i3 [all...] |
/external/chromium_org/third_party/openmax_dl/dl/sp/src/arm/neon/ |
H A D | omxSP_FFTInv_CCSToR_S32S16_Sfs_s.S | 88 M_START omxSP_FFTInv_CCSToR_S32S16_Sfs,r11,d15
|
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
H A D | vp9_mb_lpf_neon.asm | 29 vpush {d8-d15} 55 vld1.u8 {d15}, [r8@64], r1 ; q7 115 vpop {d8-d15} 131 vpush {d8-d15} 155 vld1.8 {d15}, [r0@64], r1 177 vtrn.8 d14, d15 249 vtrn.32 d23, d15 254 vtrn.16 d2, d15 259 vtrn.8 d3, d15 276 vst1.8 {d15}, [r [all...] |
/external/libvpx/libvpx/vp9/common/arm/neon/ |
H A D | vp9_mb_lpf_neon.asm | 29 vpush {d8-d15} 55 vld1.u8 {d15}, [r8@64], r1 ; q7 115 vpop {d8-d15} 131 vpush {d8-d15} 155 vld1.8 {d15}, [r0@64], r1 177 vtrn.8 d14, d15 249 vtrn.32 d23, d15 254 vtrn.16 d2, d15 259 vtrn.8 d3, d15 276 vst1.8 {d15}, [r [all...] |