/external/llvm/test/MC/AArch64/ |
H A D | neon-scalar-neg.s | 20 sqneg d18, d12 25 // CHECK: sqneg d18, d12 // encoding: [0x92,0x79,0xe0,0x7e]
|
H A D | neon-scalar-abs.s | 30 sqabs d18, d12 35 // CHECK: sqabs d18, d12 // encoding: [0x92,0x79,0xe0,0x5e]
|
H A D | neon-scalar-cvt.s | 10 scvtf d21, d12 13 // CHECK: scvtf d21, d12 // encoding: [0x95,0xd9,0x61,0x5e] 30 scvtf d21, d12, #64 33 // CHECK: scvtf d21, d12, #64 // encoding: [0x95,0xe5,0x40,0x5f] 50 fcvtzs d21, d12, #1 53 // CHECK: fcvtzs d21, d12, #1 // encoding: [0x95,0xfd,0x7f,0x5f] 60 fcvtzu d21, d12, #1 63 // CHECK: fcvtzu d21, d12, #1 // encoding: [0x95,0xfd,0x7f,0x7f]
|
H A D | neon-scalar-extract-narrow.s | 11 sqxtun s20, d12 15 // CHECK: sqxtun s20, d12 // encoding: [0x94,0x29,0xa1,0x7e]
|
H A D | neon-scalar-shift-imm.s | 36 ssra d18, d12, #21 38 // CHECK: ssra d18, d12, #21 // encoding: [0x92,0x15,0x6b,0x5f] 87 uqshl d15, d12, #19 92 // CHECK: uqshl d15, d12, #19 // encoding: [0x8f,0x75,0x53,0x7f] 110 sri d10, d12, #14 112 // CHECK: sri d10, d12, #14 // encoding: [0x8a,0x45,0x72,0x7f] 137 uqshrn s10, d12, #13 141 // CHECK: uqshrn s10, d12, #13 // encoding: [0x8a,0x95,0x33,0x7f] 148 sqrshrn s15, d12, #9 152 // CHECK: sqrshrn s15, d12, # [all...] |
H A D | neon-scalar-recip.s | 50 frsqrte d21, d12 53 // CHECK: frsqrte d21, d12 // encoding: [0x95,0xd9,0xe1,0x7e]
|
H A D | neon-scalar-by-elem-mul.s | 29 fmulx d13, d12, v11.d[1] 36 // CHECK: fmulx d13, d12, v11.d[1] // encoding: [0x8d,0x99,0xcb,0x7f]
|
H A D | neon-scalar-mul.s | 50 sqdmlsl d12, s23, s13 53 // CHECK: sqdmlsl d12, s23, s13 // encoding: [0xec,0xb2,0xad,0x5e]
|
/external/libhevc/common/arm64/ |
H A D | ihevc_neon_macros.s | 41 stp d12,d13,[sp,#-16]! 46 ldp d12,d13,[sp],#16
|
/external/llvm/test/MC/ARM/ |
H A D | vpush-vpop.s | 6 vpush {d8, d9, d10, d11, d12} 8 vpop {d8, d9, d10, d11, d12} 11 vpush.s8 {d8, d9, d10, d11, d12} 13 vpop.f32 {d8, d9, d10, d11, d12} 16 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 18 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b] 21 @ CHECK-ARM: vpush {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0x2d,0xed] 23 @ CHECK-ARM: vpop {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0xbd,0xec] 26 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b] 28 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} [all...] |
H A D | eh-directive-integrated-test.s | 40 .vsave {d8, d9, d10, d11, d12} 41 vpush {d8, d9, d10, d11, d12} 45 vpop {d8, d9, d10, d11, d12} 74 .vsave {d8, d9, d10, d11, d12} 75 vpush {d8, d9, d10, d11, d12} 79 vpop {d8, d9, d10, d11, d12}
|
H A D | neont2-dup-encoding.s | 20 vdup.16 d17, d12[0] 26 vdup.16 d17, d12[1] 33 @ CHECK: vdup.16 d17, d12[0] @ encoding: [0xf2,0xff,0x0c,0x1c] 39 @ CHECK: vdup.16 d17, d12[1] @ encoding: [0xf6,0xff,0x0c,0x1c]
|
H A D | neont2-pairwise-encoding.s | 5 vpadd.i16 d13, d2, d12 10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb] 17 vpaddl.s32 d9, d12 30 @ CHECK: vpaddl.s32 d9, d12 @ encoding: [0xb8,0xff,0x0c,0x92] 46 vpadal.u16 d12, d6 59 @ CHECK: vpadal.u16 d12, d6 @ encoding: [0xb4,0xff,0x86,0xc6] 71 vpmin.s32 d18, d27, d12 79 @ CHECK: vpmin.s32 d18, d27, d12 @ encoding: [0x6b,0xef,0x9c,0x2a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 [all...] |
H A D | neon-shiftaccum-encoding.s | 5 vsra.s32 d13, d12, #32 13 vsra.u32 d12, d15, #22 23 vsra.s32 d12, #32 40 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0x1c,0xd1,0xa0,0xf2] 48 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0x1f,0xc1,0xaa,0xf3] 57 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0x1c,0xc1,0xa0,0xf2] 142 vsli.8 d11, d12, #7 143 vsli.16 d12, d13, #15 151 vsri.16 d26, d12, #1 [all...] |
H A D | neont2-shiftaccum-encoding.s | 7 vsra.s32 d13, d12, #32 15 vsra.u32 d12, d15, #22 25 vsra.s32 d12, #32 42 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xd1] 50 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xc1] 59 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xc1] 145 vsli.8 d11, d12, #7 146 vsli.16 d12, d13, #15 154 vsri.16 d26, d12, #1 [all...] |
H A D | neon-v8.s | 14 vcvta.u32.f32 d12, d10 15 @ CHECK: vcvta.u32.f32 d12, d10 @ encoding: [0x8a,0xc0,0xbb,0xf3] 23 vcvtm.u32.f32 d12, d10 24 @ CHECK: vcvtm.u32.f32 d12, d10 @ encoding: [0x8a,0xc3,0xbb,0xf3] 52 vrintx.f32 d5, d12 53 @ CHECK: vrintx.f32 d5, d12 @ encoding: [0x8c,0x54,0xba,0xf3] 60 vrintz.f32 d12, d18 61 @ CHECK: vrintz.f32 d12, d18 @ encoding: [0xa2,0xc5,0xba,0xf3]
|
H A D | thumb-neon-v8.s | 14 vcvta.u32.f32 d12, d10 15 @ CHECK: vcvta.u32.f32 d12, d10 @ encoding: [0xbb,0xff,0x8a,0xc0] 23 vcvtm.u32.f32 d12, d10 24 @ CHECK: vcvtm.u32.f32 d12, d10 @ encoding: [0xbb,0xff,0x8a,0xc3] 52 vrintx.f32 d5, d12 53 @ CHECK: vrintx.f32 d5, d12 @ encoding: [0xba,0xff,0x8c,0x54] 60 vrintz.f32 d12, d18 61 @ CHECK: vrintz.f32 d12, d18 @ encoding: [0xba,0xff,0xa2,0xc5]
|
H A D | neon-cmp-encoding.s | 124 vclt.s8 d12, d13, d3 125 vclt.s16 d12, d13, d3 126 vclt.s32 d12, d13, d3 127 vclt.u8 d12, d13, d3 128 vclt.u16 d12, d13, d3 129 vclt.u32 d12, d13, d3 130 vclt.f32 d12, d13, d3 140 @ CHECK: vcgt.s8 d12, d3, d13 @ encoding: [0x0d,0xc3,0x03,0xf2] 141 @ CHECK: vcgt.s16 d12, d3, d13 @ encoding: [0x0d,0xc3,0x13,0xf2] 142 @ CHECK: vcgt.s32 d12, d [all...] |
/external/libhevc/common/arm/ |
H A D | ihevc_itrans_recon_32x32.s | 240 vld1.16 d12,[r0],r6 263 vmlal.s16 q10,d12,d1[0] 265 vmlal.s16 q11,d12,d3[0] 267 vmlal.s16 q8,d12,d5[0] 269 vmlal.s16 q9,d12,d7[0] 312 vld1.16 d12,[r0],r6 337 vmlal.s16 q10,d12,d3[0] 339 vmlsl.s16 q11,d12,d7[0] 341 vmlsl.s16 q8,d12,d1[0] 343 vmlsl.s16 q9,d12,d [all...] |
H A D | ihevc_inter_pred_chroma_vert_w16inp.s | 118 vdup.16 d12,d0[0] @coeff_0 139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0) 142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0) 187 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 195 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 206 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 217 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 233 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 244 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 256 vmull.s16 q13,d2,d12 [all...] |
H A D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 118 vdup.16 d12,d0[0] @coeff_0 139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0) 142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0) 186 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 194 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 205 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 215 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 230 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 240 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 251 vmull.s16 q13,d2,d12 [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/ |
H A D | shortidct4x4llm_neon.c | 25 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; local 43 d12 = vqadd_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // a1 55 d2 = vqadd_s16(d12, d11); 58 d5 = vqsub_s16(d12, d11); 74 d12 = vqadd_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // a1 86 d2 = vqadd_s16(d12, d11); 89 d5 = vqsub_s16(d12, d11);
|
H A D | dequant_idct_neon.c | 23 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; local 58 d12 = vqadd_s16(vget_low_s16(q1), vget_low_s16(q2)); 75 d2 = vqadd_s16(d12, d11); 78 d5 = vqsub_s16(d12, d11); 93 d12 = vqadd_s16(d2tmp2.val[0], d2tmp3.val[0]); 105 d2 = vqadd_s16(d12, d11); 108 d5 = vqsub_s16(d12, d11);
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
H A D | dequant_idct_neon.c | 23 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; local 58 d12 = vqadd_s16(vget_low_s16(q1), vget_low_s16(q2)); 75 d2 = vqadd_s16(d12, d11); 78 d5 = vqsub_s16(d12, d11); 93 d12 = vqadd_s16(d2tmp2.val[0], d2tmp3.val[0]); 105 d2 = vqadd_s16(d12, d11); 108 d5 = vqsub_s16(d12, d11);
|
H A D | vp8_subpixelvariance16x16_neon.asm | 60 vld1.u8 {d11, d12, d13}, [r0], r1 77 vmull.u8 q14, d12, d0 82 vext.8 d11, d11, d12, #1 92 vext.8 d12, d12, d13, #1 97 vmlal.u8 q14, d12, d1 116 vld1.u8 {d11, d12, d13}, [r0], r1 147 vmull.u8 q2, d12, d0 151 vext.8 d11, d11, d12, #1 ;construct src_ptr[1] 157 vext.8 d12, d1 [all...] |