/external/llvm/test/MC/ARM/ |
H A D | neon-shuffle-encoding.s | 95 vtrn.8 q14, q6 96 vtrn.i8 q14, q6 97 vtrn.u8 q14, q6 98 vtrn.p8 q14, q6 99 vtrn.16 q14, q6 100 vtrn.i16 q14, q6 101 vtrn.u16 q14, q6 102 vtrn.p16 q14, q6 103 vtrn.32 q14, q6 104 vtrn.i32 q14, q [all...] |
/external/libhevc/common/arm/ |
H A D | ihevc_itrans_recon_8x8.s | 196 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2) 204 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2) 236 vmlal.s16 q14,d14,d1[3] @// y1 * sin3 - y3 * cos1 + y5 * sin1(part of b2) 247 vmlal.s16 q14,d15,d0[3] @// b2 = y1 * sin3 - y3 * cos1 + y5 * sin1 + y7 * cos3(part of r2,r5) 258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 259 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5) 261 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1) 271 vqrshrn.s32 d6,q14,#shift_stage1_idct @// r1 = (a1 + b1 + rnd) >> 7(shift_stage1_idct) 304 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2) 309 vmlsl.s16 q14,d [all...] |
H A D | ihevc_itrans_recon_32x32.s | 213 vmull.s16 q14,d8,d1[1] @// y1 * sin3(part of b2) 218 vmlal.s16 q14,d9,d3[3] @// y1 * sin3 - y3 * cos1(part of b2) 253 vmlal.s16 q14,d14,d6[1] 259 vmlsl.s16 q14,d15,d7[1] 283 vmlsl.s16 q14,d8,d4[3] @// y1 * sin3(part of b2) 288 vmlsl.s16 q14,d9,d2[1] @// y1 * sin3 - y3 * cos1(part of b2) 327 vmlsl.s16 q14,d14,d0[1] 333 vmlsl.s16 q14,d15,d2[3] 359 vmlsl.s16 q14,d8,d5[1] @// y1 * sin3(part of b2) 364 vmlsl.s16 q14,d [all...] |
H A D | ihevc_inter_pred_chroma_vert_w16inp.s | 195 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 197 vmlal.s16 q14,d2,d13 199 vmlal.s16 q14,d3,d14 201 vmlal.s16 q14,d4,d15 214 vqshrn.s32 d28,q14,#6 @right shift 228 vqrshrun.s16 d28,q14,#6 @rounding shift 244 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 245 vmlal.s16 q14,d2,d13 246 vmlal.s16 q14,d3,d14 247 vmlal.s16 q14,d [all...] |
H A D | ihevc_intra_pred_chroma_planar.s | 190 vmull.u8 q14,d5,d0 192 vmlal.u8 q14,d6,d11 196 vmlal.u8 q14,d31,d4 198 vmlal.u8 q14,d9,d1 206 vadd.i16 q14,q14,q8 208 vshl.s16 q14,q14,q7 221 vmovn.i16 d13,q14 258 vmull.u8 q14,d1 [all...] |
H A D | ihevc_itrans_recon_16x16.s | 244 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2) 249 vmlal.s16 q14,d7,d3[3] @// y1 * sin3 - y3 * cos1(part of b2) 271 vmlsl.s16 q14,d8,d1[3] 277 vmlsl.s16 q14,d9,d0[3] 319 vmlsl.s16 q14,d6,d3[1] @// y1 * sin3(part of b2) 324 vmlal.s16 q14,d7,d2[1] @// y1 * sin3 - y3 * cos1(part of b2) 331 vmlal.s16 q14,d8,d0[1] 337 vmlal.s16 q14,d9,d2[3] 376 vadd.s32 q7,q8,q14 377 vsub.s32 q13,q8,q14 [all...] |
H A D | ihevc_inter_pred_chroma_vert.s | 240 vmull.u8 q14,d6,d1 @mul_res 2 242 vmlsl.u8 q14,d5,d0 244 vmlal.u8 q14,d7,d2 246 vmlsl.u8 q14,d8,d3 257 vqrshrun.s16 d28,q14,#6 291 vmull.u8 q14,d6,d1 @mul_res 2 293 vmlsl.u8 q14,d5,d0 296 vmlal.u8 q14,d7,d2 301 vmlsl.u8 q14,d8,d3 320 vqrshrun.s16 d28,q14,# [all...] |
H A D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 194 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 197 vmlal.s16 q14,d2,d13 198 vmlal.s16 q14,d3,d14 200 vmlal.s16 q14,d4,d15 212 vqshrn.s32 d28,q14,#6 @right shift 240 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0) 241 vmlal.s16 q14,d2,d13 242 vmlal.s16 q14,d3,d14 243 vmlal.s16 q14,d4,d15 260 vqshrn.s32 d28,q14,# [all...] |
H A D | ihevc_inter_pred_chroma_vert_w16out.s | 240 vmull.u8 q14,d6,d1 @mul_res 2 242 vmlsl.u8 q14,d5,d0 244 vmlal.u8 q14,d7,d2 246 vmlsl.u8 q14,d8,d3 269 vst1.8 {q14},[r7],r3 @stores the loaded value 286 vmull.u8 q14,d6,d1 @mul_res 2 288 vmlsl.u8 q14,d5,d0 291 vmlal.u8 q14,d7,d2 294 vmlsl.u8 q14,d8,d3 326 vst1.8 {q14},[r [all...] |
H A D | ihevc_weighted_pred_uni.s | 141 vdup.u32 q14,r6 @vmovq_n_s32(tmp_shift) 144 vneg.s32 q14,q14 167 vshl.s32 q2,q2,q14 @vshlq_s32(i4_tmp1_t, tmp_shift_t) 176 vshl.s32 q3,q3,q14 @vshlq_s32(i4_tmp2_t, tmp_shift_t) ii iteration 181 vshl.s32 q5,q5,q14 @vshlq_s32(i4_tmp1_t, tmp_shift_t) iii iteration 189 vshl.s32 q6,q6,q14 @vshlq_s32(i4_tmp2_t, tmp_shift_t) iv iteration
|
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
H A D | vp9_mb_lpf_neon.asm | 454 vaddl.u8 q14, d6, d9 459 vadd.i16 q15, q14 460 vaddl.u8 q14, d7, d10 464 vadd.i16 q15, q14 465 vaddl.u8 q14, d8, d11 470 vadd.i16 q15, q14 471 vaddl.u8 q14, d9, d11 476 vadd.i16 q15, q14 477 vaddl.u8 q14, d10, d11 482 vadd.i16 q15, q14 [all...] |
H A D | vp9_loopfilter_neon.asm | 584 vaddl.u8 q14, d6, d7 ; r_op2 = p0 + q0 585 vmlal.u8 q14, d3, d27 ; r_op2 += p3 * 3 586 vmlal.u8 q14, d4, d23 ; r_op2 += p2 * 2 590 vaddw.u8 q14, d5 ; r_op2 += p1 594 vqrshrn.u16 d30, q14, #3 ; r_op2 596 vsubw.u8 q14, d3 ; r_op1 = r_op2 - p3 597 vsubw.u8 q14, d4 ; r_op1 -= p2 598 vaddw.u8 q14, d5 ; r_op1 += p1 599 vaddw.u8 q14, d16 ; r_op1 += q1 603 vqrshrn.u16 d31, q14, # [all...] |
H A D | vp9_idct32x32_1_add_neon.asm | 27 vld1.8 {q14}, [$src], $stride 39 vqadd.u8 q14, q14, $diff 51 vqsub.u8 q14, q14, $diff 63 vst1.8 {q14},[$dst], $stride
|
H A D | vp9_iht4x4_add_neon.asm | 32 vmull.s16 q14, d24, d1 ; (input[0] - input[2]) * cospi_16_64 38 vqrshrn.s32 d27, q14, #14 47 vadd.s16 q8, q13, q14 48 vsub.s16 q9, q13, q14 56 ; q14,q15 registers and use them as buffer during calculation. 63 vmull.s16 q14, d3, d18 ; s4 = sinpi_1_9 * x2 72 vsub.s32 q11, q11, q14 ; x1 = s1 - s4 - s6 79 vadd.s32 q14, q11, q12 ; s1 = x1 + x3 84 vqrshrn.s32 d17, q14, #14
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
H A D | vp9_mb_lpf_neon.asm | 454 vaddl.u8 q14, d6, d9 459 vadd.i16 q15, q14 460 vaddl.u8 q14, d7, d10 464 vadd.i16 q15, q14 465 vaddl.u8 q14, d8, d11 470 vadd.i16 q15, q14 471 vaddl.u8 q14, d9, d11 476 vadd.i16 q15, q14 477 vaddl.u8 q14, d10, d11 482 vadd.i16 q15, q14 [all...] |
H A D | vp9_loopfilter_neon.asm | 584 vaddl.u8 q14, d6, d7 ; r_op2 = p0 + q0 585 vmlal.u8 q14, d3, d27 ; r_op2 += p3 * 3 586 vmlal.u8 q14, d4, d23 ; r_op2 += p2 * 2 590 vaddw.u8 q14, d5 ; r_op2 += p1 594 vqrshrn.u16 d30, q14, #3 ; r_op2 596 vsubw.u8 q14, d3 ; r_op1 = r_op2 - p3 597 vsubw.u8 q14, d4 ; r_op1 -= p2 598 vaddw.u8 q14, d5 ; r_op1 += p1 599 vaddw.u8 q14, d16 ; r_op1 += q1 603 vqrshrn.u16 d31, q14, # [all...] |
H A D | vp9_idct32x32_1_add_neon.asm | 27 vld1.8 {q14}, [$src], $stride 39 vqadd.u8 q14, q14, $diff 51 vqsub.u8 q14, q14, $diff 63 vst1.8 {q14},[$dst], $stride
|
/external/chromium_org/third_party/boringssl/src/crypto/chacha/ |
H A D | chacha_vec_arm.S | 249 vshl.i32 q14, q8, #8 258 vsri.32 q14, q8, #24 263 vadd.i32 q15, q15, q14 305 vext.32 q14, q14, q14, #3 309 veor q14, q2, q14 319 vrev32.16 q8, q14 337 vshl.i32 q14, q [all...] |
/external/jpeg/ |
H A D | jsimd_arm_neon.S | 204 vmul.s16 q6, q6, q14 211 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14 229 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14 338 vmull.s16 q14, \x4, d2[2] 339 vmlal.s16 q14, \x8, d0[0] 340 vmlal.s16 q14, \x14, d0[1] 356 vadd.s32 q10, q14, q13 357 vsub.s32 q14, q14, q13 361 vrshr.s32 q14, q1 [all...] |
/external/chromium_org/third_party/boringssl/linux-arm/crypto/aes/ |
H A D | bsaes-armv7.S | 98 veor q14, q4, q9 102 vtbl.8 d8, {q14}, d16 103 vtbl.8 d9, {q14}, d17 244 vand q14, q11, q12 259 veor q10, q10, q14 261 veor q8, q8, q14 263 veor q9, q9, q14 265 vand q14, q7, q1 268 veor q9, q9, q14 276 vand q14, q1 [all...] |
/external/openssl/crypto/aes/asm/ |
H A D | bsaes-armv7.S | 97 veor q14, q4, q9 101 vtbl.8 d8, {q14}, d16 102 vtbl.8 d9, {q14}, d17 243 vand q14, q11, q12 258 veor q10, q10, q14 260 veor q8, q8, q14 262 veor q9, q9, q14 264 vand q14, q7, q1 267 veor q9, q9, q14 275 vand q14, q1 [all...] |
/external/chromium_org/third_party/webrtc/modules/audio_coding/codecs/isac/fix/source/ |
H A D | transform_neon.S | 52 vmov.u32 q14, #0 @ Initialize the maximum values for tmpInIm. 88 vmax.u32 q14, q8 @ Use u32 so we don't lose the value 0x80000000. 92 vmax.u32 q14, q9 @ Maximum for outre1Q16[]. 387 vmull.s16 q14, d2, d5 @ WebRtcIsacfix_kSinTab2[k] * inimQ7[k] 389 vmlsl.s16 q14, d0, d7 @ q14 -= kCosTab2[k] * inreQ7[k] 401 vshr.s32 q14, q14, #5 @ yiQ16 408 vsub.s32 q0, q8, q14 415 vadd.s32 q3, q8, q14 [all...] |
/external/chromium_org/third_party/libjpeg_turbo/simd/ |
H A D | jsimd_arm_neon.S | 237 * 6 | d28 | d29 ( q14 ) 254 vmul.s16 q14, q14, q2 509 vqrshrn.s16 d22, q14, #2 724 * 6 | d28 | d29 ( q14 ) 741 vmul.s16 q14, q14, q2 747 vsub.s16 q2, q10, q14 748 vadd.s16 q14, q10, q14 [all...] |
/external/pixman/pixman/ |
H A D | pixman-arm-neon-asm.S | 182 vshll.u8 q14, d16, #8 185 vsri.u16 q14, q8, #5 186 vsri.u16 q14, q9, #11 261 vshll.u8 q14, d16, #8 276 vsri.u16 q14, q8, #5 284 vsri.u16 q14, q9, #11 380 vshll.u8 q14, d16, #8 383 vsri.u16 q14, q8, #5 384 vsri.u16 q14, q9, #11 425 vshll.u8 q14, d [all...] |
/external/openssl/crypto/ |
H A D | armv4cpuid.S | 146 .byte 0xfc,0xc1,0x4c,0xf3 @ veor q14, q14, q14 147 .byte 0xfe,0xe1,0x4e,0xf3 @ veor q14, q14, q14
|