/external/openssl/crypto/sha/asm/ |
H A D | sha512-armv4.S | 463 vadd.i64 d27,d28,d23 469 vadd.i64 d27,d24 471 vadd.i64 d27,d29 477 vadd.i64 d27,d0 484 vadd.i64 d23,d27 485 vadd.i64 d19,d27 500 vadd.i64 d27,d28,d22 506 vadd.i64 d27,d24 508 vadd.i64 d27,d29 514 vadd.i64 d27,d [all...] |
/external/chromium_org/third_party/boringssl/linux-arm/crypto/sha/ |
H A D | sha512-armv4.S | 473 vadd.i64 d27,d29,d23 476 vadd.i64 d27,d26 483 vadd.i64 d27,d28 486 vadd.i64 d19,d27 487 vadd.i64 d30,d27 510 vadd.i64 d27,d29,d22 513 vadd.i64 d27,d26 520 vadd.i64 d27,d28 523 vadd.i64 d18,d27 524 vadd.i64 d30,d27 [all...] |
/external/openssl/crypto/bn/asm/ |
H A D | armv4-gf2m.S | 100 vmov.32 d27, r12, r3 106 vmull.p8 q1, d2, d27 @ F = A1*B 107 vext.8 d0, d27, d27, #1 @ B1 110 vmull.p8 q2, d4, d27 @ H = A2*B 111 vext.8 d16, d27, d27, #2 @ B2 115 vmull.p8 q3, d6, d27 @ J = A3*B 116 vext.8 d0, d27, d27, # [all...] |
/external/jpeg/ |
H A D | jsimd_arm_neon.S | 199 vld1.16 {d24, d25, d26, d27}, [DCT_TABLE]! 425 vld1.16 {d26, d27, d28, d29}, [DCT_TABLE]! 440 idct_helper d4, d6, d8, d10, d7, d9, d11, 19, d26, d27, d28, d29 441 transpose_4x4 d26, d27, d28, d29 448 vqmovun.s16 d27, q14 462 vst1.32 {d27[0]}, [TMP3]! 464 vst1.32 {d27[1]}, [TMP4]! 467 vst1.8 {d27[0]}, [TMP3]! 469 vst1.8 {d27[1]}, [TMP3]! 471 vst1.8 {d27[ [all...] |
/external/chromium_org/third_party/webrtc/common_audio/signal_processing/ |
H A D | vector_scaling_operations_neon.S | 34 vdup.16 d27, r3 @ in_vector2_scale 48 vmull.s16 q2, d30, d27 49 vmull.s16 q3, d31, d27
|
/external/chromium_org/third_party/webrtc/modules/audio_processing/aecm/ |
H A D | aecm_core_neon.S | 47 vld1.16 {d26, d27}, [r1]! @ far_spectrum[i] 52 vmull.u16 q11, d27, d25 53 vaddw.u16 q14, q14, d27 57 vmull.u16 q2, d27, d1 105 vld1.16 {d26, d27}, [r1]! @ &far_spectrum[i] 108 vmull.u16 q11, d27, d25
|
/external/libhevc/common/arm/ |
H A D | ihevc_inter_pred_chroma_horz.s | 129 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3) 176 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 185 vmlsl.u8 q14,d7,d27 229 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 242 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 260 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 274 vmlsl.u8 q14,d7,d27 302 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 313 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 323 vmlsl.u8 q15,d6,d27 [all...] |
H A D | ihevc_intra_pred_chroma_dc.s | 133 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 144 vpaddl.u8 d3, d27 159 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 167 vpaddl.u8 d3, d27 253 vld2.s8 {d26,d27},[r8] @load from src[2nt+1] 264 vshl.i64 d2,d27,#32
|
H A D | ihevc_inter_pred_chroma_horz_w16out.s | 132 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3) 196 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 206 vmlsl.u8 q14,d7,d27 245 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 258 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 271 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 286 vmlsl.u8 q14,d7,d27 312 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 322 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 332 vmlsl.u8 q15,d6,d27 [all...] |
H A D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 128 vdup.16 d27,d1[1] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@ 158 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 174 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 187 vmlal.s16 q6,d7,d27 201 vmlal.s16 q7,d16,d27 227 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 241 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 266 vmlal.s16 q6,d7,d27 288 vmlal.s16 q7,d16,d27 310 vmlal.s16 q4,d5,d27 [all...] |
H A D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 136 vdup.16 d27,d1[1] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@ 168 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 184 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 197 vmlal.s16 q6,d7,d27 212 vmlal.s16 q7,d16,d27 240 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 255 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 281 vmlal.s16 q6,d7,d27 304 vmlal.s16 q7,d16,d27 327 vmlal.s16 q4,d5,d27 [all...] |
H A D | ihevc_intra_pred_chroma_mode2.s | 160 vrev64.8 d27,d11 182 vst2.8 {d26,d27},[r7],r5 225 vrev64.8 d27,d11 243 vst2.8 {d26,d27},[r7],r5
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
H A D | sixtappredict8x4_neon.asm | 162 vext.8 d27, d6, d7, #1 ;construct src_ptr[-1] 168 vmlsl.u8 q8, d27, d1 ;-(src_ptr[-1] * vp8_filter[1]) 174 vext.8 d27, d6, d7, #4 ;construct src_ptr[2] 180 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4]) 186 vext.8 d27, d6, d7, #2 ;construct src_ptr[0] 192 vmlal.u8 q8, d27, d2 ;(src_ptr[0] * vp8_filter[2]) 198 vext.8 d27, d6, d7, #5 ;construct src_ptr[3] 204 vmlal.u8 q8, d27, d5 ;(src_ptr[3] * vp8_filter[5]) 210 vext.8 d27, d6, d7, #3 ;construct src_ptr[1] 216 vmull.u8 q3, d27, d [all...] |
/external/chromium_org/third_party/boringssl/linux-arm/crypto/modes/ |
H A D | ghash-armv4.S | 347 vldmia r1,{d26-d27} @ load twisted H 353 veor d28,d26,d27 @ Karatsuba pre-processing 366 vldmia r1,{d26-d27} @ load twisted H 372 veor d28,d26,d27 @ Karatsuba pre-processing 457 vext.8 d16, d27, d27, #1 @ A1 460 vmull.p8 q2, d27, d4 @ E = A*B1 461 vext.8 d18, d27, d27, #2 @ A2 464 vmull.p8 q11, d27, d2 [all...] |
/external/openssl/crypto/modes/asm/ |
H A D | ghash-armv4.S | 340 vldmia r1,{d26-d27} @ load twisted H 346 veor d28,d26,d27 @ Karatsuba pre-processing 358 vldmia r1,{d26-d27} @ load twisted H 364 veor d28,d26,d27 @ Karatsuba pre-processing 449 vext.8 d16, d27, d27, #1 @ A1 452 vmull.p8 q2, d27, d4 @ E = A*B1 453 vext.8 d18, d27, d27, #2 @ A2 456 vmull.p8 q11, d27, d2 [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
H A D | vp9_mb_lpf_neon.asm | 99 vst1.u8 {d27}, [r8@64], r1 ; store op2 232 vtrn.32 d16, d27 239 vtrn.16 d27, d19 243 vtrn.8 d26, d27 271 vst1.8 {d27}, [r8@64], r1 338 vabd.u8 d27, d4, d7 ; abs(p3 - p0) 343 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0)) 371 vabd.u8 d27, d14, d8 ; abs(q6 - q0) 378 vmax.u8 d24, d26, d27 ; max(abs(p6 - p0), abs(q6 - q0)) 382 vmax.u8 d27, d2 [all...] |
H A D | vp9_convolve8_avg_neon.asm | 85 vld1.8 {d27}, [r0], r8 89 vtrn.8 d26, d27 96 vmovl.u8 q11, d27 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 256 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
|
H A D | vp9_convolve8_neon.asm | 85 vld1.8 {d27}, [r0], r8 89 vtrn.8 d26, d27 96 vmovl.u8 q11, d27 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 240 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
|
H A D | vp9_iht4x4_add_neon.asm | 38 vqrshrn.s32 d27, q14, #14 216 vld1.32 {d27[0]}, [r1], r2 217 vld1.32 {d27[1]}, [r1] 221 vaddw.u8 q9, q9, d27 225 vqmovun.s16 d27, q9 230 vst1.32 {d27[1]}, [r1], r2 231 vst1.32 {d27[0]}, [r1], r2
|
H A D | vp9_loopfilter_neon.asm | 237 vqsub.s8 d27, d5, d16 ; filter = clamp(ps1-qs1) 242 vand d27, d27, d22 ; filter &= hev 245 vaddw.s8 q12, q12, d27 ; filter + 3 * (qs0 - ps0) 250 vqmovn.s16 d27, q12 252 vand d27, d27, d23 ; filter &= mask 254 vqadd.s8 d28, d27, d19 ; filter2 = clamp(filter+3) 255 vqadd.s8 d27, d27, d1 [all...] |
/external/libvpx/libvpx/vp9/common/arm/neon/ |
H A D | vp9_mb_lpf_neon.asm | 99 vst1.u8 {d27}, [r8@64], r1 ; store op2 232 vtrn.32 d16, d27 239 vtrn.16 d27, d19 243 vtrn.8 d26, d27 271 vst1.8 {d27}, [r8@64], r1 338 vabd.u8 d27, d4, d7 ; abs(p3 - p0) 343 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0)) 371 vabd.u8 d27, d14, d8 ; abs(q6 - q0) 378 vmax.u8 d24, d26, d27 ; max(abs(p6 - p0), abs(q6 - q0)) 382 vmax.u8 d27, d2 [all...] |
H A D | vp9_convolve8_avg_neon.asm | 85 vld1.8 {d27}, [r0], r8 89 vtrn.8 d26, d27 96 vmovl.u8 q11, d27 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 256 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
|
H A D | vp9_convolve8_neon.asm | 85 vld1.8 {d27}, [r0], r8 89 vtrn.8 d26, d27 96 vmovl.u8 q11, d27 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 240 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
|
H A D | vp9_iht4x4_add_neon.asm | 38 vqrshrn.s32 d27, q14, #14 216 vld1.32 {d27[0]}, [r1], r2 217 vld1.32 {d27[1]}, [r1] 221 vaddw.u8 q9, q9, d27 225 vqmovun.s16 d27, q9 230 vst1.32 {d27[1]}, [r1], r2 231 vst1.32 {d27[0]}, [r1], r2
|
H A D | vp9_loopfilter_neon.asm | 237 vqsub.s8 d27, d5, d16 ; filter = clamp(ps1-qs1) 242 vand d27, d27, d22 ; filter &= hev 245 vaddw.s8 q12, q12, d27 ; filter + 3 * (qs0 - ps0) 250 vqmovn.s16 d27, q12 252 vand d27, d27, d23 ; filter &= mask 254 vqadd.s8 d28, d27, d19 ; filter2 = clamp(filter+3) 255 vqadd.s8 d27, d27, d1 [all...] |