Searched refs:d27 (Results 1 - 25 of 91) sorted by relevance

1234

/external/openssl/crypto/sha/asm/
H A Dsha512-armv4.S463 vadd.i64 d27,d28,d23
469 vadd.i64 d27,d24
471 vadd.i64 d27,d29
477 vadd.i64 d27,d0
484 vadd.i64 d23,d27
485 vadd.i64 d19,d27
500 vadd.i64 d27,d28,d22
506 vadd.i64 d27,d24
508 vadd.i64 d27,d29
514 vadd.i64 d27,d
[all...]
/external/chromium_org/third_party/boringssl/linux-arm/crypto/sha/
H A Dsha512-armv4.S473 vadd.i64 d27,d29,d23
476 vadd.i64 d27,d26
483 vadd.i64 d27,d28
486 vadd.i64 d19,d27
487 vadd.i64 d30,d27
510 vadd.i64 d27,d29,d22
513 vadd.i64 d27,d26
520 vadd.i64 d27,d28
523 vadd.i64 d18,d27
524 vadd.i64 d30,d27
[all...]
/external/openssl/crypto/bn/asm/
H A Darmv4-gf2m.S100 vmov.32 d27, r12, r3
106 vmull.p8 q1, d2, d27 @ F = A1*B
107 vext.8 d0, d27, d27, #1 @ B1
110 vmull.p8 q2, d4, d27 @ H = A2*B
111 vext.8 d16, d27, d27, #2 @ B2
115 vmull.p8 q3, d6, d27 @ J = A3*B
116 vext.8 d0, d27, d27, #
[all...]
/external/jpeg/
H A Djsimd_arm_neon.S199 vld1.16 {d24, d25, d26, d27}, [DCT_TABLE]!
425 vld1.16 {d26, d27, d28, d29}, [DCT_TABLE]!
440 idct_helper d4, d6, d8, d10, d7, d9, d11, 19, d26, d27, d28, d29
441 transpose_4x4 d26, d27, d28, d29
448 vqmovun.s16 d27, q14
462 vst1.32 {d27[0]}, [TMP3]!
464 vst1.32 {d27[1]}, [TMP4]!
467 vst1.8 {d27[0]}, [TMP3]!
469 vst1.8 {d27[1]}, [TMP3]!
471 vst1.8 {d27[
[all...]
/external/chromium_org/third_party/webrtc/common_audio/signal_processing/
H A Dvector_scaling_operations_neon.S34 vdup.16 d27, r3 @ in_vector2_scale
48 vmull.s16 q2, d30, d27
49 vmull.s16 q3, d31, d27
/external/chromium_org/third_party/webrtc/modules/audio_processing/aecm/
H A Daecm_core_neon.S47 vld1.16 {d26, d27}, [r1]! @ far_spectrum[i]
52 vmull.u16 q11, d27, d25
53 vaddw.u16 q14, q14, d27
57 vmull.u16 q2, d27, d1
105 vld1.16 {d26, d27}, [r1]! @ &far_spectrum[i]
108 vmull.u16 q11, d27, d25
/external/libhevc/common/arm/
H A Dihevc_inter_pred_chroma_horz.s129 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)
176 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
185 vmlsl.u8 q14,d7,d27
229 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
242 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
260 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
274 vmlsl.u8 q14,d7,d27
302 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
313 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
323 vmlsl.u8 q15,d6,d27
[all...]
H A Dihevc_intra_pred_chroma_dc.s133 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1]
144 vpaddl.u8 d3, d27
159 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1]
167 vpaddl.u8 d3, d27
253 vld2.s8 {d26,d27},[r8] @load from src[2nt+1]
264 vshl.i64 d2,d27,#32
H A Dihevc_inter_pred_chroma_horz_w16out.s132 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)
196 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
206 vmlsl.u8 q14,d7,d27
245 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
258 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
271 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
286 vmlsl.u8 q14,d7,d27
312 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
322 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
332 vmlsl.u8 q15,d6,d27
[all...]
H A Dihevc_inter_pred_filters_luma_vert_w16inp.s128 vdup.16 d27,d1[1] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@
158 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
174 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@
187 vmlal.s16 q6,d7,d27
201 vmlal.s16 q7,d16,d27
227 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
241 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@
266 vmlal.s16 q6,d7,d27
288 vmlal.s16 q7,d16,d27
310 vmlal.s16 q4,d5,d27
[all...]
H A Dihevc_inter_pred_luma_vert_w16inp_w16out.s136 vdup.16 d27,d1[1] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@
168 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
184 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@
197 vmlal.s16 q6,d7,d27
212 vmlal.s16 q7,d16,d27
240 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
255 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@
281 vmlal.s16 q6,d7,d27
304 vmlal.s16 q7,d16,d27
327 vmlal.s16 q4,d5,d27
[all...]
H A Dihevc_intra_pred_chroma_mode2.s160 vrev64.8 d27,d11
182 vst2.8 {d26,d27},[r7],r5
225 vrev64.8 d27,d11
243 vst2.8 {d26,d27},[r7],r5
/external/libvpx/libvpx/vp8/common/arm/neon/
H A Dsixtappredict8x4_neon.asm162 vext.8 d27, d6, d7, #1 ;construct src_ptr[-1]
168 vmlsl.u8 q8, d27, d1 ;-(src_ptr[-1] * vp8_filter[1])
174 vext.8 d27, d6, d7, #4 ;construct src_ptr[2]
180 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4])
186 vext.8 d27, d6, d7, #2 ;construct src_ptr[0]
192 vmlal.u8 q8, d27, d2 ;(src_ptr[0] * vp8_filter[2])
198 vext.8 d27, d6, d7, #5 ;construct src_ptr[3]
204 vmlal.u8 q8, d27, d5 ;(src_ptr[3] * vp8_filter[5])
210 vext.8 d27, d6, d7, #3 ;construct src_ptr[1]
216 vmull.u8 q3, d27, d
[all...]
/external/chromium_org/third_party/boringssl/linux-arm/crypto/modes/
H A Dghash-armv4.S347 vldmia r1,{d26-d27} @ load twisted H
353 veor d28,d26,d27 @ Karatsuba pre-processing
366 vldmia r1,{d26-d27} @ load twisted H
372 veor d28,d26,d27 @ Karatsuba pre-processing
457 vext.8 d16, d27, d27, #1 @ A1
460 vmull.p8 q2, d27, d4 @ E = A*B1
461 vext.8 d18, d27, d27, #2 @ A2
464 vmull.p8 q11, d27, d2
[all...]
/external/openssl/crypto/modes/asm/
H A Dghash-armv4.S340 vldmia r1,{d26-d27} @ load twisted H
346 veor d28,d26,d27 @ Karatsuba pre-processing
358 vldmia r1,{d26-d27} @ load twisted H
364 veor d28,d26,d27 @ Karatsuba pre-processing
449 vext.8 d16, d27, d27, #1 @ A1
452 vmull.p8 q2, d27, d4 @ E = A*B1
453 vext.8 d18, d27, d27, #2 @ A2
456 vmull.p8 q11, d27, d2
[all...]
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/
H A Dvp9_mb_lpf_neon.asm99 vst1.u8 {d27}, [r8@64], r1 ; store op2
232 vtrn.32 d16, d27
239 vtrn.16 d27, d19
243 vtrn.8 d26, d27
271 vst1.8 {d27}, [r8@64], r1
338 vabd.u8 d27, d4, d7 ; abs(p3 - p0)
343 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0))
371 vabd.u8 d27, d14, d8 ; abs(q6 - q0)
378 vmax.u8 d24, d26, d27 ; max(abs(p6 - p0), abs(q6 - q0))
382 vmax.u8 d27, d2
[all...]
H A Dvp9_convolve8_avg_neon.asm85 vld1.8 {d27}, [r0], r8
89 vtrn.8 d26, d27
96 vmovl.u8 q11, d27
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
256 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
H A Dvp9_convolve8_neon.asm85 vld1.8 {d27}, [r0], r8
89 vtrn.8 d26, d27
96 vmovl.u8 q11, d27
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
240 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
H A Dvp9_iht4x4_add_neon.asm38 vqrshrn.s32 d27, q14, #14
216 vld1.32 {d27[0]}, [r1], r2
217 vld1.32 {d27[1]}, [r1]
221 vaddw.u8 q9, q9, d27
225 vqmovun.s16 d27, q9
230 vst1.32 {d27[1]}, [r1], r2
231 vst1.32 {d27[0]}, [r1], r2
H A Dvp9_loopfilter_neon.asm237 vqsub.s8 d27, d5, d16 ; filter = clamp(ps1-qs1)
242 vand d27, d27, d22 ; filter &= hev
245 vaddw.s8 q12, q12, d27 ; filter + 3 * (qs0 - ps0)
250 vqmovn.s16 d27, q12
252 vand d27, d27, d23 ; filter &= mask
254 vqadd.s8 d28, d27, d19 ; filter2 = clamp(filter+3)
255 vqadd.s8 d27, d27, d1
[all...]
/external/libvpx/libvpx/vp9/common/arm/neon/
H A Dvp9_mb_lpf_neon.asm99 vst1.u8 {d27}, [r8@64], r1 ; store op2
232 vtrn.32 d16, d27
239 vtrn.16 d27, d19
243 vtrn.8 d26, d27
271 vst1.8 {d27}, [r8@64], r1
338 vabd.u8 d27, d4, d7 ; abs(p3 - p0)
343 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0))
371 vabd.u8 d27, d14, d8 ; abs(q6 - q0)
378 vmax.u8 d24, d26, d27 ; max(abs(p6 - p0), abs(q6 - q0))
382 vmax.u8 d27, d2
[all...]
H A Dvp9_convolve8_avg_neon.asm85 vld1.8 {d27}, [r0], r8
89 vtrn.8 d26, d27
96 vmovl.u8 q11, d27
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
256 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
H A Dvp9_convolve8_neon.asm85 vld1.8 {d27}, [r0], r8
89 vtrn.8 d26, d27
96 vmovl.u8 q11, d27
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
240 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
H A Dvp9_iht4x4_add_neon.asm38 vqrshrn.s32 d27, q14, #14
216 vld1.32 {d27[0]}, [r1], r2
217 vld1.32 {d27[1]}, [r1]
221 vaddw.u8 q9, q9, d27
225 vqmovun.s16 d27, q9
230 vst1.32 {d27[1]}, [r1], r2
231 vst1.32 {d27[0]}, [r1], r2
H A Dvp9_loopfilter_neon.asm237 vqsub.s8 d27, d5, d16 ; filter = clamp(ps1-qs1)
242 vand d27, d27, d22 ; filter &= hev
245 vaddw.s8 q12, q12, d27 ; filter + 3 * (qs0 - ps0)
250 vqmovn.s16 d27, q12
252 vand d27, d27, d23 ; filter &= mask
254 vqadd.s8 d28, d27, d19 ; filter2 = clamp(filter+3)
255 vqadd.s8 d27, d27, d1
[all...]

Completed in 7576 milliseconds

1234