Searched refs:d25 (Results 1 - 25 of 89) sorted by relevance

1234

/external/chromium_org/third_party/boringssl/linux-arm/crypto/sha/
H A Dsha512-armv4.S456 vshr.u64 d25,d20,#18
463 vsli.64 d25,d20,#46
469 veor d25,d24
472 veor d26,d25 @ Sigma1(e)
474 vshr.u64 d25,d16,#34
479 vsli.64 d25,d16,#30
482 veor d23,d24,d25
493 vshr.u64 d25,d19,#18
500 vsli.64 d25,d19,#46
506 veor d25,d2
[all...]
/external/openssl/crypto/sha/asm/
H A Dsha512-armv4.S454 vshr.u64 d25,d20,#18
458 vsli.64 d25,d20,#46
465 veor d24,d25
472 vshr.u64 d25,d16,#34
475 vsli.64 d25,d16,#30
480 veor d23,d24,d25
491 vshr.u64 d25,d19,#18
495 vsli.64 d25,d19,#46
502 veor d24,d25
509 vshr.u64 d25,d2
[all...]
/external/libhevc/common/arm/
H A Dihevc_intra_pred_luma_vert.s209 @vaddl.s8 q1, d25, d27
211 vqmovun.s16 d25, q0
213 @vmovn.u16 d25, q0
222 vbsl d10, d25, d16
234 vshr.s64 d25, d25, #8
238 vbsl d6, d25, d16
244 vshr.s64 d25, d25, #8
263 vbsl d10, d25, d1
[all...]
H A Dihevc_inter_pred_chroma_horz.s122 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1)
170 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
178 vmull.u8 q14,d3,d25
206 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
233 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
246 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
263 vmull.u8 q14,d3,d25
293 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
307 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
315 vmull.u8 q15,d2,d25
[all...]
H A Dihevc_inter_pred_chroma_horz_w16out.s125 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1)
190 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
198 vmull.u8 q14,d3,d25
221 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
249 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
262 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
274 vmull.u8 q14,d3,d25
302 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
316 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
324 vmull.u8 q15,d2,d25
[all...]
H A Dihevc_inter_pred_filters_luma_vert_w16inp.s126 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@
154 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
170 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
185 vmlal.s16 q6,d5,d25
197 vmlal.s16 q7,d6,d25
225 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
239 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
261 vmlal.s16 q6,d5,d25
284 vmlal.s16 q7,d6,d25
308 vmlal.s16 q4,d3,d25
[all...]
H A Dihevc_inter_pred_luma_vert_w16inp_w16out.s134 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@
164 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
180 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
195 vmlal.s16 q6,d5,d25
208 vmlal.s16 q7,d6,d25
238 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
253 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
276 vmlal.s16 q6,d5,d25
300 vmlal.s16 q7,d6,d25
325 vmlal.s16 q4,d3,d25
[all...]
H A Dihevc_intra_pred_chroma_mode2.s155 vrev64.8 d25,d9
180 vst2.8 {d24,d25},[r6],r5
221 vrev64.8 d25,d9
242 vst2.8 {d24,d25},[r6],r5
H A Dihevc_intra_pred_chroma_mode_27_to_33.s185 vdup.8 d25,d4[3] @(iv)
215 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
222 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract)
245 vdup.8 d25,d4[7] @(viii)
292 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
301 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract)
337 vdup.8 d25,d4[3] @(iv)
356 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
364 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract)
367 vdup.8 d25,d
[all...]
H A Dihevc_intra_pred_filters_chroma_mode_19_to_25.s293 vdup.8 d25,d4[3] @(iv)
323 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
329 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract)
350 vdup.8 d25,d4[7] @(viii)
401 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
410 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract)
447 vdup.8 d25,d4[3] @(iv)
470 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
476 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract)
481 vdup.8 d25,d
[all...]
H A Dihevc_intra_pred_filters_luma_mode_19_to_25.s296 vdup.8 d25,d4[3] @(iv)
325 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
331 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract)
352 vdup.8 d25,d4[7] @(viii)
398 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
407 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract)
444 vdup.8 d25,d4[3] @(iv)
466 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
472 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract)
477 vdup.8 d25,d
[all...]
H A Dihevc_intra_pred_luma_mode_27_to_33.s188 vdup.8 d25,d4[3] @(iv)
217 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
224 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract)
247 vdup.8 d25,d4[7] @(viii)
293 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
302 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract)
338 vdup.8 d25,d4[3] @(iv)
357 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
365 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract)
368 vdup.8 d25,d
[all...]
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/
H A Dvp9_mb_lpf_neon.asm66 vst1.u8 {d25}, [r8@64], r1 ; store op1
97 vst1.u8 {d25}, [r8@64], r1 ; store op4
188 vswp d23, d25
190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1
191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1
192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1
193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1
194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1
195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1
196 vst4.8 {d23[6], d24[6], d25[
[all...]
H A Dvp9_convolve8_avg_neon.asm83 vld1.8 {d25}, [r0], r1
88 vtrn.8 d24, d25
94 vmovl.u8 q9, d25
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
288 vmov d22, d25
H A Dvp9_convolve8_neon.asm83 vld1.8 {d25}, [r0], r1
88 vtrn.8 d24, d25
94 vmovl.u8 q9, d25
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
266 vmov d22, d25
/external/libvpx/libvpx/vp9/common/arm/neon/
H A Dvp9_mb_lpf_neon.asm66 vst1.u8 {d25}, [r8@64], r1 ; store op1
97 vst1.u8 {d25}, [r8@64], r1 ; store op4
188 vswp d23, d25
190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1
191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1
192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1
193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1
194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1
195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1
196 vst4.8 {d23[6], d24[6], d25[
[all...]
/external/chromium_org/third_party/webrtc/modules/audio_processing/aecm/
H A Daecm_core_neon.S48 vld1.16 {d24, d25}, [r6, :128]! @ &aecm->channelStored[i]
52 vmull.u16 q11, d27, d25
104 vld1.16 {d24, d25}, [r3, :128]! @ &aecm->channelAdapt16[i]
106 vst1.16 {d24, d25}, [r0, :128]! @ &aecm->channelStored[i]
108 vmull.u16 q11, d27, d25
133 vld1.16 {d24, d25}, [r0, :128]!
135 vst1.16 {d24, d25}, [r1, :128]!
137 vshll.s16 q11, d25, #16
/external/llvm/test/MC/ARM/
H A Dneont2-pairwise-encoding.s45 vpadal.u8 d14, d25
58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6]
73 vpmin.u16 d20, d25, d14
81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a]
91 vpmax.u32 d8, d25, d12
99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
/external/libvpx/libvpx/vp8/common/arm/neon/
H A Dvariance_neon.asm57 vmlal.s16 q10, d25, d25
127 vmlal.s16 q10, d25, d25
188 vmlal.s16 q10, d25, d25
247 vmlal.s16 q10, d25, d25
H A Dsixtappredict8x4_neon.asm64 vdup.8 d2, d25[0]
68 vdup.8 d3, d25[4]
144 vqrshrun.s16 d25, q10, #7
153 vst1.u8 {d25}, [lr]!
257 vmull.u8 q6, d25, d0
261 vmlsl.u8 q5, d25, d1
270 vmlal.u8 q4, d25, d2
279 vmull.u8 q7, d25, d3 ;(src_ptr[1] * vp8_filter[3])
314 vdup.8 d2, d25[0]
316 vdup.8 d3, d25[
[all...]
H A Dvp8_subpixelvariance8x8_neon.asm71 vqrshrn.u16 d25, q9, #7
116 vmull.u8 q4, d25, d0
124 vmlal.u8 q3, d25, d1
134 vqrshrn.u16 d25, q4, #7
147 vld1.u8 {d25}, [r0], r1
180 vsubl.u8 q7, d25, d3
/external/libhevc/common/arm64/
H A Dihevc_intra_pred_luma_vert.s211 //vaddl.s8 q1, d25, d27
215 //vmovn.u16 d25, q0
236 sshr d25, d25,#8
246 sshr d25, d25,#8
271 sshr d25, d25,#8
284 sshr d25, d25,#
[all...]
/external/chromium_org/third_party/webrtc/common_audio/signal_processing/
H A Dmin_max_operations_neon.S50 vmax.u16 d24, d25
101 vmax.u32 d24, d25
145 vmax.s16 d24, d25
187 vpmax.s32 d24, d24, d25
225 vmin.s16 d24, d25
268 vpmin.s32 d24, d24, d25
/external/valgrind/main/none/tests/arm/
H A Dvfpv4_fma.c87 TESTINSN_bin_f64("vfma.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0(-45.5687), f2u1(-45.5687));
88 TESTINSN_bin_f64("vfma.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f2u1(1346));
90 TESTINSN_bin_f64("vfma.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i32, f2u0(17065), f2u1(17065));
100 TESTINSN_bin_f64("vfma.f64 d29, d25, d7", d29, d25, i32, f2u0(-INFINITY), f2u1(-INFINITY), d7, i32, f2u0(1752), f2u1(1752));
137 TESTINSN_bin_f64("vfms.f64 d20, d25, d22", d20, d25, i3
[all...]
/external/chromium_org/third_party/webrtc/modules/audio_coding/codecs/isac/fix/source/
H A Dlpc_masking_model_neon.S52 vdup.s32 d25, r2
68 vmull.s32 q0, d0, d25
111 vmull.s32 q0, d0, d25

Completed in 453 milliseconds

1234