Searched refs:d25 (Results 1 - 25 of 81) sorted by relevance

1234

/external/llvm/test/MC/ARM/
H A Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
H A Dneont2-pairwise-encoding.s45 vpadal.u8 d14, d25
58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6]
73 vpmin.u16 d20, d25, d14
81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a]
91 vpmax.u32 d8, d25, d12
99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
H A Deh-directive-vsave.s116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
/external/libavc/encoder/arm/
H A Dih264e_half_pel.s175 vqrshrun.s16 d25, q9, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row1)
178 vst1.8 {d23, d24, d25}, [r1], r3 @//Store dest row1
353 vext.16 d31, d24, d25, #1 @//extract a[5] (set4)
362 vext.16 d31, d25, d25, #1 @//extract a[5] (set5) ;//here only first element in the row is valid
367 vext.16 d30, d24, d25, #2 @//extract a[2] (set5)
370 vext.16 d29, d24, d25, #3 @//extract a[3] (set5)
372 vext.16 d31, d24, d25, #1 @//extract a[1] (set5)
379 vmlsl.s16 q11, d25, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set5)
458 vext.16 d31, d24, d25, #
[all...]
/external/libhevc/common/arm/
H A Dihevc_intra_pred_luma_vert.s209 @vaddl.s8 q1, d25, d27
211 vqmovun.s16 d25, q0
213 @vmovn.u16 d25, q0
222 vbsl d10, d25, d16
234 vshr.s64 d25, d25, #8
238 vbsl d6, d25, d16
244 vshr.s64 d25, d25, #8
263 vbsl d10, d25, d1
[all...]
H A Dihevc_inter_pred_chroma_horz.s122 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1)
170 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
178 vmull.u8 q14,d3,d25
207 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
233 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
245 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
262 vmull.u8 q14,d3,d25
292 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
306 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
314 vmull.u8 q15,d2,d25
[all...]
H A Dihevc_inter_pred_chroma_horz_w16out.s125 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1)
190 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
198 vmull.u8 q14,d3,d25
221 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
249 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
262 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
274 vmull.u8 q14,d3,d25
302 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
316 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
324 vmull.u8 q15,d2,d25
[all...]
H A Dihevc_inter_pred_filters_luma_vert_w16inp.s126 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@
154 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
170 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
185 vmlal.s16 q6,d5,d25
197 vmlal.s16 q7,d6,d25
225 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
239 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
261 vmlal.s16 q6,d5,d25
284 vmlal.s16 q7,d6,d25
308 vmlal.s16 q4,d3,d25
[all...]
H A Dihevc_inter_pred_luma_vert_w16inp_w16out.s134 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@
164 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
180 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
195 vmlal.s16 q6,d5,d25
208 vmlal.s16 q7,d6,d25
238 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
253 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
276 vmlal.s16 q6,d5,d25
300 vmlal.s16 q7,d6,d25
325 vmlal.s16 q4,d3,d25
[all...]
H A Dihevc_intra_pred_chroma_mode2.s155 vrev64.8 d25,d9
180 vst2.8 {d24,d25},[r6],r5
221 vrev64.8 d25,d9
242 vst2.8 {d24,d25},[r6],r5
H A Dihevc_intra_pred_chroma_mode_27_to_33.s185 vdup.8 d25,d4[3] @(iv)
215 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
222 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract)
245 vdup.8 d25,d4[7] @(viii)
292 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
301 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract)
337 vdup.8 d25,d4[3] @(iv)
356 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
364 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract)
367 vdup.8 d25,d
[all...]
H A Dihevc_intra_pred_filters_chroma_mode_19_to_25.s293 vdup.8 d25,d4[3] @(iv)
323 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
329 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract)
350 vdup.8 d25,d4[7] @(viii)
401 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
410 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract)
447 vdup.8 d25,d4[3] @(iv)
470 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
476 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract)
481 vdup.8 d25,d
[all...]
H A Dihevc_intra_pred_filters_luma_mode_19_to_25.s296 vdup.8 d25,d4[3] @(iv)
325 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
331 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract)
352 vdup.8 d25,d4[7] @(viii)
398 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
407 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract)
444 vdup.8 d25,d4[3] @(iv)
466 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
472 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract)
477 vdup.8 d25,d
[all...]
H A Dihevc_intra_pred_luma_mode_27_to_33.s188 vdup.8 d25,d4[3] @(iv)
217 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
224 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract)
247 vdup.8 d25,d4[7] @(viii)
293 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
302 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract)
338 vdup.8 d25,d4[3] @(iv)
357 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
365 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract)
368 vdup.8 d25,d
[all...]
H A Dihevc_inter_pred_filters_luma_vert.s134 vdup.u8 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@
164 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
185 vmlal.u8 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
206 vmlal.u8 q6,d5,d25
220 vmlal.u8 q7,d6,d25
250 vmlal.u8 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
275 vmlal.u8 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@
301 vmlal.u8 q6,d5,d25
327 vmlal.u8 q7,d6,d25
350 vmlal.u8 q4,d3,d25
[all...]
H A Dihevc_deblk_luma_horz.s115 vdup.32 d25, r11 @-1 value
197 vaddl.u8 q3,d25,d26
267 vaddl.u8 q3,d25,d24
273 vqadd.u8 d30,d25,d1
275 vqsub.u8 d31,d25,d1
415 @ vdup.32 d25, r11 @-1 value
429 vsubl.u8 q5,d26,d25
465 vmovl.u8 q3,d25
489 vaddl.u8 q7,d23,d25
511 vbsl d19,d25,d1
[all...]
/external/libvpx/libvpx/vp9/common/arm/neon/
H A Dvp9_mb_lpf_neon.asm66 vst1.u8 {d25}, [r8@64], r1 ; store op1
97 vst1.u8 {d25}, [r8@64], r1 ; store op4
188 vswp d23, d25
190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1
191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1
192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1
193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1
194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1
195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1
196 vst4.8 {d23[6], d24[6], d25[
[all...]
H A Dvp9_convolve8_avg_neon.asm83 vld1.8 {d25}, [r0], r1
88 vtrn.8 d24, d25
94 vmovl.u8 q9, d25
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
288 vmov d22, d25
H A Dvp9_convolve8_neon.asm83 vld1.8 {d25}, [r0], r1
88 vtrn.8 d24, d25
94 vmovl.u8 q9, d25
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
266 vmov d22, d25
/external/valgrind/none/tests/arm/
H A Dvfpv4_fma.c87 TESTINSN_bin_f64("vfma.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0(-45.5687), f2u1(-45.5687));
88 TESTINSN_bin_f64("vfma.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f2u1(1346));
90 TESTINSN_bin_f64("vfma.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i32, f2u0(17065), f2u1(17065));
100 TESTINSN_bin_f64("vfma.f64 d29, d25, d7", d29, d25, i32, f2u0(-INFINITY), f2u1(-INFINITY), d7, i32, f2u0(1752), f2u1(1752));
137 TESTINSN_bin_f64("vfms.f64 d20, d25, d22", d20, d25, i3
[all...]
/external/libhevc/common/arm64/
H A Dihevc_intra_pred_luma_vert.s211 //vaddl.s8 q1, d25, d27
215 //vmovn.u16 d25, q0
236 sshr d25, d25,#8
246 sshr d25, d25,#8
271 sshr d25, d25,#8
284 sshr d25, d25,#
[all...]
H A Dihevc_intra_pred_luma_dc.s204 shl d25, d18,#1 //2*dc
208 add d27, d25 , d28 //src[2nt+1]+2+src[2nt-1]+2dc_val
215 add d23, d25 , d18 //3*dc
451 shl d25, d18,#1 //2*dc
455 add d27, d25 , d28 //src[2nt+1]+2+src[2nt-1]+2dc_val
459 add d23, d25 , d18 //3*dc
/external/libvpx/libvpx/vp8/common/arm/neon/
H A Dvp8_subpixelvariance8x8_neon.asm72 vqrshrn.u16 d25, q9, #7
117 vmull.u8 q4, d25, d0
125 vmlal.u8 q3, d25, d1
135 vqrshrn.u16 d25, q4, #7
148 vld1.u8 {d25}, [r0], r1
181 vsubl.u8 q7, d25, d3
/external/libavc/common/arm/
H A Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s199 vmlsl.s16 q11, d25, d30
221 vmlsl.s16 q11, d25, d30
276 vmlsl.s16 q11, d25, d30
298 vmlsl.s16 q11, d25, d30
369 vqmovn.u16 d25, q6
396 vmov d12, d25
397 vmov d25, d24
460 vqmovn.u16 d25, q6
486 vmov d12, d25
487 vmov d25, d2
[all...]
/external/webrtc/src/modules/audio_coding/codecs/isac/fix/source/
H A Dlpc_masking_model_neon.S55 vdup.s32 d25, r2
71 vmull.s32 q0, d0, d25
114 vmull.s32 q0, d0, d25

Completed in 352 milliseconds

1234