Searched refs:d24 (Results 1 - 25 of 104) sorted by relevance

12345

/external/llvm/test/MC/AArch64/
H A Dneon-scalar-abs.s9 abs d29, d24
11 // CHECK: abs d29, d24 // encoding: [0x1d,0xbb,0xe0,0x5e]
18 fabd d29, d24, d20
21 // CHECK: fabd d29, d24, d20 // encoding: [0x1d,0xd7,0xf4,0x7e]
H A Dneon-scalar-neg.s9 neg d29, d24
11 // CHECK: neg d29, d24 // encoding: [0x1d,0xbb,0xe0,0x7e]
/external/chromium_org/third_party/webrtc/common_audio/signal_processing/
H A Dmin_max_operations_neon.S50 vmax.u16 d24, d25
51 vpmax.u16 d24, d24, d24
52 vpmax.u16 d24, d24, d24
54 vmov.u16 r2, d24[0]
101 vmax.u32 d24, d25
102 vpmax.u32 d24, d2
[all...]
/external/libhevc/common/arm/
H A Dihevc_intra_pred_luma_vert.s202 @vaddl.s8 q0, d24, d26
212 vqmovun.s16 d24, q14
214 @vmovn.u16 d24, q1
221 vbsl d18, d24, d16 @only select row values from q12(predpixel)
231 vshr.s64 d24, d24, #8
237 vbsl d8, d24, d16
241 vshr.s64 d24, d24, #8
262 vbsl d18, d24, d1
[all...]
H A Dihevc_inter_pred_chroma_horz.s120 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)
172 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
180 vmlsl.u8 q14,d1,d24
211 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
236 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
249 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
267 vmlsl.u8 q14,d1,d24
298 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
309 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
319 vmlsl.u8 q15,d0,d24
[all...]
H A Dihevc_inter_pred_chroma_horz_w16out.s123 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)
192 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
201 vmlsl.u8 q14,d1,d24
232 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
252 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
265 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
278 vmlsl.u8 q14,d1,d24
307 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
318 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
328 vmlsl.u8 q15,d0,d24
[all...]
H A Dihevc_inter_pred_chroma_vert_w16inp.s240 vqshrn.s32 d24,q12,#6 @right shift
253 vqrshrun.s16 d24,q12,#6 @rounding shift
259 vst1.32 {d24[0]},[r9] @stores the loaded value
294 vqshrn.s32 d24,q12,#6 @right shift
305 vqrshrun.s16 d24,q12,#6 @rounding shift
316 vst1.32 {d24[0]},[r9] @stores the loaded value
331 vqshrn.s32 d24,q12,#6 @right shift
333 vqrshrun.s16 d24,q12,#6 @rounding shift
335 vst1.32 {d24[0]},[r9] @stores the loaded value
H A Dihevc_inter_pred_filters_luma_vert_w16inp.s125 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
152 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
168 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
184 vmlal.s16 q6,d4,d24
196 vmlal.s16 q7,d5,d24
224 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
238 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
258 vmlal.s16 q6,d4,d24
281 vmlal.s16 q7,d5,d24
307 vmlal.s16 q4,d2,d24
[all...]
H A Dihevc_inter_pred_luma_vert_w16inp_w16out.s133 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
162 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
178 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
194 vmlal.s16 q6,d4,d24
207 vmlal.s16 q7,d5,d24
237 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
252 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
273 vmlal.s16 q6,d4,d24
297 vmlal.s16 q7,d5,d24
324 vmlal.s16 q4,d2,d24
[all...]
H A Dihevc_intra_pred_luma_mode_3_to_9.s217 vrshrn.i16 d24, q12, #5 @round shft (row 0)
227 vst1.8 d24, [r2], r3 @st (row 0)
261 vrshrn.i16 d24, q12, #5 @round shft (row 4)
271 vst1.8 d24, [r2], r3 @st (row 4)
339 vst1.8 d24, [r5], r3 @st (row 4)
387 vrshrn.i16 d24, q12, #5 @round shft (row 0)
402 vst1.8 d24, [r2], r3 @st (row 0)
445 vrshrn.i16 d24, q12, #5 @round shft (row 4)
464 vst1.8 d24, [r5], r3 @st (row 4)
465 vrshrn.i16 d24, q1
[all...]
/external/openssl/crypto/sha/asm/
H A Dsha512-armv4.S450 vshr.u64 d24,d20,#14 @ 0
457 vsli.64 d24,d20,#50
465 veor d24,d25
467 veor d24,d26 @ Sigma1(e)
469 vadd.i64 d27,d24
470 vshr.u64 d24,d16,#28
474 vsli.64 d24,d16,#36
480 veor d23,d24,d25
487 vshr.u64 d24,d19,#14 @ 1
494 vsli.64 d24,d1
[all...]
/external/libhevc/common/arm64/
H A Dihevc_intra_pred_luma_vert.s204 //vaddl.s8 q0, d24, d26
216 //vmovn.u16 d24, q1
233 sshr d24, d24,#8
243 sshr d24, d24,#8
268 sshr d24, d24,#8
281 sshr d24, d24,#
[all...]
/external/chromium_org/third_party/boringssl/linux-arm/crypto/sha/
H A Dsha512-armv4.S452 vshr.u64 d24,d20,#14 @ 0
462 vsli.64 d24,d20,#50
469 veor d25,d24
471 vshr.u64 d24,d16,#28
475 vsli.64 d24,d16,#36
482 veor d23,d24,d25
489 vshr.u64 d24,d19,#14 @ 1
499 vsli.64 d24,d19,#50
506 veor d25,d24
508 vshr.u64 d24,d2
[all...]
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/
H A Dvp9_convolve8_avg_neon.asm82 vld1.8 {d24}, [r0], r1
88 vtrn.8 d24, d25
93 vmovl.u8 q8, d24
137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
228 vld1.u32 {d24[0]}, [r7], r1
231 vld1.u32 {d24[1]}, [r4], r1
234 vmovl.u8 q12, d24
[all...]
H A Dvp9_convolve8_neon.asm82 vld1.8 {d24}, [r0], r1
88 vtrn.8 d24, d25
93 vmovl.u8 q8, d24
129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
217 vld1.u32 {d24[0]}, [r7], r1
220 vld1.u32 {d24[1]}, [r4], r1
223 vmovl.u8 q12, d24
[all...]
H A Dvp9_mb_lpf_neon.asm67 vst1.u8 {d24}, [r8@64], r1 ; store op0
96 vst1.u8 {d24}, [r8@64], r1 ; store op5
190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1
191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1
192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1
193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1
194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1
195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1
196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1
197 vst4.8 {d23[7], d24[
[all...]
/external/libvpx/libvpx/vp9/common/arm/neon/
H A Dvp9_convolve8_avg_neon.asm82 vld1.8 {d24}, [r0], r1
88 vtrn.8 d24, d25
93 vmovl.u8 q8, d24
137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
228 vld1.u32 {d24[0]}, [r7], r1
231 vld1.u32 {d24[1]}, [r4], r1
234 vmovl.u8 q12, d24
[all...]
H A Dvp9_convolve8_neon.asm82 vld1.8 {d24}, [r0], r1
88 vtrn.8 d24, d25
93 vmovl.u8 q8, d24
129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
217 vld1.u32 {d24[0]}, [r7], r1
220 vld1.u32 {d24[1]}, [r4], r1
223 vmovl.u8 q12, d24
[all...]
H A Dvp9_mb_lpf_neon.asm67 vst1.u8 {d24}, [r8@64], r1 ; store op0
96 vst1.u8 {d24}, [r8@64], r1 ; store op5
190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1
191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1
192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1
193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1
194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1
195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1
196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1
197 vst4.8 {d23[7], d24[
[all...]
/external/chromium_org/third_party/webrtc/modules/audio_processing/aecm/
H A Daecm_core_neon.S48 vld1.16 {d24, d25}, [r6, :128]! @ &aecm->channelStored[i]
51 vmull.u16 q10, d26, d24
104 vld1.16 {d24, d25}, [r3, :128]! @ &aecm->channelAdapt16[i]
106 vst1.16 {d24, d25}, [r0, :128]! @ &aecm->channelStored[i]
107 vmull.u16 q10, d26, d24
133 vld1.16 {d24, d25}, [r0, :128]!
135 vst1.16 {d24, d25}, [r1, :128]!
136 vshll.s16 q10, d24, #16
/external/libvpx/libvpx/vp8/encoder/arm/neon/
H A Dvp8_mse16x16_neon.asm53 vmlal.s16 q9, d24, d24
100 vmull.s16 q8, d24, d24
/external/libvpx/libvpx/vp8/common/arm/neon/
H A Dvariance_neon.asm56 vmlal.s16 q9, d24, d24
126 vmlal.s16 q9, d24, d24
187 vmlal.s16 q9, d24, d24
246 vmlal.s16 q9, d24, d24
H A Dsixtappredict16x16_neon.asm72 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
73 vdup.8 d1, d24[4]
228 vld1.u8 {d24}, [lr], r2
244 vmlsl.u8 q5, d24, d4
253 vmlal.u8 q4, d24, d5
260 vmull.u8 q10, d24, d3
304 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
305 vdup.8 d1, d24[4]
328 vext.8 d24, d6, d7, #4 ;construct src_ptr[2]
339 vmlsl.u8 q6, d24, d
[all...]
/external/pixman/pixman/
H A Dpixman-arm-neon-asm.S105 * d24, d25, d26, d27 - contain loading mask pixel data (if mask is used)
584 vmvn.8 d24, d3 /* get inverted alpha */
586 vmull.u8 q8, d24, d4
587 vmull.u8 q9, d24, d5
588 vmull.u8 q10, d24, d6
589 vmull.u8 q11, d24, d7
712 /* inverted alpha in {d24} */
714 vmull.u8 q8, d24, d4
715 vmull.u8 q9, d24, d5
716 vmull.u8 q10, d24, d
[all...]
/external/llvm/test/MC/ARM/
H A Dneont2-pairwise-encoding.s74 vpmin.u32 d21, d24, d15
82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a]
90 vpmax.u16 d7, d24, d13
98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]

Completed in 6953 milliseconds

12345