Searched refs:d28 (Results 1 - 25 of 106) sorted by relevance

12345

/external/libavc/encoder/arm/
H A Dih264e_evaluate_intra4x4_modes_a9q.s159 vadd.i16 d28, d29, d28
161 vpaddl.u16 d28, d28 @
163 vpaddl.u32 d28, d28 @/
165 vmov.u32 r9, d28[0] @ vert
185 vadd.i16 d28, d29, d28
187 vpaddl.u16 d28, d2
[all...]
H A Dih264e_half_pel.s109 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1)
112 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1)
122 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1)
125 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1)
135 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1)
138 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
148 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1)
151 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
161 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1)
164 vmlsl.u8 q7, d28, d
[all...]
H A Dih264e_evaluate_intra_chroma_modes_a9q.s135 vdup.16 d28, d14[0]
143 vdup.16 d28, d16[0]
151 vdup.16 d28, d16[3]
179 vabdl.u8 q11, d0, d28
215 vabal.u8 q11, d0, d28
314 vst1.32 {d28, d29} , [r2], r4 @4
330 vst1.32 {d28, d29} , [r2], r4 @0
331 vst1.32 {d28, d29} , [r2], r4 @1
332 vst1.32 {d28, d29} , [r2], r4 @2
333 vst1.32 {d28, d2
[all...]
H A Dih264e_evaluate_intra16x16_modes_a9q.s187 vadd.i16 d28, d29, d28 @/HORZ
189 vpaddl.u16 d28, d28 @/HORZ
191 vpaddl.u32 d28, d28 @/HORZ
194 vmov.u32 r9, d28[0] @horz
267 vst1.32 {d28, d29} , [r2], r4 @9
/external/llvm/test/MC/AArch64/
H A Darm64-nv-cond.s3 fcsel d28,d31,d31,nv
8 // CHECK: fcsel d28, d31, d31, nv // encoding: [0xfc,0xff,0x7f,0x1e]
/external/llvm/test/MC/ARM/
H A Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
H A Deh-directive-vsave.s116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
/external/libvpx/libvpx/vp8/common/arm/neon/
H A Didct_dequant_full_2x_neon.c23 int32x2_t d28, d29, d30, d31; local
30 d28 = d29 = d30 = d31 = vdup_n_s32(0);
53 d28 = vld1_lane_s32((const int32_t *)dst0, d28, 0);
55 d28 = vld1_lane_s32((const int32_t *)dst1, d28, 1);
154 vreinterpret_u8_s32(d28)));
162 d28 = vreinterpret_s32_u8(vqmovun_s16(q4));
169 vst1_lane_s32((int32_t *)dst0, d28, 0);
171 vst1_lane_s32((int32_t *)dst1, d28,
[all...]
/external/libavc/common/arm/
H A Dih264_inter_pred_filters_luma_horz_a9q.s128 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1)
131 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1)
136 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1)
139 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1)
144 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1)
147 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
152 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1)
155 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
160 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1)
163 vmlsl.u8 q7, d28, d
[all...]
H A Dih264_inter_pred_luma_horz_qpel_a9q.s135 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1)
138 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1)
143 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1)
146 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1)
151 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1)
154 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
159 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1)
162 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
167 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1)
170 vmlsl.u8 q7, d28, d
[all...]
H A Dih264_inter_pred_luma_bilinear_a9q.s150 vqrshrun.s16 d28, q10, #1
158 vqrshrun.s16 d28, q8, #1
174 vqrshrun.s16 d28, q10, #1
186 vqrshrun.s16 d28, q8, #1
202 vqrshrun.s16 d28, q10, #1
217 vqrshrun.s16 d28, q8, #1
238 vqrshrun.s16 d28, q10, #1
246 vqrshrun.s16 d28, q8, #1
263 vqrshrun.s16 d28, q10, #1
268 vst1.8 {d28}, [r
[all...]
H A Dih264_inter_pred_chroma_a9q.s127 vdup.u8 d28, r10
148 vmull.u8 q5, d0, d28
157 vmlal.u8 q6, d1, d28
175 vmull.u8 q5, d0, d28
182 vmlal.u8 q6, d1, d28
201 vmlal.u8 q2, d0, d28
216 vmull.u8 q2, d0, d28
232 vmull.u8 q2, d0, d28
240 vmull.u8 q4, d2, d28
H A Dih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s254 vmlsl.s16 q9, d28, d24
287 vmlsl.s16 q9, d28, d24
289 vqrshrun.s16 d28, q4, #5
308 vrhadd.u8 d28, d28, d18
314 vst1.32 d28, [r1], r3 @ store row 1
344 vaddl.s16 q9, d12, d28
484 vmlsl.s16 q9, d28, d24
516 vmlsl.s16 q9, d28, d24
518 vqrshrun.s16 d28, q
[all...]
H A Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s194 vmlal.s16 q13, d0, d28
198 vmlal.s16 q11, d1, d28
216 vmlal.s16 q13, d18, d28
220 vmlal.s16 q11, d19, d28
271 vmlal.s16 q13, d2, d28
275 vmlal.s16 q11, d3, d28
293 vmlal.s16 q13, d18, d28
297 vmlal.s16 q11, d19, d28
375 vaddl.s16 q15, d28, d22
465 vaddl.s16 q15, d28, d2
[all...]
/external/libhevc/common/arm/
H A Dihevc_intra_pred_chroma_horz.s197 vdup.8 d28,lr
207 @vsubl.u8 q12,d30,d28
221 @vsubl.u8 q12,d31,d28
281 vdup.8 d28,lr
287 vsubl.u8 q12,d30,d28
322 vdup.8 d28,lr
327 vsubl.u8 q12,d30,d28
H A Dihevc_intra_pred_luma_horz.s195 vdup.8 d28,lr
202 vsubl.u8 q12,d30,d28
216 vsubl.u8 q12,d31,d28
274 vdup.8 d28,lr
280 vsubl.u8 q12,d30,d28
315 vdup.8 d28,lr
320 vsubl.u8 q12,d30,d28
H A Dihevc_inter_pred_chroma_vert_w16inp.s214 vqshrn.s32 d28,q14,#6 @right shift
228 vqrshrun.s16 d28,q14,#6 @rounding shift
236 vst1.32 {d28[0]},[r9],r3 @stores the loaded value
265 vqshrn.s32 d28,q14,#6 @right shift
280 vqrshrun.s16 d28,q14,#6 @rounding shift
289 vst1.32 {d28[0]},[r9],r3 @stores the loaded value
313 vqshrn.s32 d28,q14,#6 @right shift
325 vqrshrun.s16 d28,q14,#6 @rounding shift
328 vst1.32 {d28[0]},[r9],r3 @stores the loaded value
H A Dihevc_inter_pred_filters_luma_vert_w16inp.s129 vdup.16 d28,d1[2] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@
159 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
175 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@
188 vmlal.s16 q6,d16,d28
203 vmlal.s16 q7,d17,d28
228 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
244 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@
269 vmlal.s16 q6,d16,d28
290 vmlal.s16 q7,d17,d28
311 vmlal.s16 q4,d6,d28
[all...]
H A Dihevc_inter_pred_luma_vert_w16inp_w16out.s137 vdup.16 d28,d1[2] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@
169 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
185 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@
198 vmlal.s16 q6,d16,d28
214 vmlal.s16 q7,d17,d28
241 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
258 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@
284 vmlal.s16 q6,d16,d28
306 vmlal.s16 q7,d17,d28
328 vmlal.s16 q4,d6,d28
[all...]
H A Dihevc_intra_pred_chroma_dc.s156 vpaddl.u8 d28, d30
162 vpaddl.u16 d29, d28
168 vpaddl.u8 d28, d26
171 vpaddl.u16 d29, d28
H A Dihevc_intra_pred_chroma_mode2.s162 vrev64.8 d28,d12
183 vst2.8 {d28,d29},[r9],r5
227 vrev64.8 d28,d12
244 vst2.8 {d28,d29},[r9],r5
H A Dihevc_inter_pred_filters_luma_vert.s137 vdup.u8 d28,d0[6] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@
170 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
192 vmlal.u8 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@
209 vmlal.u8 q6,d16,d28
226 vmlal.u8 q7,d17,d28
258 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
284 vmlal.u8 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@
310 vmlal.u8 q6,d16,d28
333 vmlal.u8 q7,d17,d28
353 vmlal.u8 q4,d6,d28
[all...]
/external/libvpx/libvpx/vpx_dsp/arm/
H A Dloopfilter_4_neon.asm211 vabd.u8 d28, d5, d16 ; a = abs(p1 - q1)
221 vshr.u8 d28, d28, #1 ; a = a / 2
225 vqadd.u8 d17, d17, d28 ; a = b + a
231 vsub.s8 d28, d7, d6 ; ( qs0 - ps0)
238 vmull.s8 q12, d28, d19 ; 3 * ( qs0 - ps0)
252 vqadd.s8 d28, d27, d19 ; filter2 = clamp(filter+3)
254 vshr.s8 d28, d28, #3 ; filter2 >>= 3
257 vqadd.s8 d19, d6, d28 ;
[all...]
H A Dloopfilter_8_neon.asm217 vabd.u8 d28, d18, d7 ; m11 = abs(q3 - q0)
229 vmax.u8 d26, d27, d28 ; m5 = max(m10, m11)
280 vsub.s8 d28, d21, d24 ; ( qs0 - ps0)
284 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0)
293 vqmovn.s16 d28, q15
295 vand d28, d28, d19 ; filter &= mask
297 vqadd.s8 d30, d28, d27 ; filter2 = clamp(filter+3)
298 vqadd.s8 d29, d28, d29 ; filter1 = clamp(filter+4)
/external/boringssl/linux-arm/crypto/modes/
H A Dghash-armv4.S359 veor d28,d26,d27 @ Karatsuba pre-processing
378 veor d28,d26,d27 @ Karatsuba pre-processing
426 vext.8 d16, d28, d28, #1 @ A1
429 vmull.p8 q1, d28, d2 @ E = A*B1
430 vext.8 d18, d28, d28, #2 @ A2
433 vmull.p8 q11, d28, d22 @ G = A*B2
434 vext.8 d20, d28, d28, #
[all...]

Completed in 270 milliseconds

12345