/external/libavc/encoder/arm/ |
H A D | ih264e_evaluate_intra4x4_modes_a9q.s | 159 vadd.i16 d28, d29, d28 161 vpaddl.u16 d28, d28 @ 163 vpaddl.u32 d28, d28 @/ 165 vmov.u32 r9, d28[0] @ vert 185 vadd.i16 d28, d29, d28 187 vpaddl.u16 d28, d2 [all...] |
H A D | ih264e_half_pel.s | 109 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1) 112 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1) 122 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1) 125 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1) 135 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1) 138 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1) 148 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1) 151 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 161 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1) 164 vmlsl.u8 q7, d28, d [all...] |
H A D | ih264e_evaluate_intra_chroma_modes_a9q.s | 135 vdup.16 d28, d14[0] 143 vdup.16 d28, d16[0] 151 vdup.16 d28, d16[3] 179 vabdl.u8 q11, d0, d28 215 vabal.u8 q11, d0, d28 314 vst1.32 {d28, d29} , [r2], r4 @4 330 vst1.32 {d28, d29} , [r2], r4 @0 331 vst1.32 {d28, d29} , [r2], r4 @1 332 vst1.32 {d28, d29} , [r2], r4 @2 333 vst1.32 {d28, d2 [all...] |
H A D | ih264e_evaluate_intra16x16_modes_a9q.s | 187 vadd.i16 d28, d29, d28 @/HORZ 189 vpaddl.u16 d28, d28 @/HORZ 191 vpaddl.u32 d28, d28 @/HORZ 194 vmov.u32 r9, d28[0] @horz 267 vst1.32 {d28, d29} , [r2], r4 @9
|
/external/llvm/test/MC/AArch64/ |
H A D | arm64-nv-cond.s | 3 fcsel d28,d31,d31,nv 8 // CHECK: fcsel d28, d31, d31, nv // encoding: [0xfc,0xff,0x7f,0x1e]
|
/external/llvm/test/MC/ARM/ |
H A D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
H A D | eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
H A D | idct_dequant_full_2x_neon.c | 23 int32x2_t d28, d29, d30, d31; local 30 d28 = d29 = d30 = d31 = vdup_n_s32(0); 53 d28 = vld1_lane_s32((const int32_t *)dst0, d28, 0); 55 d28 = vld1_lane_s32((const int32_t *)dst1, d28, 1); 154 vreinterpret_u8_s32(d28))); 162 d28 = vreinterpret_s32_u8(vqmovun_s16(q4)); 169 vst1_lane_s32((int32_t *)dst0, d28, 0); 171 vst1_lane_s32((int32_t *)dst1, d28, [all...] |
/external/libavc/common/arm/ |
H A D | ih264_inter_pred_filters_luma_horz_a9q.s | 128 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1) 131 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1) 136 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1) 139 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1) 144 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1) 147 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1) 152 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1) 155 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 160 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1) 163 vmlsl.u8 q7, d28, d [all...] |
H A D | ih264_inter_pred_luma_horz_qpel_a9q.s | 135 vext.8 d28, d5, d6, #5 @//extract a[5] (column1,row1) 138 vaddl.u8 q7, d28, d5 @// a0 + a5 (column1,row1) 143 vext.8 d28, d5, d6, #2 @//extract a[2] (column1,row1) 146 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 (column1,row1) 151 vext.8 d28, d5, d6, #3 @//extract a[3] (column1,row1) 154 vmlal.u8 q7, d28, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1) 159 vext.8 d28, d5, d6, #1 @//extract a[1] (column1,row1) 162 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1) 167 vext.8 d28, d5, d6, #4 @//extract a[4] (column1,row1) 170 vmlsl.u8 q7, d28, d [all...] |
H A D | ih264_inter_pred_luma_bilinear_a9q.s | 150 vqrshrun.s16 d28, q10, #1 158 vqrshrun.s16 d28, q8, #1 174 vqrshrun.s16 d28, q10, #1 186 vqrshrun.s16 d28, q8, #1 202 vqrshrun.s16 d28, q10, #1 217 vqrshrun.s16 d28, q8, #1 238 vqrshrun.s16 d28, q10, #1 246 vqrshrun.s16 d28, q8, #1 263 vqrshrun.s16 d28, q10, #1 268 vst1.8 {d28}, [r [all...] |
H A D | ih264_inter_pred_chroma_a9q.s | 127 vdup.u8 d28, r10 148 vmull.u8 q5, d0, d28 157 vmlal.u8 q6, d1, d28 175 vmull.u8 q5, d0, d28 182 vmlal.u8 q6, d1, d28 201 vmlal.u8 q2, d0, d28 216 vmull.u8 q2, d0, d28 232 vmull.u8 q2, d0, d28 240 vmull.u8 q4, d2, d28
|
H A D | ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 254 vmlsl.s16 q9, d28, d24 287 vmlsl.s16 q9, d28, d24 289 vqrshrun.s16 d28, q4, #5 308 vrhadd.u8 d28, d28, d18 314 vst1.32 d28, [r1], r3 @ store row 1 344 vaddl.s16 q9, d12, d28 484 vmlsl.s16 q9, d28, d24 516 vmlsl.s16 q9, d28, d24 518 vqrshrun.s16 d28, q [all...] |
H A D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 194 vmlal.s16 q13, d0, d28 198 vmlal.s16 q11, d1, d28 216 vmlal.s16 q13, d18, d28 220 vmlal.s16 q11, d19, d28 271 vmlal.s16 q13, d2, d28 275 vmlal.s16 q11, d3, d28 293 vmlal.s16 q13, d18, d28 297 vmlal.s16 q11, d19, d28 375 vaddl.s16 q15, d28, d22 465 vaddl.s16 q15, d28, d2 [all...] |
/external/libhevc/common/arm/ |
H A D | ihevc_intra_pred_chroma_horz.s | 197 vdup.8 d28,lr 207 @vsubl.u8 q12,d30,d28 221 @vsubl.u8 q12,d31,d28 281 vdup.8 d28,lr 287 vsubl.u8 q12,d30,d28 322 vdup.8 d28,lr 327 vsubl.u8 q12,d30,d28
|
H A D | ihevc_intra_pred_luma_horz.s | 195 vdup.8 d28,lr 202 vsubl.u8 q12,d30,d28 216 vsubl.u8 q12,d31,d28 274 vdup.8 d28,lr 280 vsubl.u8 q12,d30,d28 315 vdup.8 d28,lr 320 vsubl.u8 q12,d30,d28
|
H A D | ihevc_inter_pred_chroma_vert_w16inp.s | 214 vqshrn.s32 d28,q14,#6 @right shift 228 vqrshrun.s16 d28,q14,#6 @rounding shift 236 vst1.32 {d28[0]},[r9],r3 @stores the loaded value 265 vqshrn.s32 d28,q14,#6 @right shift 280 vqrshrun.s16 d28,q14,#6 @rounding shift 289 vst1.32 {d28[0]},[r9],r3 @stores the loaded value 313 vqshrn.s32 d28,q14,#6 @right shift 325 vqrshrun.s16 d28,q14,#6 @rounding shift 328 vst1.32 {d28[0]},[r9],r3 @stores the loaded value
|
H A D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 129 vdup.16 d28,d1[2] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@ 159 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 175 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 188 vmlal.s16 q6,d16,d28 203 vmlal.s16 q7,d17,d28 228 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 244 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 269 vmlal.s16 q6,d16,d28 290 vmlal.s16 q7,d17,d28 311 vmlal.s16 q4,d6,d28 [all...] |
H A D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 137 vdup.16 d28,d1[2] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@ 169 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 185 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 198 vmlal.s16 q6,d16,d28 214 vmlal.s16 q7,d17,d28 241 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 258 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 284 vmlal.s16 q6,d16,d28 306 vmlal.s16 q7,d17,d28 328 vmlal.s16 q4,d6,d28 [all...] |
H A D | ihevc_intra_pred_chroma_dc.s | 156 vpaddl.u8 d28, d30 162 vpaddl.u16 d29, d28 168 vpaddl.u8 d28, d26 171 vpaddl.u16 d29, d28
|
H A D | ihevc_intra_pred_chroma_mode2.s | 162 vrev64.8 d28,d12 183 vst2.8 {d28,d29},[r9],r5 227 vrev64.8 d28,d12 244 vst2.8 {d28,d29},[r9],r5
|
H A D | ihevc_inter_pred_filters_luma_vert.s | 137 vdup.u8 d28,d0[6] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@ 170 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 192 vmlal.u8 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 209 vmlal.u8 q6,d16,d28 226 vmlal.u8 q7,d17,d28 258 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 284 vmlal.u8 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 310 vmlal.u8 q6,d16,d28 333 vmlal.u8 q7,d17,d28 353 vmlal.u8 q4,d6,d28 [all...] |
/external/libvpx/libvpx/vpx_dsp/arm/ |
H A D | loopfilter_4_neon.asm | 211 vabd.u8 d28, d5, d16 ; a = abs(p1 - q1) 221 vshr.u8 d28, d28, #1 ; a = a / 2 225 vqadd.u8 d17, d17, d28 ; a = b + a 231 vsub.s8 d28, d7, d6 ; ( qs0 - ps0) 238 vmull.s8 q12, d28, d19 ; 3 * ( qs0 - ps0) 252 vqadd.s8 d28, d27, d19 ; filter2 = clamp(filter+3) 254 vshr.s8 d28, d28, #3 ; filter2 >>= 3 257 vqadd.s8 d19, d6, d28 ; [all...] |
H A D | loopfilter_8_neon.asm | 217 vabd.u8 d28, d18, d7 ; m11 = abs(q3 - q0) 229 vmax.u8 d26, d27, d28 ; m5 = max(m10, m11) 280 vsub.s8 d28, d21, d24 ; ( qs0 - ps0) 284 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0) 293 vqmovn.s16 d28, q15 295 vand d28, d28, d19 ; filter &= mask 297 vqadd.s8 d30, d28, d27 ; filter2 = clamp(filter+3) 298 vqadd.s8 d29, d28, d29 ; filter1 = clamp(filter+4)
|
/external/boringssl/linux-arm/crypto/modes/ |
H A D | ghash-armv4.S | 359 veor d28,d26,d27 @ Karatsuba pre-processing 378 veor d28,d26,d27 @ Karatsuba pre-processing 426 vext.8 d16, d28, d28, #1 @ A1 429 vmull.p8 q1, d28, d2 @ E = A*B1 430 vext.8 d18, d28, d28, #2 @ A2 433 vmull.p8 q11, d28, d22 @ G = A*B2 434 vext.8 d20, d28, d28, # [all...] |