/external/llvm/test/MC/AArch64/ |
H A D | neon-scalar-abs.s | 9 abs d29, d24 11 // CHECK: abs d29, d24 // encoding: [0x1d,0xbb,0xe0,0x5e] 18 fabd d29, d24, d20 21 // CHECK: fabd d29, d24, d20 // encoding: [0x1d,0xd7,0xf4,0x7e]
|
H A D | neon-scalar-neg.s | 9 neg d29, d24 11 // CHECK: neg d29, d24 // encoding: [0x1d,0xbb,0xe0,0x7e]
|
/external/chromium_org/third_party/webrtc/common_audio/signal_processing/ |
H A D | min_max_operations_neon.S | 50 vmax.u16 d24, d25 51 vpmax.u16 d24, d24, d24 52 vpmax.u16 d24, d24, d24 54 vmov.u16 r2, d24[0] 101 vmax.u32 d24, d25 102 vpmax.u32 d24, d2 [all...] |
/external/libhevc/common/arm/ |
H A D | ihevc_intra_pred_luma_vert.s | 202 @vaddl.s8 q0, d24, d26 212 vqmovun.s16 d24, q14 214 @vmovn.u16 d24, q1 221 vbsl d18, d24, d16 @only select row values from q12(predpixel) 231 vshr.s64 d24, d24, #8 237 vbsl d8, d24, d16 241 vshr.s64 d24, d24, #8 262 vbsl d18, d24, d1 [all...] |
H A D | ihevc_inter_pred_chroma_horz.s | 120 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0) 172 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 180 vmlsl.u8 q14,d1,d24 211 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 236 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 249 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 267 vmlsl.u8 q14,d1,d24 298 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 309 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 319 vmlsl.u8 q15,d0,d24 [all...] |
H A D | ihevc_inter_pred_chroma_horz_w16out.s | 123 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0) 192 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 201 vmlsl.u8 q14,d1,d24 232 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 252 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 265 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 278 vmlsl.u8 q14,d1,d24 307 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 318 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 328 vmlsl.u8 q15,d0,d24 [all...] |
H A D | ihevc_inter_pred_chroma_vert_w16inp.s | 240 vqshrn.s32 d24,q12,#6 @right shift 253 vqrshrun.s16 d24,q12,#6 @rounding shift 259 vst1.32 {d24[0]},[r9] @stores the loaded value 294 vqshrn.s32 d24,q12,#6 @right shift 305 vqrshrun.s16 d24,q12,#6 @rounding shift 316 vst1.32 {d24[0]},[r9] @stores the loaded value 331 vqshrn.s32 d24,q12,#6 @right shift 333 vqrshrun.s16 d24,q12,#6 @rounding shift 335 vst1.32 {d24[0]},[r9] @stores the loaded value
|
H A D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 125 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@ 152 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 168 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 184 vmlal.s16 q6,d4,d24 196 vmlal.s16 q7,d5,d24 224 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 238 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 258 vmlal.s16 q6,d4,d24 281 vmlal.s16 q7,d5,d24 307 vmlal.s16 q4,d2,d24 [all...] |
H A D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 133 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@ 162 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 178 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 194 vmlal.s16 q6,d4,d24 207 vmlal.s16 q7,d5,d24 237 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 252 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 273 vmlal.s16 q6,d4,d24 297 vmlal.s16 q7,d5,d24 324 vmlal.s16 q4,d2,d24 [all...] |
H A D | ihevc_intra_pred_luma_mode_3_to_9.s | 217 vrshrn.i16 d24, q12, #5 @round shft (row 0) 227 vst1.8 d24, [r2], r3 @st (row 0) 261 vrshrn.i16 d24, q12, #5 @round shft (row 4) 271 vst1.8 d24, [r2], r3 @st (row 4) 339 vst1.8 d24, [r5], r3 @st (row 4) 387 vrshrn.i16 d24, q12, #5 @round shft (row 0) 402 vst1.8 d24, [r2], r3 @st (row 0) 445 vrshrn.i16 d24, q12, #5 @round shft (row 4) 464 vst1.8 d24, [r5], r3 @st (row 4) 465 vrshrn.i16 d24, q1 [all...] |
/external/openssl/crypto/sha/asm/ |
H A D | sha512-armv4.S | 450 vshr.u64 d24,d20,#14 @ 0 457 vsli.64 d24,d20,#50 465 veor d24,d25 467 veor d24,d26 @ Sigma1(e) 469 vadd.i64 d27,d24 470 vshr.u64 d24,d16,#28 474 vsli.64 d24,d16,#36 480 veor d23,d24,d25 487 vshr.u64 d24,d19,#14 @ 1 494 vsli.64 d24,d1 [all...] |
/external/libhevc/common/arm64/ |
H A D | ihevc_intra_pred_luma_vert.s | 204 //vaddl.s8 q0, d24, d26 216 //vmovn.u16 d24, q1 233 sshr d24, d24,#8 243 sshr d24, d24,#8 268 sshr d24, d24,#8 281 sshr d24, d24,# [all...] |
/external/chromium_org/third_party/boringssl/linux-arm/crypto/sha/ |
H A D | sha512-armv4.S | 452 vshr.u64 d24,d20,#14 @ 0 462 vsli.64 d24,d20,#50 469 veor d25,d24 471 vshr.u64 d24,d16,#28 475 vsli.64 d24,d16,#36 482 veor d23,d24,d25 489 vshr.u64 d24,d19,#14 @ 1 499 vsli.64 d24,d19,#50 506 veor d25,d24 508 vshr.u64 d24,d2 [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
H A D | vp9_convolve8_avg_neon.asm | 82 vld1.8 {d24}, [r0], r1 88 vtrn.8 d24, d25 93 vmovl.u8 q8, d24 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 228 vld1.u32 {d24[0]}, [r7], r1 231 vld1.u32 {d24[1]}, [r4], r1 234 vmovl.u8 q12, d24 [all...] |
H A D | vp9_convolve8_neon.asm | 82 vld1.8 {d24}, [r0], r1 88 vtrn.8 d24, d25 93 vmovl.u8 q8, d24 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 217 vld1.u32 {d24[0]}, [r7], r1 220 vld1.u32 {d24[1]}, [r4], r1 223 vmovl.u8 q12, d24 [all...] |
H A D | vp9_mb_lpf_neon.asm | 67 vst1.u8 {d24}, [r8@64], r1 ; store op0 96 vst1.u8 {d24}, [r8@64], r1 ; store op5 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1 197 vst4.8 {d23[7], d24[ [all...] |
/external/libvpx/libvpx/vp9/common/arm/neon/ |
H A D | vp9_convolve8_avg_neon.asm | 82 vld1.8 {d24}, [r0], r1 88 vtrn.8 d24, d25 93 vmovl.u8 q8, d24 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 228 vld1.u32 {d24[0]}, [r7], r1 231 vld1.u32 {d24[1]}, [r4], r1 234 vmovl.u8 q12, d24 [all...] |
H A D | vp9_convolve8_neon.asm | 82 vld1.8 {d24}, [r0], r1 88 vtrn.8 d24, d25 93 vmovl.u8 q8, d24 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 217 vld1.u32 {d24[0]}, [r7], r1 220 vld1.u32 {d24[1]}, [r4], r1 223 vmovl.u8 q12, d24 [all...] |
H A D | vp9_mb_lpf_neon.asm | 67 vst1.u8 {d24}, [r8@64], r1 ; store op0 96 vst1.u8 {d24}, [r8@64], r1 ; store op5 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1 197 vst4.8 {d23[7], d24[ [all...] |
/external/chromium_org/third_party/webrtc/modules/audio_processing/aecm/ |
H A D | aecm_core_neon.S | 48 vld1.16 {d24, d25}, [r6, :128]! @ &aecm->channelStored[i] 51 vmull.u16 q10, d26, d24 104 vld1.16 {d24, d25}, [r3, :128]! @ &aecm->channelAdapt16[i] 106 vst1.16 {d24, d25}, [r0, :128]! @ &aecm->channelStored[i] 107 vmull.u16 q10, d26, d24 133 vld1.16 {d24, d25}, [r0, :128]! 135 vst1.16 {d24, d25}, [r1, :128]! 136 vshll.s16 q10, d24, #16
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
H A D | vp8_mse16x16_neon.asm | 53 vmlal.s16 q9, d24, d24 100 vmull.s16 q8, d24, d24
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
H A D | variance_neon.asm | 56 vmlal.s16 q9, d24, d24 126 vmlal.s16 q9, d24, d24 187 vmlal.s16 q9, d24, d24 246 vmlal.s16 q9, d24, d24
|
H A D | sixtappredict16x16_neon.asm | 72 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 73 vdup.8 d1, d24[4] 228 vld1.u8 {d24}, [lr], r2 244 vmlsl.u8 q5, d24, d4 253 vmlal.u8 q4, d24, d5 260 vmull.u8 q10, d24, d3 304 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 305 vdup.8 d1, d24[4] 328 vext.8 d24, d6, d7, #4 ;construct src_ptr[2] 339 vmlsl.u8 q6, d24, d [all...] |
/external/pixman/pixman/ |
H A D | pixman-arm-neon-asm.S | 105 * d24, d25, d26, d27 - contain loading mask pixel data (if mask is used) 584 vmvn.8 d24, d3 /* get inverted alpha */ 586 vmull.u8 q8, d24, d4 587 vmull.u8 q9, d24, d5 588 vmull.u8 q10, d24, d6 589 vmull.u8 q11, d24, d7 712 /* inverted alpha in {d24} */ 714 vmull.u8 q8, d24, d4 715 vmull.u8 q9, d24, d5 716 vmull.u8 q10, d24, d [all...] |
/external/llvm/test/MC/ARM/ |
H A D | neont2-pairwise-encoding.s | 74 vpmin.u32 d21, d24, d15 82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a] 90 vpmax.u16 d7, d24, d13 98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]
|