/external/chromium_org/third_party/boringssl/linux-arm/crypto/sha/ |
H A D | sha512-armv4.S | 456 vshr.u64 d25,d20,#18 463 vsli.64 d25,d20,#46 469 veor d25,d24 472 veor d26,d25 @ Sigma1(e) 474 vshr.u64 d25,d16,#34 479 vsli.64 d25,d16,#30 482 veor d23,d24,d25 493 vshr.u64 d25,d19,#18 500 vsli.64 d25,d19,#46 506 veor d25,d2 [all...] |
/external/openssl/crypto/sha/asm/ |
H A D | sha512-armv4.S | 454 vshr.u64 d25,d20,#18 458 vsli.64 d25,d20,#46 465 veor d24,d25 472 vshr.u64 d25,d16,#34 475 vsli.64 d25,d16,#30 480 veor d23,d24,d25 491 vshr.u64 d25,d19,#18 495 vsli.64 d25,d19,#46 502 veor d24,d25 509 vshr.u64 d25,d2 [all...] |
/external/libhevc/common/arm/ |
H A D | ihevc_intra_pred_luma_vert.s | 209 @vaddl.s8 q1, d25, d27 211 vqmovun.s16 d25, q0 213 @vmovn.u16 d25, q0 222 vbsl d10, d25, d16 234 vshr.s64 d25, d25, #8 238 vbsl d6, d25, d16 244 vshr.s64 d25, d25, #8 263 vbsl d10, d25, d1 [all...] |
H A D | ihevc_inter_pred_chroma_horz.s | 122 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1) 170 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 178 vmull.u8 q14,d3,d25 206 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 233 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 246 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 263 vmull.u8 q14,d3,d25 293 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 307 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 315 vmull.u8 q15,d2,d25 [all...] |
H A D | ihevc_inter_pred_chroma_horz_w16out.s | 125 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1) 190 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 198 vmull.u8 q14,d3,d25 221 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 249 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 262 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 274 vmull.u8 q14,d3,d25 302 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 316 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 324 vmull.u8 q15,d2,d25 [all...] |
H A D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 126 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@ 154 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 170 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 185 vmlal.s16 q6,d5,d25 197 vmlal.s16 q7,d6,d25 225 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 239 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 261 vmlal.s16 q6,d5,d25 284 vmlal.s16 q7,d6,d25 308 vmlal.s16 q4,d3,d25 [all...] |
H A D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 134 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@ 164 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 180 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 195 vmlal.s16 q6,d5,d25 208 vmlal.s16 q7,d6,d25 238 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 253 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 276 vmlal.s16 q6,d5,d25 300 vmlal.s16 q7,d6,d25 325 vmlal.s16 q4,d3,d25 [all...] |
H A D | ihevc_intra_pred_chroma_mode2.s | 155 vrev64.8 d25,d9 180 vst2.8 {d24,d25},[r6],r5 221 vrev64.8 d25,d9 242 vst2.8 {d24,d25},[r6],r5
|
H A D | ihevc_intra_pred_chroma_mode_27_to_33.s | 185 vdup.8 d25,d4[3] @(iv) 215 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 222 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 245 vdup.8 d25,d4[7] @(viii) 292 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 301 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 337 vdup.8 d25,d4[3] @(iv) 356 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 364 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 367 vdup.8 d25,d [all...] |
H A D | ihevc_intra_pred_filters_chroma_mode_19_to_25.s | 293 vdup.8 d25,d4[3] @(iv) 323 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 329 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 350 vdup.8 d25,d4[7] @(viii) 401 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 410 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 447 vdup.8 d25,d4[3] @(iv) 470 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 476 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 481 vdup.8 d25,d [all...] |
H A D | ihevc_intra_pred_filters_luma_mode_19_to_25.s | 296 vdup.8 d25,d4[3] @(iv) 325 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 331 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 352 vdup.8 d25,d4[7] @(viii) 398 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 407 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 444 vdup.8 d25,d4[3] @(iv) 466 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 472 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 477 vdup.8 d25,d [all...] |
H A D | ihevc_intra_pred_luma_mode_27_to_33.s | 188 vdup.8 d25,d4[3] @(iv) 217 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 224 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 247 vdup.8 d25,d4[7] @(viii) 293 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 302 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 338 vdup.8 d25,d4[3] @(iv) 357 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 365 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 368 vdup.8 d25,d [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
H A D | vp9_mb_lpf_neon.asm | 66 vst1.u8 {d25}, [r8@64], r1 ; store op1 97 vst1.u8 {d25}, [r8@64], r1 ; store op4 188 vswp d23, d25 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[ [all...] |
H A D | vp9_convolve8_avg_neon.asm | 83 vld1.8 {d25}, [r0], r1 88 vtrn.8 d24, d25 94 vmovl.u8 q9, d25 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25 288 vmov d22, d25
|
H A D | vp9_convolve8_neon.asm | 83 vld1.8 {d25}, [r0], r1 88 vtrn.8 d24, d25 94 vmovl.u8 q9, d25 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25 266 vmov d22, d25
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
H A D | vp9_mb_lpf_neon.asm | 66 vst1.u8 {d25}, [r8@64], r1 ; store op1 97 vst1.u8 {d25}, [r8@64], r1 ; store op4 188 vswp d23, d25 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[ [all...] |
/external/chromium_org/third_party/webrtc/modules/audio_processing/aecm/ |
H A D | aecm_core_neon.S | 48 vld1.16 {d24, d25}, [r6, :128]! @ &aecm->channelStored[i] 52 vmull.u16 q11, d27, d25 104 vld1.16 {d24, d25}, [r3, :128]! @ &aecm->channelAdapt16[i] 106 vst1.16 {d24, d25}, [r0, :128]! @ &aecm->channelStored[i] 108 vmull.u16 q11, d27, d25 133 vld1.16 {d24, d25}, [r0, :128]! 135 vst1.16 {d24, d25}, [r1, :128]! 137 vshll.s16 q11, d25, #16
|
/external/llvm/test/MC/ARM/ |
H A D | neont2-pairwise-encoding.s | 45 vpadal.u8 d14, d25 58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6] 73 vpmin.u16 d20, d25, d14 81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
H A D | variance_neon.asm | 57 vmlal.s16 q10, d25, d25 127 vmlal.s16 q10, d25, d25 188 vmlal.s16 q10, d25, d25 247 vmlal.s16 q10, d25, d25
|
H A D | sixtappredict8x4_neon.asm | 64 vdup.8 d2, d25[0] 68 vdup.8 d3, d25[4] 144 vqrshrun.s16 d25, q10, #7 153 vst1.u8 {d25}, [lr]! 257 vmull.u8 q6, d25, d0 261 vmlsl.u8 q5, d25, d1 270 vmlal.u8 q4, d25, d2 279 vmull.u8 q7, d25, d3 ;(src_ptr[1] * vp8_filter[3]) 314 vdup.8 d2, d25[0] 316 vdup.8 d3, d25[ [all...] |
H A D | vp8_subpixelvariance8x8_neon.asm | 71 vqrshrn.u16 d25, q9, #7 116 vmull.u8 q4, d25, d0 124 vmlal.u8 q3, d25, d1 134 vqrshrn.u16 d25, q4, #7 147 vld1.u8 {d25}, [r0], r1 180 vsubl.u8 q7, d25, d3
|
/external/libhevc/common/arm64/ |
H A D | ihevc_intra_pred_luma_vert.s | 211 //vaddl.s8 q1, d25, d27 215 //vmovn.u16 d25, q0 236 sshr d25, d25,#8 246 sshr d25, d25,#8 271 sshr d25, d25,#8 284 sshr d25, d25,# [all...] |
/external/chromium_org/third_party/webrtc/common_audio/signal_processing/ |
H A D | min_max_operations_neon.S | 50 vmax.u16 d24, d25 101 vmax.u32 d24, d25 145 vmax.s16 d24, d25 187 vpmax.s32 d24, d24, d25 225 vmin.s16 d24, d25 268 vpmin.s32 d24, d24, d25
|
/external/valgrind/main/none/tests/arm/ |
H A D | vfpv4_fma.c | 87 TESTINSN_bin_f64("vfma.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0(-45.5687), f2u1(-45.5687)); 88 TESTINSN_bin_f64("vfma.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f2u1(1346)); 90 TESTINSN_bin_f64("vfma.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i32, f2u0(17065), f2u1(17065)); 100 TESTINSN_bin_f64("vfma.f64 d29, d25, d7", d29, d25, i32, f2u0(-INFINITY), f2u1(-INFINITY), d7, i32, f2u0(1752), f2u1(1752)); 137 TESTINSN_bin_f64("vfms.f64 d20, d25, d22", d20, d25, i3 [all...] |
/external/chromium_org/third_party/webrtc/modules/audio_coding/codecs/isac/fix/source/ |
H A D | lpc_masking_model_neon.S | 52 vdup.s32 d25, r2 68 vmull.s32 q0, d0, d25 111 vmull.s32 q0, d0, d25
|