/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
H A D | vp9_reconintra_neon.asm | 357 vmovl.u8 q10, d30 434 vmovl.u8 q10, d18 494 vmovl.u8 q10, d18 528 vsubl.u8 q10, d4, d0 543 vadd.s16 q14, q0, q10 551 vadd.s16 q14, q2, q10 565 vadd.s16 q14, q1, q10 573 vadd.s16 q14, q2, q10 587 vadd.s16 q14, q0, q10 595 vadd.s16 q14, q2, q10 [all...] |
H A D | vp9_convolve8_avg_neon.asm | 95 vmovl.u8 q10, d26 223 vmovl.u8 q10, d20 284 vmov q8, q10 287 vmov q10, q13
|
H A D | vp9_convolve8_neon.asm | 95 vmovl.u8 q10, d26 212 vmovl.u8 q10, d20 262 vmov q8, q10 265 vmov q10, q13
|
/external/libhevc/common/arm/ |
H A D | ihevc_inter_pred_chroma_copy_w16out.s | 214 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp) 219 vshl.i16 q2,q10,#6 @vshlq_n_s16(tmp, 6) 248 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp) 264 vshl.i16 q2,q10,#6 @vshlq_n_s16(tmp, 6) 287 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp) 294 vshl.i16 q2,q10,#6 @vshlq_n_s16(tmp, 6)
|
H A D | ihevc_inter_pred_filters_luma_horz.s | 313 vmull.u8 q10,d3,d25 316 vmlsl.u8 q10,d1,d24 319 vmlal.u8 q10,d7,d27 322 vmlsl.u8 q10,d5,d26 325 vmlal.u8 q10,d13,d28 328 vmlal.u8 q10,d17,d30 331 vmlsl.u8 q10,d15,d29 334 vmlsl.u8 q10,d19,d31 352 vqrshrun.s16 d9,q10,#6
|
H A D | ihevc_inter_pred_chroma_horz_w16out.s | 249 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 252 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 255 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 258 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 279 vst1.16 {q10},[r1],r6 @store the result pu1_dst 316 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 318 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 320 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 322 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 340 vst1.16 {q10},[r [all...] |
H A D | ihevc_deblk_luma_vert.s | 205 vmull.u8 q10,d7,d23 207 vmlal.u8 q10,d22,d18 214 vadd.i16 q10,q10,q0 216 vrshrn.i16 d22,q10,#3 223 vaddl.u8 q10,d7,d3 225 vmla.i16 q10,q0,q8 229 vrshrn.i16 d20,q10,#3
|
H A D | ihevc_inter_pred_luma_horz_w16out.s | 480 vmull.u8 q10,d3,d25 483 vmlsl.u8 q10,d1,d24 486 vmlal.u8 q10,d7,d27 489 vmlsl.u8 q10,d5,d26 492 vmlal.u8 q10,d13,d28 495 vmlal.u8 q10,d17,d30 498 vmlsl.u8 q10,d15,d29 501 vmlsl.u8 q10,d19,d31 534 vst1.16 {q10},[r1]!
|
H A D | ihevc_weighted_pred_bi.s | 224 vmull.s16 q10,d3,d7[1] @vmull_n_s16(pi2_src2_val2, (int16_t) wgt1) iv iteration 229 vadd.s32 q9,q9,q10 @vaddq_s32(i4_tmp2_t1, i4_tmp2_t2) iv iteration
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
H A D | vp9_reconintra_neon.asm | 357 vmovl.u8 q10, d30 434 vmovl.u8 q10, d18 494 vmovl.u8 q10, d18 528 vsubl.u8 q10, d4, d0 543 vadd.s16 q14, q0, q10 551 vadd.s16 q14, q2, q10 565 vadd.s16 q14, q1, q10 573 vadd.s16 q14, q2, q10 587 vadd.s16 q14, q0, q10 595 vadd.s16 q14, q2, q10 [all...] |
H A D | vp9_convolve8_avg_neon.asm | 95 vmovl.u8 q10, d26 223 vmovl.u8 q10, d20 284 vmov q8, q10 287 vmov q10, q13
|
H A D | vp9_convolve8_neon.asm | 95 vmovl.u8 q10, d26 212 vmovl.u8 q10, d20 262 vmov q8, q10 265 vmov q10, q13
|
/external/openssl/crypto/ |
H A D | armv4cpuid.S | 142 .byte 0xf4,0x41,0x44,0xf3 @ veor q10, q10, q10
|
/external/openssl/crypto/sha/asm/ |
H A D | sha1-armv4-large.S | 496 vadd.i32 q10,q2,q14 498 vst1.32 {q10},[r12,:128]! 596 vext.8 q10,q2,q3,#8 607 veor q10,q10,q2 613 veor q12,q12,q10 622 vadd.i32 q10,q12,q12 625 vsri.32 q10,q12,#31 635 veor q10,q10,q1 [all...] |
H A D | sha256-armv4.S | 1794 vld1.32 {q10},[r14,:128]! 1808 vadd.i32 q10,q10,q2 1811 vst1.32 {q10},[r1,:128]! 1831 vshr.u32 q10,q8,#7 1840 vsli.32 q10,q8,#25 1847 veor q9,q9,q10 1929 vshr.u32 q10,q8,#7 1938 vsli.32 q10,q8,#25 1945 veor q9,q9,q10 [all...] |
/external/libhevc/decoder/arm/ |
H A D | ihevcd_itrans_recon_dc_chroma.s | 110 vaddw.u8 q10,q0,d12 123 vqmovun.s16 d12,q10
|
H A D | ihevcd_itrans_recon_dc_luma.s | 111 vaddw.u8 q10,q0,d7 121 vqmovun.s16 d7,q10
|
/external/libvpx/libvpx/vpx_scale/arm/neon/ |
H A D | vp8_vpxyv12_copysrcframe_func_neon.asm | 59 vld1.8 {q10, q11}, [r2]! 69 vst1.8 {q10, q11}, [r3]! 113 vld1.8 {q10, q11}, [r2]! 119 vst1.8 {q10, q11}, [r3]!
|
/external/llvm/test/MC/ARM/ |
H A D | neon-minmax-encoding.s | 22 vmax.u8 q10, q11, q12 52 @ CHECK: vmax.u8 q10, q11, q12 @ encoding: [0xe8,0x46,0x46,0xf3] 84 vmin.u8 q10, q11, q12 114 @ CHECK: vmin.u8 q10, q11, q12 @ encoding: [0xf8,0x46,0x46,0xf3]
|
H A D | neont2-minmax-encoding.s | 24 vmax.u8 q10, q11, q12 54 @ CHECK: vmax.u8 q10, q11, q12 @ encoding: [0x46,0xff,0xe8,0x46] 86 vmin.u8 q10, q11, q12 116 @ CHECK: vmin.u8 q10, q11, q12 @ encoding: [0x46,0xff,0xf8,0x46]
|
H A D | neont2-pairwise-encoding.s | 48 vpadal.s8 q4, q10 61 @ CHECK: vpadal.s8 q4, q10 @ encoding: [0xb0,0xff,0x64,0x86]
|
H A D | neon-sub-encoding.s | 19 vsub.i8 q1, q10 41 @ CHECK: vsub.i8 q1, q1, q10 @ encoding: [0x64,0x28,0x02,0xf3] 144 vhsub.s32 q3, q10 157 @ CHECK: vhsub.s32 q3, q3, q10 @ encoding: [0x64,0x62,0x26,0xf2]
|
H A D | neon-bitwise-encoding.s | 34 vbic q10, q11 41 @ CHECK: vbic q10, q10, q11 @ encoding: [0xf6,0x41,0x54,0xf2] 58 vbsl q8, q10, q9 61 @ CHECK: vbsl q8, q10, q9 @ encoding: [0xf2,0x01,0x54,0xf3]
|
/external/chromium_org/third_party/boringssl/src/crypto/poly1305/ |
H A D | poly1305_arm_asm.S | 745 # asm 2: vand.i32 <v01=q10,#0x03ffffff 746 vand.i32 q10,#0x03ffffff 1000 # asm 2: vand >x4=q10,<x4=q7,<mask=q6 1001 vand q10,q7,q6 1095 # asm 2: vadd.i64 >x4=q10,<x4=q10,<t4=q13 1096 vadd.i64 q10,q10,q13 1369 # asm 2: vand >r1=q10,<r1=q8,<mask=q6 1370 vand q10,q [all...] |
/external/libpng/arm/ |
H A D | filter_neon.S | 143 vld1.8 {q10}, [r2], lr 218 vld1.8 {q10}, [r2], lr
|