/external/libvpx/libvpx/vp9/common/arm/neon/ |
H A D | vp9_mb_lpf_neon.asm | 68 vst1.u8 {d23}, [r8@64], r1 ; store oq0 87 vst1.u8 {d23}, [r8@64], r1 ; store oq2 105 vst1.u8 {d23}, [r8@64], r1 ; store oq3 188 vswp d23, d25 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[ [all...] |
H A D | vp9_loopfilter_neon.asm | 206 vmax.u8 d23, d19, d20 ; m1 = max(m1, m2) 211 vmax.u8 d23, d23, d3 ; m1 = max(m1, m3) 218 vcge.u8 d23, d1, d23 ; abs(m1) > limit 243 vand d23, d23, d17 ; filter_mask 252 vand d27, d27, d23 ; filter &= mask 457 vabd.u8 d23, d17, d16 ; m5 = abs(q2 - q1) 466 vmax.u8 d23, d2 [all...] |
H A D | vp9_convolve8_avg_neon.asm | 100 vmov d23, d21 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 168 vmov d20, d23
|
H A D | vp9_convolve8_neon.asm | 100 vmov d23, d21 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 157 vmov d20, d23
|
/external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/ |
H A D | sha512-armv4.S | 448 vldmia r0,{d16-d23} @ load context 463 vadd.i64 d27,d28,d23 480 veor d23,d24,d25 482 veor d23,d26 @ Sigma0(a) 484 vadd.i64 d23,d27 486 vadd.i64 d23,d30 507 vshr.u64 d24,d23,#28 509 vshr.u64 d25,d23,#34 510 vshr.u64 d26,d23,#39 511 vsli.64 d24,d23,#3 [all...] |
/external/openssl/crypto/sha/asm/ |
H A D | sha512-armv4.S | 448 vldmia r0,{d16-d23} @ load context 463 vadd.i64 d27,d28,d23 480 veor d23,d24,d25 482 veor d23,d26 @ Sigma0(a) 484 vadd.i64 d23,d27 486 vadd.i64 d23,d30 507 vshr.u64 d24,d23,#28 509 vshr.u64 d25,d23,#34 510 vshr.u64 d26,d23,#39 511 vsli.64 d24,d23,#3 [all...] |
/external/llvm/test/MC/ARM/ |
H A D | neont2-vst-encoding.s | 60 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r0:256]! @ encoding: [0x40,0xf9,0x3d,0x11] 61 vst4.8 {d17, d19, d21, d23}, [r0:256]! 64 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x40,0xf9,0x4d,0x11] 65 vst4.16 {d17, d19, d21, d23}, [r0]! 68 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x40,0xf9,0x8d,0x11] 69 vst4.32 {d17, d19, d21, d23}, [r0]! 99 @ CHECK: vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0:64] @ encoding: [0xc0,0xf9,0xff,0x17] 100 vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0:64] 101 @ CHECK: vst4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0xc0,0xf9,0x4f,0x1b] 102 vst4.32 {d17[0], d19[0], d21[0], d23[ [all...] |
H A D | neont2-vld-encoding.s | 62 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r0:256]! @ encoding: [0x60,0xf9,0x3d,0x11] 63 vld4.8 {d17, d19, d21, d23}, [r0:256]! 66 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x60,0xf9,0x4d,0x11] 67 vld4.16 {d17, d19, d21, d23}, [r0]! 70 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x60,0xf9,0x8d,0x11] 71 vld4.32 {d17, d19, d21, d23}, [r0]! 110 @ CHECK: vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0xe0,0xf9,0x4f,0x1b] 111 vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0]
|
H A D | neon-vld-encoding.s | 202 vld4.8 {d17, d19, d21, d23}, [r5:256] 203 vld4.16 {d17, d19, d21, d23}, [r7] 209 vld4.u8 {d17, d19, d21, d23}, [r5:256]! 210 vld4.u16 {d17, d19, d21, d23}, [r7]! 218 vld4.i32 {d17, d19, d21, d23}, [r9], r4 223 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r5:256] @ encoding: [0x3f,0x11,0x65,0xf4] 224 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x67,0xf4] 229 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r5:256]! @ encoding: [0x3d,0x11,0x65,0xf4] 230 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x67,0xf4] 237 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r [all...] |
H A D | neont2-pairwise-encoding.s | 75 vpmin.f32 d22, d23, d16 83 @ CHECK: vpmin.f32 d22, d23, d16 @ encoding: [0x67,0xff,0xa0,0x6f] 89 vpmax.u8 d6, d23, d14 97 @ CHECK: vpmax.u8 d6, d23, d14 @ encoding: [0x07,0xff,0x8e,0x6a]
|
H A D | eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
H A D | thumb-v8fp.s | 37 vcvtn.s32.f64 s6, d23 38 @ CHECK: vcvtn.s32.f64 s6, d23 @ encoding: [0xbd,0xfe,0xe7,0x3b] 54 vcvtn.u32.f64 s6, d23 55 @ CHECK: vcvtn.u32.f64 s6, d23 @ encoding: [0xbd,0xfe,0x67,0x3b] 69 vselge.f64 d30, d31, d23 70 @ CHECK: vselge.f64 d30, d31, d23 @ encoding: [0x6f,0xfe,0xa7,0xeb]
|
H A D | v8fp.s | 34 vcvtn.s32.f64 s6, d23 35 @ CHECK: vcvtn.s32.f64 s6, d23 @ encoding: [0xe7,0x3b,0xbd,0xfe] 51 vcvtn.u32.f64 s6, d23 52 @ CHECK: vcvtn.u32.f64 s6, d23 @ encoding: [0x67,0x3b,0xbd,0xfe] 66 vselge.f64 d30, d31, d23 67 @ CHECK: vselge.f64 d30, d31, d23 @ encoding: [0xa7,0xeb,0x6f,0xfe]
|
H A D | neon-vst-encoding.s | 105 vst4.8 {d17, d19, d21, d23}, [r5:256] 106 vst4.16 {d17, d19, d21, d23}, [r7] 112 vst4.u8 {d17, d19, d21, d23}, [r5:256]! 113 vst4.u16 {d17, d19, d21, d23}, [r7]! 121 vst4.i32 {d17, d19, d21, d23}, [r9], r4 126 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5:256] @ encoding: [0x3f,0x11,0x45,0xf4] 127 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x47,0xf4] 132 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5:256]! @ encoding: [0x3d,0x11,0x45,0xf4] 133 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x47,0xf4] 140 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r [all...] |
/external/libvpx/libvpx/vp8/common/arm/neon/ |
H A D | variance_neon.asm | 51 vmlal.s16 q10, d23, d23 121 vmlal.s16 q10, d23, d23 182 vmlal.s16 q10, d23, d23 241 vmlal.s16 q10, d23, d23
|
H A D | bilinearpredict8x4_neon.asm | 66 vqrshrn.u16 d23, q7, #7 86 vmull.u8 q2, d23, d0 90 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * vp8_filter[1]) 112 vld1.u8 {d23}, [r0], r1 122 vst1.u8 {d23}, [r4], lr
|
H A D | vp8_subpixelvariance8x8_neon.asm | 67 vqrshrn.u16 d23, q7, #7 114 vmull.u8 q2, d23, d0 122 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * Filter[1]) 132 vqrshrn.u16 d23, q2, #7 145 vld1.u8 {d23}, [r0], r1 173 vsubl.u8 q5, d23, d1
|
H A D | sixtappredict16x16_neon.asm | 227 vld1.u8 {d23}, [lr], r2 ;load src data 243 vmlsl.u8 q4, d23, d4 250 vmlal.u8 q6, d23, d2 252 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5]) 259 vmull.u8 q9, d23, d3 327 vext.8 d23, d10, d11, #1 338 vmlsl.u8 q9, d23, d1 349 vext.8 d23, d9, d10, #2 361 vmlal.u8 q8, d23, d2 417 vld1.u8 {d23}, [r [all...] |
H A D | sixtappredict8x8_neon.asm | 148 vqrshrun.s16 d23, q8, #7 154 vst1.u8 {d23}, [lr]! 283 vmlsl.u8 q4, d23, d4 290 vmlal.u8 q6, d23, d2 292 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5]) 299 vmull.u8 q9, d23, d3 420 vqrshrun.s16 d23, q8, #7 425 vst1.u8 {d23}, [r4], r5 448 vld1.u8 {d23}, [r0], r1 475 vmlsl.u8 q4, d23, d [all...] |
H A D | sixtappredict4x4_neon.asm | 149 vext.8 d31, d22, d23, #5 ;construct src_ptr[3] 170 vext.8 d31, d22, d23, #1 ;construct src_ptr[-1] 180 vext.8 d31, d22, d23, #4 ;construct src_ptr[2] 190 vext.8 d31, d22, d23, #2 ;construct src_ptr[0] 198 vext.8 d31, d22, d23, #3 ;construct src_ptr[1] 209 vext.8 d23, d27, d28, #4 240 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1]) 378 vext.8 d23, d27, d28, #4 392 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1])
|
H A D | bilinearpredict8x8_neon.asm | 64 vqrshrn.u16 d23, q7, #7 112 vmull.u8 q2, d23, d0 120 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * vp8_filter[1]) 152 vld1.u8 {d23}, [r0], r1 166 vst1.u8 {d23}, [r4], lr
|
/external/chromium_org/third_party/openssl/openssl/crypto/bn/asm/ |
H A D | armv4-gf2m.S | 140 vmov d23,d0 144 veor d20,d23,d22 150 veor d23,d1 152 vst1.32 {d23[0]},[r0,:32]! 153 vst1.32 {d23[1]},[r0,:32]!
|
/external/openssl/crypto/bn/asm/ |
H A D | armv4-gf2m.S | 140 vmov d23,d0 144 veor d20,d23,d22 150 veor d23,d1 152 vst1.32 {d23[0]},[r0,:32]! 153 vst1.32 {d23[1]},[r0,:32]!
|
/external/pixman/pixman/ |
H A D | pixman-arm-neon-asm-bilinear.S | 515 q1, q11, d0, d1, d20, d21, d22, d23 523 vmlal.u16 q10, d23, d31 544 q1, q11, d0, d1, d20, d21, d22, d23 \ 553 vmlal.u16 q10, d23, d31 581 q3, q8, q9, q10, d23 905 vld1.32 {d23}, [TMP1] 910 vmlal.u8 q8, d23, d29 913 vld1.32 {d23}, [TMP2] 918 vmlal.u8 q9, d23, d29 921 vld1.32 {d23}, [TMP [all...] |
/external/libvpx/libvpx/vp8/encoder/x86/ |
H A D | fwalsh_sse2.asm | 101 psubd xmm3, xmm6 ; c23 c22 d23 d22 135 punpcklqdq xmm5, xmm3 ; d23 d22 d21 d20 138 packssdw xmm2, xmm5 ; d23 d22 d21 d20 c23 c22 c21 c20
|