/external/openssl/crypto/sha/asm/ |
H A D | sha512-armv4.s | 464 veor d29,d21,d22 468 veor d29,d22 @ Ch(e,f,g) 500 vadd.i64 d27,d28,d22 517 veor d22,d24,d25 519 veor d22,d26 @ Sigma0(a) 521 vadd.i64 d22,d27 523 vadd.i64 d22,d30 544 vshr.u64 d24,d22,#28 546 vshr.u64 d25,d22,#34 547 vshr.u64 d26,d22,#3 [all...] |
/external/libvpx/vp8/encoder/arm/neon/ |
H A D | vp8_mse16x16_neon.asm | 49 vmlal.s16 q7, d22, d22 103 vmlal.s16 q9, d22, d22 156 vmull.s16 q7, d22, d22
|
H A D | variance_neon.asm | 50 vmlal.s16 q9, d22, d22 ;calculate sse 120 vmlal.s16 q9, d22, d22 ;calculate sse 181 vmlal.s16 q9, d22, d22 ;calculate sse 240 vmlal.s16 q9, d22, d22 ;calculate sse
|
H A D | shortfdct_neon.asm | 55 vrshrn.i32 d22, q11, #14 61 vmull.s16 q4, d22, d4[0] ;i=0 62 vmull.s16 q5, d22, d4[1] ;i=1 63 vmull.s16 q6, d22, d4[2] ;i=2 64 vmull.s16 q7, d22, d4[3] ;i=3
|
H A D | vp8_subpixelvariance8x8_neon.asm | 65 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8 113 vmull.u8 q1, d22, d0 ;(src_ptr[0] * Filter[0]) 131 vqrshrn.u16 d22, q1, #7 ;shift/round/saturate to u8 144 vld1.u8 {d22}, [r0], r1 ;load src data 170 vsubl.u8 q4, d22, d0 ;calculate diff
|
H A D | vp8_subpixelvariance16x16_neon.asm | 183 vld1.u8 {d22, d23}, [lr]! ;load src data 191 vmull.u8 q1, d22, d0 ;(src_ptr[0] * Filter[0]) 310 vld1.u8 {d22, d23}, [r0], r1 ;load src data 318 vmull.u8 q1, d22, d0 ;(src_ptr[0] * Filter[0]) 382 vmlal.s16 q9, d22, d22 ;sse
|
H A D | vp8_subpixelvariance16x16s_neon.asm | 66 vsubl.u8 q4, d0, d22 ;diff 169 vmlal.s16 q9, d22, d22 ;sse 292 vmlal.s16 q14, d22, d22 ;sse 425 vld1.u8 {d20, d21, d22, d23}, [r0], r1 524 vmlal.s16 q9, d22, d22 ;sse
|
H A D | fastfdct8x4_neon.asm | 54 vadd.s16 d22, d3, d9 117 vadd.s16 d22, d2, d4 137 vadd.s16 d6, d22, d26 ;a2 = ((temp1 * x_c2 )>>16) + temp1
|
/external/llvm/test/MC/ARM/ |
H A D | neon-vld-encoding.s | 175 vld3.p16 {d20, d22, d24}, [r5]! 195 @ CHECK: vld3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x65,0xf4] 204 vld4.32 {d16, d18, d20, d22}, [r8] 211 vld4.u32 {d16, d18, d20, d22}, [r8]! 216 vld4.i8 {d16, d18, d20, d22}, [r4, :256], r2 217 vld4.i16 {d16, d18, d20, d22}, [r6], r3 225 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x68,0xf4] 231 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x68,0xf4] 235 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r4, :256], r2 @ encoding: [0x32,0x01,0x64,0xf4] 236 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r [all...] |
H A D | neont2-vld-encoding.s | 61 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0, :256]! @ encoding: [0x3d,0x01,0x60,0xf9] 62 vld4.8 {d16, d18, d20, d22}, [r0, :256]! 65 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x4d,0x01,0x60,0xf9] 66 vld4.16 {d16, d18, d20, d22}, [r0]! 69 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x8d,0x01,0x60,0xf9] 70 vld4.32 {d16, d18, d20, d22}, [r0]! 109 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64] @ encoding: [0x7f,0x07,0xe0,0xf9] 110 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0, :64]
|
H A D | neon-vst-encoding.s | 79 vst3.p16 {d20, d22, d24}, [r5]! 98 @ CHECK: vst3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x45,0xf4] 107 vst4.32 {d16, d18, d20, d22}, [r8] 114 vst4.u32 {d16, d18, d20, d22}, [r8]! 119 vst4.i8 {d16, d18, d20, d22}, [r4, :256], r2 120 vst4.i16 {d16, d18, d20, d22}, [r6], r3 128 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x48,0xf4] 134 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x48,0xf4] 138 @ CHECK: vst4.8 {d16, d18, d20, d22}, [r4, :256], r2 @ encoding: [0x32,0x01,0x44,0xf4] 139 @ CHECK: vst4.16 {d16, d18, d20, d22}, [r [all...] |
H A D | neont2-pairwise-encoding.s | 75 vpmin.f32 d22, d23, d16 83 @ CHECK: vpmin.f32 d22, d23, d16 @ encoding: [0x67,0xff,0xa0,0x6f] 88 vpmax.s32 d5, d22, d15 96 @ CHECK: vpmax.s32 d5, d22, d15 @ encoding: [0x26,0xef,0x8f,0x5a]
|
H A D | neont2-vst-encoding.s | 59 @ CHECK: vst4.8 {d16, d18, d20, d22}, [r0, :256]! @ encoding: [0x3d,0x01,0x40,0xf9] 60 vst4.8 {d16, d18, d20, d22}, [r0, :256]! 63 @ CHECK: vst4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x4d,0x01,0x40,0xf9] 64 vst4.16 {d16, d18, d20, d22}, [r0]! 67 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x8d,0x01,0x40,0xf9] 68 vst4.32 {d16, d18, d20, d22}, [r0]!
|
H A D | neon-shiftaccum-encoding.s | 76 vrsra.u8 d15, d22, #8 94 vrsra.u8 d22, #8 111 @ CHECK: vrsra.u8 d15, d22, #8 @ encoding: [0x36,0xf3,0x88,0xf3] 128 @ CHECK: vrsra.u8 d22, d22, #8 @ encoding: [0x36,0x63,0xc8,0xf3]
|
H A D | neont2-shiftaccum-encoding.s | 79 vrsra.u8 d15, d22, #8 97 vrsra.u8 d22, #8 114 @ CHECK: vrsra.u8 d15, d22, #8 @ encoding: [0x88,0xff,0x36,0xf3] 131 @ CHECK: vrsra.u8 d22, d22, #8 @ encoding: [0xc8,0xff,0x36,0x63]
|
H A D | neon-sub-encoding.s | 15 vsub.i16 d14, d22 37 @ CHECK: vsub.i16 d14, d14, d22 @ encoding: [0x26,0xe8,0x1e,0xf3] 138 vhsub.s32 d13, d22 151 @ CHECK: vhsub.s32 d13, d13, d22 @ encoding: [0x26,0xd2,0x2d,0xf2]
|
/external/libvpx/vp8/common/arm/neon/ |
H A D | bilinearpredict8x4_neon.asm | 65 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8 85 vmull.u8 q1, d22, d0 ;(src_ptr[0] * vp8_filter[0]) 111 vld1.u8 {d22}, [r0], r1 ;load src data 121 vst1.u8 {d22}, [r4], lr ;store result
|
H A D | sixtappredict16x16_neon.asm | 225 vld1.u8 {d22}, [lr], r2 241 vmlsl.u8 q6, d22, d1 243 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4]) 250 vmlal.u8 q5, d22, d2 259 vmull.u8 q8, d22, d3 280 vmov d22, d26 327 vext.8 d22, d7, d8, #1 338 vmlsl.u8 q7, d22, d1 ;-(src_ptr[-1] * vp8_filter[1]) 349 vext.8 d22, d6, d7, #2 ;construct src_ptr[0] 361 vmlal.u8 q6, d22, d [all...] |
H A D | sixtappredict8x8_neon.asm | 136 vqrshrun.s16 d22, q7, #7 ;shift/round/saturate to u8 141 vst1.u8 {d22}, [lr]! ;store result 269 vmlsl.u8 q6, d22, d1 271 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4]) 278 vmlal.u8 q5, d22, d2 287 vmull.u8 q8, d22, d3 408 vqrshrun.s16 d22, q7, #7 ;shift/round/saturate to u8 413 vst1.u8 {d22}, [r4], r5 ;store result 435 vld1.u8 {d22}, [r0], r1 461 vmlsl.u8 q6, d22, d [all...] |
H A D | bilinearpredict8x8_neon.asm | 62 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8 111 vmull.u8 q1, d22, d0 ;(src_ptr[0] * vp8_filter[0]) 151 vld1.u8 {d22}, [r0], r1 ;load src data 165 vst1.u8 {d22}, [r4], lr ;store result
|
H A D | sixtappredict4x4_neon.asm | 150 vext.8 d31, d22, d23, #5 ;construct src_ptr[3] 165 vmlal.u8 q12, d22, d0 ;(src_ptr[-2] * vp8_filter[0]) 171 vext.8 d31, d22, d23, #1 ;construct src_ptr[-1] 181 vext.8 d31, d22, d23, #4 ;construct src_ptr[2] 191 vext.8 d31, d22, d23, #2 ;construct src_ptr[0] 199 vext.8 d31, d22, d23, #3 ;construct src_ptr[1]
|
H A D | sixtappredict8x4_neon.asm | 142 vqrshrun.s16 d22, q7, #7 ;shift/round/saturate to u8 148 vst1.u8 {d22}, [lr]! ;store result 255 vmull.u8 q3, d22, d0 ;(src_ptr[-2] * vp8_filter[0]) 386 vqrshrun.s16 d22, q7, #7 ;shift/round/saturate to u8 391 vst1.u8 {d22}, [r4], r5 ;store result 407 vld1.u8 {d22}, [r0], r1 423 vmull.u8 q3, d22, d0 ;(src_ptr[-2] * vp8_filter[0])
|
/external/openssl/crypto/bn/asm/ |
H A D | armv4-gf2m.s | 135 vmov d22,d0 144 veor d20,d23,d22 151 veor d22,d0 154 vst1.32 {d22[0]},[r0,:32]! 155 vst1.32 {d22[1]},[r0,:32]
|
/external/libvpx/vp8/encoder/x86/ |
H A D | fwalsh_sse2.asm | 101 psubd xmm3, xmm6 ; c23 c22 d23 d22 135 punpcklqdq xmm5, xmm3 ; d23 d22 d21 d20 138 packssdw xmm2, xmm5 ; d23 d22 d21 d20 c23 c22 c21 c20
|
/external/valgrind/main/none/tests/arm/ |
H A D | neon64.c | 969 TESTINSN_bin("vshl.s32 d11, d22, d0", d11, d22, i32, -1, d0, i32, 12); 1747 TESTINSN_VLDn("vld2.16 {d20,d22}", d20, d22, d20, d22); 1750 TESTINSN_VLDn("vld2.16 {d20-d23}", d20, d21, d22, d23); 1787 TESTINSN_VLDn("vld3.8 {d20-d22}", d20, d21, d22, d20); 1791 TESTINSN_VLDn("vld3.16 {d20,d22,d24}", d20, d22, d2 [all...] |