/external/openssl/crypto/sha/asm/ |
H A D | sha512-armv4.s | 448 vldmia r0,{d16-d23} @ load context 463 vadd.i64 d27,d28,d23 480 veor d23,d24,d25 482 veor d23,d26 @ Sigma0(a) 484 vadd.i64 d23,d27 486 vadd.i64 d23,d30 507 vshr.u64 d24,d23,#28 509 vshr.u64 d25,d23,#34 510 vshr.u64 d26,d23,#39 511 vsli.64 d24,d23,#3 [all...] |
/external/llvm/test/MC/ARM/ |
H A D | neont2-vst-encoding.s | 61 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r0, :256]! @ encoding: [0x3d,0x11,0x40,0xf9] 62 vst4.8 {d17, d19, d21, d23}, [r0, :256]! 65 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x4d,0x11,0x40,0xf9] 66 vst4.16 {d17, d19, d21, d23}, [r0]! 69 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x8d,0x11,0x40,0xf9] 70 vst4.32 {d17, d19, d21, d23}, [r0]! 100 @ CHECK: vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0, :64] @ encoding: [0xff,0x17,0xc0,0xf9] 101 vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0, :64] 102 @ CHECK: vst4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0x4f,0x1b,0xc0,0xf9] 103 vst4.32 {d17[0], d19[0], d21[0], d23[ [all...] |
H A D | neont2-vld-encoding.s | 63 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r0, :256]! @ encoding: [0x3d,0x11,0x60,0xf9] 64 vld4.8 {d17, d19, d21, d23}, [r0, :256]! 67 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x4d,0x11,0x60,0xf9] 68 vld4.16 {d17, d19, d21, d23}, [r0]! 71 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x8d,0x11,0x60,0xf9] 72 vld4.32 {d17, d19, d21, d23}, [r0]! 111 @ CHECK: vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0x4f,0x1b,0xe0,0xf9] 112 vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0]
|
H A D | neon-vld-encoding.s | 202 vld4.8 {d17, d19, d21, d23}, [r5, :256] 203 vld4.16 {d17, d19, d21, d23}, [r7] 209 vld4.u8 {d17, d19, d21, d23}, [r5, :256]! 210 vld4.u16 {d17, d19, d21, d23}, [r7]! 218 vld4.i32 {d17, d19, d21, d23}, [r9], r4 223 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r5, :256] @ encoding: [0x3f,0x11,0x65,0xf4] 224 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x67,0xf4] 229 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r5, :256]! @ encoding: [0x3d,0x11,0x65,0xf4] 230 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x67,0xf4] 237 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r [all...] |
H A D | neont2-pairwise-encoding.s | 75 vpmin.f32 d22, d23, d16 83 @ CHECK: vpmin.f32 d22, d23, d16 @ encoding: [0x67,0xff,0xa0,0x6f] 89 vpmax.u8 d6, d23, d14 97 @ CHECK: vpmax.u8 d6, d23, d14 @ encoding: [0x07,0xff,0x8e,0x6a]
|
H A D | neon-vst-encoding.s | 105 vst4.8 {d17, d19, d21, d23}, [r5, :256] 106 vst4.16 {d17, d19, d21, d23}, [r7] 112 vst4.u8 {d17, d19, d21, d23}, [r5, :256]! 113 vst4.u16 {d17, d19, d21, d23}, [r7]! 121 vst4.i32 {d17, d19, d21, d23}, [r9], r4 126 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5, :256] @ encoding: [0x3f,0x11,0x45,0xf4] 127 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x47,0xf4] 132 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5, :256]! @ encoding: [0x3d,0x11,0x45,0xf4] 133 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x47,0xf4] 140 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r [all...] |
H A D | simple-fp-encoding.s | 323 vcvt.f64.u16 d23, d23, #16 331 vcvt.u16.f64 d23, d23, #16 340 @ CHECK: vcvt.f64.u16 d23, d23, #16 @ encoding: [0x40,0x7b,0xfb,0xee] 349 @ CHECK: vcvt.u16.f64 d23, d23, #16 @ encoding: [0x40,0x7b,0xff,0xee]
|
H A D | neon-sub-encoding.s | 16 vsub.i32 d15, d23 38 @ CHECK: vsub.i32 d15, d15, d23 @ encoding: [0x27,0xf8,0x2f,0xf3] 137 vhsub.s16 d12, d23 150 @ CHECK: vhsub.s16 d12, d12, d23 @ encoding: [0x27,0xc2,0x1c,0xf2]
|
/external/libvpx/vp8/encoder/arm/neon/ |
H A D | variance_neon.asm | 51 vmlal.s16 q10, d23, d23 121 vmlal.s16 q10, d23, d23 182 vmlal.s16 q10, d23, d23 241 vmlal.s16 q10, d23, d23
|
H A D | vp8_mse16x16_neon.asm | 50 vmlal.s16 q8, d23, d23 104 vmlal.s16 q10, d23, d23
|
H A D | vp8_subpixelvariance8x8_neon.asm | 67 vqrshrn.u16 d23, q7, #7 114 vmull.u8 q2, d23, d0 122 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * Filter[1]) 132 vqrshrn.u16 d23, q2, #7 145 vld1.u8 {d23}, [r0], r1 173 vsubl.u8 q5, d23, d1
|
H A D | vp8_subpixelvariance16x16_neon.asm | 183 vld1.u8 {d22, d23}, [lr]! ;load src data 193 vmull.u8 q2, d23, d0 310 vld1.u8 {d22, d23}, [r0], r1 ;load src data 320 vmull.u8 q2, d23, d0 383 vmlal.s16 q10, d23, d23
|
H A D | vp8_subpixelvariance16x16s_neon.asm | 67 vsubl.u8 q5, d1, d23 170 vmlal.s16 q10, d23, d23 293 vmlal.s16 q15, d23, d23 425 vld1.u8 {d20, d21, d22, d23}, [r0], r1 525 vmlal.s16 q10, d23, d23
|
H A D | fastfdct8x4_neon.asm | 55 vadd.s16 d23, d5, d7 118 vsub.s16 d23, d2, d4 139 vadd.s16 d8, d23, d27 ;c2 = ((temp2 * x_c2 )>>16) + temp2
|
/external/libvpx/vp8/common/arm/neon/ |
H A D | bilinearpredict8x4_neon.asm | 66 vqrshrn.u16 d23, q7, #7 86 vmull.u8 q2, d23, d0 90 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * vp8_filter[1]) 112 vld1.u8 {d23}, [r0], r1 122 vst1.u8 {d23}, [r4], lr
|
H A D | sixtappredict16x16_neon.asm | 216 vld1.u8 {d23}, [lr], r2 ;load src data 232 vmlsl.u8 q4, d23, d4 239 vmlal.u8 q6, d23, d2 241 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5]) 248 vmull.u8 q9, d23, d3 316 vext.8 d23, d10, d11, #1 327 vmlsl.u8 q9, d23, d1 338 vext.8 d23, d9, d10, #2 350 vmlal.u8 q8, d23, d2 406 vld1.u8 {d23}, [r [all...] |
H A D | sixtappredict8x8_neon.asm | 137 vqrshrun.s16 d23, q8, #7 143 vst1.u8 {d23}, [lr]! 272 vmlsl.u8 q4, d23, d4 279 vmlal.u8 q6, d23, d2 281 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5]) 288 vmull.u8 q9, d23, d3 409 vqrshrun.s16 d23, q8, #7 414 vst1.u8 {d23}, [r4], r5 437 vld1.u8 {d23}, [r0], r1 464 vmlsl.u8 q4, d23, d [all...] |
H A D | sixtappredict4x4_neon.asm | 138 vext.8 d31, d22, d23, #5 ;construct src_ptr[3] 159 vext.8 d31, d22, d23, #1 ;construct src_ptr[-1] 169 vext.8 d31, d22, d23, #4 ;construct src_ptr[2] 179 vext.8 d31, d22, d23, #2 ;construct src_ptr[0] 187 vext.8 d31, d22, d23, #3 ;construct src_ptr[1] 198 vext.8 d23, d27, d28, #4 229 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1]) 367 vext.8 d23, d27, d28, #4 381 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1])
|
H A D | bilinearpredict8x8_neon.asm | 64 vqrshrn.u16 d23, q7, #7 112 vmull.u8 q2, d23, d0 120 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * vp8_filter[1]) 152 vld1.u8 {d23}, [r0], r1 166 vst1.u8 {d23}, [r4], lr
|
H A D | sixtappredict8x4_neon.asm | 131 vqrshrun.s16 d23, q8, #7 138 vst1.u8 {d23}, [lr]! 244 vmull.u8 q4, d23, d0 248 vmlsl.u8 q3, d23, d1 ;-(src_ptr[-1] * vp8_filter[1]) 375 vqrshrun.s16 d23, q8, #7 380 vst1.u8 {d23}, [r4], r5 396 vld1.u8 {d23}, [r0], r1 412 vmull.u8 q4, d23, d0 416 vmlsl.u8 q3, d23, d1 ;-(src_ptr[-1] * vp8_filter[1])
|
H A D | bilinearpredict16x16_neon.asm | 177 vld1.u8 {d22, d23}, [lr]! ;load src data 187 vmull.u8 q2, d23, d0 302 vld1.u8 {d22, d23}, [r0], r1 ;load src data 311 vmull.u8 q2, d23, d0
|
/external/openssl/crypto/bn/asm/ |
H A D | armv4-gf2m.s | 140 vmov d23,d0 144 veor d20,d23,d22 150 veor d23,d1 152 vst1.32 {d23[0]},[r0,:32]! 153 vst1.32 {d23[1]},[r0,:32]!
|
/external/libvpx/vp8/encoder/x86/ |
H A D | fwalsh_sse2.asm | 101 psubd xmm3, xmm6 ; c23 c22 d23 d22 135 punpcklqdq xmm5, xmm3 ; d23 d22 d21 d20 138 packssdw xmm2, xmm5 ; d23 d22 d21 d20 c23 c22 c21 c20
|
/external/valgrind/main/none/tests/arm/ |
H A D | vfp.c | 1135 TESTINSN_bin_f64("vmla.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f2u1(1346)); 1139 TESTINSN_bin_f64("vmla.f64 d23, d24, d5", d23, d24, i32, f2u0(24), f2u1(24), d5, i32, f2u0(1346), f2u1(1346)); 1152 TESTINSN_bin_f64("vmla.f64 d10, d23, d15", d10, d23, i32, f2u0(INFINITY), f2u1(INFINITY), d15, i32, f2u0(0.0), f2u1(0.0)); 1185 TESTINSN_bin_f64("vnmla.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f2u1(1346)); 1189 TESTINSN_bin_f64("vnmla.f64 d23, d24, d5", d23, d2 [all...] |
H A D | vfp.stdout.exp | 124 vmla.f64 d23, d24, d25 :: Qd 0xc1bbe864 0x1f579999 Qm 0xc1153b41 e6666666 Qn 0x40950800 00000000 128 vmla.f64 d23, d24, d5 :: Qd 0x40df8c00 0x800001fc Qm 0x40380000 00000000 Qn 0x40950800 00000000 141 vmla.f64 d10, d23, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff00000 00000000 Qn 0x00000000 00000000 173 vnmla.f64 d23, d24, d25 :: Qd 0x41bbe864 0x1f5b9999 Qm 0xc1153b41 e6666666 Qn 0x40950800 00000000 177 vnmla.f64 d23, d24, d5 :: Qd 0xc0df8bff 0x7ffffe04 Qm 0x40380000 00000000 Qn 0x40950800 00000000 190 vnmla.f64 d10, d23, d15 :: Qd 0xfff80000 0x00000000 Qm 0x7ff00000 00000000 Qn 0x00000000 00000000 222 vmls.f64 d23, d24, d25 :: Qd 0xc1bbe864 0x1f5b9999 Qm 0xc1153b41 e6666666 Qn 0x40950800 00000000 226 vmls.f64 d23, d24, d5 :: Qd 0x40df8bff 0x7ffffe04 Qm 0x40380000 00000000 Qn 0x40950800 00000000 239 vmls.f64 d10, d23, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff00000 00000000 Qn 0x00000000 00000000 271 vnmls.f64 d23, d2 [all...] |