/external/libvpx/libvpx/vp8/common/arm/neon/ |
H A D | variance_neon.asm | 30 vmov.i8 q9, #0 ;q9, q10 - sse 31 vmov.i8 q10, #0 51 vmlal.s16 q10, d23, d23 57 vmlal.s16 q10, d25, d25 60 vmlal.s16 q10, d27, d27 63 vmlal.s16 q10, d29, d29 67 vadd.u32 q10, q9, q10 ;accumulate sse 72 vpaddl.u32 q1, q10 103 vmov.i8 q9, #0 ;q9, q10 [all...] |
H A D | vp8_subpixelvariance16x16s_neon.asm | 38 vmov.i8 q9, #0 ;q9, q10 - sse 39 vmov.i8 q10, #0 77 vmlal.s16 q10, d9, d9 83 vmlal.s16 q10, d11, d11 86 vmlal.s16 q10, d13, d13 89 vmlal.s16 q10, d15, d15 93 vmlal.s16 q10, d1, d1 96 vmlal.s16 q10, d3, d3 99 vmlal.s16 q10, d5, d5 102 vmlal.s16 q10, d [all...] |
/external/llvm/test/MC/ARM/ |
H A D | neon-mul-accum-encoding.s | 7 vmla.i8 q9, q8, q10 8 vmla.i16 q9, q8, q10 9 vmla.i32 q9, q8, q10 10 vmla.f32 q9, q8, q10 17 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2] 18 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2] 19 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2] 20 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2] 58 vmls.i8 q9, q8, q10 59 vmls.i16 q9, q8, q10 [all...] |
H A D | neon-absdiff-encoding.s | 57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2] 58 vaba.s8 q9, q8, q10 59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2] 60 vaba.s16 q9, q8, q10 61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2] 62 vaba.s32 q9, q8, q10 63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3] 64 vaba.u8 q9, q8, q10 65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3] 66 vaba.u16 q9, q8, q10 [all...] |
H A D | neont2-absdiff-encoding.s | 57 vaba.s8 q9, q8, q10 58 vaba.s16 q9, q8, q10 59 vaba.s32 q9, q8, q10 60 vaba.u8 q9, q8, q10 61 vaba.u16 q9, q8, q10 62 vaba.u32 q9, q8, q10 70 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x27] 71 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0x50,0xef,0xf4,0x27] 72 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0x60,0xef,0xf4,0x27] 73 @ CHECK: vaba.u8 q9, q8, q10 [all...] |
H A D | neont2-mul-accum-encoding.s | 9 vmla.i8 q9, q8, q10 10 vmla.i16 q9, q8, q10 11 vmla.i32 q9, q8, q10 12 vmla.f32 q9, q8, q10 19 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29] 20 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29] 21 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29] 22 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d] 62 vmls.i8 q9, q8, q10 63 vmls.i16 q9, q8, q10 [all...] |
/external/openssl/crypto/modes/asm/ |
H A D | ghashv8-armx.S | 14 vshr.u64 q10,q8,#63 15 vext.8 q8,q10,q8,#8 @ t0=0xc2....01 74 vext.8 q10,q0,q0,#8 76 veor q9,q9,q10 @ q9 is rotated inp^Xi 87 veor q10,q0,q2 90 veor q1,q1,q10 91 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase 98 veor q0,q1,q10 101 vext.8 q10,q0,q0,#8 @ 2nd phase 103 veor q10,q1 [all...] |
H A D | ghash-armv4.S | 384 vmull.p8 q10, d20, d6 @ J = A3*B 394 veor q10, q10, q0 @ N = I + J 406 vext.8 q10, q10, q10, #13 408 veor q10, q10, q11 410 veor q0, q0, q10 422 vmull.p8 q10, d2 [all...] |
/external/libhevc/common/arm/ |
H A D | ihevc_itrans_recon_8x8.s | 187 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1) 242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 253 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6) 255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) 267 vqrshrn.s32 d2,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct) 315 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1) 318 vadd.s32 q7,q10,q [all...] |
H A D | ihevc_itrans_recon_32x32.s | 225 vmull.s16 q10,d10,d0[0] 226 vmlal.s16 q10,d11,d0[2] 263 vmlal.s16 q10,d12,d1[0] 264 vmlal.s16 q10,d13,d1[2] 295 vmlal.s16 q10,d10,d2[0] 296 vmlal.s16 q10,d11,d2[2] 337 vmlal.s16 q10,d12,d3[0] 338 vmlal.s16 q10,d13,d3[2] 371 vmlal.s16 q10,d10,d0[0] 372 vmlal.s16 q10,d1 [all...] |
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
H A D | vp8_mse16x16_neon.asm | 30 vmov.i8 q7, #0 ;q7, q8, q9, q10 - sse 33 vmov.i8 q10, #0 54 vmlal.s16 q10, d25, d25 58 vmlal.s16 q10, d29, d29 63 vadd.u32 q9, q9, q10 67 vadd.u32 q10, q7, q9 68 vpaddl.u32 q1, q10 102 vmull.s16 q10, d28, d28 105 vadd.u32 q9, q9, q10
|
H A D | fastquantizeb_neon.asm | 57 vabs.s16 q10, q0 ; calculate x2 = abs(z_2) 66 vadd.s16 q10, q6 ; x2 + Round 71 vqdmulh.s16 q10, q8 ; y2 = ((Round+abs(z)) * Quant) >> 16 82 vshr.s16 q10, #1 ; right shift 1 after vqdmulh 87 veor.s16 q10, q12 ; y2^sz2 93 vsub.s16 q10, q12 ; x2=(y^sz)-sz = (y^sz)-(-1) (2's complement) 105 vst1.s16 {q10, q11}, [r6] ; store: qcoeff = x2 107 vmul.s16 q12, q6, q10 ; x2 * Dequant 124 vtst.16 q2, q10, q8 ; now find eob 129 vand q10, q [all...] |
H A D | shortfdct_neon.asm | 40 vld1.32 {q9, q10}, [r12@128]! ; q9=14500, q10=7500 62 vmlal.s16 q10, d7, d17 ; d1*2217 + 7500 64 vmlsl.s16 q10, d6, d16 ; d1*2217 - c1*5352 + 7500 67 vshrn.s32 d3, q10, #12 ; op[3] = (d1*2217 - c1*5352 + 7500)>>12 121 vld1.32 {q9, q10}, [r12@128]! ; q9=14500, q10=7500 144 vmov.s16 q12, q10 ; 7500 147 vmlal.s16 q10, d28, d17 ; A[3] = d1*2217 + 7500 152 vmlsl.s16 q10, d2 [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/ |
H A D | idct_dequant_full_2x_neon.c | 24 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; local 94 q10 = vqaddq_s16(q2, q3); 106 q4 = vqaddq_s16(q10, q3); 109 q7 = vqsubq_s16(q10, q3); 121 q10 = vqdmulhq_n_s16(q2tmp2.val[1], cospi8sqrt2minus1); 127 q10 = vshrq_n_s16(q10, 1); 130 q10 = vqaddq_s16(q2tmp2.val[1], q10); 134 q9 = vqaddq_s16(q9, q10); [all...] |
H A D | loopfilter_neon.c | 25 uint8x16_t q10, // q3 41 q4 = vabdq_u8(q10, q9); 62 q10 = vdupq_n_u8(0x80); 63 q8 = veorq_u8(q8, q10); 64 q7 = veorq_u8(q7, q10); 65 q6 = veorq_u8(q6, q10); 66 q5 = veorq_u8(q5, q10); 71 q10 = vdupq_n_u8(3); 85 q4u16 = vmovl_u8(vget_low_u8(q10)); 104 q2s8 = vqaddq_s8(q1s8, vreinterpretq_s8_u8(q10)); 14 vp8_loop_filter_neon( uint8x16_t qblimit, uint8x16_t qlimit, uint8x16_t qthresh, uint8x16_t q3, uint8x16_t q4, uint8x16_t q5, uint8x16_t q6, uint8x16_t q7, uint8x16_t q8, uint8x16_t q9, uint8x16_t q10, uint8x16_t *q5r, uint8x16_t *q6r, uint8x16_t *q7r, uint8x16_t *q8r) argument 133 uint8x16_t q5, q6, q7, q8, q9, q10; local 179 uint8x16_t q5, q6, q7, q8, q9, q10; local 311 uint8x16_t q5, q6, q7, q8, q9, q10; local 426 uint8x16_t q5, q6, q7, q8, q9, q10; local [all...] |
/external/chromium_org/third_party/boringssl/linux-arm/crypto/aes/ |
H A D | bsaes-armv7.S | 88 veor q10, q0, q9 @ xor with round0 key 90 vtbl.8 d0, {q10}, d16 91 vtbl.8 d1, {q10}, d17 104 veor q10, q6, q9 108 vtbl.8 d12, {q10}, d16 109 vtbl.8 d13, {q10}, d17 114 vshr.u64 q10, q6, #1 116 veor q10, q10, q7 118 vand q10, q1 [all...] |
/external/openssl/crypto/aes/asm/ |
H A D | bsaes-armv7.S | 87 veor q10, q0, q9 @ xor with round0 key 89 vtbl.8 d0, {q10}, d16 90 vtbl.8 d1, {q10}, d17 103 veor q10, q6, q9 107 vtbl.8 d12, {q10}, d16 108 vtbl.8 d13, {q10}, d17 113 vshr.u64 q10, q6, #1 115 veor q10, q10, q7 117 vand q10, q1 [all...] |
/external/chromium_org/third_party/boringssl/linux-arm/crypto/modes/ |
H A D | ghash-armv4.S | 392 vmull.p8 q10, d20, d6 @ J = A3*B 402 veor q10, q10, q0 @ N = I + J 414 vext.8 q10, q10, q10, #13 416 veor q10, q10, q11 418 veor q0, q0, q10 430 vmull.p8 q10, d2 [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/encoder/arm/neon/ |
H A D | fastquantizeb_neon.asm | 57 vabs.s16 q10, q0 ; calculate x2 = abs(z_2) 66 vadd.s16 q10, q6 ; x2 + Round 71 vqdmulh.s16 q10, q8 ; y2 = ((Round+abs(z)) * Quant) >> 16 82 vshr.s16 q10, #1 ; right shift 1 after vqdmulh 87 veor.s16 q10, q12 ; y2^sz2 93 vsub.s16 q10, q12 ; x2=(y^sz)-sz = (y^sz)-(-1) (2's complement) 105 vst1.s16 {q10, q11}, [r6] ; store: qcoeff = x2 107 vmul.s16 q12, q6, q10 ; x2 * Dequant 124 vtst.16 q2, q10, q8 ; now find eob 129 vand q10, q [all...] |
/external/valgrind/main/none/tests/arm/ |
H A D | neon128.c | 360 TESTINSN_imm("vmov.i32 q10", q10, 0x70000); 374 TESTINSN_imm("vmvn.i32 q10", q10, 0x70000); 393 TESTINSN_imm("vbic.i32 q10", q10, 0x70000); 398 TESTINSN_un("vmvn q10, q15", q10, q15, i32, 24); 403 TESTINSN_un("vmov q10, q15", q10, q1 [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
H A D | vp9_iht4x4_add_neon.asm | 21 ; into d16-d19 registers. This macro will touch q10- q15 registers and use 30 vmull.s16 q10, d17, d0 ; input[1] * cospi_8_64 34 vmlal.s16 q10, d19, d2 ; input[1] * cospi_8_64 + input[3] * cospi_24_64 40 vqrshrn.s32 d28, q10, #14 59 vmull.s16 q10, d3, d16 ; s0 = sinpi_1_9 * x0 70 vadd.s32 q10, q10, q13 ; x0 = s0 + s3 + s5 71 vadd.s32 q10, q10, q8 77 vadd.s32 q13, q10, q1 [all...] |
H A D | vp9_idct32x32_1_add_neon.asm | 23 vld1.8 {q10}, [$src], $stride 35 vqadd.u8 q10, q10, $diff 47 vqsub.u8 q10, q10, $diff 59 vst1.8 {q10},[$dst], $stride
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
H A D | vp9_iht4x4_add_neon.asm | 21 ; into d16-d19 registers. This macro will touch q10- q15 registers and use 30 vmull.s16 q10, d17, d0 ; input[1] * cospi_8_64 34 vmlal.s16 q10, d19, d2 ; input[1] * cospi_8_64 + input[3] * cospi_24_64 40 vqrshrn.s32 d28, q10, #14 59 vmull.s16 q10, d3, d16 ; s0 = sinpi_1_9 * x0 70 vadd.s32 q10, q10, q13 ; x0 = s0 + s3 + s5 71 vadd.s32 q10, q10, q8 77 vadd.s32 q13, q10, q1 [all...] |
H A D | vp9_idct32x32_1_add_neon.asm | 23 vld1.8 {q10}, [$src], $stride 35 vqadd.u8 q10, q10, $diff 47 vqsub.u8 q10, q10, $diff 59 vst1.8 {q10},[$dst], $stride
|
/external/pixman/pixman/ |
H A D | pixman-arm-neon-asm.S | 166 vmull.u8 q10, d3, d6 169 vrshr.u16 q13, q10, #8 172 vraddhn.u16 d20, q10, q13 271 vmull.u8 q10, d3, d6 279 vrshr.u16 q13, q10, #8 286 vraddhn.u16 d20, q10, q13 364 vmull.u8 q10, d3, d6 367 vrshr.u16 q13, q10, #8 370 vraddhn.u16 d20, q10, q13 588 vmull.u8 q10, d2 [all...] |