Searched refs:q10 (Results 1 - 25 of 122) sorted by relevance

12345

/external/libvpx/libvpx/vp8/common/arm/neon/
H A Dvariance_neon.asm30 vmov.i8 q9, #0 ;q9, q10 - sse
31 vmov.i8 q10, #0
51 vmlal.s16 q10, d23, d23
57 vmlal.s16 q10, d25, d25
60 vmlal.s16 q10, d27, d27
63 vmlal.s16 q10, d29, d29
67 vadd.u32 q10, q9, q10 ;accumulate sse
72 vpaddl.u32 q1, q10
103 vmov.i8 q9, #0 ;q9, q10
[all...]
H A Dvp8_subpixelvariance16x16s_neon.asm38 vmov.i8 q9, #0 ;q9, q10 - sse
39 vmov.i8 q10, #0
77 vmlal.s16 q10, d9, d9
83 vmlal.s16 q10, d11, d11
86 vmlal.s16 q10, d13, d13
89 vmlal.s16 q10, d15, d15
93 vmlal.s16 q10, d1, d1
96 vmlal.s16 q10, d3, d3
99 vmlal.s16 q10, d5, d5
102 vmlal.s16 q10, d
[all...]
/external/llvm/test/MC/ARM/
H A Dneon-mul-accum-encoding.s7 vmla.i8 q9, q8, q10
8 vmla.i16 q9, q8, q10
9 vmla.i32 q9, q8, q10
10 vmla.f32 q9, q8, q10
17 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2]
18 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2]
19 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2]
20 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2]
58 vmls.i8 q9, q8, q10
59 vmls.i16 q9, q8, q10
[all...]
H A Dneon-absdiff-encoding.s57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2]
58 vaba.s8 q9, q8, q10
59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2]
60 vaba.s16 q9, q8, q10
61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2]
62 vaba.s32 q9, q8, q10
63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3]
64 vaba.u8 q9, q8, q10
65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3]
66 vaba.u16 q9, q8, q10
[all...]
H A Dneont2-absdiff-encoding.s57 vaba.s8 q9, q8, q10
58 vaba.s16 q9, q8, q10
59 vaba.s32 q9, q8, q10
60 vaba.u8 q9, q8, q10
61 vaba.u16 q9, q8, q10
62 vaba.u32 q9, q8, q10
70 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x27]
71 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0x50,0xef,0xf4,0x27]
72 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0x60,0xef,0xf4,0x27]
73 @ CHECK: vaba.u8 q9, q8, q10
[all...]
H A Dneont2-mul-accum-encoding.s9 vmla.i8 q9, q8, q10
10 vmla.i16 q9, q8, q10
11 vmla.i32 q9, q8, q10
12 vmla.f32 q9, q8, q10
19 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29]
20 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29]
21 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29]
22 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d]
62 vmls.i8 q9, q8, q10
63 vmls.i16 q9, q8, q10
[all...]
/external/openssl/crypto/modes/asm/
H A Dghashv8-armx.S14 vshr.u64 q10,q8,#63
15 vext.8 q8,q10,q8,#8 @ t0=0xc2....01
74 vext.8 q10,q0,q0,#8
76 veor q9,q9,q10 @ q9 is rotated inp^Xi
87 veor q10,q0,q2
90 veor q1,q1,q10
91 .byte 0x26,0x4e,0xe0,0xf2 @ pmull q10,q0,q11 @ 1st phase
98 veor q0,q1,q10
101 vext.8 q10,q0,q0,#8 @ 2nd phase
103 veor q10,q1
[all...]
H A Dghash-armv4.S384 vmull.p8 q10, d20, d6 @ J = A3*B
394 veor q10, q10, q0 @ N = I + J
406 vext.8 q10, q10, q10, #13
408 veor q10, q10, q11
410 veor q0, q0, q10
422 vmull.p8 q10, d2
[all...]
/external/libhevc/common/arm/
H A Dihevc_itrans_recon_8x8.s187 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1)
242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
253 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
267 vqrshrn.s32 d2,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct)
315 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1)
318 vadd.s32 q7,q10,q
[all...]
H A Dihevc_itrans_recon_32x32.s225 vmull.s16 q10,d10,d0[0]
226 vmlal.s16 q10,d11,d0[2]
263 vmlal.s16 q10,d12,d1[0]
264 vmlal.s16 q10,d13,d1[2]
295 vmlal.s16 q10,d10,d2[0]
296 vmlal.s16 q10,d11,d2[2]
337 vmlal.s16 q10,d12,d3[0]
338 vmlal.s16 q10,d13,d3[2]
371 vmlal.s16 q10,d10,d0[0]
372 vmlal.s16 q10,d1
[all...]
/external/libvpx/libvpx/vp8/encoder/arm/neon/
H A Dvp8_mse16x16_neon.asm30 vmov.i8 q7, #0 ;q7, q8, q9, q10 - sse
33 vmov.i8 q10, #0
54 vmlal.s16 q10, d25, d25
58 vmlal.s16 q10, d29, d29
63 vadd.u32 q9, q9, q10
67 vadd.u32 q10, q7, q9
68 vpaddl.u32 q1, q10
102 vmull.s16 q10, d28, d28
105 vadd.u32 q9, q9, q10
H A Dfastquantizeb_neon.asm57 vabs.s16 q10, q0 ; calculate x2 = abs(z_2)
66 vadd.s16 q10, q6 ; x2 + Round
71 vqdmulh.s16 q10, q8 ; y2 = ((Round+abs(z)) * Quant) >> 16
82 vshr.s16 q10, #1 ; right shift 1 after vqdmulh
87 veor.s16 q10, q12 ; y2^sz2
93 vsub.s16 q10, q12 ; x2=(y^sz)-sz = (y^sz)-(-1) (2's complement)
105 vst1.s16 {q10, q11}, [r6] ; store: qcoeff = x2
107 vmul.s16 q12, q6, q10 ; x2 * Dequant
124 vtst.16 q2, q10, q8 ; now find eob
129 vand q10, q
[all...]
H A Dshortfdct_neon.asm40 vld1.32 {q9, q10}, [r12@128]! ; q9=14500, q10=7500
62 vmlal.s16 q10, d7, d17 ; d1*2217 + 7500
64 vmlsl.s16 q10, d6, d16 ; d1*2217 - c1*5352 + 7500
67 vshrn.s32 d3, q10, #12 ; op[3] = (d1*2217 - c1*5352 + 7500)>>12
121 vld1.32 {q9, q10}, [r12@128]! ; q9=14500, q10=7500
144 vmov.s16 q12, q10 ; 7500
147 vmlal.s16 q10, d28, d17 ; A[3] = d1*2217 + 7500
152 vmlsl.s16 q10, d2
[all...]
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/
H A Didct_dequant_full_2x_neon.c24 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; local
94 q10 = vqaddq_s16(q2, q3);
106 q4 = vqaddq_s16(q10, q3);
109 q7 = vqsubq_s16(q10, q3);
121 q10 = vqdmulhq_n_s16(q2tmp2.val[1], cospi8sqrt2minus1);
127 q10 = vshrq_n_s16(q10, 1);
130 q10 = vqaddq_s16(q2tmp2.val[1], q10);
134 q9 = vqaddq_s16(q9, q10);
[all...]
H A Dloopfilter_neon.c25 uint8x16_t q10, // q3
41 q4 = vabdq_u8(q10, q9);
62 q10 = vdupq_n_u8(0x80);
63 q8 = veorq_u8(q8, q10);
64 q7 = veorq_u8(q7, q10);
65 q6 = veorq_u8(q6, q10);
66 q5 = veorq_u8(q5, q10);
71 q10 = vdupq_n_u8(3);
85 q4u16 = vmovl_u8(vget_low_u8(q10));
104 q2s8 = vqaddq_s8(q1s8, vreinterpretq_s8_u8(q10));
14 vp8_loop_filter_neon( uint8x16_t qblimit, uint8x16_t qlimit, uint8x16_t qthresh, uint8x16_t q3, uint8x16_t q4, uint8x16_t q5, uint8x16_t q6, uint8x16_t q7, uint8x16_t q8, uint8x16_t q9, uint8x16_t q10, uint8x16_t *q5r, uint8x16_t *q6r, uint8x16_t *q7r, uint8x16_t *q8r) argument
133 uint8x16_t q5, q6, q7, q8, q9, q10; local
179 uint8x16_t q5, q6, q7, q8, q9, q10; local
311 uint8x16_t q5, q6, q7, q8, q9, q10; local
426 uint8x16_t q5, q6, q7, q8, q9, q10; local
[all...]
/external/chromium_org/third_party/boringssl/linux-arm/crypto/aes/
H A Dbsaes-armv7.S88 veor q10, q0, q9 @ xor with round0 key
90 vtbl.8 d0, {q10}, d16
91 vtbl.8 d1, {q10}, d17
104 veor q10, q6, q9
108 vtbl.8 d12, {q10}, d16
109 vtbl.8 d13, {q10}, d17
114 vshr.u64 q10, q6, #1
116 veor q10, q10, q7
118 vand q10, q1
[all...]
/external/openssl/crypto/aes/asm/
H A Dbsaes-armv7.S87 veor q10, q0, q9 @ xor with round0 key
89 vtbl.8 d0, {q10}, d16
90 vtbl.8 d1, {q10}, d17
103 veor q10, q6, q9
107 vtbl.8 d12, {q10}, d16
108 vtbl.8 d13, {q10}, d17
113 vshr.u64 q10, q6, #1
115 veor q10, q10, q7
117 vand q10, q1
[all...]
/external/chromium_org/third_party/boringssl/linux-arm/crypto/modes/
H A Dghash-armv4.S392 vmull.p8 q10, d20, d6 @ J = A3*B
402 veor q10, q10, q0 @ N = I + J
414 vext.8 q10, q10, q10, #13
416 veor q10, q10, q11
418 veor q0, q0, q10
430 vmull.p8 q10, d2
[all...]
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/encoder/arm/neon/
H A Dfastquantizeb_neon.asm57 vabs.s16 q10, q0 ; calculate x2 = abs(z_2)
66 vadd.s16 q10, q6 ; x2 + Round
71 vqdmulh.s16 q10, q8 ; y2 = ((Round+abs(z)) * Quant) >> 16
82 vshr.s16 q10, #1 ; right shift 1 after vqdmulh
87 veor.s16 q10, q12 ; y2^sz2
93 vsub.s16 q10, q12 ; x2=(y^sz)-sz = (y^sz)-(-1) (2's complement)
105 vst1.s16 {q10, q11}, [r6] ; store: qcoeff = x2
107 vmul.s16 q12, q6, q10 ; x2 * Dequant
124 vtst.16 q2, q10, q8 ; now find eob
129 vand q10, q
[all...]
/external/valgrind/main/none/tests/arm/
H A Dneon128.c360 TESTINSN_imm("vmov.i32 q10", q10, 0x70000);
374 TESTINSN_imm("vmvn.i32 q10", q10, 0x70000);
393 TESTINSN_imm("vbic.i32 q10", q10, 0x70000);
398 TESTINSN_un("vmvn q10, q15", q10, q15, i32, 24);
403 TESTINSN_un("vmov q10, q15", q10, q1
[all...]
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/
H A Dvp9_iht4x4_add_neon.asm21 ; into d16-d19 registers. This macro will touch q10- q15 registers and use
30 vmull.s16 q10, d17, d0 ; input[1] * cospi_8_64
34 vmlal.s16 q10, d19, d2 ; input[1] * cospi_8_64 + input[3] * cospi_24_64
40 vqrshrn.s32 d28, q10, #14
59 vmull.s16 q10, d3, d16 ; s0 = sinpi_1_9 * x0
70 vadd.s32 q10, q10, q13 ; x0 = s0 + s3 + s5
71 vadd.s32 q10, q10, q8
77 vadd.s32 q13, q10, q1
[all...]
H A Dvp9_idct32x32_1_add_neon.asm23 vld1.8 {q10}, [$src], $stride
35 vqadd.u8 q10, q10, $diff
47 vqsub.u8 q10, q10, $diff
59 vst1.8 {q10},[$dst], $stride
/external/libvpx/libvpx/vp9/common/arm/neon/
H A Dvp9_iht4x4_add_neon.asm21 ; into d16-d19 registers. This macro will touch q10- q15 registers and use
30 vmull.s16 q10, d17, d0 ; input[1] * cospi_8_64
34 vmlal.s16 q10, d19, d2 ; input[1] * cospi_8_64 + input[3] * cospi_24_64
40 vqrshrn.s32 d28, q10, #14
59 vmull.s16 q10, d3, d16 ; s0 = sinpi_1_9 * x0
70 vadd.s32 q10, q10, q13 ; x0 = s0 + s3 + s5
71 vadd.s32 q10, q10, q8
77 vadd.s32 q13, q10, q1
[all...]
H A Dvp9_idct32x32_1_add_neon.asm23 vld1.8 {q10}, [$src], $stride
35 vqadd.u8 q10, q10, $diff
47 vqsub.u8 q10, q10, $diff
59 vst1.8 {q10},[$dst], $stride
/external/pixman/pixman/
H A Dpixman-arm-neon-asm.S166 vmull.u8 q10, d3, d6
169 vrshr.u16 q13, q10, #8
172 vraddhn.u16 d20, q10, q13
271 vmull.u8 q10, d3, d6
279 vrshr.u16 q13, q10, #8
286 vraddhn.u16 d20, q10, q13
364 vmull.u8 q10, d3, d6
367 vrshr.u16 q13, q10, #8
370 vraddhn.u16 d20, q10, q13
588 vmull.u8 q10, d2
[all...]

Completed in 394 milliseconds

12345