Searched refs:q12 (Results 1 - 25 of 56) sorted by relevance

123

/external/libvpx/libvpx/vp8/encoder/arm/neon/
H A Dshortfdct_neon.asm46 vld1.32 {q11,q12}, [r12@128] ; q11=12000, q12=51000
90 vmlal.s16 q12, d7, d17 ; d1*2217 + 51000
98 vmlsl.s16 q12, d6, d16 ; d1*2217 - c1*5352 + 51000
103 vshrn.s32 d3, q12, #16 ; op[12]= (d1*2217 - c1*5352 + 51000)>>16
131 vadd.s16 q12, q1, q2 ; b1 = ip[1] + ip[2]
136 vshl.s16 q12, q12, #3 ; b1 << 3
140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b1
141 vsub.s16 q2, q11, q12 ; [A
[all...]
H A Dfastquantizeb_neon.asm59 vshr.s16 q12, q0, #15 ; sz2
87 veor.s16 q10, q12 ; y2^sz2
93 vsub.s16 q10, q12 ; x2=(y^sz)-sz = (y^sz)-(-1) (2's complement)
107 vmul.s16 q12, q6, q10 ; x2 * Dequant
122 vst1.s16 {q12, q13}, [r7] ; store dqcoeff = x * Dequant
170 vabs.s16 q12, q0 ; calculate x = abs(z)
181 vadd.s16 q12, q14 ; x + Round
186 vqdmulh.s16 q12, q8 ; y = ((Round+abs(z)) * Quant) >> 16
195 vshr.s16 q12, #1 ; right shift 1 after vqdmulh
205 veor.s16 q12, q
[all...]
H A Dvp8_memcpy_neon.asm44 vld1.8 {q12, q13}, [r1]!
47 vst1.8 {q12, q13}, [r0]!
H A Dsubtract_neon.asm47 vsubl.u8 q12, d4, d5
87 vsubl.u8 q12, d8, d10
96 vst1.16 {q12}, [r0], r6
144 vsubl.u8 q12, d8, d9
153 vst1.16 {q12}, [r0], r12
180 vsubl.u8 q12, d8, d9
189 vst1.16 {q12}, [r0], r12
/external/libvpx/libvpx/vp9/common/arm/neon/
H A Dvp9_short_idct16x16_add_neon.asm30 vtrn.32 q12, q14
34 vtrn.16 q12, q13
56 vld2.s16 {q11,q12}, [r0]!
57 vld2.s16 {q12,q13}, [r0]!
167 vadd.s32 q12, q11, q1
175 vqrshrn.s32 d17, q12, #14 ; >> 14
187 vmull.s16 q12, d20, d30
195 vmlsl.s16 q12, d28, d31
203 vqrshrn.s32 d20, q12, #14 ; >> 14
225 vmull.s16 q12, d2
[all...]
H A Dvp9_short_idct32x32_1_add_neon.asm25 vld1.8 {q12}, [$src], $stride
37 vqadd.u8 q12, q12, $diff
49 vqsub.u8 q12, q12, $diff
61 vst1.8 {q12},[$dst], $stride
H A Dvp9_short_iht8x8_add_neon.asm110 vtrn.32 q12, q14
114 vtrn.16 q12, q13
214 vmull.s16 q12, d21, d1
222 vmlal.s16 q12, d29, d0
230 vqrshrn.s32 d31, q12, #14 ; >> 14
252 vmull.s16 q12, d29, d16
260 vmlal.s16 q12, d27, d16
268 vqrshrn.s32 d13, q12, #14 ; >> 14
275 vsub.s16 q12, q3, q4 ; output[4] = step1[3] - step1[4];
327 vadd.s32 q12, q
[all...]
H A Dvp9_short_iht4x4_add_neon.asm55 ; stored back into d16-d19 registers. This macro will touch q11,q12,q13,
61 vmull.s16 q12, d6, d17 ; s2 = sinpi_3_9 * x1
77 vadd.s32 q13, q10, q12 ; s0 = x0 + x3
79 vadd.s32 q14, q11, q12 ; s1 = x1 + x3
80 vsub.s32 q10, q10, q12 ; s3 = x0 + x1 - x3
/external/llvm/test/MC/ARM/
H A Dneon-cmp-encoding.s116 vclt.s8 q12, q13, q3
117 vclt.s16 q12, q13, q3
118 vclt.s32 q12, q13, q3
119 vclt.u8 q12, q13, q3
120 vclt.u16 q12, q13, q3
121 vclt.u32 q12, q13, q3
122 vclt.f32 q12, q13, q3
132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2]
133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2]
134 @ CHECK: vcgt.s32 q12, q
[all...]
H A Dneon-mul-accum-encoding.s11 vmla.i32 q12, q8, d3[0]
21 @ CHECK: vmla.i32 q12, q8, d3[0] @ encoding: [0xc3,0x80,0xe0,0xf3]
62 vmls.i16 q4, q12, d6[2]
72 @ CHECK: vmls.i16 q4, q12, d6[2] @ encoding: [0xe6,0x84,0x98,0xf3]
/external/pixman/pixman/
H A Dpixman-arm-neon-asm.S168 vmull.u8 q12, d3, d30
171 vrshr.u16 q15, q12, #8
174 vraddhn.u16 d22, q12, q15
274 vmull.u8 q12, d3, d30
282 vrshr.u16 q15, q12, #8
289 vraddhn.u16 d22, q12, q15
366 vmull.u8 q12, d3, d30
369 vrshr.u16 q15, q12, #8
372 vraddhn.u16 d22, q12, q15
595 vrshr.u16 q12, q1
[all...]
H A Dpixman-arm-neon-asm-bilinear.S527 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS)
528 vadd.u16 q12, q12, q13
554 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS)
564 vadd.u16 q12, q12, q13
570 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS)
573 vadd.u16 q12, q12, q13
687 vdup.u16 q12,
[all...]
/external/jpeg/
H A Djsimd_arm_neon.S201 vmul.s16 q4, q4, q12
211 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14
229 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14
351 vmull.s16 q12, \x16, d0[2]
352 vmlal.s16 q12, \x12, d0[3]
353 vmlal.s16 q12, \x10, d1[0]
354 vmlal.s16 q12, \x6, d1[1]
369 vadd.s32 q10, q15, q12
370 vsub.s32 q15, q15, q12
426 vmul.s16 q5, q5, q12
[all...]
/external/libvpx/libvpx/vp8/common/arm/neon/
H A Dvariance_neon.asm42 vsubl.u8 q12, d1, d5
55 vpadal.s16 q8, q12
115 vsubl.u8 q12, d1, d5
125 vpadal.s16 q8, q12
178 vsubl.u8 q12, d2, d6
186 vpadal.s16 q8, q12
235 vsubl.u8 q12, d1, d5
245 vpadal.s16 q8, q12
H A Dvp8_subpixelvariance16x16_neon.asm75 vmull.u8 q12, d9, d0
96 vmlal.u8 q12, d9, d1
106 vqrshrn.u16 d19, q12, #7
126 vmull.u8 q12, d6, d0
143 vmlal.u8 q12, d6, d1
166 vqrshrn.u16 d13, q12, #7
263 vmull.u8 q12, d9, d0
284 vmlal.u8 q12, d9, d1
294 vqrshrn.u16 d19, q12, #7
382 vsubl.u8 q12, d
[all...]
H A Dsixtappredict8x8_neon.asm58 vabs.s32 q12, q14
173 vmull.u8 q12, d14, d0
185 vmlsl.u8 q12, d31, d1
197 vmlsl.u8 q12, d31, d4
209 vmlal.u8 q12, d31, d2
221 vmlal.u8 q12, d31, d5
239 vqadd.s16 q12, q7
258 vqrshrun.s16 d30, q12, #7
259 vld1.u8 {q12}, [lr]!
316 vmov q10, q12
[all...]
H A Dsixtappredict16x16_neon.asm65 vabs.s32 q12, q14
93 vmull.u8 q12, d12, d0
102 vmlsl.u8 q12, d30, d1
118 vmlsl.u8 q12, d30, d4
134 vmlal.u8 q12, d30, d5
150 vmlal.u8 q12, d30, d2
174 vqadd.s16 q12, q6
190 vqrshrun.s16 d10, q12, #7
277 vmov q10, q12
298 vabs.s32 q12, q1
[all...]
H A Dbilinearpredict16x16_neon.asm67 vmull.u8 q12, d9, d0
88 vmlal.u8 q12, d9, d1
98 vqrshrn.u16 d19, q12, #7
118 vmull.u8 q12, d6, d0
135 vmlal.u8 q12, d6, d1
158 vqrshrn.u16 d13, q12, #7
252 vmull.u8 q12, d9, d0
273 vmlal.u8 q12, d9, d1
283 vqrshrn.u16 d19, q12, #7
H A Dsixtappredict4x4_neon.asm53 vabs.s32 q12, q14 ;get abs(filer_parameters)
152 vmull.u8 q12, d31, d5 ;(src_ptr[3] * vp8_filter[5])
164 vmlal.u8 q12, d22, d0 ;(src_ptr[-2] * vp8_filter[0])
174 vmlsl.u8 q12, d31, d1 ;-(src_ptr[-1] * vp8_filter[1])
184 vmlsl.u8 q12, d31, d4 ;-(src_ptr[2] * vp8_filter[4])
194 vmlal.u8 q12, d31, d2 ;(src_ptr[0] * vp8_filter[2])
207 vqadd.s16 q12, q11
214 vqrshrun.s16 d31, q12, #7
269 vabs.s32 q12, q14 ;get abs(filer_parameters)
/external/valgrind/main/none/tests/arm/
H A Dneon128.c361 TESTINSN_imm("vmov.i32 q12", q12, 0x7000000);
421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120);
434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120);
440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed);
446 TESTINSN_bin("vbic q10, q11, q12", q10, q11, i8, 0xfe, q12, i
[all...]
/external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/
H A Dsha512-armv4.S1045 vshr.u64 q12,q7,#19
1048 vsli.64 q12,q7,#45
1051 veor q15,q12
1052 vshr.u64 q12,q14,#1
1057 vsli.64 q12,q14,#63
1060 veor q15,q12
1135 vshr.u64 q12,q0,#19
1138 vsli.64 q12,q0,#45
1141 veor q15,q12
1142 vshr.u64 q12,q1
[all...]
/external/openssl/crypto/sha/asm/
H A Dsha512-armv4.S1045 vshr.u64 q12,q7,#19
1048 vsli.64 q12,q7,#45
1051 veor q15,q12
1052 vshr.u64 q12,q14,#1
1057 vsli.64 q12,q14,#63
1060 veor q15,q12
1135 vshr.u64 q12,q0,#19
1138 vsli.64 q12,q0,#45
1141 veor q15,q12
1142 vshr.u64 q12,q1
[all...]
/external/chromium_org/third_party/openssl/openssl/crypto/
H A Darmv4cpuid.S108 .word 0xf34881f8 @ veor q12, q12, q12
/external/openssl/crypto/
H A Darmv4cpuid.S108 .word 0xf34881f8 @ veor q12, q12, q12
/external/chromium_org/third_party/openssl/openssl/crypto/modes/asm/
H A Dghash-armv4.S322 veor q12,q12
345 veor q12,q12
367 vext.8 q14,q12,#1 @ IN>>=8
377 vext.8 q10,q12,#1 @ Z>>=8
381 vext.8 q13,q9,q12,#1 @ Qlo>>=8

Completed in 297 milliseconds

123