/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
H A D | shortfdct_neon.asm | 46 vld1.32 {q11,q12}, [r12@128] ; q11=12000, q12=51000 90 vmlal.s16 q12, d7, d17 ; d1*2217 + 51000 98 vmlsl.s16 q12, d6, d16 ; d1*2217 - c1*5352 + 51000 103 vshrn.s32 d3, q12, #16 ; op[12]= (d1*2217 - c1*5352 + 51000)>>16 131 vadd.s16 q12, q1, q2 ; b1 = ip[1] + ip[2] 136 vshl.s16 q12, q12, #3 ; b1 << 3 140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b1 141 vsub.s16 q2, q11, q12 ; [A [all...] |
H A D | fastquantizeb_neon.asm | 59 vshr.s16 q12, q0, #15 ; sz2 87 veor.s16 q10, q12 ; y2^sz2 93 vsub.s16 q10, q12 ; x2=(y^sz)-sz = (y^sz)-(-1) (2's complement) 107 vmul.s16 q12, q6, q10 ; x2 * Dequant 122 vst1.s16 {q12, q13}, [r7] ; store dqcoeff = x * Dequant 170 vabs.s16 q12, q0 ; calculate x = abs(z) 181 vadd.s16 q12, q14 ; x + Round 186 vqdmulh.s16 q12, q8 ; y = ((Round+abs(z)) * Quant) >> 16 195 vshr.s16 q12, #1 ; right shift 1 after vqdmulh 205 veor.s16 q12, q [all...] |
H A D | vp8_memcpy_neon.asm | 44 vld1.8 {q12, q13}, [r1]! 47 vst1.8 {q12, q13}, [r0]!
|
H A D | subtract_neon.asm | 47 vsubl.u8 q12, d4, d5 87 vsubl.u8 q12, d8, d10 96 vst1.16 {q12}, [r0], r6 144 vsubl.u8 q12, d8, d9 153 vst1.16 {q12}, [r0], r12 180 vsubl.u8 q12, d8, d9 189 vst1.16 {q12}, [r0], r12
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
H A D | vp9_short_idct16x16_add_neon.asm | 30 vtrn.32 q12, q14 34 vtrn.16 q12, q13 56 vld2.s16 {q11,q12}, [r0]! 57 vld2.s16 {q12,q13}, [r0]! 167 vadd.s32 q12, q11, q1 175 vqrshrn.s32 d17, q12, #14 ; >> 14 187 vmull.s16 q12, d20, d30 195 vmlsl.s16 q12, d28, d31 203 vqrshrn.s32 d20, q12, #14 ; >> 14 225 vmull.s16 q12, d2 [all...] |
H A D | vp9_short_idct32x32_1_add_neon.asm | 25 vld1.8 {q12}, [$src], $stride 37 vqadd.u8 q12, q12, $diff 49 vqsub.u8 q12, q12, $diff 61 vst1.8 {q12},[$dst], $stride
|
H A D | vp9_short_iht8x8_add_neon.asm | 110 vtrn.32 q12, q14 114 vtrn.16 q12, q13 214 vmull.s16 q12, d21, d1 222 vmlal.s16 q12, d29, d0 230 vqrshrn.s32 d31, q12, #14 ; >> 14 252 vmull.s16 q12, d29, d16 260 vmlal.s16 q12, d27, d16 268 vqrshrn.s32 d13, q12, #14 ; >> 14 275 vsub.s16 q12, q3, q4 ; output[4] = step1[3] - step1[4]; 327 vadd.s32 q12, q [all...] |
H A D | vp9_short_iht4x4_add_neon.asm | 55 ; stored back into d16-d19 registers. This macro will touch q11,q12,q13, 61 vmull.s16 q12, d6, d17 ; s2 = sinpi_3_9 * x1 77 vadd.s32 q13, q10, q12 ; s0 = x0 + x3 79 vadd.s32 q14, q11, q12 ; s1 = x1 + x3 80 vsub.s32 q10, q10, q12 ; s3 = x0 + x1 - x3
|
/external/llvm/test/MC/ARM/ |
H A D | neon-cmp-encoding.s | 116 vclt.s8 q12, q13, q3 117 vclt.s16 q12, q13, q3 118 vclt.s32 q12, q13, q3 119 vclt.u8 q12, q13, q3 120 vclt.u16 q12, q13, q3 121 vclt.u32 q12, q13, q3 122 vclt.f32 q12, q13, q3 132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2] 133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2] 134 @ CHECK: vcgt.s32 q12, q [all...] |
H A D | neon-mul-accum-encoding.s | 11 vmla.i32 q12, q8, d3[0] 21 @ CHECK: vmla.i32 q12, q8, d3[0] @ encoding: [0xc3,0x80,0xe0,0xf3] 62 vmls.i16 q4, q12, d6[2] 72 @ CHECK: vmls.i16 q4, q12, d6[2] @ encoding: [0xe6,0x84,0x98,0xf3]
|
/external/pixman/pixman/ |
H A D | pixman-arm-neon-asm.S | 168 vmull.u8 q12, d3, d30 171 vrshr.u16 q15, q12, #8 174 vraddhn.u16 d22, q12, q15 274 vmull.u8 q12, d3, d30 282 vrshr.u16 q15, q12, #8 289 vraddhn.u16 d22, q12, q15 366 vmull.u8 q12, d3, d30 369 vrshr.u16 q15, q12, #8 372 vraddhn.u16 d22, q12, q15 595 vrshr.u16 q12, q1 [all...] |
H A D | pixman-arm-neon-asm-bilinear.S | 527 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS) 528 vadd.u16 q12, q12, q13 554 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS) 564 vadd.u16 q12, q12, q13 570 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS) 573 vadd.u16 q12, q12, q13 687 vdup.u16 q12, [all...] |
/external/jpeg/ |
H A D | jsimd_arm_neon.S | 201 vmul.s16 q4, q4, q12 211 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14 229 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14 351 vmull.s16 q12, \x16, d0[2] 352 vmlal.s16 q12, \x12, d0[3] 353 vmlal.s16 q12, \x10, d1[0] 354 vmlal.s16 q12, \x6, d1[1] 369 vadd.s32 q10, q15, q12 370 vsub.s32 q15, q15, q12 426 vmul.s16 q5, q5, q12 [all...] |
/external/libvpx/libvpx/vp8/common/arm/neon/ |
H A D | variance_neon.asm | 42 vsubl.u8 q12, d1, d5 55 vpadal.s16 q8, q12 115 vsubl.u8 q12, d1, d5 125 vpadal.s16 q8, q12 178 vsubl.u8 q12, d2, d6 186 vpadal.s16 q8, q12 235 vsubl.u8 q12, d1, d5 245 vpadal.s16 q8, q12
|
H A D | vp8_subpixelvariance16x16_neon.asm | 75 vmull.u8 q12, d9, d0 96 vmlal.u8 q12, d9, d1 106 vqrshrn.u16 d19, q12, #7 126 vmull.u8 q12, d6, d0 143 vmlal.u8 q12, d6, d1 166 vqrshrn.u16 d13, q12, #7 263 vmull.u8 q12, d9, d0 284 vmlal.u8 q12, d9, d1 294 vqrshrn.u16 d19, q12, #7 382 vsubl.u8 q12, d [all...] |
H A D | sixtappredict8x8_neon.asm | 58 vabs.s32 q12, q14 173 vmull.u8 q12, d14, d0 185 vmlsl.u8 q12, d31, d1 197 vmlsl.u8 q12, d31, d4 209 vmlal.u8 q12, d31, d2 221 vmlal.u8 q12, d31, d5 239 vqadd.s16 q12, q7 258 vqrshrun.s16 d30, q12, #7 259 vld1.u8 {q12}, [lr]! 316 vmov q10, q12 [all...] |
H A D | sixtappredict16x16_neon.asm | 65 vabs.s32 q12, q14 93 vmull.u8 q12, d12, d0 102 vmlsl.u8 q12, d30, d1 118 vmlsl.u8 q12, d30, d4 134 vmlal.u8 q12, d30, d5 150 vmlal.u8 q12, d30, d2 174 vqadd.s16 q12, q6 190 vqrshrun.s16 d10, q12, #7 277 vmov q10, q12 298 vabs.s32 q12, q1 [all...] |
H A D | bilinearpredict16x16_neon.asm | 67 vmull.u8 q12, d9, d0 88 vmlal.u8 q12, d9, d1 98 vqrshrn.u16 d19, q12, #7 118 vmull.u8 q12, d6, d0 135 vmlal.u8 q12, d6, d1 158 vqrshrn.u16 d13, q12, #7 252 vmull.u8 q12, d9, d0 273 vmlal.u8 q12, d9, d1 283 vqrshrn.u16 d19, q12, #7
|
H A D | sixtappredict4x4_neon.asm | 53 vabs.s32 q12, q14 ;get abs(filer_parameters) 152 vmull.u8 q12, d31, d5 ;(src_ptr[3] * vp8_filter[5]) 164 vmlal.u8 q12, d22, d0 ;(src_ptr[-2] * vp8_filter[0]) 174 vmlsl.u8 q12, d31, d1 ;-(src_ptr[-1] * vp8_filter[1]) 184 vmlsl.u8 q12, d31, d4 ;-(src_ptr[2] * vp8_filter[4]) 194 vmlal.u8 q12, d31, d2 ;(src_ptr[0] * vp8_filter[2]) 207 vqadd.s16 q12, q11 214 vqrshrun.s16 d31, q12, #7 269 vabs.s32 q12, q14 ;get abs(filer_parameters)
|
/external/valgrind/main/none/tests/arm/ |
H A D | neon128.c | 361 TESTINSN_imm("vmov.i32 q12", q12, 0x7000000); 421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); 434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); 440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); 446 TESTINSN_bin("vbic q10, q11, q12", q10, q11, i8, 0xfe, q12, i [all...] |
/external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/ |
H A D | sha512-armv4.S | 1045 vshr.u64 q12,q7,#19 1048 vsli.64 q12,q7,#45 1051 veor q15,q12 1052 vshr.u64 q12,q14,#1 1057 vsli.64 q12,q14,#63 1060 veor q15,q12 1135 vshr.u64 q12,q0,#19 1138 vsli.64 q12,q0,#45 1141 veor q15,q12 1142 vshr.u64 q12,q1 [all...] |
/external/openssl/crypto/sha/asm/ |
H A D | sha512-armv4.S | 1045 vshr.u64 q12,q7,#19 1048 vsli.64 q12,q7,#45 1051 veor q15,q12 1052 vshr.u64 q12,q14,#1 1057 vsli.64 q12,q14,#63 1060 veor q15,q12 1135 vshr.u64 q12,q0,#19 1138 vsli.64 q12,q0,#45 1141 veor q15,q12 1142 vshr.u64 q12,q1 [all...] |
/external/chromium_org/third_party/openssl/openssl/crypto/ |
H A D | armv4cpuid.S | 108 .word 0xf34881f8 @ veor q12, q12, q12
|
/external/openssl/crypto/ |
H A D | armv4cpuid.S | 108 .word 0xf34881f8 @ veor q12, q12, q12
|
/external/chromium_org/third_party/openssl/openssl/crypto/modes/asm/ |
H A D | ghash-armv4.S | 322 veor q12,q12 345 veor q12,q12 367 vext.8 q14,q12,#1 @ IN>>=8 377 vext.8 q10,q12,#1 @ Z>>=8 381 vext.8 q13,q9,q12,#1 @ Qlo>>=8
|