/external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/ |
H A D | sad_neon.c | 19 uint16x8_t q12; local 29 q12 = vabdl_u8(d0, d8); 36 q12 = vabal_u8(q12, d0, d8); 39 q1 = vpaddlq_u16(q12); 53 uint16x8_t q12; local 63 q12 = vabdl_u8(d0, d8); 70 q12 = vabal_u8(q12, d0, d8); 73 q1 = vpaddlq_u16(q12); 87 uint16x8_t q12; local 118 uint16x8_t q12, q13; local 155 uint16x8_t q12, q13; local [all...] |
/external/libhevc/common/arm/ |
H A D | ihevc_itrans_recon_8x8.s | 192 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0) 200 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0) 234 vmlal.s16 q12,d14,d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0) 245 vmlal.s16 q12,d15,d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(part of r0,r7) 255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) 256 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7) 258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 269 vqrshrn.s32 d3,q12,#shift_stage1_idct @// r2 = (a2 + b2 + rnd) >> 7(shift_stage1_idct) 302 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0) 307 vmlal.s16 q12,d [all...] |
H A D | ihevc_itrans_recon_32x32.s | 211 vmull.s16 q12,d8,d0[1] @// y1 * cos1(part of b0) 216 vmlal.s16 q12,d9,d0[3] @// y1 * cos1 + y3 * cos3(part of b0) 251 vmlal.s16 q12,d14,d1[1] 257 vmlal.s16 q12,d15,d1[3] 281 vmlal.s16 q12,d8,d2[1] @// y1 * cos1(part of b0) 286 vmlal.s16 q12,d9,d2[3] @// y1 * cos1 + y3 * cos3(part of b0) 325 vmlal.s16 q12,d14,d3[1] 331 vmlal.s16 q12,d15,d3[3] 357 vmlal.s16 q12,d8,d4[1] @// y1 * cos1(part of b0) 362 vmlal.s16 q12,d [all...] |
H A D | ihevc_intra_pred_chroma_horz.s | 207 @vsubl.u8 q12,d30,d28 210 @vshr.s16 q12,q12,#1 213 @vqadd.s16 q11,q13,q12 221 @vsubl.u8 q12,d31,d28 224 @vshr.s16 q12,q12,#1 227 @vqadd.s16 q11,q13,q12 287 vsubl.u8 q12,d30,d28 290 vshr.s16 q12,q1 [all...] |
H A D | ihevc_intra_pred_luma_horz.s | 202 vsubl.u8 q12,d30,d28 205 vshr.s16 q12,q12,#1 208 vqadd.s16 q11,q13,q12 216 vsubl.u8 q12,d31,d28 219 vshr.s16 q12,q12,#1 222 vqadd.s16 q11,q13,q12 280 vsubl.u8 q12,d30,d28 283 vshr.s16 q12,q1 [all...] |
H A D | ihevc_inter_pred_chroma_vert_w16inp.s | 217 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 219 vmlal.s16 q12,d4,d13 221 vmlal.s16 q12,d5,d14 223 vmlal.s16 q12,d6,d15 240 vqshrn.s32 d24,q12,#6 @right shift 253 vqrshrun.s16 d24,q12,#6 @rounding shift 269 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 272 vmlal.s16 q12,d4,d13 274 vmlal.s16 q12,d5,d14 277 vmlal.s16 q12,d [all...] |
H A D | ihevc_itrans_recon_16x16.s | 242 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0) 247 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0) 269 vmlal.s16 q12,d8,d1[1] 275 vmlal.s16 q12,d9,d1[3] 317 vmlal.s16 q12,d6,d2[1] @// y1 * cos1(part of b0) 322 vmlal.s16 q12,d7,d2[3] @// y1 * cos1 + y3 * cos3(part of b0) 329 vmlal.s16 q12,d8,d3[1] 335 vmlal.s16 q12,d9,d3[3] 370 vadd.s32 q10,q6,q12 371 vsub.s32 q11,q6,q12 [all...] |
H A D | ihevc_inter_pred_chroma_vert.s | 260 vmull.u8 q12,d8,d1 262 vmlsl.u8 q12,d7,d0 265 vmlal.u8 q12,d9,d2 267 vmlsl.u8 q12,d10,d3 287 vqrshrun.s16 d24,q12,#6 322 vmull.u8 q12,d8,d1 329 vmlsl.u8 q12,d7,d0 332 vmlal.u8 q12,d9,d2 335 vmlsl.u8 q12,d10,d3 348 vqrshrun.s16 d24,q12,# [all...] |
H A D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 215 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 217 vmlal.s16 q12,d4,d13 219 vmlal.s16 q12,d5,d14 221 vmlal.s16 q12,d6,d15 237 vqshrn.s32 d24,q12,#6 @right shift 263 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0) 265 vmlal.s16 q12,d4,d13 268 vmlal.s16 q12,d5,d14 271 vmlal.s16 q12,d6,d15 287 vqshrn.s32 d24,q12,# [all...] |
H A D | ihevc_inter_pred_chroma_vert_w16out.s | 258 vmull.u8 q12,d8,d1 260 vmlsl.u8 q12,d7,d0 263 vmlal.u8 q12,d9,d2 265 vmlsl.u8 q12,d10,d3 289 vst1.8 {q12},[r7],r3 @stores the loaded value 311 vmull.u8 q12,d8,d1 318 vmlsl.u8 q12,d7,d0 322 vmlal.u8 q12,d9,d2 325 vmlsl.u8 q12,d10,d3 343 vst1.8 {q12},[r [all...] |
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
H A D | shortfdct_neon.asm | 46 vld1.32 {q11,q12}, [r12@128] ; q11=12000, q12=51000 90 vmlal.s16 q12, d7, d17 ; d1*2217 + 51000 98 vmlsl.s16 q12, d6, d16 ; d1*2217 - c1*5352 + 51000 103 vshrn.s32 d3, q12, #16 ; op[12]= (d1*2217 - c1*5352 + 51000)>>16 131 vadd.s16 q12, q1, q2 ; b1 = ip[1] + ip[2] 136 vshl.s16 q12, q12, #3 ; b1 << 3 140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b1 141 vsub.s16 q2, q11, q12 ; [A [all...] |
H A D | fastquantizeb_neon.asm | 59 vshr.s16 q12, q0, #15 ; sz2 87 veor.s16 q10, q12 ; y2^sz2 93 vsub.s16 q10, q12 ; x2=(y^sz)-sz = (y^sz)-(-1) (2's complement) 107 vmul.s16 q12, q6, q10 ; x2 * Dequant 122 vst1.s16 {q12, q13}, [r7] ; store dqcoeff = x * Dequant 170 vabs.s16 q12, q0 ; calculate x = abs(z) 181 vadd.s16 q12, q14 ; x + Round 186 vqdmulh.s16 q12, q8 ; y = ((Round+abs(z)) * Quant) >> 16 195 vshr.s16 q12, #1 ; right shift 1 after vqdmulh 205 veor.s16 q12, q [all...] |
/external/openssl/crypto/modes/asm/ |
H A D | ghashv8-armx.S | 36 vld1.64 {q12},[r1] @ load twisted H 41 vext.8 q13,q12,q12,#8 45 veor q13,q13,q12 @ Karatsuba pre-processing 58 vld1.64 {q12},[r1] @ load twisted H 63 vext.8 q13,q12,q12,#8 68 veor q13,q13,q12 @ Karatsuba pre-processing 79 .byte 0x86,0x0e,0xa8,0xf2 @ pmull q0,q12,q3 @ H.lo·Xi.lo 81 .byte 0x87,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q [all...] |
/external/pixman/pixman/ |
H A D | pixman-android-neon.S | 142 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS) 143 vadd.u16 q12, q12, q13 160 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS) 168 vadd.u16 q12, q12, q13 173 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS) 176 vadd.u16 q12, q12, q13 248 vdup.u16 q12, [all...] |
H A D | pixman-arm-neon-asm.S | 168 vmull.u8 q12, d3, d30 171 vrshr.u16 q15, q12, #8 174 vraddhn.u16 d22, q12, q15 274 vmull.u8 q12, d3, d30 282 vrshr.u16 q15, q12, #8 289 vraddhn.u16 d22, q12, q15 366 vmull.u8 q12, d3, d30 369 vrshr.u16 q15, q12, #8 372 vraddhn.u16 d22, q12, q15 595 vrshr.u16 q12, q1 [all...] |
/external/chromium_org/third_party/webrtc/common_audio/signal_processing/ |
H A D | min_max_operations_neon.S | 39 vmov.i16 q12, #0 46 vmax.u16 q12, q13 @ Use u16 so we don't lose the value -32768. 84 vmov.i32 q12, #0 96 vmax.u32 q12, q14 100 vmax.u32 q12, q11 132 vmov.i16 q12, #0x8000 141 vmax.s16 q12, q13 172 vmov.i32 q12, #0x80000000 182 vmax.s32 q12, q14 186 vmax.s32 q12, q1 [all...] |
/external/openssl/crypto/sha/asm/ |
H A D | sha1-armv4-large.S | 509 vext.8 q12,q3,q15,#4 516 veor q12,q12,q2 519 veor q12,q12,q8 526 vext.8 q13,q15,q12,#4 529 vadd.i32 q8,q12,q12 532 vsri.32 q8,q12,#31 536 vshr.u32 q12,q1 [all...] |
/external/chromium_org/third_party/boringssl/linux-arm/crypto/aes/ |
H A D | bsaes-armv7.S | 92 veor q12, q2, q9 96 vtbl.8 d4, {q12}, d16 97 vtbl.8 d5, {q12}, d17 240 veor q12, q5, q2 244 vand q14, q11, q12 245 vorr q11, q11, q12 246 veor q12, q12, q9 249 vand q15, q15, q12 252 veor q12, q [all...] |
/external/openssl/crypto/aes/asm/ |
H A D | bsaes-armv7.S | 91 veor q12, q2, q9 95 vtbl.8 d4, {q12}, d16 96 vtbl.8 d5, {q12}, d17 239 veor q12, q5, q2 243 vand q14, q11, q12 244 vorr q11, q11, q12 245 veor q12, q12, q9 248 vand q15, q15, q12 251 veor q12, q [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/encoder/arm/neon/ |
H A D | fastquantizeb_neon.asm | 59 vshr.s16 q12, q0, #15 ; sz2 87 veor.s16 q10, q12 ; y2^sz2 93 vsub.s16 q10, q12 ; x2=(y^sz)-sz = (y^sz)-(-1) (2's complement) 107 vmul.s16 q12, q6, q10 ; x2 * Dequant 122 vst1.s16 {q12, q13}, [r7] ; store dqcoeff = x * Dequant 170 vabs.s16 q12, q0 ; calculate x = abs(z) 181 vadd.s16 q12, q14 ; x + Round 186 vqdmulh.s16 q12, q8 ; y = ((Round+abs(z)) * Quant) >> 16 195 vshr.s16 q12, #1 ; right shift 1 after vqdmulh 205 veor.s16 q12, q [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
H A D | vp9_idct16x16_add_neon.asm | 30 vtrn.32 q12, q14 34 vtrn.16 q12, q13 56 vld2.s16 {q11,q12}, [r0]! 57 vld2.s16 {q12,q13}, [r0]! 167 vadd.s32 q12, q11, q1 175 vqrshrn.s32 d17, q12, #14 ; >> 14 187 vmull.s16 q12, d20, d30 195 vmlsl.s16 q12, d28, d31 203 vqrshrn.s32 d20, q12, #14 ; >> 14 225 vmull.s16 q12, d2 [all...] |
H A D | vp9_idct32x32_1_add_neon.asm | 25 vld1.8 {q12}, [$src], $stride 37 vqadd.u8 q12, q12, $diff 49 vqsub.u8 q12, q12, $diff 61 vst1.8 {q12},[$dst], $stride
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
H A D | vp9_idct16x16_add_neon.asm | 30 vtrn.32 q12, q14 34 vtrn.16 q12, q13 56 vld2.s16 {q11,q12}, [r0]! 57 vld2.s16 {q12,q13}, [r0]! 167 vadd.s32 q12, q11, q1 175 vqrshrn.s32 d17, q12, #14 ; >> 14 187 vmull.s16 q12, d20, d30 195 vmlsl.s16 q12, d28, d31 203 vqrshrn.s32 d20, q12, #14 ; >> 14 225 vmull.s16 q12, d2 [all...] |
H A D | vp9_idct32x32_1_add_neon.asm | 25 vld1.8 {q12}, [$src], $stride 37 vqadd.u8 q12, q12, $diff 49 vqsub.u8 q12, q12, $diff 61 vst1.8 {q12},[$dst], $stride
|
/external/llvm/test/MC/ARM/ |
H A D | neon-cmp-encoding.s | 116 vclt.s8 q12, q13, q3 117 vclt.s16 q12, q13, q3 118 vclt.s32 q12, q13, q3 119 vclt.u8 q12, q13, q3 120 vclt.u16 q12, q13, q3 121 vclt.u32 q12, q13, q3 122 vclt.f32 q12, q13, q3 132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2] 133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2] 134 @ CHECK: vcgt.s32 q12, q [all...] |