/external/llvm/test/MC/ARM/ |
H A D | neon-shuffle-encoding.s | 95 vtrn.8 q14, q6 96 vtrn.i8 q14, q6 97 vtrn.u8 q14, q6 98 vtrn.p8 q14, q6 99 vtrn.16 q14, q6 100 vtrn.i16 q14, q6 101 vtrn.u16 q14, q6 102 vtrn.p16 q14, q6 103 vtrn.32 q14, q6 104 vtrn.i32 q14, q6 [all...] |
H A D | neon-shiftaccum-encoding.s | 8 vsra.s16 q3, q6, #16 17 vsra.u32 q3, q6, #21 26 vsra.s16 q6, #16 35 vsra.u32 q6, #21 43 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x5c,0x61,0x90,0xf2] 52 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0x5c,0x61,0xab,0xf3] 60 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x5c,0xc1,0x90,0xf2] 69 @ CHECK: vsra.u32 q6, q6, #2 [all...] |
H A D | neont2-shiftaccum-encoding.s | 10 vsra.s16 q3, q6, #16 19 vsra.u32 q3, q6, #21 28 vsra.s16 q6, #16 37 vsra.u32 q6, #21 45 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x90,0xef,0x5c,0x61] 54 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0xab,0xff,0x5c,0x61] 62 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x90,0xef,0x5c,0xc1] 71 @ CHECK: vsra.u32 q6, q6, #2 [all...] |
H A D | neon-minmax-encoding.s | 20 vmax.s16 q4, q5, q6 24 vmax.u32 q6, q7, q8 28 vmax.s16 q5, q6 50 @ CHECK: vmax.s16 q4, q5, q6 @ encoding: [0x4c,0x86,0x1a,0xf2] 54 @ CHECK: vmax.u32 q6, q7, q8 @ encoding: [0x60,0xc6,0x2e,0xf3] 57 @ CHECK: vmax.s16 q5, q5, q6 @ encoding: [0x4c,0xa6,0x1a,0xf2] 82 vmin.s16 q4, q5, q6 86 vmin.u32 q6, q7, q8 90 vmin.s16 q5, q6 112 @ CHECK: vmin.s16 q4, q5, q6 [all...] |
H A D | neont2-minmax-encoding.s | 22 vmax.s16 q4, q5, q6 26 vmax.u32 q6, q7, q8 30 vmax.s16 q5, q6 52 @ CHECK: vmax.s16 q4, q5, q6 @ encoding: [0x1a,0xef,0x4c,0x86] 56 @ CHECK: vmax.u32 q6, q7, q8 @ encoding: [0x2e,0xff,0x60,0xc6] 59 @ CHECK: vmax.s16 q5, q5, q6 @ encoding: [0x1a,0xef,0x4c,0xa6] 84 vmin.s16 q4, q5, q6 88 vmin.u32 q6, q7, q8 92 vmin.s16 q5, q6 114 @ CHECK: vmin.s16 q4, q5, q6 [all...] |
/external/chromium_org/third_party/boringssl/linux-arm/crypto/aes/ |
H A D | bsaes-armv7.S | 104 veor q10, q6, q9 114 vshr.u64 q10, q6, #1 124 veor q6, q6, q10 142 veor q11, q11, q6 147 veor q6, q6, q11 166 veor q11, q11, q6 171 veor q6, q6, q1 [all...] |
/external/openssl/crypto/aes/asm/ |
H A D | bsaes-armv7.S | 103 veor q10, q6, q9 113 vshr.u64 q10, q6, #1 123 veor q6, q6, q10 141 veor q11, q11, q6 146 veor q6, q6, q11 165 veor q11, q11, q6 170 veor q6, q6, q1 [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/ |
H A D | idct_dequant_full_2x_neon.c | 24 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; local 89 q6 = vqdmulhq_n_s16(q4, sinpi8sqrt2); 103 q2 = vqsubq_s16(q6, q5); 108 q6 = vqsubq_s16(q11, q2); 111 q2tmp0 = vtrnq_s32(vreinterpretq_s32_s16(q4), vreinterpretq_s32_s16(q6)); 138 q6 = vqsubq_s16(q3, q8); 143 q6 = vrshrq_n_s16(q6, 3); 146 q2tmp0 = vtrnq_s32(vreinterpretq_s32_s16(q4), vreinterpretq_s32_s16(q6)); 157 q6 [all...] |
H A D | mbloopfilter_neon.c | 21 uint8x16_t q6, // p0 41 q13u8 = vabdq_u8(q5, q6); 51 q12u8 = vabdq_u8(q6, q7); 69 q6 = veorq_u8(q6, q0u8); 80 vget_low_s8(vreinterpretq_s8_u8(q6))); 82 vget_high_s8(vreinterpretq_s8_u8(q6))); 111 q6s8 = vqaddq_s8(vreinterpretq_s8_u8(q6), q13s8); 162 uint8x16_t q5, q6, q7, q8, q9, q10; local 176 q6 14 vp8_mbloop_filter_neon( uint8x16_t qblimit, uint8x16_t qlimit, uint8x16_t qthresh, uint8x16_t q3, uint8x16_t q4, uint8x16_t q5, uint8x16_t q6, uint8x16_t q7, uint8x16_t q8, uint8x16_t q9, uint8x16_t q10, uint8x16_t *q4r, uint8x16_t *q5r, uint8x16_t *q6r, uint8x16_t *q7r, uint8x16_t *q8r, uint8x16_t *q9r) argument 213 uint8x16_t q5, q6, q7, q8, q9, q10; local 303 uint8x16_t q5, q6, q7, q8, q9, q10; local 470 uint8x16_t q5, q6, q7, q8, q9, q10; local [all...] |
H A D | loopfilter_neon.c | 21 uint8x16_t q6, // p0 38 q13u8 = vabdq_u8(q5, q6); 48 q9 = vabdq_u8(q6, q7); 65 q6 = veorq_u8(q6, q10); 74 vget_low_s8(vreinterpretq_s8_u8(q6))); 76 vget_high_s8(vreinterpretq_s8_u8(q6))); 109 q11s8 = vqaddq_s8(vreinterpretq_s8_u8(q6), q2s8); 133 uint8x16_t q5, q6, q7, q8, q9, q10; local 146 q6 14 vp8_loop_filter_neon( uint8x16_t qblimit, uint8x16_t qlimit, uint8x16_t qthresh, uint8x16_t q3, uint8x16_t q4, uint8x16_t q5, uint8x16_t q6, uint8x16_t q7, uint8x16_t q8, uint8x16_t q9, uint8x16_t q10, uint8x16_t *q5r, uint8x16_t *q6r, uint8x16_t *q7r, uint8x16_t *q8r) argument 179 uint8x16_t q5, q6, q7, q8, q9, q10; local 311 uint8x16_t q5, q6, q7, q8, q9, q10; local 426 uint8x16_t q5, q6, q7, q8, q9, q10; local [all...] |
/external/libhevc/common/arm/ |
H A D | ihevc_intra_pred_chroma_planar.s | 180 vmull.u8 q6, d5, d0 @(row+1) * src[nt-1] 182 vmlal.u8 q6, d6, d10 @(nt-1-row) * src[2nt+1+col] 184 vmlal.u8 q6, d8, d1 @(col+1) * src[3nt+1] 186 vmlal.u8 q6, d30, d4 @(nt-1-col) * src[2nt-1-row] 202 vadd.i16 q6, q6, q8 @add (nt) 204 vshl.s16 q6, q6, q7 @shr 219 vmovn.i16 d12, q6 247 vmull.u8 q6, d1 [all...] |
H A D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 190 vmull.s16 q6,d3,d23 192 vmlal.s16 q6,d2,d22 194 vmlal.s16 q6,d4,d24 195 vmlal.s16 q6,d5,d25 196 vmlal.s16 q6,d6,d26 197 vmlal.s16 q6,d7,d27 198 vmlal.s16 q6,d16,d28 199 vmlal.s16 q6,d17,d29 220 vsub.s32 q6, q6, q1 [all...] |
H A D | ihevc_itrans_recon_4x4.s | 159 vsubl.s16 q6,d0,d2 @pi2_src[0] - pi2_src[2] 161 vshl.s32 q6,q6,#6 @e[1] = 64*(pi2_src[0] - pi2_src[2]) 164 vadd.s32 q8,q6,q4 @((e[1] + o[1]) 165 vsub.s32 q9,q6,q4 @((e[1] - o[1]) 189 vsubl.s16 q6,d0,d2 @pi2_src[0] - pi2_src[2] 191 vshl.s32 q6,q6,#6 @e[1] = 64*(pi2_src[0] - pi2_src[2]) 195 vadd.s32 q8,q6,q4 @((e[1] + o[1]) 196 vsub.s32 q9,q6,q [all...] |
H A D | ihevc_itrans_recon_4x4_ttype1.s | 157 vmull.s16 q6,d2,d4[1] @ 55 * pi2_src[2] 158 vmlsl.s16 q6,d1,d4[2] @ 55 * pi2_src[2] - 74 * pi2_src[1] 159 vmlsl.s16 q6,d3,d4[0] @ - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3] 160 vmlal.s16 q6,d0,d4[3] @pi2_out[3] = 84 * pi2_src[0] - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3] 165 vqrshrn.s32 d17,q6,#shift_stage1_idct @ (pi2_out[3] + rounding ) >> shift_stage1_idct 197 vmull.s16 q6,d16,d4[1] @ 55 * pi2_src[2] 198 vmlsl.s16 q6,d15,d4[2] @ - 74 * pi2_src[1] + 55 * pi2_src[2] 199 vmlsl.s16 q6,d17,d4[0] @ - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3] 200 vmlal.s16 q6,d14,d4[3] @pi2_out[3] = 84 * pi2_src[0] - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3] 205 vqrshrn.s32 d3,q6,#shift_stage2_idc [all...] |
H A D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 180 vmull.s16 q6,d3,d23 182 vmlal.s16 q6,d2,d22 184 vmlal.s16 q6,d4,d24 185 vmlal.s16 q6,d5,d25 186 vmlal.s16 q6,d6,d26 187 vmlal.s16 q6,d7,d27 188 vmlal.s16 q6,d16,d28 189 vmlal.s16 q6,d17,d29 209 vqshrn.s32 d12, q6, #6 233 vqrshrun.s16 d12,q6,# [all...] |
H A D | ihevc_intra_pred_luma_planar.s | 183 vdup.16 q6, r4 @(1) 188 vmlal.u8 q6, d5, d0 @(1)(row+1) * src[nt-1] 191 vmlal.u8 q6, d8, d1 @(1)(col+1) * src[3nt+1] 194 vmlal.u8 q6, d6, d3 @(1)(nt-1-row) * src[2nt+1+col] 197 vmlal.u8 q6, d9, d20 @(1)(nt-1-col) * src[2nt-1-row] 213 vshl.s16 q6, q6, q7 @(1)shr 218 vmovn.i16 d12, q6 @(1) 332 vdup.16 q6, r4 @(1n)(1) 350 vmlal.u8 q6, d [all...] |
H A D | ihevc_itrans_recon_8x8.s | 296 vmov.s16 q6,#0 375 vadd.s32 q6,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 383 vadd.s32 q8,q6,q4 @// a0 = c0 + d0(part of e0,e7) 384 vsub.s32 q6,q6,q4 @// a3 = c0 - d0(part of e3,e4) 397 vadd.s32 q13,q6,q15 @// a3 + b3(part of e3) 398 vsub.s32 q15,q6,q15 @// a3 - b3(part of r4) 535 vadd.s32 q6,q10,q7 @// a0 = c0 + d0(part of r0,r7) 538 vadd.s32 q0,q6,q12 541 vsub.s32 q12,q6,q1 [all...] |
H A D | ihevc_weighted_pred_uni.s | 178 vmull.s16 q6,d9,d0[0] @vmull_n_s16(pi2_src_val2, (int16_t) wgt0) iv iteration 184 vadd.i32 q6,q6,q15 @vaddq_s32(i4_tmp2_t, tmp_lvl_shift_t) iv iteration 189 vshl.s32 q6,q6,q14 @vshlq_s32(i4_tmp2_t, tmp_shift_t) iv iteration 197 vqmovun.s32 d12,q6 @vqmovun_s32(sto_res_tmp1) iv iteration 201 vqmovn.u16 d12,q6 @vqmovn_u16(sto_res_tmp3) iv iteration
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
H A D | sixtappredict4x4_neon.asm | 66 vld1.u8 {q6}, [r0], r1 88 vmov q4, q3 ;keep original src data in q4 q6 89 vmov q6, q5 94 vshr.u64 q10, q6, #8 101 vshr.u64 q5, q6, #32 108 vshr.u64 q10, q6, #16 115 vshr.u64 q5, q6, #24 131 vld1.u8 {q6}, [r0], r1 154 vmov q4, q3 ;keep original src data in q4 q6 155 vmov q6, q [all...] |
H A D | idct_dequant_full_2x_neon.asm | 57 ; q6: 4 * sinpi : c1/temp1 61 vqdmulh.s16 q6, q4, d0[2] ; sinpi8sqrt2 87 vqsub.s16 q2, q6, q5 96 vqsub.s16 q6, q11, q2 100 vtrn.32 q4, q6 103 vtrn.16 q6, q7 107 ; q6: l 2, 6,10,14 r 2, 6,10,14 119 vqadd.s16 q2, q4, q6 ; a1 = 0 + 2 120 vqsub.s16 q3, q4, q6 ; b1 = 0 - 2 142 vqsub.s16 q6, q [all...] |
H A D | vp8_subpixelvariance8x8_neon.asm | 49 vmull.u8 q6, d2, d0 ;(src_ptr[0] * Filter[0]) 59 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * Filter[1]) 65 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8 76 vmull.u8 q6, d2, d0 ;(src_ptr[0] * Filter[0]) 88 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * Filter[1]) 94 vqrshrn.u16 d26, q6, #7 ;shift/round/saturate to u8 118 vmull.u8 q6, d27, d0 127 vmlal.u8 q6, d28, d1 136 vqrshrn.u16 d27, q6, #7 174 vsubl.u8 q6, d2 [all...] |
H A D | sixtappredict16x16_neon.asm | 170 vmull.u8 q6, d30, d3 174 vqadd.s16 q12, q6 176 vmull.u8 q6, d15, d3 ;(src_ptr[1] * vp8_filter[3]) 182 vqadd.s16 q9, q6 203 vld1.s32 {q5, q6}, [r3] ;load second_pass filter 207 vabs.s32 q8, q6 235 vmull.u8 q6, d21, d0 240 vmlsl.u8 q6, d22, d1 245 vmlsl.u8 q6, d25, d4 250 vmlal.u8 q6, d2 [all...] |
/external/chromium_org/third_party/libjpeg_turbo/simd/ |
H A D | jsimd_arm_neon.S | 106 INT32 q1, q2, q3, q4, q5, q6, q7; \ 121 q6 = MULTIPLY(q5, FIX_1_175875602_MINUS_1_961570560) + \ define 127 q4 = q6; \ 129 q6 += MULTIPLY(row5, -FIX_2_562915447) + \ 136 q1 = q1 + q6; \ 144 q1 = q1 - q6; \ 147 q1 = q1 - q6; \ 148 q6 = MULTIPLY(row2, FIX_0_541196100_PLUS_0_765366865) + \ define 156 q2 = q1 + q6; \ 157 q1 = q1 - q6; \ [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
H A D | vp9_idct32x32_add_neon.asm | 103 ; q6-q9 contain the results (out[j * 32 + 0-31]) 115 vrshr.s16 q6, q6, #6 120 vaddw.u8 q6, q6, d8 125 vqmovun.s16 d8, q6 137 ; q6-q9 contain the results (out[j * 32 + 0-31]) 149 vrshr.s16 q6, q6, #6 154 vaddw.u8 q6, q [all...] |
/external/libvpx/libvpx/vp9/common/arm/neon/ |
H A D | vp9_idct32x32_add_neon.asm | 103 ; q6-q9 contain the results (out[j * 32 + 0-31]) 115 vrshr.s16 q6, q6, #6 120 vaddw.u8 q6, q6, d8 125 vqmovun.s16 d8, q6 137 ; q6-q9 contain the results (out[j * 32 + 0-31]) 149 vrshr.s16 q6, q6, #6 154 vaddw.u8 q6, q [all...] |