/external/libavc/encoder/arm/ |
H A D | ih264e_evaluate_intra4x4_modes_a9q.s | 238 vaddl.u8 q6, d0, d2 243 vqrshrun.s16 d10, q6, #1 245 vadd.u16 q11, q6, q8 258 vext.8 q15, q6, q6, #5 260 vext.8 q15, q6, q6, #15 262 vext.8 q15, q6, q6, #2 265 vext.8 q15, q6, q [all...] |
/external/llvm/test/MC/ARM/ |
H A D | neon-shuffle-encoding.s | 95 vtrn.8 q14, q6 96 vtrn.i8 q14, q6 97 vtrn.u8 q14, q6 98 vtrn.p8 q14, q6 99 vtrn.16 q14, q6 100 vtrn.i16 q14, q6 101 vtrn.u16 q14, q6 102 vtrn.p16 q14, q6 103 vtrn.32 q14, q6 104 vtrn.i32 q14, q6 [all...] |
H A D | neon-shiftaccum-encoding.s | 8 vsra.s16 q3, q6, #16 17 vsra.u32 q3, q6, #21 26 vsra.s16 q6, #16 35 vsra.u32 q6, #21 43 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x5c,0x61,0x90,0xf2] 52 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0x5c,0x61,0xab,0xf3] 60 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x5c,0xc1,0x90,0xf2] 69 @ CHECK: vsra.u32 q6, q6, #2 [all...] |
H A D | neont2-shiftaccum-encoding.s | 10 vsra.s16 q3, q6, #16 19 vsra.u32 q3, q6, #21 28 vsra.s16 q6, #16 37 vsra.u32 q6, #21 45 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x90,0xef,0x5c,0x61] 54 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0xab,0xff,0x5c,0x61] 62 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x90,0xef,0x5c,0xc1] 71 @ CHECK: vsra.u32 q6, q6, #2 [all...] |
H A D | neon-minmax-encoding.s | 20 vmax.s16 q4, q5, q6 24 vmax.u32 q6, q7, q8 28 vmax.s16 q5, q6 50 @ CHECK: vmax.s16 q4, q5, q6 @ encoding: [0x4c,0x86,0x1a,0xf2] 54 @ CHECK: vmax.u32 q6, q7, q8 @ encoding: [0x60,0xc6,0x2e,0xf3] 57 @ CHECK: vmax.s16 q5, q5, q6 @ encoding: [0x4c,0xa6,0x1a,0xf2] 82 vmin.s16 q4, q5, q6 86 vmin.u32 q6, q7, q8 90 vmin.s16 q5, q6 112 @ CHECK: vmin.s16 q4, q5, q6 [all...] |
H A D | neont2-minmax-encoding.s | 22 vmax.s16 q4, q5, q6 26 vmax.u32 q6, q7, q8 30 vmax.s16 q5, q6 52 @ CHECK: vmax.s16 q4, q5, q6 @ encoding: [0x1a,0xef,0x4c,0x86] 56 @ CHECK: vmax.u32 q6, q7, q8 @ encoding: [0x2e,0xff,0x60,0xc6] 59 @ CHECK: vmax.s16 q5, q5, q6 @ encoding: [0x1a,0xef,0x4c,0xa6] 84 vmin.s16 q4, q5, q6 88 vmin.u32 q6, q7, q8 92 vmin.s16 q5, q6 114 @ CHECK: vmin.s16 q4, q5, q6 [all...] |
/external/boringssl/linux-arm/crypto/aes/ |
H A D | bsaes-armv7.S | 110 veor q10, q6, q9 120 vshr.u64 q10, q6, #1 130 veor q6, q6, q10 148 veor q11, q11, q6 153 veor q6, q6, q11 172 veor q11, q11, q6 177 veor q6, q6, q1 [all...] |
/external/libvpx/libvpx/vp8/common/arm/neon/ |
H A D | idct_dequant_full_2x_neon.c | 24 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; local 89 q6 = vqdmulhq_n_s16(q4, sinpi8sqrt2); 103 q2 = vqsubq_s16(q6, q5); 108 q6 = vqsubq_s16(q11, q2); 111 q2tmp0 = vtrnq_s32(vreinterpretq_s32_s16(q4), vreinterpretq_s32_s16(q6)); 138 q6 = vqsubq_s16(q3, q8); 143 q6 = vrshrq_n_s16(q6, 3); 146 q2tmp0 = vtrnq_s32(vreinterpretq_s32_s16(q4), vreinterpretq_s32_s16(q6)); 157 q6 [all...] |
H A D | mbloopfilter_neon.c | 21 uint8x16_t q6, // p0 41 q13u8 = vabdq_u8(q5, q6); 51 q12u8 = vabdq_u8(q6, q7); 69 q6 = veorq_u8(q6, q0u8); 80 vget_low_s8(vreinterpretq_s8_u8(q6))); 82 vget_high_s8(vreinterpretq_s8_u8(q6))); 111 q6s8 = vqaddq_s8(vreinterpretq_s8_u8(q6), q13s8); 162 uint8x16_t q5, q6, q7, q8, q9, q10; local 176 q6 14 vp8_mbloop_filter_neon( uint8x16_t qblimit, uint8x16_t qlimit, uint8x16_t qthresh, uint8x16_t q3, uint8x16_t q4, uint8x16_t q5, uint8x16_t q6, uint8x16_t q7, uint8x16_t q8, uint8x16_t q9, uint8x16_t q10, uint8x16_t *q4r, uint8x16_t *q5r, uint8x16_t *q6r, uint8x16_t *q7r, uint8x16_t *q8r, uint8x16_t *q9r) argument 213 uint8x16_t q5, q6, q7, q8, q9, q10; local 303 uint8x16_t q5, q6, q7, q8, q9, q10; local 470 uint8x16_t q5, q6, q7, q8, q9, q10; local [all...] |
H A D | vp8_loopfilter_neon.c | 22 uint8x16_t q6, // p0 39 q13u8 = vabdq_u8(q5, q6); 49 q9 = vabdq_u8(q6, q7); 66 q6 = veorq_u8(q6, q10); 75 vget_low_s8(vreinterpretq_s8_u8(q6))); 77 vget_high_s8(vreinterpretq_s8_u8(q6))); 110 q11s8 = vqaddq_s8(vreinterpretq_s8_u8(q6), q2s8); 134 uint8x16_t q5, q6, q7, q8, q9, q10; local 147 q6 15 vp8_loop_filter_neon( uint8x16_t qblimit, uint8x16_t qlimit, uint8x16_t qthresh, uint8x16_t q3, uint8x16_t q4, uint8x16_t q5, uint8x16_t q6, uint8x16_t q7, uint8x16_t q8, uint8x16_t q9, uint8x16_t q10, uint8x16_t *q5r, uint8x16_t *q6r, uint8x16_t *q7r, uint8x16_t *q8r) argument 180 uint8x16_t q5, q6, q7, q8, q9, q10; local 331 uint8x16_t q5, q6, q7, q8, q9, q10; local 446 uint8x16_t q5, q6, q7, q8, q9, q10; local [all...] |
/external/libhevc/common/arm/ |
H A D | ihevc_intra_pred_chroma_planar.s | 180 vmull.u8 q6, d5, d0 @(row+1) * src[nt-1] 182 vmlal.u8 q6, d6, d10 @(nt-1-row) * src[2nt+1+col] 184 vmlal.u8 q6, d8, d1 @(col+1) * src[3nt+1] 186 vmlal.u8 q6, d30, d4 @(nt-1-col) * src[2nt-1-row] 202 vadd.i16 q6, q6, q8 @add (nt) 204 vshl.s16 q6, q6, q7 @shr 219 vmovn.i16 d12, q6 247 vmull.u8 q6, d1 [all...] |
H A D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 190 vmull.s16 q6,d3,d23 192 vmlal.s16 q6,d2,d22 194 vmlal.s16 q6,d4,d24 195 vmlal.s16 q6,d5,d25 196 vmlal.s16 q6,d6,d26 197 vmlal.s16 q6,d7,d27 198 vmlal.s16 q6,d16,d28 199 vmlal.s16 q6,d17,d29 220 vsub.s32 q6, q6, q1 [all...] |
H A D | ihevc_itrans_recon_4x4.s | 159 vsubl.s16 q6,d0,d2 @pi2_src[0] - pi2_src[2] 161 vshl.s32 q6,q6,#6 @e[1] = 64*(pi2_src[0] - pi2_src[2]) 164 vadd.s32 q8,q6,q4 @((e[1] + o[1]) 165 vsub.s32 q9,q6,q4 @((e[1] - o[1]) 189 vsubl.s16 q6,d0,d2 @pi2_src[0] - pi2_src[2] 191 vshl.s32 q6,q6,#6 @e[1] = 64*(pi2_src[0] - pi2_src[2]) 195 vadd.s32 q8,q6,q4 @((e[1] + o[1]) 196 vsub.s32 q9,q6,q [all...] |
H A D | ihevc_itrans_recon_4x4_ttype1.s | 157 vmull.s16 q6,d2,d4[1] @ 55 * pi2_src[2] 158 vmlsl.s16 q6,d1,d4[2] @ 55 * pi2_src[2] - 74 * pi2_src[1] 159 vmlsl.s16 q6,d3,d4[0] @ - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3] 160 vmlal.s16 q6,d0,d4[3] @pi2_out[3] = 84 * pi2_src[0] - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3] 165 vqrshrn.s32 d17,q6,#shift_stage1_idct @ (pi2_out[3] + rounding ) >> shift_stage1_idct 197 vmull.s16 q6,d16,d4[1] @ 55 * pi2_src[2] 198 vmlsl.s16 q6,d15,d4[2] @ - 74 * pi2_src[1] + 55 * pi2_src[2] 199 vmlsl.s16 q6,d17,d4[0] @ - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3] 200 vmlal.s16 q6,d14,d4[3] @pi2_out[3] = 84 * pi2_src[0] - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3] 205 vqrshrn.s32 d3,q6,#shift_stage2_idc [all...] |
H A D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 180 vmull.s16 q6,d3,d23 182 vmlal.s16 q6,d2,d22 184 vmlal.s16 q6,d4,d24 185 vmlal.s16 q6,d5,d25 186 vmlal.s16 q6,d6,d26 187 vmlal.s16 q6,d7,d27 188 vmlal.s16 q6,d16,d28 189 vmlal.s16 q6,d17,d29 209 vqshrn.s32 d12, q6, #6 233 vqrshrun.s16 d12,q6,# [all...] |
H A D | ihevc_intra_pred_luma_planar.s | 183 vdup.16 q6, r4 @(1) 188 vmlal.u8 q6, d5, d0 @(1)(row+1) * src[nt-1] 191 vmlal.u8 q6, d8, d1 @(1)(col+1) * src[3nt+1] 194 vmlal.u8 q6, d6, d3 @(1)(nt-1-row) * src[2nt+1+col] 197 vmlal.u8 q6, d9, d20 @(1)(nt-1-col) * src[2nt-1-row] 213 vshl.s16 q6, q6, q7 @(1)shr 218 vmovn.i16 d12, q6 @(1) 332 vdup.16 q6, r4 @(1n)(1) 350 vmlal.u8 q6, d [all...] |
H A D | ihevc_itrans_recon_8x8.s | 296 vmov.s16 q6,#0 375 vadd.s32 q6,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 383 vadd.s32 q8,q6,q4 @// a0 = c0 + d0(part of e0,e7) 384 vsub.s32 q6,q6,q4 @// a3 = c0 - d0(part of e3,e4) 397 vadd.s32 q13,q6,q15 @// a3 + b3(part of e3) 398 vsub.s32 q15,q6,q15 @// a3 - b3(part of r4) 535 vadd.s32 q6,q10,q7 @// a0 = c0 + d0(part of r0,r7) 538 vadd.s32 q0,q6,q12 541 vsub.s32 q12,q6,q1 [all...] |
/external/libavc/common/arm/ |
H A D | ih264_inter_pred_filters_luma_vert_a9q.s | 126 vaddl.u8 q6, d4, d6 @ temp1 = src[2_0] + src[3_0] 131 vmla.u16 q7, q6, q11 @ temp += temp1 * 20 137 vaddl.u8 q6, d6, d8 141 vmla.u16 q8, q6, q11 144 vaddl.u8 q6, d7, d9 148 vmla.u16 q7, q6, q11 152 vaddl.u8 q6, d8, d10 155 vmla.u16 q9, q6, q11 159 vaddl.u8 q6, d9, d11 162 vmla.u16 q8, q6, q1 [all...] |
H A D | ih264_inter_pred_chroma_a9q.s | 156 vmull.u8 q6, d6, d30 157 vmlal.u8 q6, d1, d28 158 vmlal.u8 q6, d9, d31 159 vmlal.u8 q6, d4, d29 168 vqrshrun.s16 d15, q6, #6 181 vmull.u8 q6, d6, d30 182 vmlal.u8 q6, d1, d28 183 vmlal.u8 q6, d9, d31 184 vmlal.u8 q6, d4, d29 187 vqrshrun.s16 d15, q6, # [all...] |
H A D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 330 vaddl.u8 q6, d0, d10 332 vmla.u16 q6, q7, q13 337 vmls.u16 q6, q8, q12 342 vst1.32 {q6}, [r9]! @ store row 0 to temp buffer: col 0 343 vext.16 q11, q6, q7, #5 349 vext.16 q8, q6, q7, #2 351 vext.16 q9, q6, q7, #3 352 vext.16 q10, q6, q7, #4 353 vext.16 q7, q6, q7, #1 369 vqmovn.u16 d25, q6 [all...] |
H A D | ih264_inter_pred_luma_vert_qpel_a9q.s | 134 vaddl.u8 q6, d4, d6 @ temp1 = src[2_0] + src[3_0] 138 vmla.u16 q7, q6, q11 @ temp += temp1 * 20 144 vaddl.u8 q6, d6, d8 148 vmla.u16 q8, q6, q11 151 vaddl.u8 q6, d7, d9 155 vmla.u16 q7, q6, q11 161 vaddl.u8 q6, d8, d10 164 vmla.u16 q9, q6, q11 168 vaddl.u8 q6, d9, d11 171 vmla.u16 q8, q6, q1 [all...] |
/external/boringssl/src/crypto/curve25519/asm/ |
H A D | x25519-asm-arm.S | 28 vpush {q4,q5,q6,q7} 98 vshr.u64 q6,q6,#3 106 vand q6,q6,q2 130 vadd.i64 q6,q6,q12 132 vadd.i64 q14,q6,q1 143 vsub.i64 q6,q6,q1 [all...] |
/external/libjpeg-turbo/simd/ |
H A D | jsimd_arm_neon.S | 108 INT32 q1, q2, q3, q4, q5, q6, q7; \ 123 q6 = MULTIPLY(q5, FIX_1_175875602_MINUS_1_961570560) + \ define 129 q4 = q6; \ 131 q6 += MULTIPLY(row5, -FIX_2_562915447) + \ 138 q1 = q1 + q6; \ 146 q1 = q1 - q6; \ 149 q1 = q1 - q6; \ 150 q6 = MULTIPLY(row2, FIX_0_541196100_PLUS_0_765366865) + \ define 158 q2 = q1 + q6; \ 159 q1 = q1 - q6; \ [all...] |
/external/libvpx/libvpx/vpx_dsp/arm/ |
H A D | loopfilter_16_neon.c | 24 uint8x16_t q6, // p0 41 q13u8 = vabdq_u8(q5, q6); 51 q9 = vabdq_u8(q6, q7); 68 q6 = veorq_u8(q6, q10); 75 vget_low_s8(vreinterpretq_s8_u8(q6))); 77 vget_high_s8(vreinterpretq_s8_u8(q6))); 111 q11s8 = vqaddq_s8(vreinterpretq_s8_u8(q6), q2s8); 17 loop_filter_neon_16( uint8x16_t qblimit, uint8x16_t qlimit, uint8x16_t qthresh, uint8x16_t q3, uint8x16_t q4, uint8x16_t q5, uint8x16_t q6, uint8x16_t q7, uint8x16_t q8, uint8x16_t q9, uint8x16_t q10, uint8x16_t *q5r, uint8x16_t *q6r, uint8x16_t *q7r, uint8x16_t *q8r) argument
|
H A D | idct32x32_add_neon.asm | 103 ; q6-q9 contain the results (out[j * 32 + 0-31]) 115 vrshr.s16 q6, q6, #6 120 vaddw.u8 q6, q6, d8 125 vqmovun.s16 d8, q6 137 ; q6-q9 contain the results (out[j * 32 + 0-31]) 149 vrshr.s16 q6, q6, #6 154 vaddw.u8 q6, q [all...] |