Searched refs:q6 (Results 1 - 25 of 112) sorted by relevance

12345

/external/llvm/test/MC/ARM/
H A Dneon-shuffle-encoding.s95 vtrn.8 q14, q6
96 vtrn.i8 q14, q6
97 vtrn.u8 q14, q6
98 vtrn.p8 q14, q6
99 vtrn.16 q14, q6
100 vtrn.i16 q14, q6
101 vtrn.u16 q14, q6
102 vtrn.p16 q14, q6
103 vtrn.32 q14, q6
104 vtrn.i32 q14, q6
[all...]
H A Dneon-shiftaccum-encoding.s8 vsra.s16 q3, q6, #16
17 vsra.u32 q3, q6, #21
26 vsra.s16 q6, #16
35 vsra.u32 q6, #21
43 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x5c,0x61,0x90,0xf2]
52 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0x5c,0x61,0xab,0xf3]
60 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x5c,0xc1,0x90,0xf2]
69 @ CHECK: vsra.u32 q6, q6, #2
[all...]
H A Dneont2-shiftaccum-encoding.s10 vsra.s16 q3, q6, #16
19 vsra.u32 q3, q6, #21
28 vsra.s16 q6, #16
37 vsra.u32 q6, #21
45 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x90,0xef,0x5c,0x61]
54 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0xab,0xff,0x5c,0x61]
62 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x90,0xef,0x5c,0xc1]
71 @ CHECK: vsra.u32 q6, q6, #2
[all...]
H A Dneon-minmax-encoding.s20 vmax.s16 q4, q5, q6
24 vmax.u32 q6, q7, q8
28 vmax.s16 q5, q6
50 @ CHECK: vmax.s16 q4, q5, q6 @ encoding: [0x4c,0x86,0x1a,0xf2]
54 @ CHECK: vmax.u32 q6, q7, q8 @ encoding: [0x60,0xc6,0x2e,0xf3]
57 @ CHECK: vmax.s16 q5, q5, q6 @ encoding: [0x4c,0xa6,0x1a,0xf2]
82 vmin.s16 q4, q5, q6
86 vmin.u32 q6, q7, q8
90 vmin.s16 q5, q6
112 @ CHECK: vmin.s16 q4, q5, q6
[all...]
H A Dneont2-minmax-encoding.s22 vmax.s16 q4, q5, q6
26 vmax.u32 q6, q7, q8
30 vmax.s16 q5, q6
52 @ CHECK: vmax.s16 q4, q5, q6 @ encoding: [0x1a,0xef,0x4c,0x86]
56 @ CHECK: vmax.u32 q6, q7, q8 @ encoding: [0x2e,0xff,0x60,0xc6]
59 @ CHECK: vmax.s16 q5, q5, q6 @ encoding: [0x1a,0xef,0x4c,0xa6]
84 vmin.s16 q4, q5, q6
88 vmin.u32 q6, q7, q8
92 vmin.s16 q5, q6
114 @ CHECK: vmin.s16 q4, q5, q6
[all...]
/external/chromium_org/third_party/boringssl/linux-arm/crypto/aes/
H A Dbsaes-armv7.S104 veor q10, q6, q9
114 vshr.u64 q10, q6, #1
124 veor q6, q6, q10
142 veor q11, q11, q6
147 veor q6, q6, q11
166 veor q11, q11, q6
171 veor q6, q6, q1
[all...]
/external/openssl/crypto/aes/asm/
H A Dbsaes-armv7.S103 veor q10, q6, q9
113 vshr.u64 q10, q6, #1
123 veor q6, q6, q10
141 veor q11, q11, q6
146 veor q6, q6, q11
165 veor q11, q11, q6
170 veor q6, q6, q1
[all...]
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/
H A Didct_dequant_full_2x_neon.c24 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; local
89 q6 = vqdmulhq_n_s16(q4, sinpi8sqrt2);
103 q2 = vqsubq_s16(q6, q5);
108 q6 = vqsubq_s16(q11, q2);
111 q2tmp0 = vtrnq_s32(vreinterpretq_s32_s16(q4), vreinterpretq_s32_s16(q6));
138 q6 = vqsubq_s16(q3, q8);
143 q6 = vrshrq_n_s16(q6, 3);
146 q2tmp0 = vtrnq_s32(vreinterpretq_s32_s16(q4), vreinterpretq_s32_s16(q6));
157 q6
[all...]
H A Dmbloopfilter_neon.c21 uint8x16_t q6, // p0
41 q13u8 = vabdq_u8(q5, q6);
51 q12u8 = vabdq_u8(q6, q7);
69 q6 = veorq_u8(q6, q0u8);
80 vget_low_s8(vreinterpretq_s8_u8(q6)));
82 vget_high_s8(vreinterpretq_s8_u8(q6)));
111 q6s8 = vqaddq_s8(vreinterpretq_s8_u8(q6), q13s8);
162 uint8x16_t q5, q6, q7, q8, q9, q10; local
176 q6
14 vp8_mbloop_filter_neon( uint8x16_t qblimit, uint8x16_t qlimit, uint8x16_t qthresh, uint8x16_t q3, uint8x16_t q4, uint8x16_t q5, uint8x16_t q6, uint8x16_t q7, uint8x16_t q8, uint8x16_t q9, uint8x16_t q10, uint8x16_t *q4r, uint8x16_t *q5r, uint8x16_t *q6r, uint8x16_t *q7r, uint8x16_t *q8r, uint8x16_t *q9r) argument
213 uint8x16_t q5, q6, q7, q8, q9, q10; local
303 uint8x16_t q5, q6, q7, q8, q9, q10; local
470 uint8x16_t q5, q6, q7, q8, q9, q10; local
[all...]
H A Dloopfilter_neon.c21 uint8x16_t q6, // p0
38 q13u8 = vabdq_u8(q5, q6);
48 q9 = vabdq_u8(q6, q7);
65 q6 = veorq_u8(q6, q10);
74 vget_low_s8(vreinterpretq_s8_u8(q6)));
76 vget_high_s8(vreinterpretq_s8_u8(q6)));
109 q11s8 = vqaddq_s8(vreinterpretq_s8_u8(q6), q2s8);
133 uint8x16_t q5, q6, q7, q8, q9, q10; local
146 q6
14 vp8_loop_filter_neon( uint8x16_t qblimit, uint8x16_t qlimit, uint8x16_t qthresh, uint8x16_t q3, uint8x16_t q4, uint8x16_t q5, uint8x16_t q6, uint8x16_t q7, uint8x16_t q8, uint8x16_t q9, uint8x16_t q10, uint8x16_t *q5r, uint8x16_t *q6r, uint8x16_t *q7r, uint8x16_t *q8r) argument
179 uint8x16_t q5, q6, q7, q8, q9, q10; local
311 uint8x16_t q5, q6, q7, q8, q9, q10; local
426 uint8x16_t q5, q6, q7, q8, q9, q10; local
[all...]
/external/libhevc/common/arm/
H A Dihevc_intra_pred_chroma_planar.s180 vmull.u8 q6, d5, d0 @(row+1) * src[nt-1]
182 vmlal.u8 q6, d6, d10 @(nt-1-row) * src[2nt+1+col]
184 vmlal.u8 q6, d8, d1 @(col+1) * src[3nt+1]
186 vmlal.u8 q6, d30, d4 @(nt-1-col) * src[2nt-1-row]
202 vadd.i16 q6, q6, q8 @add (nt)
204 vshl.s16 q6, q6, q7 @shr
219 vmovn.i16 d12, q6
247 vmull.u8 q6, d1
[all...]
H A Dihevc_inter_pred_luma_vert_w16inp_w16out.s190 vmull.s16 q6,d3,d23
192 vmlal.s16 q6,d2,d22
194 vmlal.s16 q6,d4,d24
195 vmlal.s16 q6,d5,d25
196 vmlal.s16 q6,d6,d26
197 vmlal.s16 q6,d7,d27
198 vmlal.s16 q6,d16,d28
199 vmlal.s16 q6,d17,d29
220 vsub.s32 q6, q6, q1
[all...]
H A Dihevc_itrans_recon_4x4.s159 vsubl.s16 q6,d0,d2 @pi2_src[0] - pi2_src[2]
161 vshl.s32 q6,q6,#6 @e[1] = 64*(pi2_src[0] - pi2_src[2])
164 vadd.s32 q8,q6,q4 @((e[1] + o[1])
165 vsub.s32 q9,q6,q4 @((e[1] - o[1])
189 vsubl.s16 q6,d0,d2 @pi2_src[0] - pi2_src[2]
191 vshl.s32 q6,q6,#6 @e[1] = 64*(pi2_src[0] - pi2_src[2])
195 vadd.s32 q8,q6,q4 @((e[1] + o[1])
196 vsub.s32 q9,q6,q
[all...]
H A Dihevc_itrans_recon_4x4_ttype1.s157 vmull.s16 q6,d2,d4[1] @ 55 * pi2_src[2]
158 vmlsl.s16 q6,d1,d4[2] @ 55 * pi2_src[2] - 74 * pi2_src[1]
159 vmlsl.s16 q6,d3,d4[0] @ - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3]
160 vmlal.s16 q6,d0,d4[3] @pi2_out[3] = 84 * pi2_src[0] - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3]
165 vqrshrn.s32 d17,q6,#shift_stage1_idct @ (pi2_out[3] + rounding ) >> shift_stage1_idct
197 vmull.s16 q6,d16,d4[1] @ 55 * pi2_src[2]
198 vmlsl.s16 q6,d15,d4[2] @ - 74 * pi2_src[1] + 55 * pi2_src[2]
199 vmlsl.s16 q6,d17,d4[0] @ - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3]
200 vmlal.s16 q6,d14,d4[3] @pi2_out[3] = 84 * pi2_src[0] - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3]
205 vqrshrn.s32 d3,q6,#shift_stage2_idc
[all...]
H A Dihevc_inter_pred_filters_luma_vert_w16inp.s180 vmull.s16 q6,d3,d23
182 vmlal.s16 q6,d2,d22
184 vmlal.s16 q6,d4,d24
185 vmlal.s16 q6,d5,d25
186 vmlal.s16 q6,d6,d26
187 vmlal.s16 q6,d7,d27
188 vmlal.s16 q6,d16,d28
189 vmlal.s16 q6,d17,d29
209 vqshrn.s32 d12, q6, #6
233 vqrshrun.s16 d12,q6,#
[all...]
H A Dihevc_intra_pred_luma_planar.s183 vdup.16 q6, r4 @(1)
188 vmlal.u8 q6, d5, d0 @(1)(row+1) * src[nt-1]
191 vmlal.u8 q6, d8, d1 @(1)(col+1) * src[3nt+1]
194 vmlal.u8 q6, d6, d3 @(1)(nt-1-row) * src[2nt+1+col]
197 vmlal.u8 q6, d9, d20 @(1)(nt-1-col) * src[2nt-1-row]
213 vshl.s16 q6, q6, q7 @(1)shr
218 vmovn.i16 d12, q6 @(1)
332 vdup.16 q6, r4 @(1n)(1)
350 vmlal.u8 q6, d
[all...]
H A Dihevc_itrans_recon_8x8.s296 vmov.s16 q6,#0
375 vadd.s32 q6,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
383 vadd.s32 q8,q6,q4 @// a0 = c0 + d0(part of e0,e7)
384 vsub.s32 q6,q6,q4 @// a3 = c0 - d0(part of e3,e4)
397 vadd.s32 q13,q6,q15 @// a3 + b3(part of e3)
398 vsub.s32 q15,q6,q15 @// a3 - b3(part of r4)
535 vadd.s32 q6,q10,q7 @// a0 = c0 + d0(part of r0,r7)
538 vadd.s32 q0,q6,q12
541 vsub.s32 q12,q6,q1
[all...]
H A Dihevc_weighted_pred_uni.s178 vmull.s16 q6,d9,d0[0] @vmull_n_s16(pi2_src_val2, (int16_t) wgt0) iv iteration
184 vadd.i32 q6,q6,q15 @vaddq_s32(i4_tmp2_t, tmp_lvl_shift_t) iv iteration
189 vshl.s32 q6,q6,q14 @vshlq_s32(i4_tmp2_t, tmp_shift_t) iv iteration
197 vqmovun.s32 d12,q6 @vqmovun_s32(sto_res_tmp1) iv iteration
201 vqmovn.u16 d12,q6 @vqmovn_u16(sto_res_tmp3) iv iteration
/external/libvpx/libvpx/vp8/common/arm/neon/
H A Dsixtappredict4x4_neon.asm66 vld1.u8 {q6}, [r0], r1
88 vmov q4, q3 ;keep original src data in q4 q6
89 vmov q6, q5
94 vshr.u64 q10, q6, #8
101 vshr.u64 q5, q6, #32
108 vshr.u64 q10, q6, #16
115 vshr.u64 q5, q6, #24
131 vld1.u8 {q6}, [r0], r1
154 vmov q4, q3 ;keep original src data in q4 q6
155 vmov q6, q
[all...]
H A Didct_dequant_full_2x_neon.asm57 ; q6: 4 * sinpi : c1/temp1
61 vqdmulh.s16 q6, q4, d0[2] ; sinpi8sqrt2
87 vqsub.s16 q2, q6, q5
96 vqsub.s16 q6, q11, q2
100 vtrn.32 q4, q6
103 vtrn.16 q6, q7
107 ; q6: l 2, 6,10,14 r 2, 6,10,14
119 vqadd.s16 q2, q4, q6 ; a1 = 0 + 2
120 vqsub.s16 q3, q4, q6 ; b1 = 0 - 2
142 vqsub.s16 q6, q
[all...]
H A Dvp8_subpixelvariance8x8_neon.asm49 vmull.u8 q6, d2, d0 ;(src_ptr[0] * Filter[0])
59 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * Filter[1])
65 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8
76 vmull.u8 q6, d2, d0 ;(src_ptr[0] * Filter[0])
88 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * Filter[1])
94 vqrshrn.u16 d26, q6, #7 ;shift/round/saturate to u8
118 vmull.u8 q6, d27, d0
127 vmlal.u8 q6, d28, d1
136 vqrshrn.u16 d27, q6, #7
174 vsubl.u8 q6, d2
[all...]
H A Dsixtappredict16x16_neon.asm170 vmull.u8 q6, d30, d3
174 vqadd.s16 q12, q6
176 vmull.u8 q6, d15, d3 ;(src_ptr[1] * vp8_filter[3])
182 vqadd.s16 q9, q6
203 vld1.s32 {q5, q6}, [r3] ;load second_pass filter
207 vabs.s32 q8, q6
235 vmull.u8 q6, d21, d0
240 vmlsl.u8 q6, d22, d1
245 vmlsl.u8 q6, d25, d4
250 vmlal.u8 q6, d2
[all...]
/external/chromium_org/third_party/libjpeg_turbo/simd/
H A Djsimd_arm_neon.S106 INT32 q1, q2, q3, q4, q5, q6, q7; \
121 q6 = MULTIPLY(q5, FIX_1_175875602_MINUS_1_961570560) + \ define
127 q4 = q6; \
129 q6 += MULTIPLY(row5, -FIX_2_562915447) + \
136 q1 = q1 + q6; \
144 q1 = q1 - q6; \
147 q1 = q1 - q6; \
148 q6 = MULTIPLY(row2, FIX_0_541196100_PLUS_0_765366865) + \ define
156 q2 = q1 + q6; \
157 q1 = q1 - q6; \
[all...]
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/
H A Dvp9_idct32x32_add_neon.asm103 ; q6-q9 contain the results (out[j * 32 + 0-31])
115 vrshr.s16 q6, q6, #6
120 vaddw.u8 q6, q6, d8
125 vqmovun.s16 d8, q6
137 ; q6-q9 contain the results (out[j * 32 + 0-31])
149 vrshr.s16 q6, q6, #6
154 vaddw.u8 q6, q
[all...]
/external/libvpx/libvpx/vp9/common/arm/neon/
H A Dvp9_idct32x32_add_neon.asm103 ; q6-q9 contain the results (out[j * 32 + 0-31])
115 vrshr.s16 q6, q6, #6
120 vaddw.u8 q6, q6, d8
125 vqmovun.s16 d8, q6
137 ; q6-q9 contain the results (out[j * 32 + 0-31])
149 vrshr.s16 q6, q6, #6
154 vaddw.u8 q6, q
[all...]

Completed in 2026 milliseconds

12345