Searched refs:vshl (Results 1 - 25 of 52) sorted by relevance

123

/external/llvm/test/MC/ARM/
H A Dneont2-shift-encoding.s5 @ CHECK: vshl.u8 d16, d17, d16 @ encoding: [0x40,0xff,0xa1,0x04]
6 vshl.u8 d16, d17, d16
7 @ CHECK: vshl.u16 d16, d17, d16 @ encoding: [0x50,0xff,0xa1,0x04]
8 vshl.u16 d16, d17, d16
9 @ CHECK: vshl.u32 d16, d17, d16 @ encoding: [0x60,0xff,0xa1,0x04]
10 vshl.u32 d16, d17, d16
11 @ CHECK: vshl.u64 d16, d17, d16 @ encoding: [0x70,0xff,0xa1,0x04]
12 vshl.u64 d16, d17, d16
13 @ CHECK: vshl.i8 d16, d16, #7 @ encoding: [0xcf,0xef,0x30,0x05]
14 vshl
[all...]
H A Dneon-shift-encoding.s4 vshl.u8 d16, d17, d16
5 vshl.u16 d16, d17, d16
6 vshl.u32 d16, d17, d16
7 vshl.u64 d16, d17, d16
8 vshl.i8 d16, d16, #7
9 vshl.i16 d16, d16, #15
10 vshl.i32 d16, d16, #31
11 vshl.i64 d16, d16, #63
12 vshl.u8 q8, q9, q8
13 vshl
[all...]
/external/swiftshader/third_party/LLVM/test/MC/ARM/
H A Dneont2-shift-encoding.s5 @ CHECK: vshl.u8 d16, d17, d16 @ encoding: [0x40,0xff,0xa1,0x04]
6 vshl.u8 d16, d17, d16
7 @ CHECK: vshl.u16 d16, d17, d16 @ encoding: [0x50,0xff,0xa1,0x04]
8 vshl.u16 d16, d17, d16
9 @ CHECK: vshl.u32 d16, d17, d16 @ encoding: [0x60,0xff,0xa1,0x04]
10 vshl.u32 d16, d17, d16
11 @ CHECK: vshl.u64 d16, d17, d16 @ encoding: [0x70,0xff,0xa1,0x04]
12 vshl.u64 d16, d17, d16
13 @ CHECK: vshl.i8 d16, d16, #7 @ encoding: [0xcf,0xef,0x30,0x05]
14 vshl
[all...]
H A Dneon-shift-encoding.s4 @ CHECK: vshl.u8 d16, d17, d16 @ encoding: [0xa1,0x04,0x40,0xf3]
5 vshl.u8 d16, d17, d16
6 @ CHECK: vshl.u16 d16, d17, d16 @ encoding: [0xa1,0x04,0x50,0xf3]
7 vshl.u16 d16, d17, d16
8 @ CHECK: vshl.u32 d16, d17, d16 @ encoding: [0xa1,0x04,0x60,0xf3]
9 vshl.u32 d16, d17, d16
10 @ CHECK: vshl.u64 d16, d17, d16 @ encoding: [0xa1,0x04,0x70,0xf3]
11 vshl.u64 d16, d17, d16
12 @ CHECK: vshl.i8 d16, d16, #7 @ encoding: [0x30,0x05,0xcf,0xf2]
13 vshl
[all...]
/external/libhevc/common/arm/
H A Dihevc_inter_pred_luma_copy_w16out.s107 vshl.i64 q0,q0,#6 @vshlq_n_s64(temp, 6)
114 vshl.i64 q11,q11,#6 @vshlq_n_s64(temp, 6)
117 vshl.i64 q12,q12,#6 @vshlq_n_s64(temp, 6)
121 vshl.i64 q13,q13,#6 @vshlq_n_s64(temp, 6)
157 vshl.i16 q0,q8,#6 @vshlq_n_s16(tmp, 6)
158 vshl.i16 q1,q9,#6 @vshlq_n_s16(tmp, 6)
159 vshl.i16 q2,q10,#6 @vshlq_n_s16(tmp, 6)
160 vshl.i16 q3,q11,#6 @vshlq_n_s16(tmp, 6)
198 vshl.i16 q0,q8,#6 @vshlq_n_s16(tmp, 6)
201 vshl
[all...]
H A Dihevc_inter_pred_chroma_copy_w16out.s137 vshl.i64 q0,q0,#6 @vshlq_n_s64(temp, 6)
144 vshl.i64 q11,q11,#6 @vshlq_n_s64(temp, 6)
147 vshl.i64 q12,q12,#6 @vshlq_n_s64(temp, 6)
151 vshl.i64 q13,q13,#6 @vshlq_n_s64(temp, 6)
178 vshl.i64 q0,q0,#6 @vshlq_n_s64(temp, 6)
185 vshl.i64 q11,q11,#6 @vshlq_n_s64(temp, 6)
217 vshl.i16 q0,q8,#6 @vshlq_n_s16(tmp, 6)
218 vshl.i16 q1,q9,#6 @vshlq_n_s16(tmp, 6)
219 vshl.i16 q2,q10,#6 @vshlq_n_s16(tmp, 6)
220 vshl
[all...]
H A Dihevc_intra_pred_chroma_mode2.s256 vshl.i64 d0,d12,#32
258 vshl.i64 d1,d13,#32
262 vshl.i64 d2,d14,#32
265 vshl.i64 d3,d15,#32
271 vshl.i64 d4,d16,#32
273 vshl.i64 d5,d17,#32
281 vshl.i64 d6,d18,#32
284 vshl.i64 d7,d19,#32
H A Dihevc_intra_pred_luma_planar.s213 vshl.s16 q6, q6, q7 @(1)shr
230 vshl.s16 q15, q15, q7 @(2)shr
247 vshl.s16 q14, q14, q7 @(3)shr
264 vshl.s16 q5, q5, q7 @(4)shr
280 vshl.s16 q8, q8, q7 @(5)shr
297 vshl.s16 q9, q9, q7 @(6)shr
313 vshl.s16 q13, q13, q7 @(7)shr
347 vshl.s16 q12, q12, q7 @(8)shr
379 vshl.s16 q6, q6, q7 @(1)shr
399 vshl
[all...]
H A Dihevc_intra_pred_chroma_planar.s204 vshl.s16 q6, q6, q7 @shr
208 vshl.s16 q14,q14,q7
228 vshl.s16 q13, q13, q7 @shr
234 vshl.s16 q12,q12,q7
253 vshl.s16 q11, q11, q7 @shr
268 vshl.s16 q10,q10,q7
279 vshl.s16 q6, q6, q7 @shr
281 vshl.s16 q14,q14,q7
343 @ vshl.s16 q6, q6, q7 @shr
H A Dihevc_intra_pred_chroma_dc.s251 vshl.i64 d3,d30,#32
254 vshl.i64 d2,d31,#32
263 vshl.i64 d3,d26,#32
264 vshl.i64 d2,d27,#32
H A Dihevc_itrans_recon_4x4.s160 vshl.s32 q5,q5,#6 @e[0] = 64*(pi2_src[0] + pi2_src[2])
161 vshl.s32 q6,q6,#6 @e[1] = 64*(pi2_src[0] - pi2_src[2])
190 vshl.s32 q5,q5,#6 @e[0] = 64*(pi2_src[0] + pi2_src[2])
191 vshl.s32 q6,q6,#6 @e[1] = 64*(pi2_src[0] - pi2_src[2])
H A Dihevc_weighted_pred_uni.s167 vshl.s32 q2,q2,q14 @vshlq_s32(i4_tmp1_t, tmp_shift_t)
176 vshl.s32 q3,q3,q14 @vshlq_s32(i4_tmp2_t, tmp_shift_t) ii iteration
181 vshl.s32 q5,q5,q14 @vshlq_s32(i4_tmp1_t, tmp_shift_t) iii iteration
189 vshl.s32 q6,q6,q14 @vshlq_s32(i4_tmp2_t, tmp_shift_t) iv iteration
H A Dihevc_intra_pred_luma_dc.s132 vshl.i64 d8, d8, #32
190 vshl.s64 d9, d6, d8 @(dc_val) shr by log2nt+1
197 vshl.s64 d13, d9, #1 @2*dc
438 vshl.s64 d9, d6, d8 @(dc_val) shr by log2nt+1
441 vshl.s64 d13, d9, #1 @2*dc
H A Dihevc_weighted_pred_bi.s206 vshl.s32 q2,q2,q14 @vshlq_s32(i4_tmp1_t1, tmp_shift_t)
218 vshl.s32 q5,q5,q14 @vshlq_s32(i4_tmp2_t1, tmp_shift_t) ii iteration
226 vshl.s32 q7,q7,q14 @vshlq_s32(i4_tmp1_t1, tmp_shift_t) iii iteration
236 vshl.s32 q9,q9,q14 @vshlq_s32(i4_tmp2_t1, tmp_shift_t) iv iteration
/external/boringssl/src/crypto/curve25519/asm/
H A Dx25519-asm-arm.S124 vshl.i64 q12,q12,#26
127 vshl.i64 q13,q13,#26
134 vshl.i64 q12,q12,#25
139 vshl.i64 q13,q13,#25
142 vshl.i64 q12,q12,#26
149 vshl.i64 q13,q13,#26
152 vshl.i64 q12,q12,#25
162 vshl.i64 q12,q12,#26
167 vshl.i64 q6,q13,#4
172 vshl
[all...]
/external/libavc/common/arm/
H A Dih264_resi_trans_quant_a9.s148 vshl.s16 d12, d10, #1 @U_SHIFT(x2,1,shft)
149 vshl.s16 d13, d11, #1 @U_SHIFT(x3,1,shft)
169 vshl.s16 d22, d20, #1 @U_SHIFT(x2,1,shft)
170 vshl.s16 d23, d21, #1 @U_SHIFT(x3,1,shft)
202 vshl.s32 q11, q4, q10 @Shift row 1
203 vshl.s32 q12, q5, q10 @Shift row 2
204 vshl.s32 q13, q6, q10 @Shift row 3
205 vshl.s32 q14, q7, q10 @Shift row 4
343 vshl.s16 d12, d10, #1 @U_SHIFT(x2,1,shft)
344 vshl
[all...]
H A Dih264_ihadamard_scaling_a9.s146 vshl.s32 q0, q0, q10 @ Q0 = q[i] = (p[i] << (qP/6)) where i = 0..3
147 vshl.s32 q1, q1, q10 @ Q1 = q[i] = (p[i] << (qP/6)) where i = 4..7
148 vshl.s32 q2, q2, q10 @ Q2 = q[i] = (p[i] << (qP/6)) where i = 8..11
149 vshl.s32 q3, q3, q10 @ Q3 = q[i] = (p[i] << (qP/6)) where i = 12..15
239 vshl.s32 q7, q5, q14
240 vshl.s32 q8, q6, q14
H A Dih264_iquant_itrans_recon_a9.s152 vshl.s32 q0, q0, q15 @ Q0 = q[i] = (p[i] << (qP/6)) where i = 0..3
153 vshl.s32 q1, q1, q15 @ Q1 = q[i] = (p[i] << (qP/6)) where i = 4..7
154 vshl.s32 q2, q2, q15 @ Q2 = q[i] = (p[i] << (qP/6)) where i = 8..11
155 vshl.s32 q3, q3, q15 @ Q3 = q[i] = (p[i] << (qP/6)) where i = 12..15
325 vshl.s32 q0, q0, q15 @ Q0 = q[i] = (p[i] << (qP/6)) where i = 0..3
326 vshl.s32 q1, q1, q15 @ Q1 = q[i] = (p[i] << (qP/6)) where i = 4..7
327 vshl.s32 q2, q2, q15 @ Q2 = q[i] = (p[i] << (qP/6)) where i = 8..11
328 vshl.s32 q3, q3, q15 @ Q3 = q[i] = (p[i] << (qP/6)) where i = 12..15
515 vshl.s32 q0, q0, q15 @ Q0 = q[i] = (p[i] << (qP/6)) where i = 0..3
517 vshl
[all...]
/external/arm-neon-tests/
H A Dref_vshl_n.c40 vshl##Q##_n_##T2##W(VECT_VAR(vector, T1, W, N), \
H A DAndroid.mk26 vcgt vclt vbsl vshl vldX vdup_lane vrshrn_n vqdmull_lane \
H A Dref_vshl.c37 /* Basic test: v3=vshl(v1,v2), then store the result. */
40 vshl##Q##_##T2##W(VECT_VAR(vector, T1, W, N), \
/external/libmpeg2/common/arm/
H A Dideint_cac_a9.s96 vshl.u32 q8, q1, #16
123 vshl.u32 q9, q3, #16
172 vshl.u16 d0, d0, #2
192 vshl.u16 d0, d0, #2
/external/boringssl/src/crypto/modes/asm/
H A Dghash-armv4.pl398 vshl.i64 $t0#hi,#57
403 vshl.i64 $IN,$IN,#1
467 vshl.i64 $t1,$Xl,#57 @ 1st phase
468 vshl.i64 $t2,$Xl,#62
470 vshl.i64 $t1,$Xl,#63
/external/boringssl/src/crypto/poly1305/
H A Dpoly1305_arm_asm.S250 # asm 1: vshl.i32 >5y12=reg128#12,<y12=reg128#2,#2
251 # asm 2: vshl.i32 >5y12=q11,<y12=q1,#2
252 vshl.i32 q11,q1,#2
255 # asm 1: vshl.i32 >5y34=reg128#13,<y34=reg128#3,#2
256 # asm 2: vshl.i32 >5y34=q12,<y34=q2,#2
257 vshl.i32 q12,q2,#2
270 # asm 1: vshl.i64 >u4=reg128#8,<u4=reg128#8,#24
271 # asm 2: vshl.i64 >u4=q7,<u4=q7,#24
272 vshl.i64 q7,q7,#24
275 # asm 1: vshl
[all...]
/external/boringssl/linux-arm/crypto/modes/
H A Dghashv8-armx32.S14 vshl.i64 q11,q11,#57 @ 0xc2.0
22 vshl.i64 q3,q3,#1
66 vshl.u64 q11,q11,#57
128 vshl.u64 q11,q11,#57 @ compose 0xc2.0 constant

Completed in 282 milliseconds

123