Lines Matching refs:in

4 int8x8_t test_vqshl_n_s8(int8x8_t in) {
6 // CHECK: call <8 x i8> @llvm.aarch64.neon.sqshl.v8i8(<8 x i8> %in, <8 x i8> <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1>)
7 return vqshl_n_s8(in, 1);
10 int16x4_t test_vqshl_n_s16(int16x4_t in) {
12 // CHECK: call <4 x i16> @llvm.aarch64.neon.sqshl.v4i16(<4 x i16> %in, <4 x i16> <i16 1, i16 1, i16 1, i16 1>)
13 return vqshl_n_s16(in, 1);
16 int32x2_t test_vqshl_n_s32(int32x2_t in) {
18 // CHECK: call <2 x i32> @llvm.aarch64.neon.sqshl.v2i32(<2 x i32> %in, <2 x i32> <i32 1, i32 1>)
19 return vqshl_n_s32(in, 1);
22 int64x1_t test_vqshl_n_s64(int64x1_t in) {
24 // CHECK: call <1 x i64> @llvm.aarch64.neon.sqshl.v1i64(<1 x i64> %in, <1 x i64> <i64 1>)
25 return vqshl_n_s64(in, 1);
29 int8x16_t test_vqshlq_n_s8(int8x16_t in) {
31 // CHECK: call <16 x i8> @llvm.aarch64.neon.sqshl.v16i8(<16 x i8> %in, <16 x i8> <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1>)
32 return vqshlq_n_s8(in, 1);
35 int16x8_t test_vqshlq_n_s16(int16x8_t in) {
37 // CHECK: call <8 x i16> @llvm.aarch64.neon.sqshl.v8i16(<8 x i16> %in, <8 x i16> <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>)
38 return vqshlq_n_s16(in, 1);
41 int32x4_t test_vqshlq_n_s32(int32x4_t in) {
43 // CHECK: call <4 x i32> @llvm.aarch64.neon.sqshl.v4i32(<4 x i32> %in, <4 x i32> <i32 1, i32 1, i32 1, i32 1>)
44 return vqshlq_n_s32(in, 1);
47 int64x2_t test_vqshlq_n_s64(int64x2_t in) {
49 // CHECK: call <2 x i64> @llvm.aarch64.neon.sqshl.v2i64(<2 x i64> %in, <2 x i64> <i64 1, i64 1>
50 return vqshlq_n_s64(in, 1);
53 uint8x8_t test_vqshl_n_u8(uint8x8_t in) {
55 // CHECK: call <8 x i8> @llvm.aarch64.neon.uqshl.v8i8(<8 x i8> %in, <8 x i8> <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1>)
56 return vqshl_n_u8(in, 1);
59 uint16x4_t test_vqshl_n_u16(uint16x4_t in) {
61 // CHECK: call <4 x i16> @llvm.aarch64.neon.uqshl.v4i16(<4 x i16> %in, <4 x i16> <i16 1, i16 1, i16 1, i16 1>)
62 return vqshl_n_u16(in, 1);
65 uint32x2_t test_vqshl_n_u32(uint32x2_t in) {
67 // CHECK: call <2 x i32> @llvm.aarch64.neon.uqshl.v2i32(<2 x i32> %in, <2 x i32> <i32 1, i32 1>)
68 return vqshl_n_u32(in, 1);
71 uint64x1_t test_vqshl_n_u64(uint64x1_t in) {
73 // CHECK: call <1 x i64> @llvm.aarch64.neon.uqshl.v1i64(<1 x i64> %in, <1 x i64> <i64 1>)
74 return vqshl_n_u64(in, 1);
77 uint8x16_t test_vqshlq_n_u8(uint8x16_t in) {
79 // CHECK: call <16 x i8> @llvm.aarch64.neon.uqshl.v16i8(<16 x i8> %in, <16 x i8> <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1>)
80 return vqshlq_n_u8(in, 1);
83 uint16x8_t test_vqshlq_n_u16(uint16x8_t in) {
85 // CHECK: call <8 x i16> @llvm.aarch64.neon.uqshl.v8i16(<8 x i16> %in, <8 x i16> <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>)
86 return vqshlq_n_u16(in, 1);
89 uint32x4_t test_vqshlq_n_u32(uint32x4_t in) {
91 // CHECK: call <4 x i32> @llvm.aarch64.neon.uqshl.v4i32(<4 x i32> %in, <4 x i32> <i32 1, i32 1, i32 1, i32 1>)
92 return vqshlq_n_u32(in, 1);
95 uint64x2_t test_vqshlq_n_u64(uint64x2_t in) {
97 // CHECK: call <2 x i64> @llvm.aarch64.neon.uqshl.v2i64(<2 x i64> %in, <2 x i64> <i64 1, i64 1>
98 return vqshlq_n_u64(in, 1);
101 int8x8_t test_vrshr_n_s8(int8x8_t in) {
103 // CHECK: call <8 x i8> @llvm.aarch64.neon.srshl.v8i8(<8 x i8> %in, <8 x i8> <i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1>)
104 return vrshr_n_s8(in, 1);
107 int16x4_t test_vrshr_n_s16(int16x4_t in) {
109 // CHECK: call <4 x i16> @llvm.aarch64.neon.srshl.v4i16(<4 x i16> %in, <4 x i16> <i16 -1, i16 -1, i16 -1, i16 -1>)
110 return vrshr_n_s16(in, 1);
113 int32x2_t test_vrshr_n_s32(int32x2_t in) {
115 // CHECK: call <2 x i32> @llvm.aarch64.neon.srshl.v2i32(<2 x i32> %in, <2 x i32> <i32 -1, i32 -1>)
116 return vrshr_n_s32(in, 1);
119 int64x1_t test_vrshr_n_s64(int64x1_t in) {
121 // CHECK: call <1 x i64> @llvm.aarch64.neon.srshl.v1i64(<1 x i64> %in, <1 x i64> <i64 -1>)
122 return vrshr_n_s64(in, 1);
126 int8x16_t test_vrshrq_n_s8(int8x16_t in) {
128 // CHECK: call <16 x i8> @llvm.aarch64.neon.srshl.v16i8(<16 x i8> %in, <16 x i8> <i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1>)
129 return vrshrq_n_s8(in, 1);
132 int16x8_t test_vrshrq_n_s16(int16x8_t in) {
134 // CHECK: call <8 x i16> @llvm.aarch64.neon.srshl.v8i16(<8 x i16> %in, <8 x i16> <i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1>)
135 return vrshrq_n_s16(in, 1);
138 int32x4_t test_vrshrq_n_s32(int32x4_t in) {
140 // CHECK: call <4 x i32> @llvm.aarch64.neon.srshl.v4i32(<4 x i32> %in, <4 x i32> <i32 -1, i32 -1, i32 -1, i32 -1>)
141 return vrshrq_n_s32(in, 1);
144 int64x2_t test_vrshrq_n_s64(int64x2_t in) {
146 // CHECK: call <2 x i64> @llvm.aarch64.neon.srshl.v2i64(<2 x i64> %in, <2 x i64> <i64 -1, i64 -1>
147 return vrshrq_n_s64(in, 1);
150 uint8x8_t test_vrshr_n_u8(uint8x8_t in) {
152 // CHECK: call <8 x i8> @llvm.aarch64.neon.urshl.v8i8(<8 x i8> %in, <8 x i8> <i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1>)
153 return vrshr_n_u8(in, 1);
156 uint16x4_t test_vrshr_n_u16(uint16x4_t in) {
158 // CHECK: call <4 x i16> @llvm.aarch64.neon.urshl.v4i16(<4 x i16> %in, <4 x i16> <i16 -1, i16 -1, i16 -1, i16 -1>)
159 return vrshr_n_u16(in, 1);
162 uint32x2_t test_vrshr_n_u32(uint32x2_t in) {
164 // CHECK: call <2 x i32> @llvm.aarch64.neon.urshl.v2i32(<2 x i32> %in, <2 x i32> <i32 -1, i32 -1>)
165 return vrshr_n_u32(in, 1);
168 uint64x1_t test_vrshr_n_u64(uint64x1_t in) {
170 // CHECK: call <1 x i64> @llvm.aarch64.neon.urshl.v1i64(<1 x i64> %in, <1 x i64> <i64 -1>)
171 return vrshr_n_u64(in, 1);
174 uint8x16_t test_vrshrq_n_u8(uint8x16_t in) {
176 // CHECK: call <16 x i8> @llvm.aarch64.neon.urshl.v16i8(<16 x i8> %in, <16 x i8> <i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1>)
177 return vrshrq_n_u8(in, 1);
180 uint16x8_t test_vrshrq_n_u16(uint16x8_t in) {
182 // CHECK: call <8 x i16> @llvm.aarch64.neon.urshl.v8i16(<8 x i16> %in, <8 x i16> <i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1>)
183 return vrshrq_n_u16(in, 1);
186 uint32x4_t test_vrshrq_n_u32(uint32x4_t in) {
188 // CHECK: call <4 x i32> @llvm.aarch64.neon.urshl.v4i32(<4 x i32> %in, <4 x i32> <i32 -1, i32 -1, i32 -1, i32 -1>)
189 return vrshrq_n_u32(in, 1);
192 uint64x2_t test_vrshrq_n_u64(uint64x2_t in) {
194 // CHECK: call <2 x i64> @llvm.aarch64.neon.urshl.v2i64(<2 x i64> %in, <2 x i64> <i64 -1, i64 -1>
195 return vrshrq_n_u64(in, 1);
198 int8x8_t test_vqshlu_n_s8(int8x8_t in) {
200 // CHECK: call <8 x i8> @llvm.aarch64.neon.sqshlu.v8i8(<8 x i8> %in, <8 x i8> <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1>)
201 return vqshlu_n_s8(in, 1);
204 int16x4_t test_vqshlu_n_s16(int16x4_t in) {
206 // CHECK: call <4 x i16> @llvm.aarch64.neon.sqshlu.v4i16(<4 x i16> %in, <4 x i16> <i16 1, i16 1, i16 1, i16 1>)
207 return vqshlu_n_s16(in, 1);
210 int32x2_t test_vqshlu_n_s32(int32x2_t in) {
212 // CHECK: call <2 x i32> @llvm.aarch64.neon.sqshlu.v2i32(<2 x i32> %in, <2 x i32> <i32 1, i32 1>)
213 return vqshlu_n_s32(in, 1);
216 int64x1_t test_vqshlu_n_s64(int64x1_t in) {
218 // CHECK: call <1 x i64> @llvm.aarch64.neon.sqshlu.v1i64(<1 x i64> %in, <1 x i64> <i64 1>)
219 return vqshlu_n_s64(in, 1);
223 int8x16_t test_vqshluq_n_s8(int8x16_t in) {
225 // CHECK: call <16 x i8> @llvm.aarch64.neon.sqshlu.v16i8(<16 x i8> %in, <16 x i8> <i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1>)
226 return vqshluq_n_s8(in, 1);
229 int16x8_t test_vqshluq_n_s16(int16x8_t in) {
231 // CHECK: call <8 x i16> @llvm.aarch64.neon.sqshlu.v8i16(<8 x i16> %in, <8 x i16> <i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1, i16 1>)
232 return vqshluq_n_s16(in, 1);
235 int32x4_t test_vqshluq_n_s32(int32x4_t in) {
237 // CHECK: call <4 x i32> @llvm.aarch64.neon.sqshlu.v4i32(<4 x i32> %in, <4 x i32> <i32 1, i32 1, i32 1, i32 1>)
238 return vqshluq_n_s32(in, 1);
241 int64x2_t test_vqshluq_n_s64(int64x2_t in) {
243 // CHECK: call <2 x i64> @llvm.aarch64.neon.sqshlu.v2i64(<2 x i64> %in, <2 x i64> <i64 1, i64 1>
244 return vqshluq_n_s64(in, 1);
247 int8x8_t test_vrsra_n_s8(int8x8_t acc, int8x8_t in) {
249 // CHECK: [[TMP:%[0-9a-zA-Z._]+]] = tail call <8 x i8> @llvm.aarch64.neon.srshl.v8i8(<8 x i8> %in, <8 x i8> <i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1>)
251 return vrsra_n_s8(acc, in, 1);
254 int16x4_t test_vrsra_n_s16(int16x4_t acc, int16x4_t in) {
256 // CHECK: [[TMP:%[0-9a-zA-Z._]+]] = tail call <4 x i16> @llvm.aarch64.neon.srshl.v4i16(<4 x i16> %in, <4 x i16> <i16 -1, i16 -1, i16 -1, i16 -1>)
258 return vrsra_n_s16(acc, in, 1);
261 int32x2_t test_vrsra_n_s32(int32x2_t acc, int32x2_t in) {
263 // CHECK: [[TMP:%[0-9a-zA-Z._]+]] = tail call <2 x i32> @llvm.aarch64.neon.srshl.v2i32(<2 x i32> %in, <2 x i32> <i32 -1, i32 -1>)
265 return vrsra_n_s32(acc, in, 1);
268 int64x1_t test_vrsra_n_s64(int64x1_t acc, int64x1_t in) {
270 // CHECK: [[TMP:%[0-9a-zA-Z._]+]] = tail call <1 x i64> @llvm.aarch64.neon.srshl.v1i64(<1 x i64> %in, <1 x i64> <i64 -1>)
272 return vrsra_n_s64(acc, in, 1);
275 int8x16_t test_vrsraq_n_s8(int8x16_t acc, int8x16_t in) {
277 // CHECK: [[TMP:%[0-9a-zA-Z._]+]] = tail call <16 x i8> @llvm.aarch64.neon.srshl.v16i8(<16 x i8> %in, <16 x i8> <i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1>)
279 return vrsraq_n_s8(acc, in, 1);
282 int16x8_t test_vrsraq_n_s16(int16x8_t acc, int16x8_t in) {
284 // CHECK: [[TMP:%[0-9a-zA-Z._]+]] = tail call <8 x i16> @llvm.aarch64.neon.srshl.v8i16(<8 x i16> %in, <8 x i16> <i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1>)
286 return vrsraq_n_s16(acc, in, 1);
289 int32x4_t test_vrsraq_n_s32(int32x4_t acc, int32x4_t in) {
291 // CHECK: [[TMP:%[0-9a-zA-Z._]+]] = tail call <4 x i32> @llvm.aarch64.neon.srshl.v4i32(<4 x i32> %in, <4 x i32> <i32 -1, i32 -1, i32 -1, i32 -1>)
293 return vrsraq_n_s32(acc, in, 1);
296 int64x2_t test_vrsraq_n_s64(int64x2_t acc, int64x2_t in) {
298 // CHECK: [[TMP:%[0-9a-zA-Z._]+]] = tail call <2 x i64> @llvm.aarch64.neon.srshl.v2i64(<2 x i64> %in, <2 x i64> <i64 -1, i64 -1>)
300 return vrsraq_n_s64(acc, in, 1);
303 uint8x8_t test_vrsra_n_u8(uint8x8_t acc, uint8x8_t in) {
305 // CHECK: [[TMP:%[0-9a-zA-Z._]+]] = tail call <8 x i8> @llvm.aarch64.neon.urshl.v8i8(<8 x i8> %in, <8 x i8> <i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1>)
307 return vrsra_n_u8(acc, in, 1);
310 uint16x4_t test_vrsra_n_u16(uint16x4_t acc, uint16x4_t in) {
312 // CHECK: [[TMP:%[0-9a-zA-Z._]+]] = tail call <4 x i16> @llvm.aarch64.neon.urshl.v4i16(<4 x i16> %in, <4 x i16> <i16 -1, i16 -1, i16 -1, i16 -1>)
314 return vrsra_n_u16(acc, in, 1);
317 uint32x2_t test_vrsra_n_u32(uint32x2_t acc, uint32x2_t in) {
319 // CHECK: [[TMP:%[0-9a-zA-Z._]+]] = tail call <2 x i32> @llvm.aarch64.neon.urshl.v2i32(<2 x i32> %in, <2 x i32> <i32 -1, i32 -1>)
321 return vrsra_n_u32(acc, in, 1);
324 uint64x1_t test_vrsra_n_u64(uint64x1_t acc, uint64x1_t in) {
326 // CHECK: [[TMP:%[0-9a-zA-Z._]+]] = tail call <1 x i64> @llvm.aarch64.neon.urshl.v1i64(<1 x i64> %in, <1 x i64> <i64 -1>)
328 return vrsra_n_u64(acc, in, 1);
331 uint8x16_t test_vrsraq_n_u8(uint8x16_t acc, uint8x16_t in) {
333 // CHECK: [[TMP:%[0-9a-zA-Z._]+]] = tail call <16 x i8> @llvm.aarch64.neon.urshl.v16i8(<16 x i8> %in, <16 x i8> <i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1>)
335 return vrsraq_n_u8(acc, in, 1);
338 uint16x8_t test_vrsraq_n_u16(uint16x8_t acc, uint16x8_t in) {
340 // CHECK: [[TMP:%[0-9a-zA-Z._]+]] = tail call <8 x i16> @llvm.aarch64.neon.urshl.v8i16(<8 x i16> %in, <8 x i16> <i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1>)
342 return vrsraq_n_u16(acc, in, 1);
345 uint32x4_t test_vrsraq_n_u32(uint32x4_t acc, uint32x4_t in) {
347 // CHECK: [[TMP:%[0-9a-zA-Z._]+]] = tail call <4 x i32> @llvm.aarch64.neon.urshl.v4i32(<4 x i32> %in, <4 x i32> <i32 -1, i32 -1, i32 -1, i32 -1>)
349 return vrsraq_n_u32(acc, in, 1);
352 uint64x2_t test_vrsraq_n_u64(uint64x2_t acc, uint64x2_t in) {
354 // CHECK: [[TMP:%[0-9a-zA-Z._]+]] = tail call <2 x i64> @llvm.aarch64.neon.urshl.v2i64(<2 x i64> %in, <2 x i64> <i64 -1, i64 -1>)
356 return vrsraq_n_u64(acc, in, 1);