Searched refs:d22 (Results 1 - 25 of 111) sorted by relevance

12345

/external/llvm/test/MC/AArch64/
H A Dneon-scalar-compare.s9 cmeq d20, d21, d22
11 // CHECK: cmeq d20, d21, d22 // encoding: [0xb4,0x8e,0xf6,0x7e]
25 cmhs d20, d21, d22
27 // CHECK: cmhs d20, d21, d22 // encoding: [0xb4,0x3e,0xf6,0x7e]
33 cmge d20, d21, d22
35 // CHECK: cmge d20, d21, d22 // encoding: [0xb4,0x3e,0xf6,0x5e]
49 cmhi d20, d21, d22
51 // CHECK: cmhi d20, d21, d22 // encoding: [0xb4,0x36,0xf6,0x7e]
56 cmgt d20, d21, d22
58 // CHECK: cmgt d20, d21, d22 // encodin
[all...]
H A Dneon-scalar-recip.s10 frecps d22, d30, d21
13 // CHECK: frecps d22, d30, d21 // encoding: [0xd6,0xff,0x75,0x5e]
20 frsqrts d8, d22, d18
23 // CHECK: frsqrts d8, d22, d18 // encoding: [0xc8,0xfe,0xf2,0x5e]
H A Dneon-scalar-fp-compare.s10 fcmeq d20, d21, d22
13 // CHECK: fcmeq d20, d21, d22 // encoding: [0xb4,0xe6,0x76,0x5e]
34 fcmge d20, d21, d22
37 // CHECK: fcmge d20, d21, d22 // encoding: [0xb4,0xe6,0x76,0x7e]
58 fcmgt d20, d21, d22
61 // CHECK: fcmgt d20, d21, d22 // encoding: [0xb4,0xe6,0xf6,0x7e]
110 facge d20, d21, d22
113 // CHECK: facge d20, d21, d22 // encoding: [0xb4,0xee,0x76,0x7e]
120 facgt d20, d21, d22
123 // CHECK: facgt d20, d21, d22 // encodin
[all...]
H A Dneon-scalar-saturating-add-sub.s62 suqadd d18, d22
67 // CHECK: suqadd d18, d22 // encoding: [0xd2,0x3a,0xe0,0x5e]
76 usqadd d18, d22
81 // CHECK: usqadd d18, d22 // encoding: [0xd2,0x3a,0xe0,0x7e]
H A Darm64-elf-relocs.s208 ldr d22, [x21, :got_lo12:sym]
210 // CHECK: ldr d22, [x21, :got_lo12:sym]
215 ldr d22, [x21, #:dtprel_lo12:sym]
217 // CHECK: ldr d22, [x21, :dtprel_lo12:sym]
222 ldr d22, [x21, :tprel_lo12_nc:sym]
224 // CHECK: ldr d22, [x21, :tprel_lo12_nc:sym]
229 ldr d22, [x21, #:gottprel_lo12:sym]
231 // CHECK: ldr d22, [x21, :gottprel_lo12:sym]
236 ldr d22, [x21, :tlsdesc_lo12:sym]
238 // CHECK: ldr d22, [x2
[all...]
/external/libhevc/common/arm/
H A Dihevc_intra_pred_chroma_ver.s121 vld2.8 {d22,d23}, [r6] @16 loads (col 16:31)
132 vst2.8 {d22,d23}, [r2], r11
133 vst2.8 {d22,d23}, [r5], r11
134 vst2.8 {d22,d23}, [r8], r11
135 vst2.8 {d22,d23}, [r10], r11
145 vst2.8 {d22,d23}, [r2], r11
146 vst2.8 {d22,d23}, [r5], r11
147 vst2.8 {d22,d23}, [r8], r11
148 vst2.8 {d22,d23}, [r10], r11
158 vst2.8 {d22,d2
[all...]
H A Dihevc_intra_pred_luma_vert.s122 vld1.8 {d22,d23}, [r6] @16 loads (col 16:31)
131 vst1.8 {d22,d23}, [r2], r11
132 vst1.8 {d22,d23}, [r5], r11
133 vst1.8 {d22,d23}, [r8], r11
134 vst1.8 {d22,d23}, [r10], r11
144 vst1.8 {d22,d23}, [r2], r11
145 vst1.8 {d22,d23}, [r5], r11
146 vst1.8 {d22,d23}, [r8], r11
147 vst1.8 {d22,d23}, [r10], r11
156 vst1.8 {d22,d2
[all...]
H A Dihevc_intra_pred_luma_horz.s211 vqmovun.s16 d22,q11
213 vst1.8 {d22},[r2]!
225 vqmovun.s16 d22,q11
227 vst1.8 {d22},[r2],r3
289 vqmovun.s16 d22,q11
291 vst1.8 {d22},[r2],r3
328 vqmovun.s16 d22,q11
330 vst1.32 {d22[0]},[r2],r3
H A Dihevc_inter_pred_filters_luma_vert_w16inp.s123 vdup.16 d22,d0[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)@
150 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@
166 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@
182 vmlal.s16 q6,d2,d22
195 vmlal.s16 q7,d3,d22
222 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@
237 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@
255 vmlal.s16 q6,d2,d22
280 vmlal.s16 q7,d3,d22
306 vmlal.s16 q4,d0,d22
[all...]
H A Dihevc_inter_pred_luma_vert_w16inp_w16out.s131 vdup.16 d22,d0[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)@
160 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@
176 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@
192 vmlal.s16 q6,d2,d22
206 vmlal.s16 q7,d3,d22
235 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@
251 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@
270 vmlal.s16 q6,d2,d22
296 vmlal.s16 q7,d3,d22
323 vmlal.s16 q4,d0,d22
[all...]
/external/llvm/test/MC/ARM/
H A Dpr22395-2.s10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
H A Dneon-mov-vfp.s16 @ NEON-DAG: vmov.8 d22[5], r2 @ encoding:
18 vmov.8 d22[5], r2
28 @ NEON-DAG: vmov.s8 r2, d22[5] @ encoding:
30 vmov.s8 r2, d22[5]
H A Dd16.s19 @ D16-NEXT: vcvt.f64.f32 d22, s4
20 vcvt.f64.f32 d22, s4
H A Dneon-vld-encoding.s175 vld3.p16 {d20, d22, d24}, [r5]!
195 @ CHECK: vld3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x65,0xf4]
204 vld4.32 {d16, d18, d20, d22}, [r8]
211 vld4.u32 {d16, d18, d20, d22}, [r8]!
216 vld4.i8 {d16, d18, d20, d22}, [r4:256], r2
217 vld4.i16 {d16, d18, d20, d22}, [r6], r3
225 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x68,0xf4]
231 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x68,0xf4]
235 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r4:256], r2 @ encoding: [0x32,0x01,0x64,0xf4]
236 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r
[all...]
H A Dneont2-vld-encoding.s60 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0:256]! @ encoding: [0x60,0xf9,0x3d,0x01]
61 vld4.8 {d16, d18, d20, d22}, [r0:256]!
64 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x4d,0x01]
65 vld4.16 {d16, d18, d20, d22}, [r0]!
68 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x8d,0x01]
69 vld4.32 {d16, d18, d20, d22}, [r0]!
108 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0:64] @ encoding: [0xe0,0xf9,0x7f,0x07]
109 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0:64]
H A Dneon-vst-encoding.s79 vst3.p16 {d20, d22, d24}, [r5]!
98 @ CHECK: vst3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x45,0xf4]
107 vst4.32 {d16, d18, d20, d22}, [r8]
114 vst4.u32 {d16, d18, d20, d22}, [r8]!
119 vst4.i8 {d16, d18, d20, d22}, [r4:256], r2
120 vst4.i16 {d16, d18, d20, d22}, [r6], r3
128 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x48,0xf4]
134 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x48,0xf4]
138 @ CHECK: vst4.8 {d16, d18, d20, d22}, [r4:256], r2 @ encoding: [0x32,0x01,0x44,0xf4]
139 @ CHECK: vst4.16 {d16, d18, d20, d22}, [r
[all...]
/external/libavc/encoder/arm/
H A Dih264e_half_pel.s172 vqrshrun.s16 d22, q6, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row0)
177 vst1.8 {d20, d21, d22}, [r1], r3 @//Store dest row0
317 vext.16 d31, d21, d22, #1 @//extract a[5] (set1)
322 vext.16 d31, d22, d23, #1 @//extract a[5] (set2)
327 vext.16 d30, d21, d22, #2 @//extract a[2] (set2)
330 vext.16 d29, d21, d22, #3 @//extract a[3] (set2)
332 vext.16 d28, d21, d22, #1 @//extract a[1] (set2)
337 vmlsl.s16 q10, d22, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set2)
344 vext.16 d30, d22, d23, #2 @//extract a[2] (set3)
345 vext.16 d29, d22, d2
[all...]
/external/libvpx/libvpx/vp9/common/arm/neon/
H A Dvp9_mb_lpf_neon.asm86 vst1.u8 {d22}, [r8@64], r1 ; store oq1
104 vst1.u8 {d22}, [r8@64], r1 ; store oq2
210 vst3.8 {d21[0], d22[0], d23[0]}, [r0], r1
212 vst3.8 {d21[1], d22[1], d23[1]}, [r0], r1
214 vst3.8 {d21[2], d22[2], d23[2]}, [r0], r1
216 vst3.8 {d21[3], d22[3], d23[3]}, [r0], r1
218 vst3.8 {d21[4], d22[4], d23[4]}, [r0], r1
220 vst3.8 {d21[5], d22[5], d23[5]}, [r0], r1
222 vst3.8 {d21[6], d22[6], d23[6]}, [r0], r1
224 vst3.8 {d21[7], d22[
[all...]
H A Dvp9_convolve8_avg_neon.asm137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
219 vld1.u32 {d22[0]}, [r4], r1
224 vmovl.u8 q11, d22
246 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
251 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
256 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d2
[all...]
H A Dvp9_convolve8_neon.asm129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
208 vld1.u32 {d22[0]}, [r4], r1
213 vmovl.u8 q11, d22
230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
240 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d2
[all...]
/external/libavc/common/arm/
H A Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s166 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column1)
170 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1)
176 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1)
178 vqrshrun.s32 d22, q1, #10
180 vqmovun.s16 d22, q11
181 vst1.u8 {d22}, [r1], r10 @//Store dest row0, column 1; (1/2,1/2)
185 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column2)
192 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2)
199 vqmovun.s16 d22, q10
200 vst1.u8 {d22}, [r
[all...]
H A Dih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s253 vmlal.s16 q9, d30, d22
255 vmlal.s16 q3, d31, d22
286 vmlal.s16 q9, d30, d22
291 vmlal.s16 q3, d31, d22
325 vmlal.s16 q9, d30, d22
327 vmlal.s16 q3, d31, d22
349 vmlal.s16 q9, d30, d22
351 vmlal.s16 q3, d31, d22
483 vmlal.s16 q9, d30, d22
485 vmlal.s16 q3, d31, d22
[all...]
/external/libpng/arm/
H A Dfilter_neon.S82 vext.8 d5, d22, d23, #3
83 vadd.u8 d0, d3, d22
84 vext.8 d6, d22, d23, #6
144 vext.8 d5, d22, d23, #3
147 vadd.u8 d0, d0, d22
148 vext.8 d6, d22, d23, #6
220 vext.8 d5, d22, d23, #3
221 vadd.u8 d0, d0, d22
225 vext.8 d6, d22, d23, #6
/external/libvpx/libvpx/vp8/encoder/arm/neon/
H A Dvp8_mse16x16_neon.asm50 vmlal.s16 q7, d22, d22
104 vmull.s16 q7, d22, d22
/external/boringssl/linux-arm/crypto/modes/
H A Dghash-armv4.S394 vext.8 d22, d6, d6, #2 @ B2
395 vmull.p8 q11, d26, d22 @ G = A*B2
404 vext.8 d22, d6, d6, #4 @ B4
407 vmull.p8 q11, d26, d22 @ K = A*B4
414 veor d22, d22, d23 @ t3 = (K) (P6 + P7) << 32
432 vext.8 d22, d6, d6, #2 @ B2
433 vmull.p8 q11, d28, d22 @ G = A*B2
442 vext.8 d22, d6, d6, #4 @ B4
445 vmull.p8 q11, d28, d22
[all...]

Completed in 1120 milliseconds

12345