Searched refs:d12 (Results 1 - 25 of 143) sorted by relevance

123456

/external/llvm/test/MC/AArch64/
H A Dneon-scalar-neg.s20 sqneg d18, d12
25 // CHECK: sqneg d18, d12 // encoding: [0x92,0x79,0xe0,0x7e]
H A Dneon-scalar-abs.s30 sqabs d18, d12
35 // CHECK: sqabs d18, d12 // encoding: [0x92,0x79,0xe0,0x5e]
H A Dneon-scalar-cvt.s10 scvtf d21, d12
13 // CHECK: scvtf d21, d12 // encoding: [0x95,0xd9,0x61,0x5e]
30 scvtf d21, d12, #64
33 // CHECK: scvtf d21, d12, #64 // encoding: [0x95,0xe5,0x40,0x5f]
50 fcvtzs d21, d12, #1
53 // CHECK: fcvtzs d21, d12, #1 // encoding: [0x95,0xfd,0x7f,0x5f]
60 fcvtzu d21, d12, #1
63 // CHECK: fcvtzu d21, d12, #1 // encoding: [0x95,0xfd,0x7f,0x7f]
H A Dneon-scalar-extract-narrow.s11 sqxtun s20, d12
15 // CHECK: sqxtun s20, d12 // encoding: [0x94,0x29,0xa1,0x7e]
H A Dneon-scalar-shift-imm.s36 ssra d18, d12, #21
38 // CHECK: ssra d18, d12, #21 // encoding: [0x92,0x15,0x6b,0x5f]
87 uqshl d15, d12, #19
92 // CHECK: uqshl d15, d12, #19 // encoding: [0x8f,0x75,0x53,0x7f]
110 sri d10, d12, #14
112 // CHECK: sri d10, d12, #14 // encoding: [0x8a,0x45,0x72,0x7f]
137 uqshrn s10, d12, #13
141 // CHECK: uqshrn s10, d12, #13 // encoding: [0x8a,0x95,0x33,0x7f]
148 sqrshrn s15, d12, #9
152 // CHECK: sqrshrn s15, d12, #
[all...]
H A Dneon-scalar-recip.s50 frsqrte d21, d12
53 // CHECK: frsqrte d21, d12 // encoding: [0x95,0xd9,0xe1,0x7e]
H A Dneon-scalar-by-elem-mul.s29 fmulx d13, d12, v11.d[1]
36 // CHECK: fmulx d13, d12, v11.d[1] // encoding: [0x8d,0x99,0xcb,0x7f]
H A Dneon-scalar-mul.s50 sqdmlsl d12, s23, s13
53 // CHECK: sqdmlsl d12, s23, s13 // encoding: [0xec,0xb2,0xad,0x5e]
/external/libhevc/common/arm64/
H A Dihevc_neon_macros.s41 stp d12,d13,[sp,#-16]!
46 ldp d12,d13,[sp],#16
/external/llvm/test/MC/ARM/
H A Dvpush-vpop.s6 vpush {d8, d9, d10, d11, d12}
8 vpop {d8, d9, d10, d11, d12}
11 vpush.s8 {d8, d9, d10, d11, d12}
13 vpop.f32 {d8, d9, d10, d11, d12}
16 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b]
18 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b]
21 @ CHECK-ARM: vpush {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0x2d,0xed]
23 @ CHECK-ARM: vpop {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0xbd,0xec]
26 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b]
28 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12}
[all...]
H A Deh-directive-integrated-test.s40 .vsave {d8, d9, d10, d11, d12}
41 vpush {d8, d9, d10, d11, d12}
45 vpop {d8, d9, d10, d11, d12}
74 .vsave {d8, d9, d10, d11, d12}
75 vpush {d8, d9, d10, d11, d12}
79 vpop {d8, d9, d10, d11, d12}
H A Dneont2-dup-encoding.s20 vdup.16 d17, d12[0]
26 vdup.16 d17, d12[1]
33 @ CHECK: vdup.16 d17, d12[0] @ encoding: [0xf2,0xff,0x0c,0x1c]
39 @ CHECK: vdup.16 d17, d12[1] @ encoding: [0xf6,0xff,0x0c,0x1c]
H A Dneont2-pairwise-encoding.s5 vpadd.i16 d13, d2, d12
10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb]
17 vpaddl.s32 d9, d12
30 @ CHECK: vpaddl.s32 d9, d12 @ encoding: [0xb8,0xff,0x0c,0x92]
46 vpadal.u16 d12, d6
59 @ CHECK: vpadal.u16 d12, d6 @ encoding: [0xb4,0xff,0x86,0xc6]
71 vpmin.s32 d18, d27, d12
79 @ CHECK: vpmin.s32 d18, d27, d12 @ encoding: [0x6b,0xef,0x9c,0x2a]
91 vpmax.u32 d8, d25, d12
99 @ CHECK: vpmax.u32 d8, d25, d12
[all...]
H A Dneon-shiftaccum-encoding.s5 vsra.s32 d13, d12, #32
13 vsra.u32 d12, d15, #22
23 vsra.s32 d12, #32
40 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0x1c,0xd1,0xa0,0xf2]
48 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0x1f,0xc1,0xaa,0xf3]
57 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0x1c,0xc1,0xa0,0xf2]
142 vsli.8 d11, d12, #7
143 vsli.16 d12, d13, #15
151 vsri.16 d26, d12, #1
[all...]
H A Dneont2-shiftaccum-encoding.s7 vsra.s32 d13, d12, #32
15 vsra.u32 d12, d15, #22
25 vsra.s32 d12, #32
42 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xd1]
50 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xc1]
59 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xc1]
145 vsli.8 d11, d12, #7
146 vsli.16 d12, d13, #15
154 vsri.16 d26, d12, #1
[all...]
H A Dneon-v8.s14 vcvta.u32.f32 d12, d10
15 @ CHECK: vcvta.u32.f32 d12, d10 @ encoding: [0x8a,0xc0,0xbb,0xf3]
23 vcvtm.u32.f32 d12, d10
24 @ CHECK: vcvtm.u32.f32 d12, d10 @ encoding: [0x8a,0xc3,0xbb,0xf3]
52 vrintx.f32 d5, d12
53 @ CHECK: vrintx.f32 d5, d12 @ encoding: [0x8c,0x54,0xba,0xf3]
60 vrintz.f32 d12, d18
61 @ CHECK: vrintz.f32 d12, d18 @ encoding: [0xa2,0xc5,0xba,0xf3]
H A Dthumb-neon-v8.s14 vcvta.u32.f32 d12, d10
15 @ CHECK: vcvta.u32.f32 d12, d10 @ encoding: [0xbb,0xff,0x8a,0xc0]
23 vcvtm.u32.f32 d12, d10
24 @ CHECK: vcvtm.u32.f32 d12, d10 @ encoding: [0xbb,0xff,0x8a,0xc3]
52 vrintx.f32 d5, d12
53 @ CHECK: vrintx.f32 d5, d12 @ encoding: [0xba,0xff,0x8c,0x54]
60 vrintz.f32 d12, d18
61 @ CHECK: vrintz.f32 d12, d18 @ encoding: [0xba,0xff,0xa2,0xc5]
H A Dneon-cmp-encoding.s124 vclt.s8 d12, d13, d3
125 vclt.s16 d12, d13, d3
126 vclt.s32 d12, d13, d3
127 vclt.u8 d12, d13, d3
128 vclt.u16 d12, d13, d3
129 vclt.u32 d12, d13, d3
130 vclt.f32 d12, d13, d3
140 @ CHECK: vcgt.s8 d12, d3, d13 @ encoding: [0x0d,0xc3,0x03,0xf2]
141 @ CHECK: vcgt.s16 d12, d3, d13 @ encoding: [0x0d,0xc3,0x13,0xf2]
142 @ CHECK: vcgt.s32 d12, d
[all...]
/external/libhevc/common/arm/
H A Dihevc_itrans_recon_32x32.s240 vld1.16 d12,[r0],r6
263 vmlal.s16 q10,d12,d1[0]
265 vmlal.s16 q11,d12,d3[0]
267 vmlal.s16 q8,d12,d5[0]
269 vmlal.s16 q9,d12,d7[0]
312 vld1.16 d12,[r0],r6
337 vmlal.s16 q10,d12,d3[0]
339 vmlsl.s16 q11,d12,d7[0]
341 vmlsl.s16 q8,d12,d1[0]
343 vmlsl.s16 q9,d12,d
[all...]
H A Dihevc_inter_pred_chroma_vert_w16inp.s118 vdup.16 d12,d0[0] @coeff_0
139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0)
142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0)
187 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
195 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
206 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
217 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
233 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
244 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
256 vmull.s16 q13,d2,d12
[all...]
H A Dihevc_inter_pred_chroma_vert_w16inp_w16out.s118 vdup.16 d12,d0[0] @coeff_0
139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0)
142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0)
186 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
194 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
205 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
215 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
230 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
240 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
251 vmull.s16 q13,d2,d12
[all...]
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/
H A Dshortidct4x4llm_neon.c25 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; local
43 d12 = vqadd_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // a1
55 d2 = vqadd_s16(d12, d11);
58 d5 = vqsub_s16(d12, d11);
74 d12 = vqadd_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // a1
86 d2 = vqadd_s16(d12, d11);
89 d5 = vqsub_s16(d12, d11);
H A Ddequant_idct_neon.c23 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; local
58 d12 = vqadd_s16(vget_low_s16(q1), vget_low_s16(q2));
75 d2 = vqadd_s16(d12, d11);
78 d5 = vqsub_s16(d12, d11);
93 d12 = vqadd_s16(d2tmp2.val[0], d2tmp3.val[0]);
105 d2 = vqadd_s16(d12, d11);
108 d5 = vqsub_s16(d12, d11);
/external/libvpx/libvpx/vp8/common/arm/neon/
H A Ddequant_idct_neon.c23 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; local
58 d12 = vqadd_s16(vget_low_s16(q1), vget_low_s16(q2));
75 d2 = vqadd_s16(d12, d11);
78 d5 = vqsub_s16(d12, d11);
93 d12 = vqadd_s16(d2tmp2.val[0], d2tmp3.val[0]);
105 d2 = vqadd_s16(d12, d11);
108 d5 = vqsub_s16(d12, d11);
H A Dvp8_subpixelvariance16x16_neon.asm60 vld1.u8 {d11, d12, d13}, [r0], r1
77 vmull.u8 q14, d12, d0
82 vext.8 d11, d11, d12, #1
92 vext.8 d12, d12, d13, #1
97 vmlal.u8 q14, d12, d1
116 vld1.u8 {d11, d12, d13}, [r0], r1
147 vmull.u8 q2, d12, d0
151 vext.8 d11, d11, d12, #1 ;construct src_ptr[1]
157 vext.8 d12, d1
[all...]

Completed in 418 milliseconds

123456