Searched refs:d12 (Results 1 - 25 of 57) sorted by relevance

123

/external/llvm/test/MC/ARM/
H A Dvpush-vpop.s6 vpush {d8, d9, d10, d11, d12}
8 vpop {d8, d9, d10, d11, d12}
11 vpush.s8 {d8, d9, d10, d11, d12}
13 vpop.f32 {d8, d9, d10, d11, d12}
16 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b]
18 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b]
21 @ CHECK-ARM: vpush {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0x2d,0xed]
23 @ CHECK-ARM: vpop {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0xbd,0xec]
26 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b]
28 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12}
[all...]
H A Dinvalid-v8fp.s7 vcvtt.f16.f64 s5, d12
8 @ CHECK-NOT: vcvtt.f16.f64 s5, d12 @ encoding: [0xcc,0x2b,0xf3,0xee]
H A Deh-directive-integrated-test.s40 .vsave {d8, d9, d10, d11, d12}
41 vpush {d8, d9, d10, d11, d12}
45 vpop {d8, d9, d10, d11, d12}
74 .vsave {d8, d9, d10, d11, d12}
75 vpush {d8, d9, d10, d11, d12}
79 vpop {d8, d9, d10, d11, d12}
H A Dneont2-dup-encoding.s20 vdup.16 d17, d12[0]
26 vdup.16 d17, d12[1]
33 @ CHECK: vdup.16 d17, d12[0] @ encoding: [0xf2,0xff,0x0c,0x1c]
39 @ CHECK: vdup.16 d17, d12[1] @ encoding: [0xf6,0xff,0x0c,0x1c]
H A Dneont2-pairwise-encoding.s5 vpadd.i16 d13, d2, d12
10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb]
17 vpaddl.s32 d9, d12
30 @ CHECK: vpaddl.s32 d9, d12 @ encoding: [0xb8,0xff,0x0c,0x92]
46 vpadal.u16 d12, d6
59 @ CHECK: vpadal.u16 d12, d6 @ encoding: [0xb4,0xff,0x86,0xc6]
71 vpmin.s32 d18, d27, d12
79 @ CHECK: vpmin.s32 d18, d27, d12 @ encoding: [0x6b,0xef,0x9c,0x2a]
91 vpmax.u32 d8, d25, d12
99 @ CHECK: vpmax.u32 d8, d25, d12
[all...]
H A Dneon-shiftaccum-encoding.s5 vsra.s32 d13, d12, #32
13 vsra.u32 d12, d15, #22
23 vsra.s32 d12, #32
40 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0x1c,0xd1,0xa0,0xf2]
48 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0x1f,0xc1,0xaa,0xf3]
57 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0x1c,0xc1,0xa0,0xf2]
142 vsli.8 d11, d12, #7
143 vsli.16 d12, d13, #15
151 vsri.16 d26, d12, #1
[all...]
H A Dneont2-shiftaccum-encoding.s7 vsra.s32 d13, d12, #32
15 vsra.u32 d12, d15, #22
25 vsra.s32 d12, #32
42 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xd1]
50 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xc1]
59 @ CHECK: vsra.s32 d12, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xc1]
145 vsli.8 d11, d12, #7
146 vsli.16 d12, d13, #15
154 vsri.16 d26, d12, #1
[all...]
H A Dneon-v8.s14 vcvta.u32.f32 d12, d10
15 @ CHECK: vcvta.u32.f32 d12, d10 @ encoding: [0x8a,0xc0,0xbb,0xf3]
23 vcvtm.u32.f32 d12, d10
24 @ CHECK: vcvtm.u32.f32 d12, d10 @ encoding: [0x8a,0xc3,0xbb,0xf3]
52 vrintx.f32 d5, d12
53 @ CHECK: vrintx.f32 d5, d12 @ encoding: [0x8c,0x54,0xba,0xf3]
60 vrintz.f32 d12, d18
61 @ CHECK: vrintz.f32 d12, d18 @ encoding: [0xa2,0xc5,0xba,0xf3]
H A Dthumb-neon-v8.s14 vcvta.u32.f32 d12, d10
15 @ CHECK: vcvta.u32.f32 d12, d10 @ encoding: [0xbb,0xff,0x8a,0xc0]
23 vcvtm.u32.f32 d12, d10
24 @ CHECK: vcvtm.u32.f32 d12, d10 @ encoding: [0xbb,0xff,0x8a,0xc3]
52 vrintx.f32 d5, d12
53 @ CHECK: vrintx.f32 d5, d12 @ encoding: [0xba,0xff,0x8c,0x54]
60 vrintz.f32 d12, d18
61 @ CHECK: vrintz.f32 d12, d18 @ encoding: [0xba,0xff,0xa2,0xc5]
H A Dneon-cmp-encoding.s124 vclt.s8 d12, d13, d3
125 vclt.s16 d12, d13, d3
126 vclt.s32 d12, d13, d3
127 vclt.u8 d12, d13, d3
128 vclt.u16 d12, d13, d3
129 vclt.u32 d12, d13, d3
130 vclt.f32 d12, d13, d3
140 @ CHECK: vcgt.s8 d12, d3, d13 @ encoding: [0x0d,0xc3,0x03,0xf2]
141 @ CHECK: vcgt.s16 d12, d3, d13 @ encoding: [0x0d,0xc3,0x13,0xf2]
142 @ CHECK: vcgt.s32 d12, d
[all...]
H A Dneon-minmax-encoding.s6 vmax.u8 d10, d11, d12
14 vmax.u8 d11, d12
38 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0c,0xa6,0x0b,0xf3]
45 @ CHECK: vmax.u8 d11, d11, d12 @ encoding: [0x0c,0xb6,0x0b,0xf3]
68 vmin.u8 d10, d11, d12
76 vmin.u8 d11, d12
100 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x1c,0xa6,0x0b,0xf3]
107 @ CHECK: vmin.u8 d11, d11, d12 @ encoding: [0x1c,0xb6,0x0b,0xf3]
H A Dneont2-minmax-encoding.s8 vmax.u8 d10, d11, d12
16 vmax.u8 d11, d12
40 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x0c,0xa6]
47 @ CHECK: vmax.u8 d11, d11, d12 @ encoding: [0x0b,0xff,0x0c,0xb6]
70 vmin.u8 d10, d11, d12
78 vmin.u8 d11, d12
102 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x1c,0xa6]
109 @ CHECK: vmin.u8 d11, d11, d12 @ encoding: [0x0b,0xff,0x1c,0xb6]
H A Deh-directive-section-comdat.s24 .vsave {d8, d9, d10, d11, d12}
25 vpush {d8, d9, d10, d11, d12}
30 vpop {d8, d9, d10, d11, d12}
H A Dthumb-v8fp.s7 vcvtt.f16.f64 s5, d12
8 @ CHECK: vcvtt.f16.f64 s5, d12 @ encoding: [0xf3,0xee,0xcc,0x2b]
19 vcvttgt.f16.f64 s5, d12
20 @ CHECK: vcvttgt.f16.f64 s5, d12 @ encoding: [0xf3,0xee,0xcc,0x2b]
97 vrintzge.f64 d3, d12
98 @ CHECK: vrintzge.f64 d3, d12 @ encoding: [0xb6,0xee,0xcc,0x3b]
H A Dv8fp.s7 vcvtt.f16.f64 s5, d12
8 @ CHECK: vcvtt.f16.f64 s5, d12 @ encoding: [0xcc,0x2b,0xf3,0xee]
17 vcvttgt.f16.f64 s5, d12
18 @ CHECK: vcvttgt.f16.f64 s5, d12 @ encoding: [0xcc,0x2b,0xf3,0xce]
94 vrintzge.f64 d3, d12
95 @ CHECK: vrintzge.f64 d3, d12 @ encoding: [0xcc,0x3b,0xb6,0xae]
/external/libvpx/libvpx/vp8/common/arm/neon/
H A Ddequant_idct_neon.asm49 vqadd.s16 d12, d2, d3 ;a1
61 vqadd.s16 d2, d12, d11
64 vqsub.s16 d5, d12, d11
78 vqadd.s16 d12, d2, d3 ;a1
92 vqadd.s16 d2, d12, d11
95 vqsub.s16 d5, d12, d11
H A Dbilinearpredict16x16_neon.asm52 vld1.u8 {d11, d12, d13}, [r0], r1
69 vmull.u8 q14, d12, d0
74 vext.8 d11, d11, d12, #1
84 vext.8 d12, d12, d13, #1
89 vmlal.u8 q14, d12, d1
108 vld1.u8 {d11, d12, d13}, [r0], r1
139 vmull.u8 q2, d12, d0
143 vext.8 d11, d11, d12, #1 ;construct src_ptr[1]
149 vext.8 d12, d1
[all...]
H A Dvp8_subpixelvariance16x16_neon.asm60 vld1.u8 {d11, d12, d13}, [r0], r1
77 vmull.u8 q14, d12, d0
82 vext.8 d11, d11, d12, #1
92 vext.8 d12, d12, d13, #1
97 vmlal.u8 q14, d12, d1
116 vld1.u8 {d11, d12, d13}, [r0], r1
147 vmull.u8 q2, d12, d0
151 vext.8 d11, d11, d12, #1 ;construct src_ptr[1]
157 vext.8 d12, d1
[all...]
H A Dshortidct4x4llm_neon.asm50 vqadd.s16 d12, d2, d3 ;a1
67 vqadd.s16 d2, d12, d11
70 vqsub.s16 d5, d12, d11
82 vqadd.s16 d12, d2, d3 ;a1
94 vqadd.s16 d2, d12, d11
97 vqsub.s16 d5, d12, d11
H A Dsixtappredict8x4_neon.asm82 vmull.u8 q10, d12, d0
87 vext.8 d31, d12, d13, #1
97 vext.8 d31, d12, d13, #4
107 vext.8 d31, d12, d13, #2
117 vext.8 d31, d12, d13, #5
127 vext.8 d31, d12, d13, #3
159 vmull.u8 q11, d12, d0
165 vext.8 d30, d12, d13, #1
177 vext.8 d30, d12, d13, #4
189 vext.8 d30, d12, d1
[all...]
H A Dsixtappredict8x8_neon.asm86 vmull.u8 q10, d12, d0
91 vext.8 d31, d12, d13, #1
101 vext.8 d31, d12, d13, #4
111 vext.8 d31, d12, d13, #2
121 vext.8 d31, d12, d13, #5
131 vext.8 d31, d12, d13, #3
172 vmull.u8 q11, d12, d0
178 vext.8 d30, d12, d13, #1
190 vext.8 d30, d12, d13, #4
202 vext.8 d30, d12, d1
[all...]
/external/jpeg/
H A Djsimd_arm_neon.S187 * 4 | d12 | d13
194 vld1.16 {d12, d13, d14, d15}, [COEF_BLOCK]!
223 vswp d12, d5
242 vswp d12, d5
261 vqshrun.s16 d12, q6, #5
267 .irp x, d4, d6, d8, d10, d12, d14, d16, d18
409 * 5 | d12 | d13
416 vld1.16 {d12, d13, d14, d15}, [COEF_BLOCK]!
434 idct_helper d4, d6, d8, d10, d12, d14, d16, 12, d4, d6, d8, d10
568 * 5 | d12 | d1
[all...]
/external/libvpx/libvpx/vp9/common/arm/neon/
H A Dvp9_short_idct16x16_add_neon.asm144 vqrshrn.s32 d12, q9, #14 ; >> 14
244 vqrshrn.s32 d12, q9, #14 ; >> 14
322 vdup.16 d12, r3 ; duplicate cospi_30_64
335 vmull.s16 q2, d16, d12
336 vmull.s16 q3, d17, d12
347 vmlal.s16 q1, d30, d12
348 vmlal.s16 q4, d31, d12
394 vqrshrn.s32 d12, q4, #14 ; >> 14
501 vqrshrn.s32 d12, q2, #14 ; >> 14
615 vld1.64 {d12}, [r
[all...]
/external/valgrind/main/none/tests/arm/
H A Dneon64.c622 TESTINSN_imm("vmov.i32 d12", d12, 0x7000000);
682 TESTINSN_bin("vadd.i32 d10, d11, d12", d10, d11, i32, 24, d12, i32, 120);
695 TESTINSN_bin("vsub.i32 d10, d11, d12", d10, d11, i32, 24, d12, i32, 120);
701 TESTINSN_bin("vand d10, d11, d12", d10, d11, i8, 0xfe, d12, i8, 0xed);
707 TESTINSN_bin("vbic d10, d11, d12", d10, d11, i8, 0xfe, d12, i
[all...]
/external/opencv/cv/src/
H A Dcvmatchcontours.cpp231 double match_v, d12, area1, area2, r11, r12, r21, r22, w1, w2; local
284 r11 = r12 = r21 = r22 = w1 = w2 = d12 = 0;
351 d12 = t0 + t1;
355 match_v += d12;

Completed in 485 milliseconds

123