Searched refs:d10 (Results 1 - 25 of 130) sorted by relevance

123456

/external/libhevc/common/arm64/
H A Dihevc_neon_macros.s40 stp d10,d11,[sp,#-16]!
47 ldp d10,d11,[sp],#16
/external/llvm/test/MC/AArch64/
H A Dneon-scalar-shift-imm.s15 ushr d10, d17, #18
17 // CHECK: ushr d10, d17, #18 // encoding: [0x2a,0x06,0x6e,0x7f]
57 ursra d18, d10, #13
59 // CHECK: ursra d18, d10, #13 // encoding: [0x52,0x35,0x73,0x7f]
64 shl d7, d10, #12
66 // CHECK: shl d7, d10, #12 // encoding: [0x47,0x55,0x4c,0x5f]
110 sri d10, d12, #14
112 // CHECK: sri d10, d12, #14 // encoding: [0x8a,0x45,0x72,0x7f]
117 sli d10, d14, #12
119 // CHECK: sli d10, d1
[all...]
/external/llvm/test/MC/ARM/
H A Dvpush-vpop.s6 vpush {d8, d9, d10, d11, d12}
8 vpop {d8, d9, d10, d11, d12}
11 vpush.s8 {d8, d9, d10, d11, d12}
13 vpop.f32 {d8, d9, d10, d11, d12}
16 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b]
18 @ CHECK-THUMB: vpop {d8, d9, d10, d11, d12} @ encoding: [0xbd,0xec,0x0a,0x8b]
21 @ CHECK-ARM: vpush {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0x2d,0xed]
23 @ CHECK-ARM: vpop {d8, d9, d10, d11, d12} @ encoding: [0x0a,0x8b,0xbd,0xec]
26 @ CHECK-THUMB: vpush {d8, d9, d10, d11, d12} @ encoding: [0x2d,0xed,0x0a,0x8b]
28 @ CHECK-THUMB: vpop {d8, d9, d10, d1
[all...]
H A Ddiagnostics-noneon.s4 vmov d5, d10
H A Deh-directive-integrated-test.s40 .vsave {d8, d9, d10, d11, d12}
41 vpush {d8, d9, d10, d11, d12}
45 vpop {d8, d9, d10, d11, d12}
74 .vsave {d8, d9, d10, d11, d12}
75 vpush {d8, d9, d10, d11, d12}
79 vpop {d8, d9, d10, d11, d12}
H A Dneont2-dup-encoding.s22 vdup.8 q3, d10[0]
28 vdup.8 q3, d10[1]
35 @ CHECK: vdup.8 q3, d10[0] @ encoding: [0xb1,0xff,0x4a,0x6c]
41 @ CHECK: vdup.8 q3, d10[1] @ encoding: [0xb3,0xff,0x4a,0x6c]
H A Dsingle-precision-fp.s9 vnmul.f64 d8, d9, d10
19 @ CHECK-ERRORS-NEXT: vnmul.f64 d8, d9, d10
21 vmla.f64 d11, d10, d9
28 vfnms.f64 d10, d11, d12
30 @ CHECK-ERRORS-NEXT: vmla.f64 d11, d10, d9
44 @ CHECK-ERRORS-NEXT: vfnms.f64 d10, d11, d12
74 vmov.f64 d11, d10
76 @ CHECK-ERRORS-NEXT: vmov.f64 d11, d10
87 vcvt.u32.f64 d9, d10, #4
111 @ CHECK-ERRORS-NEXT: vcvt.u32.f64 d9, d10, #
[all...]
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/
H A Dshortidct4x4llm_neon.c25 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; local
52 d10 = vqsub_s16(vget_low_s16(q3s16), vget_high_s16(q4s16)); // c1
56 d3 = vqadd_s16(d13, d10);
57 d4 = vqsub_s16(d13, d10);
83 d10 = vqsub_s16(vget_low_s16(q3s16), vget_high_s16(q4s16)); // c1
87 d3 = vqadd_s16(d13, d10);
88 d4 = vqsub_s16(d13, d10);
H A Ddequant_idct_neon.c23 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; local
72 d10 = vqsub_s16(vget_low_s16(q3), vget_high_s16(q4));
76 d3 = vqadd_s16(d13, d10);
77 d4 = vqsub_s16(d13, d10);
102 d10 = vqsub_s16(vget_low_s16(q3), vget_high_s16(q4));
106 d3 = vqadd_s16(d13, d10);
107 d4 = vqsub_s16(d13, d10);
/external/libhevc/common/arm/
H A Dihevc_itrans_recon_32x32.s206 vld1.16 d10,[r0],r6
225 vmull.s16 q10,d10,d0[0]
229 vmull.s16 q11,d10,d0[0]
232 vmull.s16 q8,d10,d0[0]
235 vmull.s16 q9,d10,d0[0]
275 vld1.16 d10,[r0],r6
295 vmlal.s16 q10,d10,d2[0]
299 vmlal.s16 q11,d10,d6[0]
302 vmlsl.s16 q8,d10,d6[0]
305 vmlsl.s16 q9,d10,d
[all...]
H A Dihevc_intra_pred_luma_vert.s208 vmov.i64 d10, #0x00000000000000ff
222 vbsl d10, d25, d16
233 vst1.8 {d10,d11}, [r5], r3
251 vmov.i64 d10, #0x00000000000000ff
263 vbsl d10, d25, d16
268 vst1.8 {d10,d11}, [r5], r3
273 vmov.i64 d10, #0x00000000000000ff
293 vbsl d10, d25, d16
298 vst1.8 {d10,d11}, [r5], r3
315 vmov.i64 d10, #
[all...]
H A Dihevc_itrans_recon_16x16.s222 vld1.16 d10,[r0],r6
236 @ d10 =r0
257 vmull.s16 q6,d10,d0[0]
259 vmull.s16 q7,d10,d0[0]
261 vmull.s16 q8,d10,d0[0]
263 vmull.s16 q9,d10,d0[0]
305 vld1.16 d10,[r0],r6
344 vmlal.s16 q6,d10,d0[0]
352 vmlsl.s16 q7,d10,d0[0]
358 vmlsl.s16 q8,d10,d
[all...]
H A Dihevc_intra_pred_luma_mode2.s144 vrev64.8 d10,d2
166 vst1.8 {d10},[r9],r5
204 vrev64.8 d10,d2
227 vst1.8 {d10},[r9],r5
H A Dihevc_intra_pred_chroma_mode_3_to_9.s227 vtbl.8 d10, {d0,d1,d2,d3}, d4 @load from ref_main_idx (row 3)
239 vmull.u8 q9, d10, d7 @mul (row 3)
273 vtbl.8 d10, {d0,d1,d2,d3}, d4 @load from ref_main_idx (row 7)
278 vmull.u8 q9, d10, d7 @mul (row 7)
307 vmovn.s16 d10, q6
326 vmov d26,d10
330 vtbl.8 d10, {d0,d1,d2,d3}, d4 @load from ref_main_idx (row 7)
358 vmull.u8 q9, d10, d7 @mul (row 7)
373 vtbl.8 d10, {d0,d1,d2,d3}, d4 @load from ref_main_idx (row 1)
390 vmull.u8 q11, d10, d
[all...]
H A Dihevc_intra_pred_luma_mode_3_to_9.s230 vtbl.8 d10, {d0,d1}, d4 @load from ref_main_idx (row 3)
242 vmull.u8 q9, d10, d7 @mul (row 3)
274 vtbl.8 d10, {d0,d1}, d4 @load from ref_main_idx (row 7)
279 vmull.u8 q9, d10, d7 @mul (row 7)
309 vmovn.s16 d10, q6
323 vmov d26,d10
327 vtbl.8 d10, {d0,d1}, d4 @load from ref_main_idx (row 7)
354 vmull.u8 q9, d10, d7 @mul (row 7)
365 vtbl.8 d10, {d0,d1}, d4 @load from ref_main_idx (row 1)
383 vmull.u8 q11, d10, d
[all...]
/external/libvpx/libvpx/vp8/common/arm/neon/
H A Ddequant_idct_neon.c23 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; local
72 d10 = vqsub_s16(vget_low_s16(q3), vget_high_s16(q4));
76 d3 = vqadd_s16(d13, d10);
77 d4 = vqsub_s16(d13, d10);
102 d10 = vqsub_s16(vget_low_s16(q3), vget_high_s16(q4));
106 d3 = vqadd_s16(d13, d10);
107 d4 = vqsub_s16(d13, d10);
H A Dvariance_neon.asm86 vshr.u32 d10, d10, #8
87 vsub.u32 d0, d1, d10
148 vshr.u32 d10, d10, #7
149 vsub.u32 d0, d1, d10
203 vshr.u32 d10, d10, #7
204 vsub.u32 d0, d1, d10
268 vshr.u32 d10, d1
[all...]
H A Dsixtappredict4x4_neon.asm77 vext.8 d20, d10, d11, #5
92 vzip.32 d10, d11
96 vmlal.u8 q8, d10, d0
106 vzip.32 d10, d11
110 vmlsl.u8 q8, d10, d4
120 vzip.32 d10, d11
122 vmull.u8 q10, d10, d3
141 vext.8 d20, d10, d11, #5
158 vzip.32 d10, d11
163 vmlal.u8 q8, d10, d
[all...]
H A Dsixtappredict16x16_neon.asm82 vld1.u8 {d9, d10, d11}, [r0], r1
92 vmull.u8 q11, d10, d0
97 vext.8 d29, d9, d10, #1
105 vext.8 d29, d10, d11, #1
113 vext.8 d29, d9, d10, #4
121 vext.8 d29, d10, d11, #4
129 vext.8 d29, d9, d10, #5
137 vext.8 d29, d10, d11, #5
145 vext.8 d29, d9, d10, #2
153 vext.8 d29, d10, d1
[all...]
H A Dvp8_subpixelvariance16x16s_neon.asm47 vld1.u8 {d8, d9, d10, d11}, [r0], r1
82 vmlal.s16 q9, d10, d10
115 vshr.u32 d10, d10, #8
116 vsub.u32 d0, d1, d10
163 vsubl.u8 q0, d8, d10
211 vshr.u32 d10, d10, #8
212 vsub.u32 d0, d1, d10
[all...]
H A Dshortidct4x4llm_neon.asm64 vqsub.s16 d10, d6, d9 ;c1
68 vqadd.s16 d3, d13, d10
69 vqsub.s16 d4, d13, d10
91 vqsub.s16 d10, d6, d9 ;c1
95 vqadd.s16 d3, d13, d10
96 vqsub.s16 d4, d13, d10
/external/jpeg/
H A Djsimd_arm_neon.S186 * 3 | d10 | d11
193 vld1.16 {d8, d9, d10, d11}, [COEF_BLOCK]!
260 vqshrun.s16 d10, q5, #5
267 .irp x, d4, d6, d8, d10, d12, d14, d16, d18
407 * 3 | d10 | d11
414 vld1.16 {d8, d9, d10, d11}, [COEF_BLOCK]!
434 idct_helper d4, d6, d8, d10, d12, d14, d16, 12, d4, d6, d8, d10
435 transpose_4x4 d4, d6, d8, d10
440 idct_helper d4, d6, d8, d10, d
[all...]
/external/valgrind/main/none/tests/arm/
H A Dneon64.c647 TESTINSN_imm("vmov.i32 d10", d10, 0x70000);
662 TESTINSN_imm("vmvn.i32 d10", d10, 0x70000);
683 TESTINSN_imm("vbic.i32 d10", d10, 0x70000);
689 TESTINSN_un("vmvn d10, d15", d10, d15, i32, 24);
695 TESTINSN_un("vmov d10, d15", d10, d1
[all...]
H A Dvfpv4_fma.c85 TESTINSN_bin_f64("vfma.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(0.0), f2u1(0.0));
86 TESTINSN_bin_f64("vfma.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(NAN), f2u1(NAN));
93 TESTINSN_bin_f64("vfma.f64 d10, d11, d2", d10, d11, i32, f2u0(48755), f2u1(48755), d2, i32, f2u0(1089), f2u1(1089));
99 TESTINSN_bin_f64("vfma.f64 d10, d11, d2", d10, d11, i32, f2u0(487.587), f2u1(487.587), d2, i32, f2u0(109), f2u1(109));
105 TESTINSN_bin_f64("vfma.f64 d10, d23, d15", d10, d2
[all...]
/external/libhevc/decoder/arm/
H A Dihevcd_itrans_recon_dc_chroma.s97 vld2.8 {d10,d11},[r7],r2
109 vaddw.u8 q11,q0,d10
122 vqmovun.s16 d10,q11
132 vst2.8 {d10,d11},[r11],r3

Completed in 624 milliseconds

123456