Searched refs:d23 (Results 1 - 25 of 31) sorted by relevance

12

/external/openssl/crypto/sha/asm/
H A Dsha512-armv4.s448 vldmia r0,{d16-d23} @ load context
463 vadd.i64 d27,d28,d23
480 veor d23,d24,d25
482 veor d23,d26 @ Sigma0(a)
484 vadd.i64 d23,d27
486 vadd.i64 d23,d30
507 vshr.u64 d24,d23,#28
509 vshr.u64 d25,d23,#34
510 vshr.u64 d26,d23,#39
511 vsli.64 d24,d23,#3
[all...]
/external/llvm/test/MC/ARM/
H A Dneont2-vst-encoding.s61 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r0, :256]! @ encoding: [0x3d,0x11,0x40,0xf9]
62 vst4.8 {d17, d19, d21, d23}, [r0, :256]!
65 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x4d,0x11,0x40,0xf9]
66 vst4.16 {d17, d19, d21, d23}, [r0]!
69 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x8d,0x11,0x40,0xf9]
70 vst4.32 {d17, d19, d21, d23}, [r0]!
100 @ CHECK: vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0, :64] @ encoding: [0xff,0x17,0xc0,0xf9]
101 vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0, :64]
102 @ CHECK: vst4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0x4f,0x1b,0xc0,0xf9]
103 vst4.32 {d17[0], d19[0], d21[0], d23[
[all...]
H A Dneont2-vld-encoding.s63 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r0, :256]! @ encoding: [0x3d,0x11,0x60,0xf9]
64 vld4.8 {d17, d19, d21, d23}, [r0, :256]!
67 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x4d,0x11,0x60,0xf9]
68 vld4.16 {d17, d19, d21, d23}, [r0]!
71 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x8d,0x11,0x60,0xf9]
72 vld4.32 {d17, d19, d21, d23}, [r0]!
111 @ CHECK: vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0x4f,0x1b,0xe0,0xf9]
112 vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0]
H A Dneon-vld-encoding.s202 vld4.8 {d17, d19, d21, d23}, [r5, :256]
203 vld4.16 {d17, d19, d21, d23}, [r7]
209 vld4.u8 {d17, d19, d21, d23}, [r5, :256]!
210 vld4.u16 {d17, d19, d21, d23}, [r7]!
218 vld4.i32 {d17, d19, d21, d23}, [r9], r4
223 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r5, :256] @ encoding: [0x3f,0x11,0x65,0xf4]
224 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x67,0xf4]
229 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r5, :256]! @ encoding: [0x3d,0x11,0x65,0xf4]
230 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x67,0xf4]
237 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r
[all...]
H A Dneont2-pairwise-encoding.s75 vpmin.f32 d22, d23, d16
83 @ CHECK: vpmin.f32 d22, d23, d16 @ encoding: [0x67,0xff,0xa0,0x6f]
89 vpmax.u8 d6, d23, d14
97 @ CHECK: vpmax.u8 d6, d23, d14 @ encoding: [0x07,0xff,0x8e,0x6a]
H A Dneon-vst-encoding.s105 vst4.8 {d17, d19, d21, d23}, [r5, :256]
106 vst4.16 {d17, d19, d21, d23}, [r7]
112 vst4.u8 {d17, d19, d21, d23}, [r5, :256]!
113 vst4.u16 {d17, d19, d21, d23}, [r7]!
121 vst4.i32 {d17, d19, d21, d23}, [r9], r4
126 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5, :256] @ encoding: [0x3f,0x11,0x45,0xf4]
127 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x47,0xf4]
132 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5, :256]! @ encoding: [0x3d,0x11,0x45,0xf4]
133 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x47,0xf4]
140 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r
[all...]
H A Dsimple-fp-encoding.s323 vcvt.f64.u16 d23, d23, #16
331 vcvt.u16.f64 d23, d23, #16
340 @ CHECK: vcvt.f64.u16 d23, d23, #16 @ encoding: [0x40,0x7b,0xfb,0xee]
349 @ CHECK: vcvt.u16.f64 d23, d23, #16 @ encoding: [0x40,0x7b,0xff,0xee]
H A Dneon-sub-encoding.s16 vsub.i32 d15, d23
38 @ CHECK: vsub.i32 d15, d15, d23 @ encoding: [0x27,0xf8,0x2f,0xf3]
137 vhsub.s16 d12, d23
150 @ CHECK: vhsub.s16 d12, d12, d23 @ encoding: [0x27,0xc2,0x1c,0xf2]
/external/libvpx/vp8/encoder/arm/neon/
H A Dvariance_neon.asm51 vmlal.s16 q10, d23, d23
121 vmlal.s16 q10, d23, d23
182 vmlal.s16 q10, d23, d23
241 vmlal.s16 q10, d23, d23
H A Dvp8_mse16x16_neon.asm50 vmlal.s16 q8, d23, d23
104 vmlal.s16 q10, d23, d23
H A Dvp8_subpixelvariance8x8_neon.asm67 vqrshrn.u16 d23, q7, #7
114 vmull.u8 q2, d23, d0
122 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * Filter[1])
132 vqrshrn.u16 d23, q2, #7
145 vld1.u8 {d23}, [r0], r1
173 vsubl.u8 q5, d23, d1
H A Dvp8_subpixelvariance16x16_neon.asm183 vld1.u8 {d22, d23}, [lr]! ;load src data
193 vmull.u8 q2, d23, d0
310 vld1.u8 {d22, d23}, [r0], r1 ;load src data
320 vmull.u8 q2, d23, d0
383 vmlal.s16 q10, d23, d23
H A Dvp8_subpixelvariance16x16s_neon.asm67 vsubl.u8 q5, d1, d23
170 vmlal.s16 q10, d23, d23
293 vmlal.s16 q15, d23, d23
425 vld1.u8 {d20, d21, d22, d23}, [r0], r1
525 vmlal.s16 q10, d23, d23
H A Dfastfdct8x4_neon.asm55 vadd.s16 d23, d5, d7
118 vsub.s16 d23, d2, d4
139 vadd.s16 d8, d23, d27 ;c2 = ((temp2 * x_c2 )>>16) + temp2
/external/libvpx/vp8/common/arm/neon/
H A Dbilinearpredict8x4_neon.asm66 vqrshrn.u16 d23, q7, #7
86 vmull.u8 q2, d23, d0
90 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * vp8_filter[1])
112 vld1.u8 {d23}, [r0], r1
122 vst1.u8 {d23}, [r4], lr
H A Dsixtappredict16x16_neon.asm216 vld1.u8 {d23}, [lr], r2 ;load src data
232 vmlsl.u8 q4, d23, d4
239 vmlal.u8 q6, d23, d2
241 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5])
248 vmull.u8 q9, d23, d3
316 vext.8 d23, d10, d11, #1
327 vmlsl.u8 q9, d23, d1
338 vext.8 d23, d9, d10, #2
350 vmlal.u8 q8, d23, d2
406 vld1.u8 {d23}, [r
[all...]
H A Dsixtappredict8x8_neon.asm137 vqrshrun.s16 d23, q8, #7
143 vst1.u8 {d23}, [lr]!
272 vmlsl.u8 q4, d23, d4
279 vmlal.u8 q6, d23, d2
281 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5])
288 vmull.u8 q9, d23, d3
409 vqrshrun.s16 d23, q8, #7
414 vst1.u8 {d23}, [r4], r5
437 vld1.u8 {d23}, [r0], r1
464 vmlsl.u8 q4, d23, d
[all...]
H A Dsixtappredict4x4_neon.asm138 vext.8 d31, d22, d23, #5 ;construct src_ptr[3]
159 vext.8 d31, d22, d23, #1 ;construct src_ptr[-1]
169 vext.8 d31, d22, d23, #4 ;construct src_ptr[2]
179 vext.8 d31, d22, d23, #2 ;construct src_ptr[0]
187 vext.8 d31, d22, d23, #3 ;construct src_ptr[1]
198 vext.8 d23, d27, d28, #4
229 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1])
367 vext.8 d23, d27, d28, #4
381 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1])
H A Dbilinearpredict8x8_neon.asm64 vqrshrn.u16 d23, q7, #7
112 vmull.u8 q2, d23, d0
120 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * vp8_filter[1])
152 vld1.u8 {d23}, [r0], r1
166 vst1.u8 {d23}, [r4], lr
H A Dsixtappredict8x4_neon.asm131 vqrshrun.s16 d23, q8, #7
138 vst1.u8 {d23}, [lr]!
244 vmull.u8 q4, d23, d0
248 vmlsl.u8 q3, d23, d1 ;-(src_ptr[-1] * vp8_filter[1])
375 vqrshrun.s16 d23, q8, #7
380 vst1.u8 {d23}, [r4], r5
396 vld1.u8 {d23}, [r0], r1
412 vmull.u8 q4, d23, d0
416 vmlsl.u8 q3, d23, d1 ;-(src_ptr[-1] * vp8_filter[1])
H A Dbilinearpredict16x16_neon.asm177 vld1.u8 {d22, d23}, [lr]! ;load src data
187 vmull.u8 q2, d23, d0
302 vld1.u8 {d22, d23}, [r0], r1 ;load src data
311 vmull.u8 q2, d23, d0
/external/openssl/crypto/bn/asm/
H A Darmv4-gf2m.s140 vmov d23,d0
144 veor d20,d23,d22
150 veor d23,d1
152 vst1.32 {d23[0]},[r0,:32]!
153 vst1.32 {d23[1]},[r0,:32]!
/external/libvpx/vp8/encoder/x86/
H A Dfwalsh_sse2.asm101 psubd xmm3, xmm6 ; c23 c22 d23 d22
135 punpcklqdq xmm5, xmm3 ; d23 d22 d21 d20
138 packssdw xmm2, xmm5 ; d23 d22 d21 d20 c23 c22 c21 c20
/external/valgrind/main/none/tests/arm/
H A Dvfp.c1135 TESTINSN_bin_f64("vmla.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f2u1(1346));
1139 TESTINSN_bin_f64("vmla.f64 d23, d24, d5", d23, d24, i32, f2u0(24), f2u1(24), d5, i32, f2u0(1346), f2u1(1346));
1152 TESTINSN_bin_f64("vmla.f64 d10, d23, d15", d10, d23, i32, f2u0(INFINITY), f2u1(INFINITY), d15, i32, f2u0(0.0), f2u1(0.0));
1185 TESTINSN_bin_f64("vnmla.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f2u1(1346));
1189 TESTINSN_bin_f64("vnmla.f64 d23, d24, d5", d23, d2
[all...]
H A Dvfp.stdout.exp124 vmla.f64 d23, d24, d25 :: Qd 0xc1bbe864 0x1f579999 Qm 0xc1153b41 e6666666 Qn 0x40950800 00000000
128 vmla.f64 d23, d24, d5 :: Qd 0x40df8c00 0x800001fc Qm 0x40380000 00000000 Qn 0x40950800 00000000
141 vmla.f64 d10, d23, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff00000 00000000 Qn 0x00000000 00000000
173 vnmla.f64 d23, d24, d25 :: Qd 0x41bbe864 0x1f5b9999 Qm 0xc1153b41 e6666666 Qn 0x40950800 00000000
177 vnmla.f64 d23, d24, d5 :: Qd 0xc0df8bff 0x7ffffe04 Qm 0x40380000 00000000 Qn 0x40950800 00000000
190 vnmla.f64 d10, d23, d15 :: Qd 0xfff80000 0x00000000 Qm 0x7ff00000 00000000 Qn 0x00000000 00000000
222 vmls.f64 d23, d24, d25 :: Qd 0xc1bbe864 0x1f5b9999 Qm 0xc1153b41 e6666666 Qn 0x40950800 00000000
226 vmls.f64 d23, d24, d5 :: Qd 0x40df8bff 0x7ffffe04 Qm 0x40380000 00000000 Qn 0x40950800 00000000
239 vmls.f64 d10, d23, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff00000 00000000 Qn 0x00000000 00000000
271 vnmls.f64 d23, d2
[all...]

Completed in 559 milliseconds

12